WO2020141908A1 - 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치 - Google Patents

변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치 Download PDF

Info

Publication number
WO2020141908A1
WO2020141908A1 PCT/KR2020/000064 KR2020000064W WO2020141908A1 WO 2020141908 A1 WO2020141908 A1 WO 2020141908A1 KR 2020000064 W KR2020000064 W KR 2020000064W WO 2020141908 A1 WO2020141908 A1 WO 2020141908A1
Authority
WO
WIPO (PCT)
Prior art keywords
residual
block
current block
prediction
samples
Prior art date
Application number
PCT/KR2020/000064
Other languages
English (en)
French (fr)
Inventor
유선미
최정아
김승환
허진
남정학
최장원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2020141908A1 publication Critical patent/WO2020141908A1/ko
Priority to US17/357,051 priority Critical patent/US20210321135A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • This document relates to a video coding technique, and more particularly, to a video coding method and apparatus using a transform skip flag in a video coding system.
  • a high-efficiency image compression technique is required to effectively transmit, store, and reproduce high-resolution, high-quality image information.
  • the technical problem of this document is to provide a method and apparatus for improving image coding efficiency.
  • Another technical task of this document is to provide a method and apparatus for increasing the efficiency of residual coding.
  • Another technical task of this document is to provide a method and apparatus for increasing the efficiency of residual coding depending on whether transform skip is applied.
  • an image decoding method performed by a decoding apparatus includes obtaining prediction mode information and residual related information from a bitstream, performing prediction based on the prediction mode information to derive prediction samples of a current block, and based on the residual related information Deriving residual samples of the block and generating reconstructed samples of the current block based on the predicted samples and the residual samples, and based on whether the current block is a luminance component block or a chrominance component block.
  • the residual related information includes a transform skip flag
  • the transform skip flag indicates whether transform skip is applied to the current block.
  • a decoding apparatus for performing image decoding.
  • the decoding apparatus obtains prediction mode information and residual related information from a bitstream, an entropy decoding unit, a prediction unit that performs prediction based on the prediction mode information to derive prediction samples of the current block, and the residual related information.
  • a residual processor for deriving residual samples of the current block based on the result, and an adder for generating reconstructed samples of the current block based on the prediction samples and the residual samples, and whether the current block is a luminance component block
  • Whether or not the residual related information includes a transform skip flag is determined based on whether the color difference component is a block, and the transform skip flag indicates whether transform skip is applied to the current block.
  • a video encoding method performed by an encoding device comprises performing prediction on a current block to derive prediction samples, deriving residual samples for the current block, reconstructing samples of the current block based on the prediction samples and the residual samples Generating and encoding image information including prediction mode information for the prediction and residual related information for the residual samples, and based on whether the current block is a luminance component block or a chrominance component block.
  • the residual related information includes a transform skip flag
  • the transform skip flag indicates whether transform skip is applied to the current block.
  • a video encoding apparatus performs prediction on a current block to derive prediction samples, derives residual samples for the current block, and reconstructs samples of the current block based on the prediction samples and the residual samples It includes a residual processing unit for generating and an entropy encoding unit for encoding image information including prediction mode information for the prediction and residual related information for the residual samples, wherein the current block is a luminance component block or a color difference component Whether or not the residual related information includes a transform skip flag is determined based on whether it is a block, and the transform skip flag indicates whether transform skip is applied to the current block.
  • a computer-readable digital storage medium is characterized by storing a bitstream that causes the decoding method to be performed.
  • a computer-readable digital storage medium is characterized in that a bitstream generated by the encoding method is stored.
  • the efficiency of residual coding can be improved by using a conversion skip flag.
  • coding efficiency can be improved by efficiently transmitting a residual signal represented by a pixel domain having characteristics different from that of a general transform domain.
  • FIG. 1 schematically shows an example of a video/image coding system to which the present document can be applied.
  • FIG. 2 is a diagram schematically illustrating a configuration of a video/video encoding apparatus to which the present document can be applied.
  • FIG. 3 is a diagram schematically illustrating a configuration of a video/video decoding apparatus to which the present document can be applied.
  • FIG. 4 is a block diagram of a CABAC encoding system according to an embodiment.
  • FIG. 5 is a diagram illustrating an example of transform coefficients in a 4x4 block.
  • FIG. 6 is a diagram illustrating a residual signal decoding unit according to an embodiment of the present document.
  • FIG. 7 is a diagram illustrating a conversion skip flag parsing decision unit according to an embodiment of the present document.
  • FIG. 8 is a flowchart illustrating a method of coding a conversion skip flag according to an embodiment of the present document.
  • FIG. 9 is a diagram illustrating a transform skip flag encoder according to an embodiment of the present document.
  • FIG. 10 and 11 schematically show an example of a video/video encoding method and related components according to embodiment(s) of this document.
  • FIG. 12 and 13 schematically show an example of a video/video encoding method and related components according to embodiment(s) of the present document.
  • FIG. 14 schematically shows a structure of a content streaming system.
  • each component in the drawings described in this document is independently shown for convenience of description of different characteristic functions, and does not mean that each component is implemented with separate hardware or separate software.
  • two or more components of each component may be combined to form a single component, or one component may be divided into a plurality of components.
  • Embodiments in which each component is integrated and/or separated are also included in the scope of this document as long as they do not depart from the nature of this document.
  • FIG. 1 schematically shows an example of a video/image coding system to which the present document can be applied.
  • a video/image coding system may include a first device (source device) and a second device (receiving device).
  • the source device may transmit the encoded video/image information or data to a receiving device through a digital storage medium or network in the form of a file or streaming.
  • the source device may include a video source, an encoding device, and a transmission unit.
  • the receiving device may include a receiving unit, a decoding apparatus, and a renderer.
  • the encoding device may be referred to as a video/video encoding device, and the decoding device may be referred to as a video/video decoding device.
  • the transmitter can be included in the encoding device.
  • the receiver may be included in the decoding device.
  • the renderer may include a display unit, and the display unit may be configured as a separate device or an external component.
  • the video source may acquire a video/image through a capture, synthesis, or generation process of the video/image.
  • the video source may include a video/image capture device and/or a video/image generation device.
  • the video/image capture device may include, for example, one or more cameras, a video/image archive including previously captured video/images, and the like.
  • the video/image generating device may include, for example, a computer, a tablet and a smartphone, and may (electronically) generate a video/image.
  • a virtual video/image may be generated through a computer or the like, and in this case, a video/image capture process may be replaced by a process in which related data is generated.
  • the encoding device can encode the input video/video.
  • the encoding apparatus may perform a series of procedures such as prediction, transformation, and quantization for compression and coding efficiency.
  • the encoded data (encoded video/image information) may be output in the form of a bitstream.
  • the transmitting unit may transmit the encoded video/video information or data output in the form of a bitstream to a receiving unit of a receiving device through a digital storage medium or a network in a file or streaming format.
  • the digital storage media may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD.
  • the transmission unit may include an element for generating a media file through a predetermined file format, and may include an element for transmission through a broadcast/communication network.
  • the receiver may receive/extract the bitstream and deliver it to a decoding device.
  • the decoding apparatus may decode a video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoding apparatus.
  • the renderer can render the decoded video/image.
  • the rendered video/image may be displayed through the display unit.
  • VVC versatile video coding
  • EVC essential video coding
  • AV1 AOMedia Video 1
  • AVS2 2nd generation of audio video coding standard
  • next-generation video/ It can be applied to the method disclosed in the video coding standard (ex. H.267 or H.268, etc.).
  • video may mean a set of images over time.
  • a picture generally refers to a unit representing one image in a specific time period, and a slice/tile is a unit constituting a part of a picture in coding.
  • the slice/tile may include one or more coding tree units (CTUs).
  • CTUs coding tree units
  • One picture may be composed of one or more slices/tiles.
  • One picture may be composed of one or more tile groups.
  • One tile group may include one or more tiles.
  • the brick may represent a rectangular region of CTU rows within a tile in a picture. Tiles can be partitioned into multiple bricks, and each brick can be composed of one or more CTU rows in the tile (A tile may be partitioned into multiple bricks, each of which consisting of one or more CTU rows within the tile ).
  • a tile that is not partitioned into multiple bricks may be also referred to as a brick.
  • a brick scan can indicate a specific sequential ordering of CTUs partitioning a picture, the CTUs can be aligned with a CTU raster scan within a brick, and the bricks in a tile can be aligned sequentially with a raster scan of the bricks of the tile.
  • A, and tiles in a picture can be sequentially aligned with a raster scan of the tiles of the picture
  • a brick scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a brick , bricks within a tile are ordered consecutively in a raster scan of the bricks of the tile, and tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture).
  • a tile is a rectangular region of CTUs within a particular tile column and a particular tile row in a picture.
  • the tile column is a rectangular area of CTUs, the rectangular area has a height equal to the height of the picture, and the width can be specified by syntax elements in a picture parameter set (The tile column is a rectangular region of CTUs having a height equal to the height of the picture and a width specified by syntax elements in the picture parameter set).
  • the tile row is a rectangular region of CTUs, the rectangular region has a width specified by syntax elements in a picture parameter set, and the height can be the same as the height of the picture (The tile row is a rectangular region of CTUs having a height specified by syntax elements in the picture parameter set and a width equal to the width of the picture).
  • a tile scan can indicate a specific sequential ordering of CTUs partitioning a picture, the CTUs can be successively aligned with a CTU raster scan in a tile, and the tiles in a picture can be successively aligned with a raster scan of the tiles of the picture.
  • a tile scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a tile whereas tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture).
  • a slice may include an integer number of bricks of a picture, and the integer number of bricks may be included in one NAL unit (A slice includes an integer number of bricks of a picture that may be exclusively contained in a single NAL unit). A slice may consist of either a number of complete tiles or only a consecutive sequence of complete bricks of one tile ).
  • Tile groups and slices are used interchangeably in this document. For example, the tile group/tile group header in this document may be referred to as a slice/slice header.
  • a pixel or a pel may mean a minimum unit constituting one picture (or image). Also, as a term corresponding to a pixel,'sample' may be used.
  • the sample may generally represent a pixel or a pixel value, may represent only a pixel/pixel value of a luma component, or may represent only a pixel/pixel value of a chroma component.
  • the unit may represent a basic unit of image processing.
  • the unit may include at least one of a specific region of a picture and information related to the region.
  • One unit may include one luma block and two chroma (ex. cb, cr) blocks.
  • the unit may be used interchangeably with terms such as a block or area in some cases.
  • the MxN block may include samples (or sample arrays) of M columns and N rows or a set (or array) of transform coefficients.
  • the video encoding device may include a video encoding device.
  • the encoding apparatus 200 includes an image partitioner 210, a predictor 220, a residual processor 230, and an entropy encoder 240. It may be configured to include an adder (250), a filtering unit (filter, 260) and a memory (memory, 270).
  • the prediction unit 220 may include an inter prediction unit 221 and an intra prediction unit 222.
  • the residual processing unit 230 may include a transform unit 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235.
  • the residual processing unit 230 may further include a subtractor 231.
  • the adder 250 may be referred to as a reconstructor or a recontructged block generator.
  • the above-described image segmentation unit 210, prediction unit 220, residual processing unit 230, entropy encoding unit 240, adding unit 250, and filtering unit 260 may include one or more hardware components (for example, it may be configured by an encoder chipset or processor).
  • the memory 270 may include a decoded picture buffer (DPB), or may be configured by a digital storage medium.
  • the hardware component may further include a memory 270 as an internal/external component.
  • the image division unit 210 may divide an input image (or picture, frame) input to the encoding apparatus 200 into one or more processing units.
  • the processing unit may be called a coding unit (CU).
  • the coding unit is recursively divided according to a quad-tree binary-tree ternary-tree (QTBTTT) structure from a coding tree unit (CTU) or a largest coding unit (LCU).
  • QTBTTT quad-tree binary-tree ternary-tree
  • CTU coding tree unit
  • LCU largest coding unit
  • one coding unit may be divided into a plurality of coding units of a deeper depth based on a quad tree structure, a binary tree structure, and/or a ternary structure.
  • a quad tree structure may be applied first, and a binary tree structure and/or a ternary structure may be applied later.
  • a binary tree structure may be applied first.
  • the coding procedure according to this document may be performed based on the final coding unit that is no longer split.
  • the maximum coding unit may be directly used as the final coding unit based on coding efficiency according to image characteristics, or the coding unit may be recursively divided into coding units having a lower depth than optimal if necessary.
  • the coding unit of the size of can be used as the final coding unit.
  • the coding procedure may include procedures such as prediction, transformation, and reconstruction, which will be described later.
  • the processing unit may further include a prediction unit (PU) or a transform unit (TU).
  • the prediction unit and the transform unit may be partitioned or partitioned from the above-described final coding unit, respectively.
  • the prediction unit may be a unit of sample prediction
  • the transformation unit may be a unit for deriving a transform coefficient and/or a unit for deriving a residual signal from the transform coefficient.
  • the unit may be used interchangeably with terms such as a block or area in some cases.
  • the MxN block may represent samples of M columns and N rows or a set of transform coefficients.
  • the sample may generally represent a pixel or a pixel value, and may indicate only a pixel/pixel value of a luma component or only a pixel/pixel value of a saturation component.
  • the sample may be used as a term for one picture (or image) corresponding to a pixel or pel.
  • the encoding device 200 subtracts a prediction signal (a predicted block, a prediction sample array) output from the inter prediction unit 221 or the intra prediction unit 222 from the input image signal (original block, original sample array).
  • a signal residual signal, residual block, residual sample array
  • the prediction unit may perform prediction on a block to be processed (hereinafter, referred to as a current block) and generate a predicted block including prediction samples for the current block.
  • the prediction unit may determine whether intra prediction or inter prediction is applied in units of the current block or CU. As described later in the description of each prediction mode, the prediction unit may generate various information about prediction, such as prediction mode information, and transmit it to the entropy encoding unit 240.
  • the prediction information may be encoded by the entropy encoding unit 240 and output in the form of a bitstream.
  • the intra prediction unit 222 may predict the current block by referring to samples in the current picture.
  • the referenced samples may be located in the neighborhood of the current block or may be located apart depending on a prediction mode.
  • prediction modes may include a plurality of non-directional modes and a plurality of directional modes.
  • the non-directional mode may include, for example, a DC mode and a planar mode (Planar mode).
  • the directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes depending on the degree of detail of the prediction direction. However, this is an example, and more or less directional prediction modes may be used depending on the setting.
  • the intra prediction unit 222 may determine a prediction mode applied to the current block by using a prediction mode applied to neighboring blocks.
  • the inter prediction unit 221 may derive the predicted block for the current block based on a reference block (reference sample array) specified by a motion vector on the reference picture.
  • motion information may be predicted in units of blocks, subblocks, or samples based on the correlation of motion information between a neighboring block and a current block.
  • the motion information may include a motion vector and a reference picture index.
  • the motion information may further include inter prediction direction (L0 prediction, L1 prediction, Bi prediction, etc.) information.
  • the neighboring block may include a spatial neighboring block present in the current picture and a temporal neighboring block present in the reference picture.
  • the reference picture including the reference block and the reference picture including the temporal neighboring block may be the same or different.
  • the temporal neighboring block may be referred to by a name such as a collocated reference block or a colCU, and a reference picture including the temporal neighboring block may be called a collocated picture (colPic).
  • the inter prediction unit 221 constructs a motion information candidate list based on neighboring blocks, and provides information indicating which candidate is used to derive the motion vector and/or reference picture index of the current block. Can be created. Inter prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the merge mode, the inter prediction unit 221 may use motion information of neighboring blocks as motion information of the current block.
  • the residual signal may not be transmitted.
  • the motion vector of the current block is obtained by using the motion vector of the neighboring block as a motion vector predictor and signaling a motion vector difference. I can order.
  • the prediction unit 220 may generate a prediction signal based on various prediction methods described below.
  • the prediction unit may apply intra prediction or inter prediction as well as intra prediction and inter prediction at the same time for prediction for one block. This can be called combined inter and intra prediction (CIIP).
  • the prediction unit may be based on an intra block copy (IBC) prediction mode or a palette mode for prediction of a block.
  • the IBC prediction mode or palette mode may be used for content video/video coding such as a game, such as screen content coding (SCC).
  • SCC screen content coding
  • IBC basically performs prediction in the current picture, but may be performed similarly to inter prediction in that a reference block is derived in the current picture. That is, the IBC can use at least one of the inter prediction techniques described in this document.
  • the palette mode can be regarded as an example of intra coding or intra prediction. When the palette mode is applied, a sample value in a picture may be signaled based on information on the palette table and palette index.
  • the prediction signal generated through the prediction unit may be used to generate a reconstructed signal or may be used to generate a residual signal.
  • the transform unit 232 may generate transform coefficients by applying a transform technique to the residual signal. For example, at least one of a DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), KLT (Karhunen-Loeve Transform), GBT (Graph-Based Transform), or CNT (Conditionally Non-linear Transform) It can contain.
  • GBT means a transformation obtained from this graph when it is said that the relationship information between pixels is graphically represented.
  • CNT means a transform obtained by generating a prediction signal using all previously reconstructed pixels and based on it.
  • the transform process may be applied to pixel blocks having the same size of a square, or may be applied to blocks of variable sizes other than squares.
  • the quantization unit 233 quantizes the transform coefficients and transmits them to the entropy encoding unit 240, and the entropy encoding unit 240 encodes a quantized signal (information about quantized transform coefficients) and outputs it as a bitstream. have. Information about the quantized transform coefficients may be called residual information.
  • the quantization unit 233 may rearrange block-type quantized transform coefficients into a one-dimensional vector form based on a coefficient scan order, and quantize the quantized transform coefficients based on the one-dimensional vector form. Information regarding transform coefficients may be generated.
  • the entropy encoding unit 240 may perform various encoding methods, such as exponential Golomb (CAVLC), context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC).
  • CAVLC exponential Golomb
  • CAVLC context-adaptive variable length coding
  • CABAC context-adaptive binary arithmetic coding
  • the entropy encoding unit 240 may encode information necessary for video/image reconstruction (eg, a value of syntax elements, etc.) together with the quantized transform coefficients together or separately.
  • the encoded information (ex. encoded video/video information) may be transmitted or stored in units of network abstraction layer (NAL) units in the form of a bitstream.
  • NAL network abstraction layer
  • the video/video information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS).
  • the video/video information may further include general constraint information.
  • information and/or syntax elements transmitted/signaled from an encoding device to a decoding device may be included in video/video information.
  • the video/video information may be encoded through the above-described encoding procedure and included in the bitstream.
  • the bitstream can be transmitted over a network or stored on a digital storage medium.
  • the network may include a broadcasting network and/or a communication network
  • the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD.
  • the signal output from the entropy encoding unit 240 may be configured as an internal/external element of the encoding device 200 by a transmitting unit (not shown) and/or a storing unit (not shown) for storing, or the transmitting unit It may be included in the entropy encoding unit 240.
  • the quantized transform coefficients output from the quantization unit 233 may be used to generate a prediction signal.
  • a residual signal residual block or residual samples
  • the adder 155 adds the reconstructed residual signal to the predicted signal output from the inter predictor 221 or the intra predictor 222, so that the reconstructed signal (restored picture, reconstructed block, reconstructed sample array) Can be generated. If there is no residual for the block to be processed, such as when the skip mode is applied, the predicted block may be used as a reconstructed block.
  • the adder 250 may be called a restoration unit or a restoration block generation unit.
  • the generated reconstructed signal may be used for intra prediction of a next processing target block in a current picture, or may be used for inter prediction of a next picture through filtering as described below.
  • LMCS luma mapping with chroma scaling
  • the filtering unit 260 may improve subjective/objective image quality by applying filtering to the reconstructed signal.
  • the filtering unit 260 may generate a modified restoration picture by applying various filtering methods to the restoration picture, and the modified restoration picture may be a DPB of the memory 270, specifically, the memory 270. Can be stored in.
  • the various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like.
  • the filtering unit 260 may generate various pieces of information regarding filtering as described later in the description of each filtering method, and transmit them to the entropy encoding unit 240.
  • the filtering information may be encoded by the entropy encoding unit 240 and output in the form of a bitstream.
  • the modified reconstructed picture transmitted to the memory 270 may be used as a reference picture in the inter prediction unit 221.
  • inter prediction When the inter prediction is applied through the encoding apparatus, prediction mismatch between the encoding apparatus 100 and the decoding apparatus can be avoided, and encoding efficiency can be improved.
  • the memory 270 DPB may store the modified reconstructed picture for use as a reference picture in the inter prediction unit 221.
  • the memory 270 may store motion information of a block from which motion information in a current picture is derived (or encoded) and/or motion information of blocks in a picture that has already been reconstructed.
  • the stored motion information may be transmitted to the inter prediction unit 221 to be used as motion information of a spatial neighboring block or motion information of a temporal neighboring block.
  • the memory 270 may store reconstructed samples of blocks reconstructed in the current picture, and may transmit the reconstructed samples to the intra prediction unit 222.
  • FIG. 3 is a diagram schematically illustrating a configuration of a video/video decoding apparatus to which the present document can be applied.
  • the decoding apparatus 300 includes an entropy decoder (310), a residual processor (320), a prediction unit (predictor, 330), an adder (340), and a filtering unit (filter, 350) and memory (memoery, 360).
  • the prediction unit 330 may include an inter prediction unit 331 and an intra prediction unit 332.
  • the residual processing unit 320 may include a deequantizer (321) and an inverse transformer (321).
  • the entropy decoding unit 310, the residual processing unit 320, the prediction unit 330, the adding unit 340, and the filtering unit 350 described above may include one hardware component (eg, a decoder chipset or processor) according to an embodiment. ).
  • the memory 360 may include a decoded picture buffer (DPB), or may be configured by a digital storage medium.
  • the hardware component may further include a memory 360 as an internal/external component.
  • the decoding apparatus 300 may restore an image corresponding to a process in which the video/image information is processed in the encoding apparatus of FIG. 2.
  • the decoding apparatus 300 may derive units/blocks based on block partitioning related information obtained from the bitstream.
  • the decoding apparatus 300 may perform decoding using a processing unit applied in the encoding apparatus.
  • the processing unit of decoding may be, for example, a coding unit, and the coding unit may be divided along a quad tree structure, a binary tree structure and/or a ternary tree structure from a coding tree unit or a largest coding unit.
  • One or more transform units can be derived from the coding unit. Then, the decoded video signal decoded and output through the decoding device 300 may be reproduced through the reproduction device.
  • the decoding apparatus 300 may receive the signal output from the encoding apparatus of FIG. 2 in the form of a bitstream, and the received signal may be decoded through the entropy decoding unit 310.
  • the entropy decoding unit 310 may parse the bitstream to derive information (eg, video/image information) necessary for image reconstruction (or picture reconstruction).
  • the video/video information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS).
  • the video/video information may further include general constraint information.
  • the decoding apparatus may decode a picture further based on the information on the parameter set and/or the general restriction information.
  • Signaling/receiving information and/or syntax elements described later in this document may be decoded through the decoding procedure and obtained from the bitstream.
  • the entropy decoding unit 310 decodes information in a bitstream based on a coding method such as exponential Golomb coding, CAVLC, or CABAC, and quantizes a value of a syntax element required for image reconstruction and a transform coefficient for residual.
  • a coding method such as exponential Golomb coding, CAVLC, or CABAC
  • the CABAC entropy decoding method receives bins corresponding to each syntax element in a bitstream, and decodes syntax element information to be decoded and decoding information of neighboring and decoding target blocks or symbol/bin information decoded in the previous step.
  • the context model is determined by using, and the probability of occurrence of the bin is predicted according to the determined context model, and arithmetic decoding of the bin is performed to generate a symbol corresponding to the value of each syntax element. have.
  • the CABAC entropy decoding method may update the context model using the decoded symbol/bin information for the next symbol/bin context model after determining the context model.
  • prediction information is provided to a prediction unit (inter prediction unit 332 and intra prediction unit 331), and the entropy decoding unit 310 performs entropy decoding.
  • the dual value, that is, quantized transform coefficients and related parameter information may be input to the residual processing unit 320.
  • the residual processor 320 may derive a residual signal (residual block, residual samples, residual sample array). Also, information related to filtering among information decoded by the entropy decoding unit 310 may be provided to the filtering unit 350. Meanwhile, a receiving unit (not shown) receiving a signal output from the encoding device may be further configured as an internal/external element of the decoding device 300, or the receiving unit may be a component of the entropy decoding unit 310.
  • the decoding device may be called a video/picture/picture decoding device, and the decoding device may be classified into an information decoder (video/picture/picture information decoder) and a sample decoder (video/picture/picture sample decoder). It might be.
  • the information decoder may include the entropy decoding unit 310, and the sample decoder may include the inverse quantization unit 321, an inverse transformation unit 322, an addition unit 340, a filtering unit 350, and a memory 360 ), at least one of an inter prediction unit 332 and an intra prediction unit 331.
  • the inverse quantization unit 321 may inverse quantize the quantized transform coefficients to output transform coefficients.
  • the inverse quantization unit 321 may rearrange the quantized transform coefficients in a two-dimensional block form. In this case, the reordering may be performed based on the coefficient scan order performed by the encoding device.
  • the inverse quantization unit 321 may perform inverse quantization on the quantized transform coefficients by using a quantization parameter (for example, quantization step size information), and obtain transform coefficients.
  • a quantization parameter for example, quantization step size information
  • the inverse transform unit 322 inversely transforms the transform coefficients to obtain a residual signal (residual block, residual sample array).
  • the prediction unit may perform prediction on the current block and generate a predicted block including prediction samples for the current block.
  • the prediction unit may determine whether intra prediction is applied to the current block or inter prediction is applied based on the information on the prediction output from the entropy decoding unit 310, and may determine a specific intra/inter prediction mode.
  • the prediction unit 320 may generate a prediction signal based on various prediction methods described below.
  • the prediction unit may apply intra prediction or inter prediction as well as intra prediction and inter prediction at the same time for prediction for one block. This can be called combined inter and intra prediction (CIIP).
  • the prediction unit may be based on an intra block copy (IBC) prediction mode or a palette mode for prediction of a block.
  • the IBC prediction mode or palette mode may be used for content video/video coding such as a game, such as screen content coding (SCC).
  • SCC screen content coding
  • IBC basically performs prediction in the current picture, but may be performed similarly to inter prediction in that a reference block is derived in the current picture. That is, the IBC can use at least one of the inter prediction techniques described in this document.
  • the palette mode can be regarded as an example of intra coding or intra prediction. When the palette mode is applied, information on the palette table and palette index may be signaled by being included in the video/image information.
  • the intra prediction unit 331 may predict the current block by referring to samples in the current picture.
  • the referenced samples may be located in the neighborhood of the current block or may be located apart depending on a prediction mode.
  • prediction modes may include a plurality of non-directional modes and a plurality of directional modes.
  • the intra prediction unit 331 may determine a prediction mode applied to the current block using a prediction mode applied to neighboring blocks.
  • the inter prediction unit 332 may derive the predicted block for the current block based on the reference block (reference sample array) specified by the motion vector on the reference picture.
  • motion information may be predicted in units of blocks, subblocks, or samples based on the correlation of motion information between a neighboring block and a current block.
  • the motion information may include a motion vector and a reference picture index.
  • the motion information may further include inter prediction direction (L0 prediction, L1 prediction, Bi prediction, etc.) information.
  • the neighboring block may include a spatial neighboring block present in the current picture and a temporal neighboring block present in the reference picture.
  • the inter prediction unit 332 may construct a motion information candidate list based on neighboring blocks, and derive a motion vector and/or reference picture index of the current block based on the received candidate selection information. Inter-prediction may be performed based on various prediction modes, and information on the prediction may include information indicating a mode of inter-prediction for the current block.
  • the adder 340 reconstructs the obtained residual signal by adding it to the predicted signal (predicted block, predicted sample array) output from the predictor (including the inter predictor 332 and/or the intra predictor 331) A signal (restored picture, reconstructed block, reconstructed sample array) can be generated. If there is no residual for the block to be processed, such as when the skip mode is applied, the predicted block may be used as a reconstructed block.
  • the adding unit 340 may be called a restoration unit or a restoration block generation unit.
  • the generated reconstructed signal may be used for intra prediction of a next processing target block in a current picture, may be output through filtering as described below, or may be used for inter prediction of a next picture.
  • LMCS luma mapping with chroma scaling
  • the filtering unit 350 may apply subjective/objective filtering to improve subjective/objective image quality.
  • the filtering unit 350 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and the modified reconstructed picture may be a DPB of the memory 360, specifically, the memory 360 Can be transferred to.
  • the various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like.
  • the (corrected) reconstructed picture stored in the DPB of the memory 360 may be used as a reference picture in the inter prediction unit 332.
  • the memory 360 may store motion information of a block from which motion information in a current picture is derived (or decoded) and/or motion information of blocks in a picture that has already been reconstructed.
  • the stored motion information may be transmitted to the inter prediction unit 260 to be used as motion information of a spatial neighboring block or motion information of a temporal neighboring block.
  • the memory 360 may store reconstructed samples of blocks reconstructed in the current picture, and may transmit the reconstructed samples to the intra prediction unit 331.
  • the embodiments described in the filtering unit 260, the inter prediction unit 221, and the intra prediction unit 222 of the encoding device 200 are respectively the filtering unit 350 and the inter prediction of the decoding device 300.
  • the unit 332 and the intra prediction unit 331 may be applied to the same or corresponding.
  • a predicted block including prediction samples for a current block which is a block to be coded
  • the predicted block includes prediction samples in a spatial domain (or pixel domain).
  • the predicted block is derived equally from an encoding device and a decoding device, and the encoding device decodes information (residual information) about the residual between the original block and the predicted block, not the original sample value itself of the original block. Signaling to the device can improve video coding efficiency.
  • the decoding apparatus may derive a residual block including residual samples based on the residual information, generate a reconstruction block including reconstruction samples by combining the residual block and the predicted block, and generate reconstruction blocks. It is possible to generate a reconstructed picture that includes.
  • the residual information may be generated through a transform and quantization procedure.
  • the encoding apparatus derives a residual block between the original block and the predicted block, and performs transformation procedures on residual samples (residual sample array) included in the residual block to derive transformation coefficients. And, by performing a quantization procedure on the transform coefficients, the quantized transform coefficients are derived to signal related residual information (via a bitstream) to a decoding apparatus.
  • the residual information may include information such as value information of the quantized transform coefficients, position information, a transform technique, a transform kernel, and quantization parameters.
  • the decoding apparatus may perform an inverse quantization/inverse transformation procedure based on the residual information and derive residual samples (or residual blocks).
  • the decoding apparatus may generate a reconstructed picture based on the predicted block and the residual block.
  • the encoding apparatus can also dequantize/inverse transform quantized transform coefficients for reference for inter prediction of a picture, to derive a residual block, and generate a reconstructed picture based on the quantized/inverse transform.
  • FIG. 4 is a block diagram of a CABAC encoding system according to an embodiment, and shows a block diagram of context-adaptive binary arithmetic coding (CABAC) for coding a single syntax element.
  • CABAC context-adaptive binary arithmetic coding
  • the encoding process of CABAC first converts the input signal to a binary value through binarization when the input signal is a syntax element rather than a binary value. If the input signal is already a binary value, it can be input to a bypass, that is, a coding engine, without going through binarization.
  • each binary 0 or 1 constituting the binary value may be referred to as a bin.
  • each of 1, 1, and 0 is called a bin.
  • the bean(s) for one syntax element may indicate the value of the corresponding syntax element.
  • Binary bins can be input into a regular coding engine or a bypass coding engine.
  • the regular coding engine may assign a model to a context reflecting a probability value for the bean, and code the bean based on the assigned context model.
  • the probability model for the bin can be updated.
  • the bypass coding engine omits the procedure of estimating the probability of the input bin and the procedure of updating the probability model applied to the bin after coding. Instead of assigning context, we apply a uniform probability distribution to code the input bins to speed up coding. The bins coded in this way are called bypass bins.
  • Entropy encoding can determine whether to perform coding through a regular coding engine, or to perform coding through a bypass coding engine, and switch coding paths. Entropy decoding performs the same process as entropy encoding in reverse order.
  • the (quantized) transformation coefficients syntax elements such as transform_skip_flag, last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix, last_sig_coeff_y_suffix, coded_sub_block_flag, sig_coeff_flag, abs_level_gt1_flag, par_level_flag, abs_level_gt3_flag, abs_remainder, dec_abs_level, coeff_sign_flag and / or mts_idx (syntax elements) may be encoded and/or decoded.
  • syntax elements included in residual related information or residual related information may be represented as Tables 1 to 6.
  • residual coding information included in residual related information or syntax elements included in residual coding syntax may be represented as Tables 1 to 6.
  • Tables 1 to 6 may represent one syntax in succession.
  • the residual related information may include residual coding information (or syntax elements included in syntax in residual coding) or transformation unit information (or syntax elements included in transformation unit syntax), and the register Dual coding information may be represented as shown in Tables 7 to 10, and conversion unit information may be represented as shown in Table 11 or Table 12.
  • Tables 7 to 10 may represent one syntax consecutively.
  • the syntax element transform_skip_flag indicates whether transformation is omitted in an associated block.
  • the associated block may be a coding block (CB) or a transform block (TB).
  • CB and TB can be mixed.
  • residual samples are derived for CB, and (quantized) transform coefficients can be derived through transformation and quantization of the residual samples, through the residual coding procedure.
  • Information for example, syntax elements
  • the quantized transform coefficients can simply be called transform coefficients.
  • the size of the CB may be equal to the size of the TB, and in this case, the target block to be transformed (and quantized) and residual coded may be called CB or TB.
  • the target block to be transformed (and quantized) and residual coded may be called TB.
  • syntax elements related to residual coding are described as being signaled in units of a transform block (TB), but as an example, the TB may be mixed with the coding block (CB) as described above.
  • the syntax element transform_skip_flag is shown as being signaled in the residual coding syntax, but this is an example, and the syntax element transform_skip_flag may be signaled in the transform unit syntax as shown in Tables 11 or 12.
  • the residual coding syntax and the conversion unit syntax may be collectively referred to as the residual (related) information.
  • the syntax element transform_skip_flag may be signaled only for the luma component (Luma component block) (see Table 11).
  • the residual related information may include the transform skip flag (transform_skip_flag) for the luminance component block.
  • the residual related information does not include the transform skip flag for the color difference component block. That is, the residual related information may include the transform skip flag for the luminance component block, and may not include the transform skip flag for the chrominance component block. In other words, in this case, the transform skip flag for the chrominance component block is not explicitly signaled, and the value of the transform skip flag for the chrominance component block may be derived/inferred to 0.
  • the syntax element transform_skip_flag may be signaled for a luminance component (luminance component block) and a color difference component (color difference component block), respectively (see Table 12).
  • (x, y) position information coding of the last non-zero transform coefficient in the transform block based on the syntax elements last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix and last_sig_coeff_y_suffix can do.
  • the syntax element last_sig_coeff_x_prefix represents the prefix of the column position of the last significant coefficient in the scan order in the transform block
  • last_sig_coeff_y_prefix is in the transform block
  • the prefix of the row position of the last significant coefficient in the scan order and the syntax element last_sig_coeff_x_suffix is the scan order in the transform block.
  • the syntax element last_sig_coeff_y_suffix is the last effective coefficient in the scanning order in the transform block It represents the suffix of the row position of (significant coefficient).
  • the effective coefficient may represent the non-zero coefficient.
  • the scan order may be a diagonal upward scan order.
  • the scan order may be a horizontal scan order or a vertical scan order.
  • the scan order may be determined based on whether intra/inter prediction is applied to a target block (CB, or CB including TB) and/or a specific intra/inter prediction mode.
  • a 1-bit syntax element coded_sub_block_flag for each 4x4 sub-block may be used to indicate whether a non-zero coefficient exists in the current sub-block.
  • the sub-blocks may be used interchangeably with CG (Coefficient Group).
  • the coding process for the current subblock can be ended. Conversely, if the value of the syntax element coded_sub_block_flag is 1, the coding process for the syntax element sig_coeff_flag can be continuously performed.
  • the coding of the syntax element coded_sub_block_flag is unnecessary because coding for the syntax element coded_sub_block_flag is unnecessary for the subblock containing the last non-zero coefficient, and the subblock containing DC information of the transform block has a high probability of including the nonzero coefficient. And it can be assumed that the value is 1.
  • the syntax element sig_coeff_flag having a binary value may be coded in the reversed order.
  • a 1-bit syntax element sig_coeff_flag can be coded for each coefficient according to a scan order. If the value of the transform coefficient at the current scan position is not 0, the value of the syntax element sig_coeff_flag may be 1.
  • the coding process for the sub-block may be omitted because the syntax element sig_coeff_flag need not be coded for the last non-zero coefficient.
  • Level information coding can be performed only when the syntax element sig_coeff_flag is 1, and four syntax elements can be used in the level information coding process. More specifically, each syntax element sig_coeff_flag[xC][yC] may indicate whether the level (value) of the corresponding transform coefficient at each transform coefficient position (xC, yC) in the current TB is non-zero. have. In one embodiment, the syntax element sig_coeff_flag may correspond to an example of a valid coefficient flag indicating whether the quantized transform coefficient is a non-zero valid coefficient.
  • the remaining level value after coding for the syntax element sig_coeff_flag may be equal to Equation 1 below. That is, the syntax element remAbsLevel indicating the level value to be coded may be equal to Equation 1 below.
  • coeff may mean an actual transform coefficient value.
  • abs_level_gt1_flag may indicate whether remAbsLevel' at the corresponding scanning position n is greater than 1.
  • the absolute value of the coefficient of the corresponding position may be 1.
  • the level value remAbsLevel to be coded afterwards may be equal to Equation 2 below.
  • the least significant coefficient (LSB) value of remAbsLevel described in Equation 2 may be coded as in Equation 3 below.
  • the syntax element par_level_flag[n] may indicate parity of the transform coefficient level (value) at the scanning position n.
  • the transform coefficient level value remAbsLevel to be coded can be updated as shown in Equation 4 below.
  • the syntax element abs_level_gt3_flag may indicate whether remAbsLevel' at the corresponding scanning position n is greater than 3. Coding of the syntax element abs_remainder can be performed only when the syntax element abs_level_gt3_flag is 1. Summarizing the relationship between the actual transform coefficient value coeff and each syntax element may be as shown in Equation 5 below, and Table 13 below may show examples related to Equation 5. Finally, the sign of each coefficient can be coded using the syntax element coeff_sign_flag, which is a 1-bit symbol.
  • may indicate the transform coefficient level (value), or may be expressed as AbsLevel for the transform coefficient.
  • the par_level_flag represents an example of a parity level flag for parity of a transform coefficient level for the quantized transform coefficient
  • the abs_level_gt1_flag indicates whether a transform coefficient level or a level (value) to be coded is greater than a first threshold
  • abs_level_gt3_flag may represent an example of a second transform coefficient level flag as to whether the transform coefficient level or a level (value) to be coded is greater than a second threshold.
  • FIG. 5 is a diagram illustrating an example of transform coefficients in a 4x4 block.
  • the 4x4 block of FIG. 5 may represent an example of quantized coefficients.
  • the block illustrated in FIG. 5 may be a 4x4 transform block or a 4x4 subblock of 8x8, 16x16, 32x32, and 64x64 transform blocks.
  • the 4x4 block of FIG. 5 may represent a luminance block or a color difference block. Coding results for the inverse diagonally scanned coefficients of FIG. 5 may be, for example, Table 3.
  • scan_pos may indicate the position of the coefficient according to the inverse diagonal scan.
  • scan_pos 15 may indicate the coefficient of the lower right corner that is scanned first in the 4x4 block
  • scan_pos 0 may indicate the coefficient of the upper left corner that is scanned last. Meanwhile, in one embodiment, the scan_pos may be referred to as a scan position. For example, scan_pos 0 may be referred to as scan position 0.
  • CABAC provides high performance, but has a disadvantage that throughput performance is poor. This is due to CABAC's regular coding engine, which shows high data dependency because it uses the updated probability state and range through coding of the previous bin, and it can take a lot of time to read the probability interval and determine the current state. . This can solve the throughput problem of CABAC by limiting the number of context-coded bins.
  • the sum of bins used to express the syntax elements sig_coeff_flag, abs_level_gt1_flag, and par_level_flag as shown in Tables 1 to 6 or Tables 7 to 11 is 4x4 subblocks according to the size of the subblocks, and 28 or 2x2 subblocks It may be limited to 6 (remBinsPass1), and the number of context coded bins of the syntax element abs_level_gt3_flag may be limited to 4 when 4x4 subblocks and 2 (remBinsPass2) when 2x2 subblocks.
  • the remaining coefficients can be binarized without using CABAC to perform bypass coding.
  • FIG. 6 is a diagram illustrating a residual signal decoding unit according to an example of this document.
  • a transform of a corresponding block before coding a residual signal can be first delivered.
  • a residual signal By expressing the correlation between the residual signals in the transform domain, data is compressed and transmitted to the decoding apparatus. If the correlation between the residual signals is insufficient, data compression may not occur sufficiently. In this case, a conversion process including a complicated calculation process is omitted, and a residual signal in a pixel domain (spatial domain) can be transmitted to a decoding device.
  • the residual signal of the pixel domain that has not undergone transformation is different from the residual signal and characteristics of the general transform domain (the distribution of the residual signal, the absolute level of each residual signal, etc.), the following description will be applied to one embodiment of this document. Accordingly, a residual signal coding method for efficiently transmitting such a signal to a decoding apparatus is proposed.
  • the residual signal decoding unit 600 may be input with a flag indicating whether a transform is applied to a corresponding transform block and a bitstream (or information about a coded binarization code), A (decoded) residual signal can be output.
  • the conversion availability flag may be indicated by a conversion availability flag, a conversion skip availability flag, or a syntax element transform_skip_flag.
  • the coded binarization code may be input to the residual signal decoder 600 through a binarization process.
  • the residual signal decoding unit 600 may be included in the entropy decoding unit of the decoding device.
  • the flag indicating whether to apply the conversion is distinguished from the bitstream for convenience of description, but the flag indicating whether to apply the conversion may be included in the bitstream.
  • the information on the transform coefficients may include, for example, information (or syntax elements) shown in Tables 1 to 6 or Tables 7 to 10.
  • the conversion skip flag may be transmitted in units of a conversion block, and for example, in Tables 1 to 6, the conversion skip flag is limited to a specific block size (conditions for parsing transform_skip_flag are included only when the size of the conversion block is 4x4 or less) ), in one embodiment, the size of a block for determining whether or not to skip the conversion flag can be variously configured.
  • the size of log2TbWidth and log2TbHeight may be determined by the variables wN and hN, and wN and hN may have one of the following values, for example, shown in Equation (6).
  • syntax elements to which wN and hN having values according to Equation 6 can be applied may be represented as shown in Table 15.
  • wN and hN may each have a value of 5, in which case the conversion skip flag may be signaled for a block having a width less than or equal to 32 and a height less than or equal to 32.
  • wN and hN may each have a value of 6, in which case the conversion skip flag may be signaled for a block having a width less than or equal to 64 and a height less than or equal to 64.
  • wN and hN may have a value of 2, 3, 4, 5 or 6 as shown in Equation 6, may have the same value as each other, or may have different values.
  • the width and height of a block in which a conversion skip flag may be signaled may be determined based on the values of wN and hN.
  • a method of decoding the residual signal may be determined according to the conversion skip flag.
  • FIG. 7 is a diagram illustrating a conversion skip flag parsing decision unit according to an example of this document.
  • an embodiment may first deliver whether to apply a transform of a corresponding block before coding the residual signal.
  • a transform process including a complicated calculation process is omitted, and a residual signal in a pixel domain (spatial domain) can be transmitted to a decoder.
  • Residual signals in the pixel domain that have not undergone transformation have different characteristics and characteristics (residual signal distribution, absolute level of each residual signal, etc.) from the general transform domain, so residual signal encoding for efficiently delivering these signals to the decoder I suggest a method.
  • the conversion skip flag may be transmitted in units of a conversion block, for example, signaling of the conversion skip flag is limited to a specific block size (conditions for parsing transform_skip_flag are included only when the size of the conversion block is 4x4 or less), but one implementation
  • the condition for determining whether to skip the conversion skip flag may be defined as the number of pixels or samples in the block, not information about the width or height of the block. That is, it can be defined as using a product of log2TbWidth and log2TbHeight among conditions used to parse a transform skip flag (eg, syntax element transform_skip_flag).
  • the conversion skip flag may be parsed based on a product of a block width (eg, log2TbWidth) and a height (eg, log2TbHeight).
  • whether or not the conversion skip flag is parsed may be determined according to a value obtained by multiplying the block width (eg, log2TbWidth) and height (eg, log2TbHeight).
  • log2TbWidth and log2TbHeight may have one of the following values shown in Equation 7.
  • blocks of various shapes are determined based on the width and height of the block. Flag (not parsed) in the exclude block.
  • log2TbWidth and log2TbHeight are both defined as 2
  • only blocks of 2x4, 4x2, and 4x4 can be included in the conversion excluded block, but when controlled by the number of samples, blocks with 16 or fewer samples in the block exclude conversion Since it is included in the block, blocks of 2x8 and 8x2 as well as the blocks of 2x4, 4x2 and 4x4 may be included in the block excluding conversion.
  • the method of decoding the residual signal may be determined according to the conversion skip flag, and according to the above-described embodiment, signals having different statistical characteristics are efficiently processed, thereby reducing complexity in the entropy decoding process and improving coding efficiency. Can be.
  • the transform skip flag parsing determiner 700 inputs information about whether to allow transform skip in advanced grammar, block size information, and whether to apply MTS (Multiple Transform Selection). Can be, and a conversion skip flag can be output.
  • the above-described information may be included in a bitstream or syntax.
  • the transform skip flag parsing determining unit 700 may be included in the entropy decoding unit of the decoding apparatus. For example, a method in which the conversion skip flag is determined based on the above-described information may be as follows.
  • FIG. 8 is a flowchart illustrating a method of coding a conversion skip flag according to an embodiment of the present document.
  • conversion skip in high level syntax is enabled (S800). For example, it may be determined whether transform skipping in the advanced grammar is allowed based on information on whether or not transform skipping is allowed in the advanced grammar (ex. transform_skip_enabled_flag). For example, the information on whether or not the transform skip is allowed (. ex. transform_skip_enabled_flag) may be signaled in a picture parameter set (PPS).
  • the fact that the conversion skip in the advanced grammar is allowed may indicate that the conversion skip is allowed in a slice/block referring to the advanced grammar. Whether transform skip is substantially applied to a block in which the transform skip is allowed may be determined based on the transform skip flag described above.
  • the value of the syntax element cu_mts_flag in syntax is 0 (S810). For example, it may be determined whether the value of the syntax element cu_mts_flag is 0 based on information on whether to apply the multiple transform selection (MTS).
  • the information on whether to apply the MTS may include the syntax element cu_mts_flag.
  • the information on whether to apply the MTS may include a syntax element sps_mts_enabled_flag, and may be determined based on the value of the syntax element sps_mts_enabled_flag.
  • the value of the syntax element cu_mts_flag when the value of the syntax element cu_mts_flag is 0, it may be determined whether the product of log2TbWidth and log2TbHeight is less than or equal to a threshold (S820). Alternatively, it may be determined whether a value obtained by multiplying a log value having a base 2 of the width of the current block and a log value having a base 2 of the height of the current block is less than the threshold. Alternatively, it may be determined whether a value multiplied by the width and height of the current block is smaller than a threshold. For example, it may be determined whether the product of log2TbWidth and log2TbHeight is less than or equal to a threshold based on the block size information.
  • the block size information may include information about the width and height of the current block. Alternatively, the block size information may include information about a log value having a base 2 of the width and height of the current block.
  • a value of a flag for transform skip may be determined as 1 (S830).
  • the conversion skip flag having a value of 1 may be parsed. That is, the current block may be included in the block excluding the conversion based on the flag indicating whether to skip the conversion, and the conversion may not be applied.
  • a flag for converting skip (or syntax element transform_skip_flag) The value of may be determined as 0 (S840).
  • a flag indicating whether to skip conversion having a value of 0 may be parsed.
  • the conversion skip flag may not be parsed. That is, the current block may not be included in the non-conversion block based on the conversion skip flag, and conversion may be applied.
  • FIG. 9 is a diagram illustrating a transform skip flag encoder according to an embodiment of the present document.
  • encoding may be performed by determining a coding unit as a block and dividing similar regions into square or rectangular blocks. At this time, it is assumed that the luminance component and the color difference component are similar. In the color difference component, the block division structure of the already encoded luminance component can be used as it is. However, since the color difference component has relatively fewer complex areas than the luminance component, it is possible to effectively transmit encoding information of an image even if it follows a block structure different from that of the luminance component.
  • the residual signal generated through the difference from the original may be transformed and quantized. For regions where a large amount of residuals occur, compression can be expected without significantly damaging the decoded image by omitting or reducing information in a high-frequency region that the human eye cannot easily recognize through this process.
  • the color difference component is encoded, since there are not many complex textures as described above, prediction accuracy is higher than that of the luminance component, and energy of residual information may be relatively small. In this case, there may be no significant difference between applying and not applying a transform, and rather, passing a flag indicating whether or not a transform is transmitted to all transform blocks may act as overhead.
  • the number of residual coefficients of non-zero prediction coefficients is higher and the level of the intra-picture prediction is larger than the inter-screen prediction.
  • intra-frame prediction performs prediction only in a limited range from neighboring samples
  • inter-screen prediction uses a block most similar to the current block as a prediction value according to temporal similarity. Therefore, since the characteristics of the residuals are significantly changed according to the color difference prediction mode, the transform skip flag can be transmitted based on the current prediction mode and which component (whether it is a luminance component or a color difference component).
  • the conversion skip information of the luminance component is transmitted, but the conversion skip information of the color difference component is not transmitted, and for the inter-predicted block, both the luminance component and the color difference component can be converted.
  • the conversion skip information (or the conversion skip flag) may be transmitted based on whether the block is a luminance component or a color difference component.
  • the transform skip information may be signaled when the block is a luminance component.
  • the transform skip information may be signaled for each of the luminance component block and the color difference component block.
  • the conversion skip flag can be applied only to the luminance component.
  • the conversion skip flag may also be applied to luminance components and color difference components.
  • conversion skip information signaled for each of the luminance component and the color difference component may be applied to each component.
  • the transform skip flag encoder 900 includes information regarding a luminance/chrominance component index (eg, cldx) and prediction mode (eg, intra/inter). Information can be input, and a conversion skip flag can be output. Alternatively, a luminance/chrominance component index may be input to the transform skip flag encoder 900, and a transform skip flag may be output. Alternatively, information regarding a prediction mode may be input to the transform skip flag encoder 900, and a transform skip flag may be output. Also, the conversion skip flag may be included in residual related information (or residual related syntax).
  • a luminance/chrominance component index eg, cldx
  • prediction mode e.g, intra/inter
  • Information can be input, and a conversion skip flag can be output.
  • a luminance/chrominance component index may be input to the transform skip flag encoder 900, and a transform skip flag may be output.
  • information regarding a prediction mode may be input to the transform skip flag encoder 900, and a transform
  • FIG. 10 and 11 schematically show an example of a video/video encoding method and related components according to embodiment(s) of this document.
  • the method disclosed in FIG. 10 may be performed by the encoding device disclosed in FIG. 2. Specifically, for example, S1000 of FIG. 10 may be performed by the prediction unit 220 of the encoding apparatus in FIG. 11, and S1010 and S1020 of FIG. 10 may be residual processing unit 230 of the encoding apparatus in FIG. 11. S1030 of FIG. 10 may be performed by the entropy encoding unit 240 of the encoding apparatus in FIG. 11.
  • the method disclosed in FIG. 10 may include the embodiments described above in this document.
  • the encoding device may derive prediction samples by performing prediction on a current block (S1000 ).
  • the encoding apparatus may derive prediction samples by performing prediction on the current block, and may derive information on a prediction mode in which prediction is performed.
  • the prediction mode may be an intra prediction mode or an inter prediction mode.
  • the encoding apparatus may derive the prediction samples based on samples around a current block.
  • the prediction mode is an inter prediction mode
  • the encoding apparatus may derive the prediction samples based on reference samples in a reference picture of a current block.
  • the encoding device may derive residual samples for the current block (S1010).
  • the encoding apparatus may derive residual samples (or residual blocks) for the current block based on original samples and prediction samples (or predicted blocks) for the current block.
  • residual samples may be represented as a residual sample array.
  • the encoding apparatus may generate reconstructed samples of the current block based on the prediction samples and the residual samples (S1020). For example, the encoding apparatus may generate reconstructed samples (or reconstructed blocks) by adding residual samples (or residual blocks) to the predicted samples (or predicted blocks).
  • the encoding apparatus may encode image information including prediction mode information on the prediction and residual related information on the residual samples (S1030).
  • the encoding device may generate prediction mode information based on the prediction mode, and the image information may include the prediction mode information. That is, when the current block performs prediction through the intra prediction mode, prediction mode information may include information about the intra prediction mode, and when the current block performs prediction through the inter prediction mode, the prediction mode The information may include information regarding the inter prediction mode.
  • the encoding device may generate residual related information including information about the residual samples (or residual sample array), and the image information may include residual related information.
  • Information about residual samples or residual-related information may include information about transform coefficients of the residual samples.
  • the residual related information may include residual coding information (or residual coding syntax).
  • the residual related information may include conversion unit information (or conversion unit syntax).
  • the residual related information may include residual coding information and transform unit information.
  • whether the residual related information includes a transform skip flag may be determined based on whether the current block is a luminance component block or a color difference component block. That is, the residual related information may include the transform skip flag based on a component of the current block.
  • the residual related information may include the conversion skip flag for the luminance component block. That is, when the current block is a luminance component block, the residual-related information may include the conversion skip flag for the luminance component block. For example, when a non-zero effective coefficient exists in the luminance component block, the residual related information may include the transform skip flag for the luminance component block.
  • the above-mentioned syntax elements last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix regarding the non-zero effective coefficient. It can be represented by last_sig_coeff_y_suffix, coded_sub_block_flag or sig_coeff_flag.
  • the residual related information may not include the transform skip flag for the color difference component block. That is, when the current block is a chrominance component block, the residual related information may not include the transform skip flag for the chrominance component block.
  • the transform skip flag for the color difference component block may not be explicitly signaled. That is, when the current block is a chrominance component block, the transform skip flag for the chrominance component block may not be explicitly signaled.
  • the transform skip flag can be signaled only when the current block is a luminance component, and thus can be applied only to the luminance component.
  • the transform skip flag may be signaled only when the current block is a luminance component, but may also be applied to a luminance component and a color difference component corresponding to the luminance component.
  • the residual related information may include the transform skip flag based on the prediction mode indicated by the prediction mode information.
  • the residual-related information may include the transform skip flag based on the component of the current block and the prediction mode.
  • the residual related information may include the transform skip flag for the luminance component block, and may not include the transform skip flag for the color component block. have. That is, when the prediction mode indicated by the prediction mode information is an intra prediction mode, the residual related information includes the transform skip flag for the luminance component block and the transform skip flag for the color component block. You may not.
  • the residual related information may include the transform skip flag for the luminance component block and the transform skip flag for the color difference component block. That is, when the prediction mode indicated by the prediction mode information is an inter prediction mode, the residual related information may include the transform skip flag for the luminance component block and the transform skip flag for the chrominance component block.
  • the residual-related information based on the width and height of the current block may include the conversion skip flag.
  • the residual-related information may include the transform skip flag.
  • the width may be represented by log2TbWidth
  • the height may be represented by log2TbHeight.
  • the first threshold may be represented by wN
  • the second threshold may be represented by hN.
  • wN and hN may be 2, 3, 4, 5 or 6, respectively.
  • the first threshold may be 32 or 64
  • the second threshold may be the same as the first threshold.
  • wN and hN may both have a value of 5, and for blocks having a width less than or equal to 32 and a height less than or equal to 32, A flag indicating whether to skip conversion may be signaled.
  • both wN and hN may have a value of 6, and for blocks having a width less than or equal to 64 and a height less than or equal to 64, A flag indicating whether to skip conversion may be signaled.
  • the width and height of a block in which a conversion skip flag may be signaled may be determined based on the values of wN and hN.
  • the residual-related information based on the number of samples included in the current block may include the conversion skip flag.
  • the residual related information may include the transform skip flag. That is, when the number of samples included in the current block is less than or equal to the third threshold, the residual related information may include the conversion skip flag.
  • the number of samples included in the current block may be derived based on the width and height of the current block, in FIG. 8 the width may be represented by log2TbWidth, and the height may be represented by log2TbHeight, and the third The threshold can be expressed as Threschold.
  • the current block may include a non-square block.
  • a flag indicating whether to skip conversion for the current block will be signaled.
  • the width and height of the current block are different, if the width is less than or equal to the first threshold, and the height is less than or equal to the second threshold, a flag indicating whether to skip conversion for the current block will be signaled.
  • a flag indicating whether to skip conversion for the current block may be signaled.
  • the width and height of the current block are different, if the width and height of the current block are both less than or equal to 32 or 64, a flag indicating whether to skip conversion for the current block may be signaled.
  • the transform skip flag may indicate whether transform skip is applied to the current block. That is, it may be determined based on the transform skip flag whether the residual signal for the current block (or information on the residual) is signaled on the pixel domain (spatial domain) without transformation or is performed and signaled on the transformation domain. have.
  • the transform skip flag may be represented by a transform flag, a transform skip flag, or a syntax element transform_skip_flag.
  • residual related information may or may not include the conversion skip flag as described above.
  • residual samples of the current block may indicate that the residual samples are derived without conversion, and a residual signal (or a residual related to the current block) Information) can be signaled on the pixel domain (spatial domain) without conversion.
  • residual samples of the current block may indicate that transformation is performed and derived, and a residual signal (or a residual related to the current block) Information) can be signaled on the transform domain by performing the transform.
  • the encoding apparatus may generate a bitstream by encoding video information including all or part of the above-described information (or syntax elements). Or, it can be output in the form of a bitstream.
  • the bitstream may be transmitted to a decoding device through a network or storage medium. Alternatively, the bitstream can be stored on a computer-readable storage medium.
  • FIG. 12 and 13 schematically show an example of a video/video encoding method and related components according to embodiment(s) of the present document.
  • FIG. 12 and 13 schematically show an example of a video/video encoding method and related components according to embodiment(s) of the present document.
  • the method disclosed in FIG. 12 may be performed by the decoding apparatus disclosed in FIG. 3. Specifically, for example, S1200 of FIG. 12 may be performed by the entropy decoding unit 310 of the decoding apparatus in FIG. 13, and S1210 of FIG. 12 may be performed by the prediction unit 330 of the decoding apparatus in FIG. 13 S1220 of FIG. 12 may be performed by the residual processing unit 320 of the decoding apparatus in FIG. 13, and S1230 of FIG. 12 may be performed by the adding unit 340 of the decoding apparatus in FIG. 13. Can.
  • the method disclosed in FIG. 12 may include the embodiments described above in this document.
  • the decoding apparatus may obtain prediction mode information and residual related information from a bitstream (S1200).
  • the decoding apparatus (entropy) decodes the bitstream to obtain prediction mode information or residual related information.
  • the prediction mode information may include information about the prediction mode of the current block.
  • the prediction mode information may include information about intra prediction mode or inter prediction mode.
  • the residual related information may include residual coding information (or residual coding syntax).
  • the residual related information may include conversion unit information (or conversion unit syntax).
  • the residual related information may include residual coding information and transform unit information.
  • whether the residual related information includes a transform skip flag may be determined based on whether the current block is a luminance component block or a color difference component block. That is, the residual related information may include the transform skip flag based on a component of the current block.
  • the residual related information may include the conversion skip flag for the luminance component block. That is, when the current block is a luminance component block, the residual-related information may include the conversion skip flag for the luminance component block.
  • the residual related information may include the transform skip flag for the luminance component block.
  • the information regarding the non-zero effective coefficient is the above-mentioned syntax elements last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix. It can be represented by last_sig_coeff_y_suffix, coded_sub_block_flag or sig_coeff_flag.
  • the residual related information may not include the transform skip flag for the color difference component block. That is, when the current block is a chrominance component block, the residual related information may not include the transform skip flag for the chrominance component block.
  • the transform skip flag for the color difference component block may not be explicitly signaled. That is, when the current block is a chrominance component block, the transform skip flag for the chrominance component block may not be explicitly signaled.
  • the transform skip flag can be signaled only when the current block is a luminance component, and thus can be applied only to the luminance component.
  • the transform skip flag may be signaled only when the current block is a luminance component, but may also be applied to a luminance component and a color difference component corresponding to the luminance component.
  • the residual related information may include the transform skip flag based on the prediction mode indicated by the prediction mode information.
  • the residual-related information may include the transform skip flag based on the component of the current block and the prediction mode.
  • the residual related information may include the transform skip flag for the luminance component block, and may not include the transform skip flag for the color component block. have. That is, when the prediction mode indicated by the prediction mode information is an intra prediction mode, the residual related information includes the transform skip flag for the luminance component block and the transform skip flag for the color component block. You may not.
  • the residual related information may include the transform skip flag for the luminance component block and the transform skip flag for the color difference component block. That is, when the prediction mode indicated by the prediction mode information is an inter prediction mode, the residual related information may include the transform skip flag for the luminance component block and the transform skip flag for the chrominance component block.
  • the residual-related information based on the width and height of the current block may include the conversion skip flag.
  • the residual-related information may include the transform skip flag.
  • the width may be represented by log2TbWidth
  • the height may be represented by log2TbHeight.
  • the first threshold may be represented by wN
  • the second threshold may be represented by hN.
  • wN and hN may be 2, 3, 4, 5 or 6, respectively.
  • the first threshold may be 32 or 64
  • the second threshold may be the same as the first threshold.
  • wN and hN may both have a value of 5, and for blocks having a width less than or equal to 32 and a height less than or equal to 32, A flag indicating whether to skip conversion may be signaled.
  • both wN and hN may have a value of 6, and for blocks having a width less than or equal to 64 and a height less than or equal to 64, A flag indicating whether to skip conversion may be signaled.
  • the width and height of a block in which a conversion skip flag may be signaled may be determined based on the values of wN and hN.
  • the residual-related information based on the number of samples included in the current block may include the conversion skip flag.
  • the residual related information may include the transform skip flag. That is, when the number of samples included in the current block is less than or equal to the third threshold, the residual related information may include the conversion skip flag.
  • the number of samples included in the current block may be derived based on the width and height of the current block, in FIG. 8 the width may be represented by log2TbWidth, and the height may be represented by log2TbHeight, and the third The threshold can be expressed as Threschold.
  • the current block may include a non-square block.
  • a flag indicating whether to skip conversion for the current block will be signaled.
  • the width and height of the current block are different, if the width is less than or equal to the first threshold, and the height is less than or equal to the second threshold, a flag indicating whether to skip conversion for the current block will be signaled.
  • a flag indicating whether to skip conversion for the current block may be signaled.
  • the width and height of the current block are different, if the width and height of the current block are both less than or equal to 32 or 64, a flag for whether to skip conversion for the current block may be signaled.
  • the transform skip flag may indicate whether transform skip is applied to the current block. That is, it may be determined based on the transform skip flag whether the residual signal for the current block (or information on the residual) is signaled on the pixel domain (spatial domain) without transformation or is performed and signaled on the transformation domain. have.
  • the transform skip flag may be represented by a transform flag, a transform skip flag, or a syntax element transform_skip_flag.
  • the decoding apparatus may derive prediction samples of the current block by performing prediction based on the prediction mode information (S1210).
  • the decoding apparatus may derive the prediction mode of the current block based on the prediction mode information.
  • the prediction mode information may include information on an intra prediction mode or information on an inter prediction mode, and based on this, the prediction mode of the current block may be derived as an intra prediction mode or an inter prediction mode.
  • the decoding apparatus may derive prediction samples of the current block based on the prediction mode. For example, when the prediction mode is an intra prediction mode, the decoding apparatus may derive the prediction samples based on samples around the current block. Alternatively, when the prediction mode is an inter prediction mode, the decoding apparatus may derive the prediction samples based on reference samples in a reference picture of the current block.
  • the decoding apparatus may derive residual samples of the current block based on the residual related information (S1220).
  • the residual-related information may include information about transform coefficients for the residual samples.
  • the residual related information may include the conversion skip flag.
  • the residual signal (or information about the residual) for the current block may be signaled on the pixel domain (spatial domain) without transformation.
  • the residual signal (or information about the residual) for the current block may be converted and signaled on the transform domain.
  • the decoding apparatus may derive residual samples based on the residual signal signaled by the transformation or the transformation is performed.
  • the decoding apparatus may generate reconstructed samples of the current block based on the prediction samples and the residual samples (S1230). Alternatively, the decoding apparatus may derive a reconstructed block or reconstructed picture based on the reconstructed samples. As described above, the decoding apparatus may apply deblocking filtering and/or in-loop filtering procedures, such as SAO procedures, to the reconstructed picture to improve subjective/objective image quality, if necessary.
  • the decoding device may decode the bitstream to obtain image information including all or part of the above-described information (or syntax elements).
  • the bitstream may be stored in a computer-readable digital storage medium, which may cause the above-described decoding method to be performed.
  • the above-described method according to the present document may be implemented in software form, and the encoding device and/or the decoding device according to the present document may perform image processing of, for example, a TV, a computer, a smartphone, a set-top box, and a display device. Device.
  • the above-described method may be implemented as a module (process, function, etc.) performing the above-described function.
  • Modules are stored in memory and can be executed by a processor.
  • the memory may be internal or external to the processor, and may be connected to the processor by various well-known means.
  • the processor may include an application-specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices.
  • the memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media and/or other storage devices.
  • FIG. 14 schematically shows a structure of a content streaming system.
  • the embodiments described in this document may be implemented and implemented on a processor, microprocessor, controller, or chip.
  • the functional units shown in each figure may be implemented and implemented on a computer, processor, microprocessor, controller, or chip.
  • the decoding device and encoding device to which the present document is applied include multimedia broadcast transmission/reception devices, mobile communication terminals, home cinema video devices, digital cinema video devices, surveillance cameras, video communication devices, real-time communication devices such as video communication, mobile streaming Devices, storage media, camcorders, video on demand (VoD) service providing devices, over the top video (OTT video) devices, Internet streaming service providing devices, 3D (3D) video devices, video telephony video devices, and medical video devices And may be used to process video signals or data signals.
  • the OTT video (Over the top video) device may include a game console, a Blu-ray player, an Internet-connected TV, a home theater system, a smartphone, a tablet PC, and a digital video recorder (DVR).
  • the processing method to which the present document is applied may be produced in the form of a program executed by a computer, and may be stored in a computer-readable recording medium.
  • Multimedia data having a data structure according to this document can also be stored in a computer-readable recording medium.
  • the computer-readable recording medium includes all kinds of storage devices and distributed storage devices in which computer-readable data is stored.
  • the computer-readable recording medium includes, for example, Blu-ray Disc (BD), Universal Serial Bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk and optical. It may include a data storage device.
  • the computer-readable recording medium includes media implemented in the form of a carrier wave (for example, transmission via the Internet).
  • bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted through a wired or wireless communication network.
  • embodiments of the present document may be implemented as computer program products using program codes, and the program codes may be executed on a computer according to embodiments of the present document.
  • the program code can be stored on a computer readable carrier.
  • the content streaming system to which this document is applied may largely include an encoding server, a streaming server, a web server, a media storage, a user device, and a multimedia input device.
  • the encoding server serves to compress a content input from multimedia input devices such as a smartphone, a camera, and a camcorder into digital data to generate a bitstream and transmit it to the streaming server.
  • multimedia input devices such as a smart phone, a camera, and a camcorder directly generate a bitstream
  • the encoding server may be omitted.
  • the bitstream may be generated by an encoding method or a bitstream generation method to which the present document is applied, and the streaming server may temporarily store the bitstream in the process of transmitting or receiving the bitstream.
  • the streaming server transmits multimedia data to a user device based on a user request through a web server, and the web server serves as an intermediary to inform the user of the service.
  • the web server delivers it to the streaming server, and the streaming server transmits multimedia data to the user.
  • the content streaming system may include a separate control server, in which case the control server serves to control commands/responses between devices in the content streaming system.
  • the streaming server may receive content from a media storage and/or encoding server. For example, when content is received from the encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may store the bitstream for a predetermined time.
  • Examples of the user device include a mobile phone, a smart phone, a laptop computer, a terminal for digital broadcasting, a personal digital assistants (PDA), a portable multimedia player (PMP), navigation, a slate PC, Tablet PCs, ultrabooks, wearable devices, e.g., smartwatches, smart glass, head mounted display (HMD), digital TV, desktop Computers, digital signage, and the like.
  • PDA personal digital assistants
  • PMP portable multimedia player
  • HMD head mounted display
  • Each server in the content streaming system can be operated as a distributed server, and in this case, data received from each server can be distributed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 문서에 따른 영상 디코딩 방법은 비트스트림으로부터 예측 모드 정보 및 레지듀얼 관련 정보를 획득하는 단계, 상기 예측 모드 정보를 기반으로 예측을 수행하여 현재 블록의 예측 샘플들을 도출하는 단계, 상기 레지듀얼 관련 정보를 기반으로 상기 현재 블록의 레지듀얼 샘플들을 도출하는 단계 및 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 단계를 포함하고, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고, 상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 한다.

Description

변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치
본 문서는 영상 코딩 기술에 관한 것으로서 보다 상세하게는 영상 코딩 시스템에서 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 영상 데이터를 저장하는 경우, 전송 비용과 저장 비용이 증가된다.
이에 따라, 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술이 요구된다.
본 문서의 기술적 과제는 영상 코딩 효율을 높이는 방법 및 장치를 제공함에 있다.
본 문서의 다른 기술적 과제는 레지듀얼 코딩의 효율을 높이는 방법 및 장치를 제공함에 있다.
본 문서의 또 다른 기술적 과제는 변환 스킵의 적용 여부에 따라 레지듀얼 코딩의 효율을 높이는 방법 및 장치를 제공함에 있다.
본 문서의 실시예에 따르면, 디코딩 장치에 의하여 수행되는 영상 디코딩 방법이 제공된다. 상기 방법은 비트스트림으로부터 예측 모드 정보 및 레지듀얼 관련 정보를 획득하는 단계, 상기 예측 모드 정보를 기반으로 예측을 수행하여 현재 블록의 예측 샘플들을 도출하는 단계, 상기 레지듀얼 관련 정보를 기반으로 상기 현재 블록의 레지듀얼 샘플들을 도출하는 단계 및 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 단계를 포함하고, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고, 상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 한다.
본 문서의 다른 실시예에 따르면, 영상 디코딩을 수행하는 디코딩 장치가 제공된다. 상기 디코딩 장치는 비트스트림으로부터 예측 모드 정보 및 레지듀얼 관련 정보를 획득하는 엔트로피 디코딩부, 상기 예측 모드 정보를 기반으로 예측을 수행하여 현재 블록의 예측 샘플들을 도출하는 예측부, 상기 레지듀얼 관련 정보를 기반으로 상기 현재 블록의 레지듀얼 샘플들을 도출하는 레지듀얼 처리부 및 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 가산부를 포함하고, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고, 상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 한다.
본 문서의 또 다른 실시예에 따르면, 인코딩 장치에 의하여 수행되는 비디오 인코딩 방법을 제공한다. 상기 방법은 현재 블록에 대하여 예측을 수행하여 예측 샘플들을 도출하는 단계, 상기 현재 블록에 대한 레지듀얼 샘플들을 도출하는 단계, 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 단계 및 상기 예측에 관한 예측 모드 정보 및 상기 레지듀얼 샘플들에 관한 레지듀얼 관련 정보를 포함하는 영상 정보를 인코딩하는 단계를 포함하고, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고, 상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 한다.
본 문서의 또 다른 실시예에 따르면, 비디오 인코딩 장치를 제공한다. 상기 인코딩 장치는 현재 블록에 대하여 예측을 수행하여 예측 샘플들을 도출하는 예측부, 상기 현재 블록에 대한 레지듀얼 샘플들을 도출하고, 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 레지듀얼 처리부 및 상기 예측에 관한 예측 모드 정보 및 상기 레지듀얼 샘플들에 관한 레지듀얼 관련 정보를 포함하는 영상 정보를 인코딩하는 엔트로피 인코딩부를 포함하고, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고, 상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 한다.
본 문서의 또 다른 실시예에 따르면, 컴퓨터 판독 가능한 디지털 저장 매체를 제공한다. 상기 컴퓨터 판독 가능한 디지털 저장 매체는 상기 디코딩 방법을 수행하도록 야기하는 비트스트림이 저장된 것을 특징으로 한다.
본 문서의 또 다른 실시예에 따르면, 컴퓨터 판독 가능한 디지털 저장 매체를 제공한다. 상기 컴퓨터 판독 가능한 디지털 저장 매체는 상기 인코딩 방법에 의하여 생성된 비트스트림이 저장된 것을 특징으로 한다.
본 문서에 따르면 전반적인 영상/비디오 압축 효율을 향상시킬 수 있다.
본 문서에 따르면 변환 스킵 여부 플래그를 이용하여 레지듀얼 코딩의 효율을 향상시킬 수 있다.
본 문서에 따르면 일반적인 변환 도메인의 레지듀얼 신호와 특성이 다른 픽셀 도메인으로 표현된 레지듀얼 신호를 효율적으로 전송함으로써 코딩 효율을 향상시킬 수 있다.
도 1은 본 문서가 적용될 수 있는 비디오/영상 코딩 시스템의 예를 개략적으로 나타낸다.
도 2는 본 문서가 적용될 수 있는 비디오/영상 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3은 본 문서가 적용될 수 있는 비디오/영상 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 4는 일 실시예에 따른 CABAC 인코딩 시스템의 블록도를 도시하는 도면이다.
도 5는 4x4 블록 내 변환 계수들의 예시를 도시하는 도면이다.
도 6은 본 문서의 일 실시예에 따른 잔차 신호 복호화부를 도시한 도면이다.
도 7은 본 문서의 일 실시예에 따른 변환 스킵 플래그 파싱 결정부를 도시한 도면이다.
도 8은 본 문서의 일 실시예에 따른 변환 스킵 여부 플래그를 코딩하는 방법을 설명하기 위한 순서도이다.
도 9는 본 문서의 일 실시예에 따른 변환 스킵 플래그 부호화부를 도시한 도면이다.
도 10 및 도 11은 본 문서의 실시예(들)에 따른 비디오/영상 인코딩 방법 및 관련 컴포넌트의 일 예를 개략적으로 나타낸다.
도 12 및 도 13은 본 문서의 실시예(들)에 따른 비디오/영상 인코딩 방법 및 관련 컴포넌트의 일 예를 개략적으로 나타낸다.
도 14는 컨텐츠 스트리밍 시스템 구조를 개략적으로 나타낸다.
본 문서는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 문서를 특정 실시예에 한정하려고 하는 것이 아니다. 본 명세서에서 상용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 문서의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 도는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 문서에서 설명되는 도면상의 각 구성들은 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 문서의 본질에서 벗어나지 않는 한 본 문서의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 문서의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략될 수 있다.
도 1은 본 문서를 적용될 수 있는 비디오/영상 코딩 시스템의 예를 개략적으로 나타낸다.
도 1을 참조하면, 비디오/영상 코딩 시스템은 제1 장치(소스 디바이스) 및 제2 장치(수신 디바이스)를 포함할 수 있다. 소스 디바이스는 인코딩된 비디오(video)/영상(image) 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 수신 디바이스로 전달할 수 있다.
상기 소스 디바이스는 비디오 소스, 인코딩 장치, 전송부를 포함할 수 있다. 상기 수신 디바이스는 수신부, 디코딩 장치 및 렌더러를 포함할 수 있다. 상기 인코딩 장치는 비디오/영상 인코딩 장치라고 불릴 수 있고, 상기 디코딩 장치는 비디오/영상 디코딩 장치라고 불릴 수 있다. 송신기는 인코딩 장치에 포함될 수 있다. 수신기는 디코딩 장치에 포함될 수 있다. 렌더러는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다.
비디오 소스는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 비디오 소스는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.
인코딩 장치는 입력 비디오/영상을 인코딩할 수 있다. 인코딩 장치는 압축 및 코딩 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 인코딩된 데이터(인코딩된 비디오/영상 정보)는 비트스트림(bitstream) 형태로 출력될 수 있다.
전송부는 비트스트림 형태로 출력된 인코딩된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 수신 디바이스의 수신부로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부는 미리 정해진 파일 포멧을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘리먼트를 포함할 수 있다. 수신부는 상기 비트스트림을 수신/추출하여 디코딩 장치로 전달할 수 있다.
디코딩 장치는 인코딩 장치의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 디코딩할 수 있다.
렌더러는 디코딩된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다.
이 문서는 비디오/영상 코딩에 관한 것이다. 예를 들어 이 문서에서 개시된 방법/실시예는 VVC (versatile video coding) 표준, EVC (essential video coding) 표준, AV1 (AOMedia Video 1) 표준, AVS2 (2nd generation of audio video coding standard) 또는 차세대 비디오/영상 코딩 표준(ex. H.267 or H.268 등)에 개시되는 방법에 적용될 수 있다.
이 문서에서는 비디오/영상 코딩에 관한 다양한 실시예들을 제시하며, 다른 언급이 없는 한 상기 실시예들은 서로 조합되어 수행될 수도 있다.
이 문서에서 비디오(video)는 시간의 흐름에 따른 일련의 영상(image)들의 집합을 의미할 수 있다. 픽처(picture)는 일반적으로 특정 시간대의 하나의 영상을 나타내는 단위를 의미하며, 슬라이스(slice)/타일(tile)는 코딩에 있어서 픽처의 일부를 구성하는 단위이다. 슬라이스/타일은 하나 이상의 CTU(coding tree unit)을 포함할 수 있다. 하나의 픽처는 하나 이상의 슬라이스/타일로 구성될 수 있다. 하나의 픽처는 하나 이상의 타일 그룹으로 구성될 수 있다. 하나의 타일 그룹은 하나 이상의 타일들을 포함할 수 있다. 브릭은 픽처 내 타일 이내의 CTU 행들의 사각 영역을 나타낼 수 있다(a brick may represent a rectangular region of CTU rows within a tile in a picture). 타일은 다수의 브릭들로 파티셔닝될 수 있고, 각 브릭은 상기 타일 내 하나 이상의 CTU 행들로 구성될 수 있다(A tile may be partitioned into multiple bricks, each of which consisting of one or more CTU rows within the tile). 다수의 브릭들로 파티셔닝되지 않은 타일은 또한 브릭으로 불릴 수 있다(A tile that is not partitioned into multiple bricks may be also referred to as a brick). 브릭 스캔은 픽처를 파티셔닝하는 CTU들의 특정한 순차적 오더링을 나타낼 수 있으며, 상기 CTU들은 브릭 내에서 CTU 래스터 스캔으로 정렬될 수 있고, 타일 내 브릭들은 상기 타일의 상기 브릭들의 래스터 스캔으로 연속적으로 정렬될 수 있고, 그리고 픽처 내 타일들은 상기 픽처의 상기 타일들의 래스터 스캔으로 연속적으로 정렬될 수 있다(A brick scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a brick, bricks within a tile are ordered consecutively in a raster scan of the bricks of the tile, and tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture). 타일은 특정 타일 열 및 특정 타일 열 이내의 CTU들의 사각 영역이다(A tile is a rectangular region of CTUs within a particular tile column and a particular tile row in a picture). 상기 타일 열은 CTU들의 사각 영역이고, 상기 사각 영역은 상기 픽처의 높이와 동일한 높이를 갖고, 너비는 픽처 파라미터 세트 내의 신택스 요소들에 의하여 명시될 수 있다(The tile column is a rectangular region of CTUs having a height equal to the height of the picture and a width specified by syntax elements in the picture parameter set). 상기 타일 행은 CTU들의 사각 영역이고, 상기 사각 영역은 픽처 파라미터 세트 내의 신택스 요소들에 의하여 명시되는 너비를 갖고, 높이는 상기 픽처의 높이와 동일할 수 있다(The tile row is a rectangular region of CTUs having a height specified by syntax elements in the picture parameter set and a width equal to the width of the picture). 타일 스캔은 픽처를 파티셔닝하는 CTU들의 특정 순차적 오더링을 나타낼 수 있고, 상기 CTU들은 타일 내 CTU 래스터 스캔으로 연속적으로 정렬될 수 있고, 픽처 내 타일들은 상기 픽처의 상기 타일들의 래스터 스캔으로 연속적으로 정렬될 수 있다(A tile scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a tile whereas tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture). 슬라이스는 픽처의 정수개의 브릭들을 포함할 수 있고, 상기 정수개의 브릭들은 하나의 NAL 유닛에 포함될 수 있다(A slice includes an integer number of bricks of a picture that may be exclusively contained in a single NAL unit). 슬라이스는 다수의 완전한 타일들로 구성될 수 있고, 또는 하나의 타일의 완전한 브릭들의 연속적인 시퀀스일 수도 있다(A slice may consists of either a number of complete tiles or only a consecutive sequence of complete bricks of one tile). 이 문서에서 타일 그룹과 슬라이스는 혼용될 수 있다. 예를 들어 본 문서에서 tile group/tile group header는 slice/slice header로 불리 수 있다.
픽셀(pixel) 또는 펠(pel)은 하나의 픽처(또는 영상)을 구성하는 최소의 단위를 의미할 수 있다. 또한, 픽셀에 대응하는 용어로서 '샘플(sample)'이 사용될 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있으며, 루마(luma) 성분의 픽셀/픽셀값만을 나타낼 수도 있고, 크로마(chroma) 성분의 픽셀/픽셀 값만을 나타낼 수도 있다.
유닛(unit)은 영상 처리의 기본 단위를 나타낼 수 있다. 유닛은 픽처의 특정 영역 및 해당 영역에 관련된 정보 중 적어도 하나를 포함할 수 있다. 하나의 유닛은 하나의 루마 블록 및 두개의 크로마(ex. cb, cr) 블록을 포함할 수 있다. 유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들(또는 샘플 어레이) 또는 변환 계수(transform coefficient)들의 집합(또는 어레이)을 포함할 수 있다.
이 문서에서 "/"와 ","는 "및/또는"으로 해석된다. 예를 들어, "A/B"는 "A 및/또는 B"로 해석되고, "A, B"는 "A 및/또는 B"로 해석된다. 추가적으로, "A/B/C"는 "A, B 및/또는 C 중 적어도 하나"를 의미한다. 또한, "A, B, C"도 "A, B 및/또는 C 중 적어도 하나"를 의미한다. (In this document, the term "/" and "," should be interpreted to indicate "and/or." For instance, the expression "A/B" may mean "A and/or B." Further, "A, B" may mean "A and/or B." Further, "A/B/C" may mean "at least one of A, B, and/or C." Also, "A/B/C" may mean "at least one of A, B, and/or C.")
추가적으로, 본 문서에서 "또는"는 "및/또는"으로 해석된다. 예를 들어, "A 또는 B"은, 1) "A" 만을 의미하고, 2) "B" 만을 의미하거나, 3) "A 및 B"를 의미할 수 있다. 달리 표현하면, 본 문서의 "또는"은 "추가적으로 또는 대체적으로(additionally or alternatively)"를 의미할 수 있다. (Further, in the document, the term "or" should be interpreted to indicate "and/or." For instance, the expression "A or B" may comprise 1) only A, 2) only B, and/or 3) both A and B. In other words, the term "or" in this document should be interpreted to indicate "additionally or alternatively.")
도 2는 본 문서가 적용될 수 있는 비디오/영상 인코딩 장치의 구성을 개략적으로 설명하는 도면이다. 이하 비디오 인코딩 장치라 함은 영상 인코딩 장치를 포함할 수 있다.
도 2를 참조하면, 인코딩 장치(200)는 영상 분할부(image partitioner, 210), 예측부(predictor, 220), 레지듀얼 처리부(residual processor, 230), 엔트로피 인코딩부(entropy encoder, 240), 가산부(adder, 250), 필터링부(filter, 260) 및 메모리(memory, 270)를 포함하여 구성될 수 있다. 예측부(220)는 인터 예측부(221) 및 인트라 예측부(222)를 포함할 수 있다. 레지듀얼 처리부(230)는 변환부(transformer, 232), 양자화부(quantizer 233), 역양자화부(dequantizer 234), 역변환부(inverse transformer, 235)를 포함할 수 있다. 레지듀얼 처리부(230)은 감산부(subtractor, 231)를 더 포함할 수 있다. 가산부(250)는 복원부(reconstructor) 또는 복원 블록 생성부(recontructged block generator)로 불릴 수 있다. 상술한 영상 분할부(210), 예측부(220), 레지듀얼 처리부(230), 엔트로피 인코딩부(240), 가산부(250) 및 필터링부(260)는 실시예에 따라 하나 이상의 하드웨어 컴포넌트(예를 들어 인코더 칩셋 또는 프로세서)에 의하여 구성될 수 있다. 또한 메모리(270)는 DPB(decoded picture buffer)를 포함할 수 있고, 디지털 저장 매체에 의하여 구성될 수도 있다. 상기 하드웨어 컴포넌트는 메모리(270)을 내/외부 컴포넌트로 더 포함할 수도 있다.
영상 분할부(210)는 인코딩 장치(200)에 입력된 입력 영상(또는, 픽쳐, 프레임)를 하나 이상의 처리 유닛(processing unit)으로 분할할 수 있다. 일 예로, 상기 처리 유닛은 코딩 유닛(coding unit, CU)이라고 불릴 수 있다. 이 경우 코딩 유닛은 코딩 트리 유닛(coding tree unit, CTU) 또는 최대 코딩 유닛(largest coding unit, LCU)으로부터 QTBTTT (Quad-tree binary-tree ternary-tree) 구조에 따라 재귀적으로(recursively) 분할될 수 있다. 예를 들어, 하나의 코딩 유닛은 쿼드 트리 구조, 바이너리 트리 구조, 및/또는 터너리 구조를 기반으로 하위(deeper) 뎁스의 복수의 코딩 유닛들로 분할될 수 있다. 이 경우 예를 들어 쿼드 트리 구조가 먼저 적용되고 바이너리 트리 구조 및/또는 터너리 구조가 나중에 적용될 수 있다. 또는 바이너리 트리 구조가 먼저 적용될 수도 있다. 더 이상 분할되지 않는 최종 코딩 유닛을 기반으로 본 문서에 따른 코딩 절차가 수행될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 여기서 코딩 절차라 함은 후술하는 예측, 변환, 및 복원 등의 절차를 포함할 수 있다. 다른 예로, 상기 처리 유닛은 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)을 더 포함할 수 있다. 이 경우 상기 예측 유닛 및 상기 변환 유닛은 각각 상술한 최종 코딩 유닛으로부터 분할 또는 파티셔닝될 수 있다. 상기 예측 유닛은 샘플 예측의 단위일 수 있고, 상기 변환 유닛은 변환 계수를 유도하는 단위 및/또는 변환 계수로부터 레지듀얼 신호(residual signal)를 유도하는 단위일 수 있다.
유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타낼 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있으며, 휘도(luma) 성분의 픽셀/픽셀값만을 나타낼 수도 있고, 채도(chroma) 성분의 픽셀/픽셀 값만을 나타낼 수도 있다. 샘플은 하나의 픽처(또는 영상)을 픽셀(pixel) 또는 펠(pel)에 대응하는 용어로서 사용될 수 있다.
인코딩 장치(200)는 입력 영상 신호(원본 블록, 원본 샘플 어레이)에서 인터 예측부(221) 또는 인트라 예측부(222)로부터 출력된 예측 신호(예측된 블록, 예측 샘플 어레이)를 감산하여 레지듀얼 신호(residual signal, 잔여 블록, 잔여 샘플 어레이)를 생성할 수 있고, 생성된 레지듀얼 신호는 변환부(232)로 전송된다. 이 경우 도시된 바와 같이 인코더(200) 내에서 입력 영상 신호(원본 블록, 원본 샘플 어레이)에서 예측 신호(예측 블록, 예측 샘플 어레이)를 감산하는 유닛은 감산부(231)라고 불릴 수 있다. 예측부는 처리 대상 블록(이하, 현재 블록이라 함)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부는 현재 블록 또는 CU 단위로 인트라 예측이 적용되는지 또는 인터 예측이 적용되는지 결정할 수 있다. 예측부는 각 예측모드에 대한 설명에서 후술하는 바와 같이 예측 모드 정보 등 예측에 관한 다양한 정보를 생성하여 엔트로피 인코딩부(240)로 전달할 수 있다. 예측에 관한 정보는 엔트로피 인코딩부(240)에서 인코딩되어 비트스트림 형태로 출력될 수 있다.
인트라 예측부(222)는 현재 픽처 내의 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 참조되는 샘플들은 예측 모드에 따라 상기 현재 블록의 주변(neighbor)에 위치할 수 있고, 또는 떨어져서 위치할 수도 있다. 인트라 예측에서 예측 모드들은 복수의 비방향성 모드와 복수의 방향성 모드를 포함할 수 있다. 비방향성 모드는 예를 들어 DC 모드 및 플래너 모드(Planar 모드)를 포함할 수 있다. 방향성 모드는 예측 방향의 세밀한 정도에 따라 예를 들어 33개의 방향성 예측 모드 또는 65개의 방향성 예측 모드를 포함할 수 있다. 다만, 이는 예시로서 설정에 따라 그 이상 또는 그 이하의 개수의 방향성 예측 모드들이 사용될 수 있다. 인트라 예측부(222)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측부(221)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록(참조 샘플 어레이)을 기반으로, 현재 블록에 대한 예측된 블록을 유도할 수 있다. 이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 움직임 정보를 블록, 서브블록 또는 샘플 단위로 예측할 수 있다. 상기 움직임 정보는 움직임 벡터 및 참조 픽처 인덱스를 포함할 수 있다. 상기 움직임 정보는 인터 예측 방향(L0 예측, L1 예측, Bi 예측 등) 정보를 더 포함할 수 있다. 인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 상기 참조 블록을 포함하는 참조 픽처와 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일할 수도 있고, 다를 수도 있다. 상기 시간적 주변 블록은 동일 위치 참조 블록(collocated reference block), 동일 위치 CU(colCU) 등의 이름으로 불릴 수 있으며, 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일 위치 픽처(collocated picture, colPic)라고 불릴 수도 있다. 예를 들어, 인터 예측부(221)는 주변 블록들을 기반으로 움직임 정보 후보 리스트를 구성하고, 상기 현재 블록의 움직임 벡터 및/또는 참조 픽처 인덱스를 도출하기 위하여 어떤 후보가 사용되는지를 지시하는 정보를 생성할 수 있다. 다양한 예측 모드를 기반으로 인터 예측이 수행될 수 있으며, 예를 들어 스킵 모드와 머지 모드의 경우에, 인터 예측부(221)는 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 이용할 수 있다. 스킵 모드의 경우, 머지 모드와 달리 레지듀얼 신호가 전송되지 않을 수 있다. 움직임 정보 예측(motion vector prediction, MVP) 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor)로 이용하고, 움직임 벡터 차분(motion vector difference)을 시그널링함으로써 현재 블록의 움직임 벡터를 지시할 수 있다.
예측부(220)는 후술하는 다양한 예측 방법을 기반으로 예측 신호를 생성할 수 있다. 예를 들어, 예측부는 하나의 블록에 대한 예측을 위하여 인트라 예측 또는 인터 예측을 적용할 수 있을 뿐 아니라, 인트라 예측과 인터 예측을 동시에 적용할 수 있다. 이는 combined inter and intra prediction (CIIP)라고 불릴 수 있다. 또한, 예측부는 블록에 대한 예측을 위하여 인트라 블록 카피(intra block copy, IBC) 예측 모드에 기반할 수도 있고 또는 팔레트 모드(palette mode)에 기반할 수도 있다. 상기 IBC 예측 모드 또는 팔레트 모드는 예를 들어 SCC(screen content coding) 등과 같이 게임 등의 컨텐츠 영상/동영상 코딩을 위하여 사용될 수 있다. IBC는 기본적으로 현재 픽처 내에서 예측을 수행하나 현재 픽처 내에서 참조 블록을 도출하는 점에서 인터 예측과 유사하게 수행될 수 있다. 즉, IBC는 본 문서에서 설명되는 인터 예측 기법들 중 적어도 하나를 이용할 수 있다. 팔레트 모드는 인트라 코딩 또는 인트라 예측의 일 예로 볼 수 있다. 팔레트 모드가 적용되는 경우 팔레트 테이블 및 팔레트 인덱스에 관한 정보를 기반으로 픽처 내 샘플 값을 시그널링할 수 있다.
상기 예측부 (인터 예측부(221) 및/또는 상기 인트라 예측부(222) 포함)를 통해 생성된 예측 신호는 복원 신호를 생성하기 위해 이용되거나 레지듀얼 신호를 생성하기 위해 이용될 수 있다. 변환부(232)는 레지듀얼 신호에 변환 기법을 적용하여 변환 계수들(transform coefficients)를 생성할 수 있다. 예를 들어, 변환 기법은 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT(Karhunen-Loeve Transform), GBT(Graph-Based Transform), 또는 CNT(Conditionally Non-linear Transform) 중 적어도 하나를 포함할 수 있다. 여기서, GBT는 픽셀 간의 관계 정보를 그래프로 표현한다고 할 때 이 그래프로부터 얻어진 변환을 의미한다. CNT는 이전에 복원된 모든 픽셀(all previously reconstructed pixel)를 이용하여 예측 신호를 생성하고 그에 기초하여 획득되는 변환을 의미한다. 또한, 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.
양자화부(233)는 변환 계수들을 양자화하여 엔트로피 인코딩부(240)로 전송되고, 엔트로피 인코딩부(240)는 양자화된 신호(양자화된 변환 계수들에 관한 정보)를 인코딩하여 비트스트림으로 출력할 수 있다. 상기 양자화된 변환 계수들에 관한 정보는 레지듀얼 정보라고 불릴 수 있다. 양자화부(233)는 계수 스캔 순서(scan order)를 기반으로 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있고, 상기 1차원 벡터 형태의 양자화된 변환 계수들을 기반으로 상기 양자화된 변환 계수들에 관한 정보를 생성할 수도 있다. 엔트로피 인코딩부(240)는 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 다양한 인코딩 방법을 수행할 수 있다. 엔트로피 인코딩부(240)는 양자화된 변환 계수들 외 비디오/이미지 복원에 필요한 정보들(예컨대 신택스 요소들(syntax elements)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다. 인코딩된 정보(ex. 인코딩된 비디오/영상 정보)는 비트스트림 형태로 NAL(network abstraction layer) 유닛 단위로 전송 또는 저장될 수 있다. 상기 비디오/영상 정보는 어댑테이션 파라미터 세트(APS), 픽처 파라미터 세트(PPS), 시퀀스 파라미터 세트(SPS) 또는 비디오 파라미터 세트(VPS) 등 다양한 파라미터 세트에 관한 정보를 더 포함할 수 있다. 또한 상기 비디오/영상 정보는 일반 제한 정보(general constraint information)을 더 포함할 수 있다. 본 문서에서 인코딩 장치에서 디코딩 장치로 전달/시그널링되는 정보 및/또는 신택스 요소들은 비디오/영상 정보에 포함될 수 있다. 상기 비디오/영상 정보는 상술한 인코딩 절차를 통하여 인코딩되어 상기 비트스트림에 포함될 수 있다. 상기 비트스트림은 네트워크를 통하여 전송될 수 있고, 또는 디지털 저장매체에 저장될 수 있다. 여기서 네트워크는 방송망 및/또는 통신망 등을 포함할 수 있고, 디지털 저장매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장매체를 포함할 수 있다. 엔트로피 인코딩부(240)로부터 출력된 신호는 전송하는 전송부(미도시) 및/또는 저장하는 저장부(미도시)가 인코딩 장치(200)의 내/외부 엘리먼트로서 구성될 수 있고, 또는 전송부는 엔트로피 인코딩부(240)에 포함될 수도 있다.
양자화부(233)로부터 출력된 양자화된 변환 계수들은 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 변환 계수들에 역양자화부(234) 및 역변환부(235)를 통해 역양자화 및 역변환을 적용함으로써 레지듀얼 신호(레지듀얼 블록 or 레지듀얼 샘플들)를 복원할 수 있다. 가산부(155)는 복원된 레지듀얼 신호를 인터 예측부(221) 또는 인트라 예측부(222)로부터 출력된 예측 신호에 더함으로써 복원(reconstructed) 신호(복원 픽처, 복원 블록, 복원 샘플 어레이)가 생성될 수 있다. 스킵 모드가 적용된 경우와 같이 처리 대상 블록에 대한 레지듀얼이 없는 경우, 예측된 블록이 복원 블록으로 사용될 수 있다. 가산부(250)는 복원부 또는 복원 블록 생성부라고 불릴 수 있다. 생성된 복원 신호는 현재 픽처 내 다음 처리 대상 블록의 인트라 예측을 위하여 사용될 수 있고, 후술하는 바와 같이 필터링을 거쳐서 다음 픽처의 인터 예측을 위하여 사용될 수도 있다.
한편 픽처 인코딩 및/또는 복원 과정에서 LMCS (luma mapping with chroma scaling)가 적용될 수도 있다.
필터링부(260)는 복원 신호에 필터링을 적용하여 주관적/객관적 화질을 향상시킬 수 있다. 예를 들어 필터링부(260)은 복원 픽처에 다양한 필터링 방법을 적용하여 수정된(modified) 복원 픽처를 생성할 수 있고, 상기 수정된 복원 픽처를 메모리(270), 구체적으로 메모리(270)의 DPB에 저장할 수 있다. 상기 다양한 필터링 방법은 예를 들어, 디블록킹 필터링, 샘플 적응적 오프셋(sample adaptive offset), 적응적 루프 필터(adaptive loop filter), 양방향 필터(bilateral filter) 등을 포함할 수 있다. 필터링부(260)은 각 필터링 방법에 대한 설명에서 후술하는 바와 같이 필터링에 관한 다양한 정보를 생성하여 엔트로피 인코딩부(240)로 전달할 수 있다. 필터링 관한 정보는 엔트로피 인코딩부(240)에서 인코딩되어 비트스트림 형태로 출력될 수 있다.
메모리(270)에 전송된 수정된 복원 픽처는 인터 예측부(221)에서 참조 픽처로 사용될 수 있다. 인코딩 장치는 이를 통하여 인터 예측이 적용되는 경우, 인코딩 장치(100)와 디코딩 장치에서의 예측 미스매치를 피할 수 있고, 부호화 효율도 향상시킬 수 있다.
메모리(270) DPB는 수정된 복원 픽처를 인터 예측부(221)에서의 참조 픽처로 사용하기 위해 저장할 수 있다. 메모리(270)는 현재 픽처 내 움직임 정보가 도출된(또는 인코딩된) 블록의 움직임 정보 및/또는 이미 복원된 픽처 내 블록들의 움직임 정보를 저장할 수 있다. 상기 저장된 움직임 정보는 공간적 주변 블록의 움직임 정보 또는 시간적 주변 블록의 움직임 정보로 활용하기 위하여 인터 예측부(221)에 전달할 수 있다. 메모리(270)는 현재 픽처 내 복원된 블록들의 복원 샘플들을 저장할 수 있고, 인트라 예측부(222)에 전달할 수 있다.
도 3은 본 문서가 적용될 수 있는 비디오/영상 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3을 참조하면, 디코딩 장치(300)는 엔트로피 디코딩부(entropy decoder, 310), 레지듀얼 처리부(residual processor, 320), 예측부(predictor, 330), 가산부(adder, 340), 필터링부(filter, 350) 및 메모리(memoery, 360)를 포함하여 구성될 수 있다. 예측부(330)는 인터 예측부(331) 및 인트라 예측부(332)를 포함할 수 있다. 레지듀얼 처리부(320)는 역양자화부(dequantizer, 321) 및 역변환부(inverse transformer, 321)를 포함할 수 있다. 상술한 엔트로피 디코딩부(310), 레지듀얼 처리부(320), 예측부(330), 가산부(340) 및 필터링부(350)는 실시예에 따라 하나의 하드웨어 컴포넌트(예를 들어 디코더 칩셋 또는 프로세서)에 의하여 구성될 수 있다. 또한 메모리(360)는 DPB(decoded picture buffer)를 포함할 수 있고, 디지털 저장 매체에 의하여 구성될 수도 있다. 상기 하드웨어 컴포넌트는 메모리(360)을 내/외부 컴포넌트로 더 포함할 수도 있다.
비디오/영상 정보를 포함하는 비트스트림이 입력되면, 디코딩 장치(300)는 도 2의 인코딩 장치에서 비디오/영상 정보가 처리된 프로세스에 대응하여 영상을 복원할 수 있다. 예를 들어, 디코딩 장치(300)는 상기 비트스트림으로부터 획득한 블록 분할 관련 정보를 기반으로 유닛들/블록들을 도출할 수 있다. 디코딩 장치(300)는 인코딩 장치에서 적용된 처리 유닛을 이용하여 디코딩을 수행할 수 있다. 따라서 디코딩의 처리 유닛은 예를 들어 코딩 유닛일 수 있고, 코딩 유닛은 코딩 트리 유닛 또는 최대 코딩 유닛으로부터 쿼드 트리 구조, 바이너리 트리 구조 및/또는 터너리 트리 구조를 따라서 분할될 수 있다. 코딩 유닛으로부터 하나 이상의 변환 유닛이 도출될 수 있다. 그리고, 디코딩 장치(300)를 통해 디코딩 및 출력된 복원 영상 신호는 재생 장치를 통해 재생될 수 있다.
디코딩 장치(300)는 도 2의 인코딩 장치로부터 출력된 신호를 비트스트림 형태로 수신할 수 있고, 수신된 신호는 엔트로피 디코딩부(310)를 통해 디코딩될 수 있다. 예를 들어, 엔트로피 디코딩부(310)는 상기 비트스트림을 파싱하여 영상 복원(또는 픽처 복원)에 필요한 정보(ex. 비디오/영상 정보)를 도출할 수 있다. 상기 비디오/영상 정보는 어댑테이션 파라미터 세트(APS), 픽처 파라미터 세트(PPS), 시퀀스 파라미터 세트(SPS) 또는 비디오 파라미터 세트(VPS) 등 다양한 파라미터 세트에 관한 정보를 더 포함할 수 있다. 또한 상기 비디오/영상 정보는 일반 제한 정보(general constraint information)을 더 포함할 수 있다. 디코딩 장치는 상기 파라미터 세트에 관한 정보 및/또는 상기 일반 제한 정보를 더 기반으로 픽처를 디코딩할 수 있다. 본 문서에서 후술되는 시그널링/수신되는 정보 및/또는 신택스 요소들은 상기 디코딩 절차를 통하여 디코딩되어 상기 비트스트림으로부터 획득될 수 있다. 예컨대, 엔트로피 디코딩부(310)는 지수 골롬 부호화, CAVLC 또는 CABAC 등의 코딩 방법을 기초로 비트스트림 내 정보를 디코딩하고, 영상 복원에 필요한 신택스 엘리먼트의 값, 레지듀얼에 관한 변환 계수의 양자화된 값 들을 출력할 수 있다. 보다 상세하게, CABAC 엔트로피 디코딩 방법은, 비트스트림에서 각 구문 요소에 해당하는 빈을 수신하고, 디코딩 대상 구문 요소 정보와 주변 및 디코딩 대상 블록의 디코딩 정보 혹은 이전 단계에서 디코딩된 심볼/빈의 정보를 이용하여 문맥(context) 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 디코딩(arithmetic decoding)를 수행하여 각 구문 요소의 값에 해당하는 심볼을 생성할 수 있다. 이때, CABAC 엔트로피 디코딩 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 디코딩된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다. 엔트로피 디코딩부(310)에서 디코딩된 정보 중 예측에 관한 정보는 예측부(인터 예측부(332) 및 인트라 예측부(331))로 제공되고, 엔트로피 디코딩부(310)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수들 및 관련 파라미터 정보는 레지듀얼 처리부(320)로 입력될 수 있다. 레지듀얼 처리부(320)는 레지듀얼 신호(레지듀얼 블록, 레지듀얼 샘플들, 레지듀얼 샘플 어레이)를 도출할 수 있다. 또한, 엔트로피 디코딩부(310)에서 디코딩된 정보 중 필터링에 관한 정보는 필터링부(350)으로 제공될 수 있다. 한편, 인코딩 장치로부터 출력된 신호를 수신하는 수신부(미도시)가 디코딩 장치(300)의 내/외부 엘리먼트로서 더 구성될 수 있고, 또는 수신부는 엔트로피 디코딩부(310)의 구성요소일 수도 있다. 한편, 본 문서에 따른 디코딩 장치는 비디오/영상/픽처 디코딩 장치라고 불릴 수 있고, 상기 디코딩 장치는 정보 디코더(비디오/영상/픽처 정보 디코더) 및 샘플 디코더(비디오/영상/픽처 샘플 디코더)로 구분할 수도 있다. 상기 정보 디코더는 상기 엔트로피 디코딩부(310)를 포함할 수 있고, 상기 샘플 디코더는 상기 역양자화부(321), 역변환부(322), 가산부(340), 필터링부(350), 메모리(360), 인터 예측부(332) 및 인트라 예측부(331) 중 적어도 하나를 포함할 수 있다.
역양자화부(321)에서는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 출력할 수 있다. 역양자화부(321)는 양자화된 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 이 경우 상기 재정렬은 인코딩 장치에서 수행된 계수 스캔 순서를 기반하여 재정렬을 수행할 수 있다. 역양자화부(321)는 양자화 파라미터(예를 들어 양자화 스텝 사이즈 정보)를 이용하여 양자화된 변환 계수들에 대한 역양자화를 수행하고, 변환 계수들(transform coefficient)를 획득할 수 있다.
역변환부(322)에서는 변환 계수들를 역변환하여 레지듀얼 신호(레지듀얼 블록, 레지듀얼 샘플 어레이)를 획득하게 된다.
예측부는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부는 엔트로피 디코딩부(310)로부터 출력된 상기 예측에 관한 정보를 기반으로 상기 현재 블록에 인트라 예측이 적용되는지 또는 인터 예측이 적용되는지 결정할 수 있고, 구체적인 인트라/인터 예측 모드를 결정할 수 있다.
예측부(320)는 후술하는 다양한 예측 방법을 기반으로 예측 신호를 생성할 수 있다. 예를 들어, 예측부는 하나의 블록에 대한 예측을 위하여 인트라 예측 또는 인터 예측을 적용할 수 있을 뿐 아니라, 인트라 예측과 인터 예측을 동시에 적용할 수 있다. 이는 combined inter and intra prediction (CIIP)라고 불릴 수 있다. 또한, 예측부는 블록에 대한 예측을 위하여 인트라 블록 카피(intra block copy, IBC) 예측 모드에 기반할 수도 있고 또는 팔레트 모드(palette mode)에 기반할 수도 있다. 상기 IBC 예측 모드 또는 팔레트 모드는 예를 들어 SCC(screen content coding) 등과 같이 게임 등의 컨텐츠 영상/동영상 코딩을 위하여 사용될 수 있다. IBC는 기본적으로 현재 픽처 내에서 예측을 수행하나 현재 픽처 내에서 참조 블록을 도출하는 점에서 인터 예측과 유사하게 수행될 수 있다. 즉, IBC는 본 문서에서 설명되는 인터 예측 기법들 중 적어도 하나를 이용할 수 있다. 팔레트 모드는 인트라 코딩 또는 인트라 예측의 일 예로 볼 수 있다. 팔레트 모드가 적용되는 경우 팔레트 테이블 및 팔레트 인덱스에 관한 정보가 상기 비디오/영상 정보에 포함되어 시그널링될 수 있다.
인트라 예측부(331)는 현재 픽처 내의 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 참조되는 샘플들은 예측 모드에 따라 상기 현재 블록의 주변(neighbor)에 위치할 수 있고, 또는 떨어져서 위치할 수도 있다. 인트라 예측에서 예측 모드들은 복수의 비방향성 모드와 복수의 방향성 모드를 포함할 수 있다. 인트라 예측부(331)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측부(332)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록(참조 샘플 어레이)을 기반으로, 현재 블록에 대한 예측된 블록을 유도할 수 있다. 이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 움직임 정보를 블록, 서브블록 또는 샘플 단위로 예측할 수 있다. 상기 움직임 정보는 움직임 벡터 및 참조 픽처 인덱스를 포함할 수 있다. 상기 움직임 정보는 인터 예측 방향(L0 예측, L1 예측, Bi 예측 등) 정보를 더 포함할 수 있다. 인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 예를 들어, 인터 예측부(332)는 주변 블록들을 기반으로 움직임 정보 후보 리스트를 구성하고, 수신한 후보 선택 정보를 기반으로 상기 현재 블록의 움직임 벡터 및/또는 참조 픽처 인덱스를 도출할 수 있다. 다양한 예측 모드를 기반으로 인터 예측이 수행될 수 있으며, 상기 예측에 관한 정보는 상기 현재 블록에 대한 인터 예측의 모드를 지시하는 정보를 포함할 수 있다.
가산부(340)는 획득된 레지듀얼 신호를 예측부(인터 예측부(332) 및/또는 인트라 예측부(331) 포함)로부터 출력된 예측 신호(예측된 블록, 예측 샘플 어레이)에 더함으로써 복원 신호(복원 픽처, 복원 블록, 복원 샘플 어레이)를 생성할 수 있다. 스킵 모드가 적용된 경우와 같이 처리 대상 블록에 대한 레지듀얼이 없는 경우, 예측된 블록이 복원 블록으로 사용될 수 있다.
가산부(340)는 복원부 또는 복원 블록 생성부라고 불릴 수 있다. 생성된 복원 신호는 현재 픽처 내 다음 처리 대상 블록의 인트라 예측을 위하여 사용될 수 있고, 후술하는 바와 같이 필터링을 거쳐서 출력될 수도 있고 또는 다음 픽처의 인터 예측을 위하여 사용될 수도 있다.
한편, 픽처 디코딩 과정에서 LMCS (luma mapping with chroma scaling)가 적용될 수도 있다.
필터링부(350)는 복원 신호에 필터링을 적용하여 주관적/객관적 화질을 향상시킬 수 있다. 예를 들어 필터링부(350)는 복원 픽처에 다양한 필터링 방법을 적용하여 수정된(modified) 복원 픽처를 생성할 수 있고, 상기 수정된 복원 픽처를 메모리(360), 구체적으로 메모리(360)의 DPB에 전송할 수 있다. 상기 다양한 필터링 방법은 예를 들어, 디블록킹 필터링, 샘플 적응적 오프셋(sample adaptive offset), 적응적 루프 필터(adaptive loop filter), 양방향 필터(bilateral filter) 등을 포함할 수 있다.
메모리(360)의 DPB에 저장된 (수정된) 복원 픽처는 인터 예측부(332)에서 참조 픽쳐로 사용될 수 있다. 메모리(360)는 현재 픽처 내 움직임 정보가 도출된(또는 디코딩된) 블록의 움직임 정보 및/또는 이미 복원된 픽처 내 블록들의 움직임 정보를 저장할 수 있다. 상기 저장된 움직임 정보는 공간적 주변 블록의 움직임 정보 또는 시간적 주변 블록의 움직임 정보로 활용하기 위하여 인터 예측부(260)에 전달할 수 있다. 메모리(360)는 현재 픽처 내 복원된 블록들의 복원 샘플들을 저장할 수 있고, 인트라 예측부(331)에 전달할 수 있다.
본 명세서에서, 인코딩 장치(200)의 필터링부(260), 인터 예측부(221) 및 인트라 예측부(222)에서 설명된 실시예들은 각각 디코딩 장치(300)의 필터링부(350), 인터 예측부(332) 및 인트라 예측부(331)에도 동일 또는 대응되도록 적용될 수 있다.
상술한 바와 같이 비디오 코딩을 수행함에 있어 압축 효율을 높이기 위하여 예측을 수행한다. 이를 통하여 코딩 대상 블록인 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록을 생성할 수 있다. 여기서 상기 예측된 블록은 공간 도메인(또는 픽셀 도메인)에서의 예측 샘플들을 포함한다. 상기 예측된 블록은 인코딩 장치 및 디코딩 장치에서 동일하게 도출되며, 상기 인코딩 장치는 원본 블록의 원본 샘플 값 자체가 아닌 상기 원본 블록과 상기 예측된 블록 간의 레지듀얼에 대한 정보(레지듀얼 정보)를 디코딩 장치로 시그널링함으로써 영상 코딩 효율을 높일 수 있다. 디코딩 장치는 상기 레지듀얼 정보를 기반으로 레지듀얼 샘플들을 포함하는 레지듀얼 블록을 도출하고, 상기 레지듀얼 블록과 상기 예측된 블록을 합하여 복원 샘플들을 포함하는 복원 블록을 생성할 수 있고, 복원 블록들을 포함하는 복원 픽처를 생성할 수 있다.
상기 레지듀얼 정보는 변환 및 양자화 절차를 통하여 생성될 수 있다. 예를 들어, 인코딩 장치는 상기 원본 블록과 상기 예측된 블록 간의 레지듀얼 블록을 도출하고, 상기 레지듀얼 블록에 포함된 레지듀얼 샘플들(레지듀얼 샘플 어레이)에 변환 절차를 수행하여 변환 계수들을 도출하고, 상기 변환 계수들에 양자화 절차를 수행하여 양자화된 변환 계수들을 도출하여 관련된 레지듀얼 정보를 (비트스트림을 통하여) 디코딩 장치로 시그널링할 수 있다. 여기서 상기 레지듀얼 정보는 상기 양자화된 변환 계수들의 값 정보, 위치 정보, 변환 기법, 변환 커널, 양자화 파라미터 등의 정보를 포함할 수 있다. 디코딩 장치는 상기 레지듀얼 정보를 기반으로 역양자화/역변환 절차를 수행하고 레지듀얼 샘플들(또는 레지듀얼 블록)을 도출할 수 있다. 디코딩 장치는 예측된 블록과 상기 레지듀얼 블록을 기반으로 복원 픽처를 생성할 수 있다. 인코딩 장치는 또한 이후 픽처의 인터 예측을 위한 참조를 위하여 양자화된 변환 계수들을 역양자화/역변환하여 레지듀얼 블록을 도출하고, 이를 기반으로 복원 픽처를 생성할 수 있다.
도 4는 일 실시예에 따른 CABAC 인코딩 시스템의 블록도를 도시하는 도면으로, 단일 구문 요소를 코딩하기 위한 CABAC(context-adaptive binary arithmetic coding)의 블록도를 나타낸다.
CABAC의 인코딩 과정은 먼저 입력 신호가 이진값이 아닌 구문요소(syntax)인 경우에 이진화를 통해 입력 신호를 이진값로 변환한다. 입력 신호가 이미 이진값인 경우에는 이진화를 거치지 않고 바이패스, 즉 코딩 엔진으로 입력될 수 있다. 여기서, 이진값을 구성하는 각각의 이진수 0 또는 1을 빈(bin)이라고 할 수 있다. 예를 들어, 이진화된 후의 이진 스트링이 110인 경우, 1, 1, 0 각각을 하나의 빈이라고 한다. 하나의 구문요소에 대한 상기 빈(들)은 해당 구문요소의 값을 나타낼 수 있다.
이진화된 빈들은 정규(regular) 코딩 엔진 또는 바이패스 코딩 엔진으로 입력될 수 있다.
정규 코딩 엔진은 해당 빈에 대해 확률값을 반영하는 문맥을 모델을 할당하고, 할당된 문맥 모델에 기반해 해당 빈을 코딩할 수 있다. 정규 코딩 엔진에서는 각 빈에 대한 코딩를 수행한 뒤에 해당 빈에 대한 확률 모델을 갱신할 수 있다. 이렇게 코딩되는 빈들을 문맥 코딩된 빈(context-coded bin)이라 할 수 있다.
바이패스 코딩 엔진은 입력된 빈에 대해 확률을 추정하는 절차와 코딩 후에 해당 빈에 적용했던 확률 모델을 갱신하는 절차를 생략한다. 문맥을 할당하는 대신 균일한 확률 분포를 적용해 입력되는 빈을 코딩함으로써 코딩 속도를 향상시킨다. 이렇게 코딩되는 빈들을 바이패스 빈(bypass bin)이라 한다.
엔트로피 인코딩은 정규 코딩 엔진을 통해 코딩을 수행할 것인지, 바이패스 코딩 엔진을 통해 코딩을 수행할 것인지를 결정하고, 코딩 경로를 스위칭할 수 있다. 엔트로피 디코딩은 엔트로피 인코딩과 동일한 과정을 역순으로 수행한다.
한편, 일 실시예에서, (양자화된) 변환 계수는 transform_skip_flag, last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix, last_sig_coeff_y_suffix, coded_sub_block_flag, sig_coeff_flag, abs_level_gt1_flag, par_level_flag, abs_level_gt3_flag, abs_remainder, dec_abs_level, coeff_sign_flag 및/또는 mts_idx 등의 신택스 요소들(syntax elements)을 기반으로 부호화 및/또는 복호화될 수 있다.
예를 들어, 레지듀얼 관련 정보 또는 레지듀얼 관련 정보에 포함된 신택스 요소들은 표 1 내지 표 6과 같이 나타낼 수 있다. 또는 레지듀얼 관련 정보에 포함된 레지듀얼 코딩 정보 또는 레지듀얼 코딩 신택스에 포함된 신택스 요소들은 표 1 내지 표 6과 같이 나타낼 수 있다. 표 1 내지 표 6은 하나의 신택스를 연속하여 나타낼 수 있다.
Figure PCTKR2020000064-appb-T000001
Figure PCTKR2020000064-appb-T000002
Figure PCTKR2020000064-appb-T000003
Figure PCTKR2020000064-appb-T000004
Figure PCTKR2020000064-appb-T000005
Figure PCTKR2020000064-appb-T000006
예를 들어, 레지듀얼 관련 정보는 레지듀얼 코딩 정보(또는 레지듀얼 코딩에 신택스에 포함된 신택스 요소들) 또는 변환 유닛 정보(또는 변환 유닛 신택스에 포함된 신택스 요소들)를 포함할 수 있고, 레지듀얼 코딩 정보는 표 7 내지 표 10과 같이 나타낼 수 있고, 변환 유닛 정보는 표 11 또는 표 12와 같이 나타낼 수 있다. 표 7 내지 표 10은 하나의 신택스를 연속하여 나타낼 수 있다.
Figure PCTKR2020000064-appb-T000007
Figure PCTKR2020000064-appb-T000008
Figure PCTKR2020000064-appb-T000009
Figure PCTKR2020000064-appb-T000010
Figure PCTKR2020000064-appb-T000011
Figure PCTKR2020000064-appb-T000012
상기 신택스 요소 transform_skip_flag는 연관된 블록(associated block)에 변환이 생략되는지 여부를 나타낸다. 상기 연관된 블록은 CB(coding block) 또는 TB(Transform block)일 수 있다. 변환(및 양자화) 및 레지듀얼 코딩 절차에 관하여, CB와 TB는 혼용될 수 있다. 예를 들어, CB에 대하여 레지듀얼 샘플들이 도출되고, 상기 레지듀얼 샘플들에 대한 변환 및 양자화를 통하여 (양자화된) 변환 계수들이 도출될 수 있음은 상술한 바와 같으며, 레지듀얼 코딩 절차를 통하여 상기 (양자화된) 변환 계수들의 위치, 크기, 부호 등을 효율적으로 나타내는 정보(예를 들어, 신텍스 요소들)이 생성되고 시그널링 될 수 있다. 양자화된 변환 계수들은 간단히 변환 계수들이라고 불릴 수 있다. 일반적으로 CB가 최대 TB보다 크지 않은 경우 CB의 사이즈는 TB의 사이즈와 같을 수 있으며, 이 경우 변환(및 양자화) 및 레지듀얼 코딩되는 대상 블록은 CB 또는 TB라고 불릴 수 있다. 한편, CB가 최대 TB보다 큰 경우에는 변환(및 양자화) 및 레지듀얼 코딩되는 대상 블록은 TB라고 불릴 수 있다. 이하 레지듀얼 코딩에 관련된 신텍스 요소들이 변환 블록(TB) 단위로 시그널링되는 것으로 설명하나, 이는 예시로서 상기 TB는 코딩 블록(CB)과 혼용될 수 있음은 상술한 바와 같다.
상기 표 1 내지 6에서 상기 신택스 요소 transform_skip_flag는 레지듀얼 코딩 신택스에서 시그널링되는 것으로 나타내었으나, 이는 예시이며, 상기 신택스 요소 transform_skip_flag는 상기 표 11 또는 12와 같이 변환 유닛 신택스에서 시그널링될 수도 있다. 상기 레지듀얼 코딩 신택스 및 상기 변환 유닛 신텍스는 상기 레지듀얼 (관련) 정보로 통칭할 수 있다. 예를 들어, 상기 신택스 요소 transform_skip_flag는 루마 성분 (루마 성분 블록)에 대하여만 시그널링될 수 있다(표 11 참조). 구체적으로 예를 들어, 상기 휘도 성분 블록에 0이 아닌 유효 계수가 존재하는 경우에, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그(transform_skip_flag)를 포함할 수 있다. 이 경우, 상기 레지듀얼 관련 정보는 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않는다. 즉, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하고, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 다시 말하면, 이 경우, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그는 명시적으로 시그널링되지 않고, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그의 값은 0으로 도출/추론(infer)될 수 있다.
또는 다른 예로, 상기 신택스 요소 transform_skip_flag는 휘도 성분 (휘도 성분 블록) 및 색차 성분 (색차 성분 블록)에 대하여 각각 시그널링될 수도 있다(표 12 참조).
다시 상기 표 1 내지 6 또는 7 내지 10을 참조하면, 일 실시예에서, 신택스 요소 last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix 및 last_sig_coeff_y_suffix를 기반으로 변환 블록 내의 마지막 0이 아닌 변환 계수의 (x, y) 위치 정보를 코딩할 수 있다. 보다 구체적으로, 신택스 요소 last_sig_coeff_x_prefix는 변환 블록 내 스캔 순서(scanning order)에서의 마지막(last) 유효 계수(significant coefficient)의 열 위치(column position)의 프리픽스(prefix)를 나타내고, last_sig_coeff_y_prefix는 상기 변환 블록 내 상기 스캔 순서(scanning order)에서의 마지막(last) 유효 계수(significant coefficient)의 행 위치(row position)의 프리픽스(prefix)를 나타내고, 신택스 요소 last_sig_coeff_x_suffix는 상기 변환 블록 내 상기 스캔 순서(scanning order)에서의 마지막(last) 유효 계수(significant coefficient)의 열 위치(column position)의 서픽스(suffix)를 나타내고, 신택스 요소 last_sig_coeff_y_suffix는 상기 변환 블록 내 상기 스캔 순서(scanning order)에서의 마지막(last) 유효 계수(significant coefficient)의 행 위치(row position)의 서픽스(suffix)를 나타낸다. 여기서, 유효 계수는 상기 0이 아닌 계수를 나타낼 수 있다. 상기 스캔 순서는 우상향 대각 스캔 순서일 수 있다. 또는 상기 스캔 순서는 수평 스캔 순서, 또는 수직 스캔 순서일 수 있다. 상기 스캔 순서는 대상 블록(CB, 또는 TB를 포함하는 CB)에 인트라/인터 예측이 적용되는지 여부 및/또는 구체적인 인트라/인터 예측 모드를 기반으로 결정될 수 있다.
그 다음, 변환 블록을 4x4 서브 블록(sub-block)들로 분할한 후, 각 4x4 서브 블록마다 1비트의 신택스 요소 coded_sub_block_flag를 사용하여 현재 서브 블록 내에 0이 아닌 계수가 존재하는지 여부를 나타낼 수 있다. 상기 서브 블록은 CG(Coefficient Group)과 혼용되어 사용될 수 있다.
신택스 요소 coded_sub_block_flag의 값이 0이면 더 이상 전송할 정보가 없으므로 현재 서브 블록에 대한 코딩 과정을 종료할 수 있다. 반대로, 신택스 요소 coded_sub_block_flag의 값이 1이면 신택스 요소 sig_coeff_flag에 대한 코딩 과정을 계속해서 수행할 수 있다. 마지막 0이 아닌 계수를 포함하는 서브 블록은 신택스 요소 coded_sub_block_flag에 대한 코딩이 불필요하고, 변환 블록의 DC 정보를 포함하고 있는 서브 블록은 0이 아닌 계수를 포함할 확률이 높으므로, 신택스 요소 coded_sub_block_flag는 코딩되지 않고 그 값이 1이라고 가정될 수 있다.
만약 신택스 요소 coded_sub_block_flag의 값이 1이어서 현재 서브 블록 내에 0이 아닌 계수가 존재한다고 판단되는 경우, 역으로 스캔된 순서에 따라 이진값을 갖는 신택스 요소 sig_coeff_flag를 코딩할 수 있다. 스캔 순서에 따라 각각의 계수에 대해 1비트 신택스 요소 sig_coeff_flag를 코딩할 수 있다. 만약 현재 스캔 위치에서 변환 계수의 값이 0이 아니면 신택스 요소 sig_coeff_flag의 값은 1이 될 수 있다. 여기서, 마지막 0이 아닌 계수를 포함하고 있는 서브 블록의 경우, 마지막 0이 아닌 계수에 대해서는 신택스 요소 sig_coeff_flag를 코딩할 필요가 없으므로 상기 서브 블록에 대한 코딩 과정이 생략될 수 있다. 신택스 요소 sig_coeff_flag가 1인 경우에만 레벨 정보 코딩이 수행될 수 있으며, 레벨 정보 코딩 과정에는 네 개의 신택스 요소를 사용할 수 있다. 보다 구체적으로, 각 신택스 요소 sig_coeff_flag[xC][yC]는 현재 TB내 각 변환 계수 위치 (xC, yC)에서의 해당 변환 계수의 레벨(값)이 0이 아닌지(non-zero) 여부를 나타낼 수 있다. 일 실시예에서, 상기 신택스 요소 sig_coeff_flag는 양자화된 변환 계수가 0이 아닌 유효 계수인지 여부를 나타내는 유효 계수 플래그의 일 예시에 해당할 수 있다.
신택스 요소 sig_coeff_flag에 대한 코딩 이후의 남은 레벨 값은 아래의 수학식 1과 같을 수 있다. 즉, 코딩해야 할 레벨 값을 나타내는 신택스 요소 remAbsLevel은 아래의 수학식 1과 같을 수 있다. 여기서, coeff는 실제 변환 계수값을 의미할 수 있다.
Figure PCTKR2020000064-appb-M000001
신택스 요소 abs_level_gt1_flag는 해당 스캐닝 위치(n)에서의 remAbsLevel'이 1보다 큰 지 여부를 나타낼 수 있다. abs_level_gt1_flag의 값이 0이면 해당 위치의 계수의 절댓값은 1일 수 있다. abs_level_gt1_flag의 값이 1이면, 이후 코딩해야 할 레벨 값 remAbsLevel은 아래의 수학식 2와 같을 수 있다.
Figure PCTKR2020000064-appb-M000002
신택스 요소 par_level_flag을 통하여 아래의 수학식 3과 같이, 수학식 2에 기재된 remAbsLevel의 least significant coefficient (LSB) 값을 코딩할 수 있다. 여기서, 신택스 요소 par_level_flag[n]는 스캐닝 위치 n에서의 변환 계수 레벨(값)의 패리티(parity)를 나타낼 수 있다. 신택스 요소 par_level_flag 코딩 후에 코딩해야 할 변환 계수 레벨 값 remAbsLevel을 아래의 수학식 4와 같이 업데이트할 수 있다.
Figure PCTKR2020000064-appb-M000003
Figure PCTKR2020000064-appb-M000004
신택스 요소 abs_level_gt3_flag는 해당 스캐닝 위치(n)에서의 remAbsLevel'이 3보다 큰 지 여부를 나타낼 수 있다. 신택스 요소 abs_level_gt3_flag가 1인 경우에만 신택스 요소 abs_remainder의 코딩이 수행될 수 있다. 실제 변환 계수값인 coeff와 각 구문 요소(syntax)들의 관계를 정리하면 아래의 수학식 5와 같을 수 있으며, 아래의 표 13은 수학식 5와 관련된 예시들을 나타낼 수 있다. 마지막으로, 각 계수의 부호는 1비트 심볼인 신택스 요소 coeff_sign_flag를 이용해 코딩될 수 있다. |coeff|는 변환 계수 레벨(값)을 나타낼 수 있으며, 변환 계수에 대한 AbsLevel이라고 표시될 수도 있다.
Figure PCTKR2020000064-appb-M000005
Figure PCTKR2020000064-appb-T000013
일 실시예에서 상기 par_level_flag는 상기 양자화된 변환 계수에 대한 변환 계수 레벨의 패리티에 대한 패리티 레벨 플래그의 일 예시를 나타내고, 상기 abs_level_gt1_flag는 변환 계수 레벨 또는 코딩해야 할 레벨(값)이 제1 임계치보다 큰지 여부에 대한 제1 변환 계수 레벨 플래그의 일 예시를 나타내고, 상기 abs_level_gt3_flag는 변환 계수 레벨 또는 코딩해야 할 레벨(값)이 제2 임계치보다 큰지 여부에 대한 제2 변환 계수 레벨 플래그의 일 예시를 나타낼 수 있다.
도 5는 4x4 블록 내 변환 계수들의 예시를 도시하는 도면이다.
도 5의 4x4 블록은 양자화된 계수들의 일 예를 나타낼 수 있다. 도 5에 도시된 블록은 4x4 변환 블록이거나, 또는 8x8, 16x16, 32x32, 64x64 변환 블록의 4x4 서브 블록일 수 있다. 도 5의 4x4 블록은 휘도 블록 또는 색차 블록을 나타낼 수 있다. 도 5의 역 대각선 스캔되는 계수들에 대한 코딩 결과는, 예를 들어 표 3과 같을 수 있다. 표 14에서 scan_pos는 역 대각선 스캔에 따른 계수의 위치를 나타낼 수 있다. scan_pos 15는 4x4 블록에서 가장 먼저 스캔되는, 즉 우측하단 코너의 계수를 나타낼 수 있고 scan_pos 0은 가장 나중에 스캔되는, 즉 좌측상단 코너의 계수를 나타낼 수 있다. 한편, 일 실시예에서 상기 scan_pos는 스캔 위치라고 지칭될 수도 있다. 예를 들어, 상기 scan_pos 0은 스캔 위치 0이라고 지칭될 수 있다.
Figure PCTKR2020000064-appb-T000014
한편, CABAC은 높은 성능을 제공하지만 처리량(throughput) 성능이 좋지 않다는 단점을 갖는다. 이는 CABAC의 정규 코딩 엔진으로 인한 것인데, 정규 코딩은 이전 빈의 코딩을 통해 업데이트된 확률 상태와 범위를 사용하기 때문에 높은 데이터 의존성을 보이며, 확률 구간을 읽고 현재 상태를 판단하는데 많은 시간이 소요될 수 있다. 이는 문맥 코딩된 빈(context-coded bin)의 수를 제한함으로써 CABAC의 처리량 문제를 해결할 수 있다. 따라서, 표 1 내지 표 6 또는 표 7 내지 표 11과 같이 신택스 요소 sig_coeff_flag, abs_level_gt1_flag, par_level_flag를 표현하기 위해 사용된 빈의 합이 서브 블록의 크기에 따라 4x4 서브 블록일 경우 28, 2x2 서브 블록일 경우 6(remBinsPass1)으로 제한될 수 있으며, 신택스 요소 abs_level_gt3_flag의 문맥 코딩된 빈의 수가 4x4 서브 블록일 경우 4, 2x2 서브 블록일 경우 2(remBinsPass2)로 제한될 수 있다. 문맥 요소를 코딩하는 데에 제한된 문맥 코딩된 빈을 모두 사용할 경우, 나머지 계수들은 CABAC을 사용하지 않고 이진화하여 bypass 코딩을 수행할 수 있다.
도 6은 본 문서의 일 예에 따른 잔차 신호 복호화부를 도시한 도면이다.
한편, 상기 표 1 내지 표 6 또는 표 7 내지 표 10을 참조하여 설명한 것과 같이, 잔차 신호, 특히 레지듀얼 신호를 코딩하기 전 해당 블록의 변환 적용 여부를 우선 전달할 수 있다. 변환 도메인에서의 잔차 신호 간 상관성을 표현함으로써 데이터의 압축(compaction)이 이루어지고 이를 디코딩 장치로 전달하는데, 만일 잔차 신호간 상관성이 부족할 경우 데이터 압축이 충분히 발생하지 않을 수 있다. 이러한 경우는 복잡한 계산 과정을 포함하는 변환 과정을 생략하고, 픽셀 도메인(공간 도메인)의 잔차 신호를 디코딩 장치로 전달할 수 있다.
변환을 거치지 않은 픽셀 도메인의 잔차 신호는 일반적인 변환 도메인의 잔차 신호와 특성 (잔차 신호의 분포도, 각 잔차 신호의 절대값 레벨(absolute level) 등)이 다르므로, 이하에서는 본 문서의 일 실시예에 따라 이러한 신호를 디코딩 장치로 효율적으로 전달하기 위한 잔차 신호 코딩 방법을 제안한다.
도 6에서 도시된 바와 같이, 잔차 신호 복호화부(600)에는 해당 변환 블록에 변환이 적용되는지 여부를 나타내는 변환 적용 여부 플래그와 비트스트림(또는 코딩된 이진화 코드에 대한 정보)이 입력될 수 있고, (복호화된) 잔차 신호가 출력될 수 있다.
변환 적용 여부 플래그는 변환 여부 플래그, 변환 스킵 여부 플래그 또는 신택스 요소 transform_skip_flag에 의해 나타낼 수 있다. 코딩된 이진화 코드는 이진화 과정을 거쳐 잔차 신호 복호화부(600)로 입력될 수도 있다.
잔차 신호 복호화부(600)는 디코딩 장치의 엔트로피 디코딩부에 포함될 수 있다. 또한, 도 6에서 상기 변환 적용 여부 플래그는 설명의 편의를 위해 비트스트림과 구분하였으나, 상기 변환 적용 여부 플래그는 상기 비트스트림에 포함될 수 있다. 또는 상기 비트스트림은 상기 변환 적용 여부 플래그뿐만 아니라 변환 계수들에 관한 정보(변환이 적용되는 경우, 신택스 요소 transform_skip_flag = 0) 또는 잔차 샘플(의 값)에 관한 정보(변환이 적용되지 않은 경우, transform_skip_flag = 1)를 포함할 수 있다. 상기 변환 계수들에 관한 정보는 예를 들어, 상기 표 1 내지 표 6 또는 표 7 내지 표 10에서 나타낸 정보들(또는 신택스 요소들)을 포함할 수 있다.
변환 스킵 여부 플래그는 변환 블록 단위로 전송될 수 있으며, 예를 들어 표 1 내지 표 6에서는 변환 스킵 여부 플래그를 특정 블록 크기로 한정하나(변환 블록의 크기가 4x4 이하일 때만 transform_skip_flag를 파싱하는 조건이 포함됨), 일 실시예에서는 변환 스킵 여부 플래그의 파싱 여부를 결정하는 블록의 크기를 다양하게 구성할 수 있다. log2TbWidth 및 log2TbHeight의 크기는 변수 wN과 hN으로 결정될 수 있며, wN 및 hN은 예를 들어 수학식 6에서 나타낸 다음 중 하나의 값을 가질 수 있다.
Figure PCTKR2020000064-appb-M000006
예를 들어, 수학식 6에 따른 값을 가지는 wN 및 hN이 적용될 수 있는 신택스 요소는 표 15와 같이 나타낼 수 있다.
Figure PCTKR2020000064-appb-T000015
예를 들어, wN 및 hN은 각각 5의 값을 가질 수 있으며, 이 경우 너비가 32보다 작거나 같고, 높이가 32보다 작거나 같은 블록에 대하여 상기 변환 스킵 여부 플래그가 시그널링될 수 있다. 또는 wN 및 hN은 각각 6의 값을 가질 수 있으며, 이 경우 너비가 64보다 작거나 같고, 높이가 64보다 작거나 같은 블록에 대하여 상기 변환 스킵 여부 플래그가 시그널링될 수 있다. 예를 들어, wN 및 hN은 수학식 6과 같이 2, 3, 4, 5 또는 6의 값을 가질 수 있으며, 서로 같은 값을 가질 수 있고, 서로 다른 값을 가질 수도 있다. 또한, wN 및 hN의 값을 기반으로 변환 스킵 여부 플래그가 시그널링될 수 있는 블록의 너비 및 높이가 결정될 수 있다.
상술된 바와 같이, 변환 스킵 여부 플래그에 따라, 잔차 신호를 디코딩 하는 방법이 결정될 수 있다. 제안하는 방법을 통하여, 서로 통계적 특성이 다른 신호를 효율적으로 처리함으로써 엔트로피 복호화 과정에서의 복잡도를 절감하고 코딩 효율을 향상시킬 수 있다.
도 7은 본 문서의 일 예에 따른 변환 스킵 플래그 파싱 결정부를 도시한 도면이다.
한편, 상기 표 1 내지 표 6 또는 표 7 내지 표 10을 참조하여 설명한 것과 같이, 일 실시예는 잔차 신호를 코딩하기 전 해당 블록의 변환 적용 여부를 우선 전달할 수 있다. 변환 도메인에서의 잔차 신호 간 상관성을 표현함으로써 데이터의 압축(compaction)이 이루어지고, 이를 디코더로 전달하는데, 만일 잔차 신호간 상관성이 부족할 경우 데이터 압축이 충분히 발생하지 않을 수 있다. 이러한 경우는 복잡한 계산과정을 포함하는 변환 과정을 생략하고 픽셀 도메인(공간 도메인)의 잔차 신호를 디코더로 전달할 수 있다. 변환을 거차지 않은 픽셀 도메인의 잔차 신호는 일반적인 변환 도메인의 잔차 신호와 특성 (잔차 신호의 분포도, 각 잔차 신호의 absolute level 등)이 다르므로, 이러한 신호를 디코더에 효율적으로 전달하기 위한 잔차 신호 부호화 방법을 제안한다.
변환 스킵 여부 플래그는 변환 블록 단위로 전송될 수 있으며, 예를 들어 변환 스킵 여부 플래그의 시그널링을 특정 블록 크기로 한정하나(변환 블록의 크기가 4x4 이하일 때만 transform_skip_flag를 파싱하는 조건이 포함됨), 일 실시예에서는 변환 스킵 여부 플래그의 파싱 여부를 결정하는 조건을 블록의 너비 또는 높이에 대한 정보가 아닌 블록 내의 픽셀 또는 샘플의 개수로 정의할 수 있다. 즉, 변환 스킵 여부 플래그(예를 들어, 신택스 요소 transform_skip_flag)를 파싱하기 위하여 사용하는 조건 중 log2TbWidth 및 log2TbHeight의 곱을 이용하는 것으로 정의할 수 있다. 또는 변환 스킵 여부 플래그는 블록의 너비(예를 들어, log2TbWidth) 및 높이(예를 들어, log2TbHeight)의 곱을 기반으로 파싱될 수 있다. 또는 변환 스킵 여부 플래그는 블록의 너비(예를 들어, log2TbWidth) 및 높이(예를 들어, log2TbHeight)를 곱한 값에 따라 파싱 여부가 결정될 수 있다. 예를 들어, log2TbWidth 및 log2TbHeight는 수학식 7에서 나타낸 다음 중 하나의 값을 가질 수 있다.
Figure PCTKR2020000064-appb-M000007
일 실시예에 따르면, 블록 내 샘플의 개수를 기반으로 변환 스킵 여부 플래그의 파싱 여부를 결정할 경우, 블록의 너비 및 높이를 기반으로 상기 파싱 여부를 결정하는 것보다 다양한 모양의 블록을 (변환 스킵 여부 플래그를 파싱하지 않는) 변환 제외 블록에 포함시킬 수 있다.
예를 들어, log2TbWidth 및 log2TbHeight가 모두 2로 정의된 경우, 2x4, 4x2 및 4x4의 블록만 변환 제외 블록에 포함될 수 있으나, 샘플 개수로 제어할 경우 블록 내에 샘플의 개수가 16개 이하인 블록이 변환 제외 블록에 포함되므로, 상기 2x4, 4x2 및 4x4의 블록뿐만 아니라 2x8 및 8x2 크기의 블록도 변환 제외 블록에 포함시킬 수 있다.
상기의 변환 스킵 여부 플래그에 따라 잔차 신호를 디코딩 하는 방법이 결정될 수 있으며, 상술한 실시예에 따라 서로 통계적 특성이 다른 신호를 효율적으로 처리함으로써 엔트로피 디코딩 과정에서의 복잡도를 절감하고 코딩 효율을 향상시킬 수 있다.
예를 들어, 도 7에서 도시된 바와 같이, 변환 스킵 플래그 파싱 결정부(700)에는 고급 문법 내 변환 스킵 허용 여부에 대한 정보, 블록 크기 정보 및 MTS(Multiple Transform Selection) 적용 여부에 대한 정보가 입력될 수 있고, 변환 스킵 플래그가 출력될 수 있다. 상술한 정보들은 비트스트림 또는 신택스에 포함될 수 있다. 변환 스킵 플래그 파싱 결정부(700)는 디코딩 장치의 엔트로피 디코딩부에 포함될 수 있다. 예를 들어, 상술한 정보들을 기반으로 변환 스킵 플래그가 결정되는 방법은 다음과 같을 수 있다.
도 8은 본 문서의 일 실시예에 따른 변환 스킵 여부 플래그를 코딩하는 방법을 설명하기 위한 순서도이다.
상술한 실시예를 도 8을 참조하여 다시 설명하면 다음과 같다.
우선, 고급 문법(high level syntax) 내 변환 스킵이 허용(enable)되는지가 판단될 수 있다(S800). 예를 들어, 상기 고급 문법 내 변환 스킵 허용 여부에 대한 정보(ex. transform_skip_enabled_flag)를 기반으로 상기 고급 문법 내 변환 스킵이 허용되는지가 판단될 수 있다. 예를 들어, 상기 변환 스킵 허용 여부에 대한 정보(. ex. transform_skip_enabled_flag)는 PPS(picture parameter set)에서 시그널링될 수 있다. 여기서 상기 고급 문법 내 변환 스킵이 허용된다 함은 해당 고급 문법을 참조하는 슬라이스/블록에 변환 스킵이 허용됨을 나타낼 수 있다. 상기 변환 스킵이 허용되는 블록에 실질적으로 변환 스킵이 적용되는지 여부는 상술한 변환 스킵 플래그를 기반으로 결정될 수 있다.
예를 들어, 상기 고급 문법 내 변환 스킵이 허용되는 경우, 신택스 내에 신택스 요소 cu_mts_flag의 값이 0인지가 판단될 수 있다(S810). 예를 들어, 상기 MTS(Multiple Transform Selection) 적용 여부에 대한 정보를 기반으로 상기 신택스 요소 cu_mts_flag의 값이 0인지가 판단될 수 있다. 또는 상기 MTS 적용 여부에 대한 정보는 상기 신택스 요소 cu_mts_flag를 포함할 수 있다. 또는 상기 MTS 적용 여부에 대한 정보는 신택스 요소 sps_mts_enabled_flag를 포함할 수도 있으며, 상기 신택스 요소 sps_mts_enabled_flag의 값을 기반으로 판단될 수 있다.
예를 들어, 상기 신택스 요소 cu_mts_flag의 값이 0인 경우, log2TbWidth 및 log2TbHeight의 곱이 임게치(threshold)보다 작거나 같은지가 판단될 수 있다(S820). 또는 현재 블록의 너비의 밑이 2인 로그 값 및 상기 현재 블록의 높이의 밑이 2인 로그 값을 곱한 값이 상기 임계치보다 작은지 판단될 수 있다. 또는 현재 블록의 너비 및 높이를 곱한 값이 임계치보다 작은지 판단될 수 있다. 예를 들어, 상기 블록 크기 정보를 기반으로 log2TbWidth 및 log2TbHeight의 곱이 임게치(threshold)보다 작거나 같은지가 판단될 수 있다. 상기 블록 크기 정보는 상기 현재 블록의 너비 및 높이에 대한 정보를 포함할 수 있다. 또는 상기 블록 크기 정보는 상기 현재 블록의 너비 및 높이의 밑이 2인 로그 값에 대한 정보를 포함할 수 있다.
예를 들어, 상기 log2TbWidth 및 log2TbHeight의 곱이 임계치보다 작거나 같은 경우, 변환 스킵 여부 플래그(또는 신택스 요소 transform_skip_flag)의 값은 1로 결정될 수 있다(S830). 또는 1의 값을 가지는 변환 스킵 여부 플래그가 파싱될 수 있다. 즉, 변환 스킵 여부 플래그를 기반으로 현재 블록은 변환 제외 블록에 포함될 수 있으며, 변환이 적용되지 않을 수 있다.
예를 들어, 상기 고급 문법 내 변환 스킵이 허용되지 않는 경우, 상기 신택스 요소 cu_mts_flag의 값이 0이 아닌 경우, 또는 상기 log2TbWidth 및 log2TbHeight의 곱이 임계치보다 큰 경우, 변환 스킵 여부 플래그(또는 신택스 요소 transform_skip_flag)의 값은 0으로 결정될 수 있다(S840). 또는 0의 값을 가지는 변환 스킵 여부 플래그가 파싱될 수 있다. 또는 변환 스킵 여부 플래그가 파싱되지 않을 수 있다. 즉, 변환 스킵 여부 플래그를 기반으로 현재 블록은 변환 제외 블록에 포함되지 않을 수 있으며, 변환이 적용될 수 있다.
도 9는 본 문서의 일 실시예에 따른 변환 스킵 플래그 부호화부를 도시한 도면이다.
어떠한 영상의 부호화를 수행하는 경우, 영상은 부호화 단위를 블록으로 결정하고 정사각 또는 직사각형의 블록으로 유사한 영역끼리 분할하여 부호화를 수행할 수 있다. 이 때, 휘도 성분과 색차 성분이 유사함을 가정하고, 색차 성분에서는 이미 부호화 된 휘도 성분의 블록 분할 구조를 그대로 활용할 수 있다. 다만, 색차 성분은 휘도 성분에 비하여 복잡한 영역이 상대적으로 덜 존재하므로 휘도 성분의 블록과 다른 블록 구조를 따르더라도 영상의 부호화 정보를 효과적으로 전달할 수도 있다.
한편, 예측을 수행한 뒤 원본과의 차분을 통해 발생한 잔차 신호는 변환 및 양자화을 거칠 수 있다. 잔차가 많이 발생하는 영역에 대해서는 이러한 과정을 통해 인간의 눈이 쉽게 인지하지 못하는 고주파 영역의 정보를 생략 또는 축소함으로써 복호화 된 영상의 큰 손상 없이 압축을 기대할 수 있다. 다만, 색차 성분을 부호화 할 경우 앞서 기술한 것과 같이 복잡한 텍스쳐가 많지 않기 때문에 휘도 성분에 비하여 예측 정확도가 높고, 잔차 정보의 에너지가 상대적으로 적게 발생할 수 있다. 이러한 경우, 변환을 적용하는 것과 적용하지 않는 것에 큰 차이가 없을 수 있으며, 오히려 변환 여부를 전송하는 플래그를 모든 변환 블록에 전달하는 것이 오버헤드로 작용될 수도 있다.
또한, 일반적으로 화면내 예측이 화면간 예측에 비하여 0이 아닌 잔차 계수의 개수가 많고 레벨 또한 더 큰 특성이 있다. 이는 화면내 예측이 이웃한 샘플로부터 제한된 범위에서만 예측을 수행하는 반면 화면간 예측은 시간적 유사성에 따라 현재 블록과 가장 유사한 블록을 예측치로 사용하기 때문이다. 따라서, 앞서 색차 예측 모드에 따라 잔차의 특성도 크게 바뀌므로, 현재 예측 모드와 어떠한 성분인지(휘도 성분 또는 색차 성분인지의 여부)에 기반하여 변환 스킵 플래그를 전송할 수 있다. 일 예로, 인트라 예측된 블록에 대해서는 휘도 성분의 변환 스킵 정보는 전송하지만 색차 성분의 변환 스킵 정보를 전송하지 않고, 인터 예측된 블록에 대해서는 휘도 성분과 색차 성분 모두 변환 스킵 정보를 전송할 수 있다. 다시 말해, 변환 스킵 정보(또는 변환 스킵 여부 플래그)는 블록이 휘도 성분인지 또는 색차 성분인지를 기반으로 전송될 수 있다. 또는 변환 스킵 정보는 블록이 휘도 성분인 경우 시그널링될 수 있다. 또는 변환 스킵 정보는 휘도 성분 블록 및 색차 성분 블록 각각에 대하여 시그널링될 수 있다. 또한, 변환 스킵 여부 플래그는 휘도 성분에 대하여만 적용될 수 있다. 또는 변환 스킵 여부 플래그는 휘도 성분 및 색차 성분에 대하여도 적용될 수도 있다. 또는 휘도 성분 및 색차 성분 각각에 대하여 시그널링된 변환 스킵 정보가 각 성분에 대하여 적용될 수도 있다.
예를 들어, 도 9에서 도시된 바와 같이, 변환 스킵 플래그 부호화부(900)에는 휘도/색차 성분 인덱스(예를 들어, cldx)에 관한 정보 및 예측 모드(예를 들어, 인트라/인터)에 관한 정보가 입력될 수 있고, 변환 스킵 플래그가 출력될 수 있다. 또는 변환 스킵 플래그 부호화부(900)에는 휘도/색차 성분 인덱스가 입력될 수 있고, 변환 스킵 플래그가 출력될 수도 있다. 또는 변환 스킵 플래그 부호화부(900)에는 예측 모드에 관한 정보가 입력될 수 있고, 변환 스킵 플래그가 출력될 수도 있다. 또한, 변환 스킵 플래그는 레지듀얼 관련 정보(또는 레지듀얼 관련 신택스)에 포함될 수 있다.
도 10 및 도 11은 본 문서의 실시예(들)에 따른 비디오/영상 인코딩 방법 및 관련 컴포넌트의 일 예를 개략적으로 나타낸다.
도 10에서 개시된 방법은 도 2에서 개시된 인코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 10의 S1000은 도 11에서 상기 인코딩 장치의 예측부(220)에 의하여 수행될 수 있고, 도 10의 S1010 및 S1020은 도 11에서 상기 인코딩 장치의 레지듀얼 처리부(230)에 의하여 수행될 수 있고, 도 10의 S1030은 도 11에서 상기 인코딩 장치의 엔트로피 인코딩부(240)에 의하여 수행될 수 있다. 도 10에서 개시된 방법은 본 문서에서 상술한 실시예들을 포함할 수 있다.
도 10을 참조하면, 인코딩 장치는 현재 블록에 대하여 예측을 수행하여 예측 샘플들을 도출할 수 있다(S1000). 예를 들어, 인코딩 장치는 상기 현재 블록에 대하여 예측을 수행하여 예측 샘플들을 도출할 수 있으며, 예측을 수행한 예측 모드에 대한 정보를 도출할 수 있다. 예를 들어, 예측 모드는 인트라 예측 모드 또는 인터 예측 모드일 수 있다. 예를 들어, 인코딩 장치는 상기 예측 모드가 인트라 예측 모드인 경우, 현재 블록 주변의 샘플들을 기반으로 상기 예측 샘플들을 도출할 수 있다. 또는 인코딩 장치는 상기 예측 모드가 인터 예측 모드인 경우, 현재 블록의 참조 픽처 내의 참조 샘플들을 기반으로 상기 상기 예측 샘플들을 도출할 수 있다.
인코딩 장치는 상기 현재 블록에 대한 레지듀얼 샘플들을 도출할 수 있다(S1010). 예를 들어, 인코딩 장치는 상기 현재 블록에 대한 원본 샘플들과 예측 샘플들(또는 예측된 블록)을 기반으로 상기 현재 블록에 대한 레지듀얼 샘플들(또는 레지듀얼 블록)을 도출할 수 있다. 여기서, 레지듀얼 샘플들은 레지듀얼 샘플 어레이라 나타낼 수도 있다.
인코딩 장치는 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성할 수 있다(S1020). 예를 들어, 인코딩 장치는 상기 예측 샘플들(또는 예측된 블록)에 레지듀얼 샘플들(또는 레지듀얼 블록)을 더하여 복원 샘플들(또는 복원 블록)을 생성할 수도 있다.
인코딩 장치는 상기 예측에 관한 예측 모드 정보 및 상기 레지듀얼 샘플들에 관한 레지듀얼 관련 정보를 포함하는 영상 정보를 인코딩할 수 있다(S1030).
예를 들어, 인코딩 장치는 상기 예측 모드를 기반으로 예측 모드 정보를 생성할 수 있으며, 상기 영상 정보는 상기 예측 모드 정보를 포함할 수 있다. 즉, 상기 현재 블록이 인트라 예측 모드를 통해 예측을 수행한 경우, 예측 모드 정보는 인트라 예측 모드에 관한 정보를 포함할 수 있고, 상기 현재 블록이 인터 예측 모드를 통해 예측을 수행한 경우, 에측 모드 정보는 인터 예측 모드에 관한 정보를 포함할 수 있다.
예를 들어, 인코딩 장치는 상기 레지듀얼 샘플들(또는 레지듀얼 샘플 어레이)에 관한 정보를 포함하는 레지듀얼 관련 정보를 생성할 수 있으며, 상기 영상 정보는 레지듀얼 관련 정보를 포함할 수 있다. 레지듀얼 샘플들에 관한 정보 또는 레지듀얼 관련 정보는 상기 레지듀얼 샘플들에 관한 변환 계수에 관한 정보를 포함할 수 있다.
예를 들어, 레지듀얼 관련 정보는 레지듀얼 코딩 정보(또는 레지듀얼 코딩 신택스)를 포함할 수 있다. 또는 레지듀얼 관련 정보는 변환 유닛 정보(또는 변환 유닛 신택스)를 포함할 수 있다. 또는 레지듀얼 관련 정보는 레지듀얼 코딩 정보 및 변환 유닛 정보를 포함할 수도 있다.
예를 들어, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정될 수 있다. 즉, 상기 현재 블록의 성분을 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함할 수 있다.
예를 들어, 상기 휘도 성분 블록인 상기 현재 블록을 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 즉, 상기 현재 블록이 휘도 성분 블록인 경우, 상기 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 상기 휘도 성분 블록에 0이 아닌 유효 계수가 존재하는 경우에, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 상기 0이 아닌 유효 계수에 관한 상술한 신택스 요소 last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix. last_sig_coeff_y_suffix, coded_sub_block_flag 또는 sig_coeff_flag에 의해 나타낼 수 있다.
예를 들어, 상기 색차 성분 블록인 상기 현재 블록을 기반으로, 상기 레지듀얼 관련 정보는 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 즉, 상기 현재 블록이 색차 성분 블록인 경우, 상기 레지듀얼 관련 정보는 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 예를 들어, 상기 색차 성분 블록인 상기 현재 블록을 기반으로, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그는 명시적으로 시그널링되지 않을 수 있다. 즉, 상기 현재 블록이 색차 성분 블록인 경우, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그는 명시적으로 시그널링되지 않을 수 있다.
예를 들어, 변환 스킵 플래그는 상기 현재 블록이 휘도 성분인 경우에만 시그널링될 수 있고, 이에 따라 휘도 성분에 대하여만 적용될 수 있다. 또는 상기 변환 스킵 플래그는 상기 현재 블록이 휘도 성분인 경우에만 시그널링될 수 있으나, 휘도 성분 및 상기 휘도 성분에 대응되는 색차 성분에 대하여도 적용될 수도 있다.
예를 들어, 상기 예측 모드 정보가 나타내는 예측 모드를 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하는지 여부가 결정될 수 있다. 예를 들어, 도 9에서 설명한 바와 같이 상기 현재 블록의 성분 및 상기 예측 모드를 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함할 수 있다.
예를 들어, 인트라 예측 모드인 상기 예측 모드를 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하고, 상기 색체 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 즉, 상기 예측 모드 정보가 나타내는 예측 모드가 인트라 예측 모드인 경우, 상기 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하고, 상기 색체 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 예를 들어, 인터 예측 모드인 상기 예측 모드를 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그 및 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 즉, 상기 예측 모드 정보가 나타내는 예측 모드가 인터 예측 모드인 경우, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그 및 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다.
예를 들어, 상기 현재 블록의 너비 및 높이를 기반으로 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 제1 임계치보다 작거나 같은 상기 현재 블록의 너비 및 제2 임계치보다 작거나 같은 상기 현재 블록의 높이를 기반으로, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 상기 너비는 log2TbWidth로 나타낼 수 있고, 상기 높이는 log2TbHeight로 나타낼 수 있다. 제1 임계치는 wN으로 나타낼 수 있고, 제2 임계치는 hN으로 나타낼 수 있다. wN 및 hN은 각각 2, 3, 4, 5 또는 6일 수 있다.
예를 들어, 상기 제1 임계치는 32 또는 64일 수 있고, 상기 제2 임계치는 상기 제1 임계치와 동일할 수 있다. 예를 들어, 상기 제1 임계치 및 상기 제2 임계치가 32인 경우, wN 및 hN은 모두 5의 값을 가질 수 있으며, 너비가 32보다 작거나 같고, 높이가 32보다 작거나 같은 블록에 대하여 상기 변환 스킵 여부 플래그가 시그널링될 수 있다. 예를 들어, 상기 제1 임계치 및 상기 제2 임계치가 64인 경우, wN 및 hN은 모두 6의 값을 가질 수 있으며, 너비가 64보다 작거나 같고, 높이가 64보다 작거나 같은 블록에 대하여 상기 변환 스킵 여부 플래그가 시그널링될 수 있다. 다시 말해, wN 및 hN의 값을 기반으로 변환 스킵 여부 플래그가 시그널링될 수 있는 블록의 너비 및 높이가 결정될 수 있다.
예를 들어, 상기 현재 블록에 포함된 샘플 개수를 기반으로 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 제3 임계치보다 작거나 같은 상기 현재 블록에 포함된 샘플 개수를 기반으로, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 즉, 상기 상기 현재 블록에 포함된 샘플 개수가 상기 제3 임계치보다 작거나 같은 경우, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 상기 현재 블록에 포함된 샘플 개수는 상기 현재 블록의 너비 및 높이를 기반으로 도출될 수 있으며, 도 8에서 상기 너비는 log2TbWidth로 나타낼 수 있고, 상기 높이는 log2TbHeight로 나타낼 수 있고, 제3 임계치는 Threschold로 나타낼 수 있다.
예를 들어, 상기 현재 블록은 비정방형(non-square) 블록을 포함할 수 있다. 다시 말해, 상기 현재 블록의 너비 및 높이가 서로 다른 경우에도 상기 너비가 제1 임계치보다 작거나 같고, 상기 높이가 제2 임계치보다 작거나 같은 경우, 상기 현재 블록에 대한 변환 스킵 여부 플래그가 시그널링될 수 있다. 또는 상기 현재 블록의 너비 및 높이가 서로 다른 경우에도 상기 현재 블록 내의 샘플 개수가 제3 임계치보다 작거나 같은 경우, 상기 현재 블록에 대한 변환 스킵 여부 플래그가 시그널링될 수 있다. 또는 상기 현재 블록의 너비 및 높이가 서로 다른 경우에도 상기 현재 블록의 너비 및 높이가 모두 32 또는 64보다 작거나 같은 경우, 상기 현재 블록에 대한 변환 스킵 여부 플래그가 시그널링될 수 있다
상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타낼 수 있다. 즉, 상기 변환 스킵 플래그를 기반으로 상기 현재 블록에 대한 레지듀얼 신호(또는 레지듀얼에 관한 정보)가 변환 없이 픽셀 도메인(공간 도메인) 상에서 시그널링되는지 또는 변환이 수행되어 변환 도메인 상에서 시그널링되는지가 결정될 수 있다. 상기 변환 스킵 플래그는 변환 여부 플래그, 변환 스킵 여부 플래그 또는 신택스 요소 transform_skip_flag로 나타낼 수도 있다.
예를 들어, 레지듀얼 관련 정보는 상술한 바에 따라 상기 변환 스킵 플래그를 포함할 수 있고, 포함하지 않을 수도 있다. 예를 들어, 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하는 경우, 상기 현재 블록의 레지듀얼 샘플들은 변환 없이 도출된 것을 나타낼 수 있고, 상기 현재 블록에 대한 레지듀얼 신호(또는 레지듀얼에 관한 정보)는 변환 없이 픽셀 도메인(공간 도메인) 상에서 시그널링될 수 있다. 또는 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하지 않는 경우, 상기 현재 블록의 레지듀얼 샘플들은 변환이 수행되어 도출된 것을 나타낼 수 있으며, 상기 현재 블록에 대한 레지듀얼 신호(또는 레지듀얼에 관한 정보)는 변환이 수행되어 변환 도메인 상에서 시그널링될 수 있다.
인코딩 장치는 상술한 정보들(또는 신택스 요소들) 모두 또는 일부를 포함하는 영상 정보를 인코딩하여 비트스트림을 생성할 수 있다. 또는 비트스트림 형태로 출력할 수 있다. 또한, 상기 비트스트림은 네트워크 또는 저장매체를 통하여 디코딩 장치로 전송될 수 있다. 또는, 상기 비트스트림은 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다.
도 12 및 도 13은 본 문서의 실시예(들)에 따른 비디오/영상 인코딩 방법 및 관련 컴포넌트의 일 예를 개략적으로 나타낸다.
도 12 및 도 13은 본 문서의 실시예(들)에 따른 비디오/영상 인코딩 방법 및 관련 컴포넌트의 일 예를 개략적으로 나타낸다. 도 12에서 개시된 방법은 도 3에서 개시된 디코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 12의 S1200은 도 13에서 상기 디코딩 장치의 엔트로피 디코딩부(310)에 의하여 수행될 수 있고, 도 12의 S1210은 도 13에서 상기 디코딩 장치의 예측부(330)에 의하여 수행될수 있고, 도 12의 S1220은 도 13에서 상기 디코딩 장치의 레지듀얼 처리부(320)에 의하여 수행될 수 있고, 도 12의 S1230은 도 13에서 상기 디코딩 장치의 가산부(340)에 의하여 수행될 수 있다. 도 12에서 개시된 방법은 본 문서에서 상술한 실시예들을 포함할 수 있다.
도 12를 참조하면, 디코딩 장치는 비트스트림으로부터 예측 모드 정보 및 레지듀얼 관련 정보를 획득할 수 있다(S1200). 또는 디코딩 장치는 비트스트림을 (엔트로피) 디코딩하여 예측 모드 정보 또는 레지듀얼 관련 정보를 획득할 수 있다.
예를 들어, 예측 모드 정보는 현재 블록의 예측 모드에 대한 정보를 포함할 수 있다. 또는 예측 모드 정보는 인트라 예측 모드 또는 인터 예측 모드에 대한 정보를 포함할 수 있다.
예를 들어, 레지듀얼 관련 정보는 레지듀얼 코딩 정보(또는 레지듀얼 코딩 신택스)를 포함할 수 있다. 또는 레지듀얼 관련 정보는 변환 유닛 정보(또는 변환 유닛 신택스)를 포함할 수 있다. 또는 레지듀얼 관련 정보는 레지듀얼 코딩 정보 및 변환 유닛 정보를 포함할 수도 있다.
예를 들어, 상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정될 수 있다. 즉, 상기 현재 블록의 성분을 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함할 수 있다.
예를 들어, 상기 휘도 성분 블록인 상기 현재 블록을 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 즉, 상기 현재 블록이 휘도 성분 블록인 경우, 상기 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 상기 휘도 성분 블록에 0이 아닌 유효 계수가 존재하는 경우에, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 상기 0이 아닌 유효 계수에 관한 정보는 상술한 신택스 요소 last_sig_coeff_x_prefix, last_sig_coeff_y_prefix, last_sig_coeff_x_suffix. last_sig_coeff_y_suffix, coded_sub_block_flag 또는 sig_coeff_flag에 의해 나타낼 수 있다.
예를 들어, 상기 색차 성분 블록인 상기 현재 블록을 기반으로, 상기 레지듀얼 관련 정보는 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 즉, 상기 현재 블록이 색차 성분 블록인 경우, 상기 레지듀얼 관련 정보는 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 예를 들어, 상기 색차 성분 블록인 상기 현재 블록을 기반으로, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그는 명시적으로 시그널링되지 않을 수 있다. 즉, 상기 현재 블록이 색차 성분 블록인 경우, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그는 명시적으로 시그널링되지 않을 수 있다.
예를 들어, 변환 스킵 플래그는 상기 현재 블록이 휘도 성분인 경우에만 시그널링될 수 있고, 이에 따라 휘도 성분에 대하여만 적용될 수 있다. 또는 상기 변환 스킵 플래그는 상기 현재 블록이 휘도 성분인 경우에만 시그널링될 수 있으나, 휘도 성분 및 상기 휘도 성분에 대응되는 색차 성분에 대하여도 적용될 수도 있다.
예를 들어, 상기 예측 모드 정보가 나타내는 예측 모드를 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하는지 여부가 결정될 수 있다. 예를 들어, 도 9에서 설명한 바와 같이 상기 현재 블록의 성분 및 상기 예측 모드를 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함할 수 있다.
예를 들어, 인트라 예측 모드인 상기 예측 모드를 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하고, 상기 색체 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 즉, 상기 예측 모드 정보가 나타내는 예측 모드가 인트라 예측 모드인 경우, 상기 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하고, 상기 색체 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않을 수 있다. 예를 들어, 인터 예측 모드인 상기 예측 모드를 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그 및 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다. 즉, 상기 예측 모드 정보가 나타내는 예측 모드가 인터 예측 모드인 경우, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그 및 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함할 수 있다.
예를 들어, 상기 현재 블록의 너비 및 높이를 기반으로 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 제1 임계치보다 작거나 같은 상기 현재 블록의 너비 및 제2 임계치보다 작거나 같은 상기 현재 블록의 높이를 기반으로, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 상기 너비는 log2TbWidth로 나타낼 수 있고, 상기 높이는 log2TbHeight로 나타낼 수 있다. 제1 임계치는 wN으로 나타낼 수 있고, 제2 임계치는 hN으로 나타낼 수 있다. wN 및 hN은 각각 2, 3, 4, 5 또는 6일 수 있다.
예를 들어, 상기 제1 임계치는 32 또는 64일 수 있고, 상기 제2 임계치는 상기 제1 임계치와 동일할 수 있다. 예를 들어, 상기 제1 임계치 및 상기 제2 임계치가 32인 경우, wN 및 hN은 모두 5의 값을 가질 수 있으며, 너비가 32보다 작거나 같고, 높이가 32보다 작거나 같은 블록에 대하여 상기 변환 스킵 여부 플래그가 시그널링될 수 있다. 예를 들어, 상기 제1 임계치 및 상기 제2 임계치가 64인 경우, wN 및 hN은 모두 6의 값을 가질 수 있으며, 너비가 64보다 작거나 같고, 높이가 64보다 작거나 같은 블록에 대하여 상기 변환 스킵 여부 플래그가 시그널링될 수 있다. 다시 말해, wN 및 hN의 값을 기반으로 변환 스킵 여부 플래그가 시그널링될 수 있는 블록의 너비 및 높이가 결정될 수 있다.
예를 들어, 상기 현재 블록에 포함된 샘플 개수를 기반으로 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 제3 임계치보다 작거나 같은 상기 현재 블록에 포함된 샘플 개수를 기반으로, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 즉, 상기 상기 현재 블록에 포함된 샘플 개수가 상기 제3 임계치보다 작거나 같은 경우, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수 있다. 예를 들어, 상기 현재 블록에 포함된 샘플 개수는 상기 현재 블록의 너비 및 높이를 기반으로 도출될 수 있으며, 도 8에서 상기 너비는 log2TbWidth로 나타낼 수 있고, 상기 높이는 log2TbHeight로 나타낼 수 있고, 제3 임계치는 Threschold로 나타낼 수 있다.
예를 들어, 상기 현재 블록은 비정방형(non-square) 블록을 포함할 수 있다. 다시 말해, 상기 현재 블록의 너비 및 높이가 서로 다른 경우에도 상기 너비가 제1 임계치보다 작거나 같고, 상기 높이가 제2 임계치보다 작거나 같은 경우, 상기 현재 블록에 대한 변환 스킵 여부 플래그가 시그널링될 수 있다. 또는 상기 현재 블록의 너비 및 높이가 서로 다른 경우에도 상기 현재 블록 내의 샘플 개수가 제3 임계치보다 작거나 같은 경우, 상기 현재 블록에 대한 변환 스킵 여부 플래그가 시그널링될 수 있다. 또는 상기 현재 블록의 너비 및 높이가 서로 다른 경우에도 상기 현재 블록의 너비 및 높이가 모두 32 또는 64보다 작거나 같은 경우, 상기 현재 블록에 대한 변환 스킵 여부 플래그가 시그널링될 수 있다.
상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타낼 수 있다. 즉, 상기 변환 스킵 플래그를 기반으로 상기 현재 블록에 대한 레지듀얼 신호(또는 레지듀얼에 관한 정보)가 변환 없이 픽셀 도메인(공간 도메인) 상에서 시그널링되는지 또는 변환이 수행되어 변환 도메인 상에서 시그널링되는지가 결정될 수 있다. 상기 변환 스킵 플래그는 변환 여부 플래그, 변환 스킵 여부 플래그 또는 신택스 요소 transform_skip_flag로 나타낼 수도 있다.
디코딩 장치는 상기 예측 모드 정보를 기반으로 예측을 수행하여 현재 블록의 예측 샘플들을 도출할 수 있다(S1210). 예를 들어, 디코딩 장치는 상기 예측 모드 정보를 기반으로 상기 현재 블록의 예측 모드를 도출할 수 있다. 예를 들어, 상기 예측 모드 정보는 인트라 예측 모드에 관한 정보 또는 인터 예측 모드에 관한 정보를 포함할 수 있으며, 이를 기반으로 현재 블록의 예측 모드를 인트라 예측 모드 또는 인터 예측 모드로 도출할 수 있다.
예를 들어, 디코딩 장치는 상기 예측 모드를 기반으로 상기 현재 블록의 예측 샘플들을 도출할 수 있다. 예를 들어, 디코딩 장치는 상기 예측 모드가 인트라 예측 모드인 경우, 현재 블록 주변의 샘플들을 기반으로 상기 예측 샘플들을 도출할 수 있다. 또는 디코딩 장치는 상기 예측 모드가 인터 예측 모드인 경우, 현재 블록의 참조 픽처 내의 참조 샘플들을 기반으로 상기 상기 예측 샘플들을 도출할 수 있다.
디코딩 장치는 상기 레지듀얼 관련 정보를 기반으로 상기 현재 블록의 레지듀얼 샘플들을 도출할 수 있다(S1220). 예를 들어, 상기 레지듀얼 관련 정보는 상기 레지듀얼 샘플들에 관한 변환 계수에 관한 정보를 포함할 수 있다. 또는 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함할 수도 있다.
예를 들어, 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하는 경우, 상기 현재 블록에 대한 레지듀얼 신호(또는 레지듀얼에 관한 정보)는 변환 없이 픽셀 도메인(공간 도메인) 상에서 시그널링될 수 있다. 또는 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하지 않는 경우, 상기 현재 블록에 대한 레지듀얼 신호(또는 레지듀얼에 관한 정보)는 변환이 수행되어 변환 도메인 상에서 시그널링될 수 있다. 예를 들어, 디코딩 장치는 상기 변환 없이 또는 변환이 수행되어 시그널링된 레지듀얼 신호를 기반으로 레지듀얼 샘플들을 도출할 수 있다.
디코딩 장치는 상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성할 수 있다(S1230). 또는 디코딩 장치는 상기 복원 샘플들을 기반으로 복원 블록 또는 복원 픽처를 도출할 수 있다. 이후 디코딩 장치는 필요에 따라 주관적/객관적 화질을 향상시키기 위하여 디블록킹 필터링 및/또는 SAO 절차와 같은 인루프 필터링 절차를 상기 복원 픽처에 적용할 수 있음은 상술한 바와 같다.
디코딩 장치는 비트스트림을 디코딩하여 상술한 정보들(또는 신택스 요소들) 모두 또는 일부를 포함하는 영상 정보를 획득할 수 있다. 또한, 상기 비트스트림은 컴퓨터 판독 가능한 디지털 저장 매체에 저장될 수 있으며, 상술한 디코딩 방법이 수행되도록 야기할 수 있다.
상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 문서는 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타내어진 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 문서의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 본 문서에 따른 방법은 소프트웨어 형태로 구현될 수 있으며, 본 문서에 따른 인코딩 장치 및/또는 디코딩 장치는 예를 들어 TV, 컴퓨터, 스마트폰, 셋톱박스, 디스플레이 장치 등의 영상 처리를 수행하는 장치에 포함될 수 있다.
본 문서에서 실시예들이 소프트웨어로 구현될 때, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다. 프로세서는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다.
도 14는 컨텐츠 스트리밍 시스템 구조를 개략적으로 나타낸다.
즉, 본 문서에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 각 도면에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 문서가 적용되는 디코딩 장치 및 인코딩 장치는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, OTT 비디오(Over the top video) 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 또는 데이터 신호를 처리하기 위해 사용될 수 있다. 예를 들어, OTT 비디오(Over the top video) 장치로는 게임 콘솔, 블루레이 플레이어, 인터넷 접속 TV, 홈시어터 시스템, 스마트폰, 태블릿 PC, DVR(Digital Video Recorder) 등을 포함할 수 있다.
또한, 본 문서가 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 문서에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치 및 분산 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크(BD), 범용 직렬 버스(USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파(예를 들어, 인터넷을 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다. 또한, 본 문서의 실시예는 프로그램 코드에 의한 컴퓨터 프로그램 제품으로 구현될 수 있고, 상기 프로그램 코드는 본 문서의 실시예에 의해 컴퓨터에서 수행될 수 있다. 상기 프로그램 코드는 컴퓨터에 의해 판독 가능한 캐리어 상에 저장될 수 있다.
또한, 본 문서가 적용되는 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.
상기 인코딩 서버는 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수 있다. 상기 비트스트림은 본 문서가 적용되는 인코딩 방법 또는 비트스트림 생성 방법에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.
상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기초하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 한다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송한다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 한다.
상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하게 되는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.
상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다. 상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.

Claims (15)

  1. 디코딩 장치에 의하여 수행되는 영상 디코딩 방법에 있어서,
    비트스트림으로부터 예측 모드 정보 및 레지듀얼 관련 정보를 획득하는 단계;
    상기 예측 모드 정보를 기반으로 예측을 수행하여 현재 블록의 예측 샘플들을 도출하는 단계;
    상기 레지듀얼 관련 정보를 기반으로 상기 현재 블록의 레지듀얼 샘플들을 도출하는 단계; 및
    상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 단계를 포함하고,
    상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고,
    상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 하는, 디코딩 방법.
  2. 제1항에 있어서,
    상기 휘도 성분 블록인 상기 현재 블록을 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  3. 제2항에 있어서,
    상기 휘도 성분 블록에 0이 아닌 유효 계수가 존재하는 경우에, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  4. 제1항에 있어서,
    상기 색차 성분 블록인 상기 현재 블록을 기반으로, 상기 레지듀얼 관련 정보는 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않는 것을 특징으로 하는, 디코딩 방법.
  5. 제4항에 있어서,
    상기 색차 성분 블록인 상기 현재 블록을 기반으로, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그는 명시적으로 시그널링되지 않는 것을 특징으로 하는, 디코딩 방법.
  6. 제1항에 있어서,
    상기 예측 모드 정보가 나타내는 예측 모드를 기반으로 상기 레지듀얼 관련 정보가 상기 변환 스킵 플래그를 포함하는지 여부가 결정되는 것을 특징으로 하는, 디코딩 방법.
  7. 제6항에 있어서,
    인트라 예측 모드인 상기 예측 모드를 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그를 포함하고, 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하지 않고,
    인터 예측 모드인 상기 예측 모드를 기반으로, 상기 레지듀얼 관련 정보는 상기 휘도 성분 블록에 대한 상기 변환 스킵 플래그 및 상기 색차 성분 블록에 대한 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  8. 제1항에 있어서,
    상기 현재 블록의 너비 및 높이를 기반으로 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  9. 제8항에 있어서,
    제1 임계치보다 작거나 같은 상기 현재 블록의 너비 및 제2 임계치보다 작거나 같은 상기 현재 블록의 높이를 기반으로, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  10. 제9항에 있어서,
    상기 제1 임계치는 32 또는 64이고,
    상기 제2 임계치는 상기 제1 임계치와 동일한 것을 특징으로 하는, 디코딩 방법.
  11. 제9항에 있어서,
    상기 현재 블록은 비정방형(non-square) 블록을 포함하는 것을 특징으로 하는, 디코딩 방법.
  12. 제1항에 있어서,
    상기 현재 블록에 포함된 샘플 개수를 기반으로 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  13. 제12항에 있어서,
    제3 임계치보다 작거나 같은 상기 현재 블록에 포함된 샘플 개수를 기반으로, 상기 레지듀얼 관련 정보는 상기 변환 스킵 플래그를 포함하는 것을 특징으로 하는, 디코딩 방법.
  14. 인코딩 장치에 의하여 수행되는 영상 인코딩 방법에 있어서,
    현재 블록에 대하여 예측을 수행하여 예측 샘플들을 도출하는 단계;
    상기 현재 블록에 대한 레지듀얼 샘플들을 도출하는 단계;
    상기 예측 샘플들 및 상기 레지듀얼 샘플들을 기반으로 상기 현재 블록의 복원 샘플들을 생성하는 단계; 및
    상기 예측에 관한 예측 모드 정보 및 상기 레지듀얼 샘플들에 관한 레지듀얼 관련 정보를 포함하는 영상 정보를 인코딩하는 단계를 포함하고,
    상기 현재 블록이 휘도 성분 블록인지 색차 성분 블록인지를 기반으로 상기 레지듀얼 관련 정보가 변환 스킵 플래그를 포함하는지 여부가 결정되고,
    상기 변환 스킵 플래그는 상기 현재 블록에 변환 스킵이 적용되었는지 여부를 나타내는 것을 특징으로 하는, 인코딩 방법.
  15. 컴퓨터 판독 가능한 디지털 저장 매체에 있어서, 상기 컴퓨터 판독 가능한 디지털 저장 매체는 제1항의 디코딩 방법을 수행하도록 야기하는 비트스트림이 저장된 것을 특징으로 하는, 컴퓨터 판독 가능한 디지털 저장 매체.
PCT/KR2020/000064 2019-01-01 2020-01-02 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치 WO2020141908A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/357,051 US20210321135A1 (en) 2019-01-01 2021-06-24 Image coding method and apparatus using transform skip flag

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962787376P 2019-01-01 2019-01-01
US62/787,376 2019-01-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/357,051 Continuation US20210321135A1 (en) 2019-01-01 2021-06-24 Image coding method and apparatus using transform skip flag

Publications (1)

Publication Number Publication Date
WO2020141908A1 true WO2020141908A1 (ko) 2020-07-09

Family

ID=71407039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/000064 WO2020141908A1 (ko) 2019-01-01 2020-01-02 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치

Country Status (2)

Country Link
US (1) US20210321135A1 (ko)
WO (1) WO2020141908A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170046112A (ko) * 2014-10-13 2017-04-28 성균관대학교산학협력단 예측 모드에 기초한 변환 생략 정보의 엔트로피 복호화 방법 및 장치
KR20170104646A (ko) * 2012-09-28 2017-09-15 캐논 가부시끼가이샤 코딩 유닛의 변환 유닛들을 인코딩 및 디코딩하기 위한 방법, 장치 및 시스템
KR101880793B1 (ko) * 2012-06-07 2018-07-20 미디어텍 싱가폴 피티이. 엘티디. 인트라 변환 스킵 모드를 위한 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101880793B1 (ko) * 2012-06-07 2018-07-20 미디어텍 싱가폴 피티이. 엘티디. 인트라 변환 스킵 모드를 위한 방법 및 장치
KR20170104646A (ko) * 2012-09-28 2017-09-15 캐논 가부시끼가이샤 코딩 유닛의 변환 유닛들을 인코딩 및 디코딩하기 위한 방법, 장치 및 시스템
KR20170046112A (ko) * 2014-10-13 2017-04-28 성균관대학교산학협력단 예측 모드에 기초한 변환 생략 정보의 엔트로피 복호화 방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS , JIANLE CHEN , SHAN LIU: "Versatile Video Coding (Draft 3)", JOINT VIDEO EXPERTS TEAM (JVET) OF [TU-T SG 16 WP 3 AND [SO/IEC JTC 1/SC 29/WG 11, no. JVET-L1001-v7, 20 December 2018 (2018-12-20), Macao, pages 1 - 223, XP030200071 *
LUONG PHAM VAN , WEI-JUNG CHIEN , VADIM SEREGIN , TED HSIEH , MARTHA KARCZEWICZ: "CE6-related: Transform skip for 2x2 chroma blocks and disable 2x2 chroma blocks in intra slices", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC I/SC 29/WG 11, no. JVET-L0407-v2, 30 September 2018 (2018-09-30), Macao, CN, pages 1 - 3, XP030194103 *

Also Published As

Publication number Publication date
US20210321135A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
WO2020246849A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020101321A1 (ko) 고주파 제로잉을 기반으로 변환 계수를 코딩하는 방법 및 그 장치
WO2020256344A1 (ko) 영상 코딩에서 변환 커널 세트를 나타내는 정보의 시그널링
WO2020060282A1 (ko) 변환 계수 레벨 코딩 방법 및 그 장치
WO2020149630A1 (ko) 영상 코딩 시스템에서 cclm 예측 기반 영상 디코딩 방법 및 그 장치
WO2020071879A1 (ko) 변환 계수 코딩 방법 및 그 장치
WO2020189960A1 (ko) 크로마 포맷에 대한 정보를 시그널링 하는 방법 및 장치
WO2020145604A1 (ko) Mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 장치
WO2020071832A1 (ko) 변환 계수 코딩 방법 및 그 장치
WO2021034115A1 (ko) 크로마 양자화 파라미터 오프셋 관련 정보를 코딩하는 영상 디코딩 방법 및 그 장치
WO2020256346A1 (ko) 변환 커널 세트에 관한 정보에 대한 코딩
WO2020141928A1 (ko) 영상 코딩 시스템에서 mmvd 에 따른 예측에 기반한 영상 디코딩 방법 및 장치
WO2020141885A1 (ko) 디블록킹 필터링을 사용하는 영상 코딩 방법 및 장치
WO2020076066A1 (ko) 신택스 디자인 방법 및 신택스를 이용하여 코딩을 수행하는 장치
WO2021133060A1 (ko) 서브픽처 기반 영상 코딩 장치 및 방법
WO2021118265A1 (ko) 적응적 루프 필터를 적용하는 비디오 또는 영상 코딩
WO2020185039A1 (ko) 레지듀얼 코딩 방법 및 장치
WO2020141856A1 (ko) 영상 코딩 시스템에서 레지듀얼 정보를 사용하는 영상 디코딩 방법 및 그 장치
WO2021137588A1 (ko) 픽처 헤더를 포함하는 영상 정보를 코딩하는 영상 디코딩 방법 및 그 장치
WO2021137589A1 (ko) 영상 디코딩 방법 및 그 장치
WO2021107622A1 (ko) 영상/비디오 코딩 방법 및 장치
WO2021137591A1 (ko) Ols dpb 파라미터 인덱스를 포함하는 영상 정보 기반 영상 디코딩 방법 및 그 장치
WO2021118296A1 (ko) 루프 필터링을 제어하는 영상 코딩 장치 및 방법
WO2020256345A1 (ko) 영상 코딩 시스템에서 변환 커널 세트에 관한 정보에 대한 컨텍스트 코딩
WO2020076028A1 (ko) 변환 계수 코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20736199

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20736199

Country of ref document: EP

Kind code of ref document: A1