WO2020231220A1 - Method and apparatus for parallel encoding and decoding of moving picture data - Google Patents

Method and apparatus for parallel encoding and decoding of moving picture data Download PDF

Info

Publication number
WO2020231220A1
WO2020231220A1 PCT/KR2020/006424 KR2020006424W WO2020231220A1 WO 2020231220 A1 WO2020231220 A1 WO 2020231220A1 KR 2020006424 W KR2020006424 W KR 2020006424W WO 2020231220 A1 WO2020231220 A1 WO 2020231220A1
Authority
WO
WIPO (PCT)
Prior art keywords
palette
decoding
sample
coding block
index
Prior art date
Application number
PCT/KR2020/006424
Other languages
French (fr)
Korean (ko)
Inventor
심동규
박시내
변주형
박승욱
임화평
Original Assignee
현대자동차주식회사
기아자동차주식회사
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사, 광운대학교 산학협력단 filed Critical 현대자동차주식회사
Priority to US17/277,936 priority Critical patent/US11553209B2/en
Priority to CN202080036152.0A priority patent/CN113853789A/en
Priority claimed from KR1020200058318A external-priority patent/KR20200132761A/en
Publication of WO2020231220A1 publication Critical patent/WO2020231220A1/en
Priority to US18/078,983 priority patent/US11902591B2/en
Priority to US18/078,986 priority patent/US11910023B2/en
Priority to US18/078,978 priority patent/US11889120B2/en
Priority to US18/078,981 priority patent/US11895337B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to encoding and decoding of moving picture data, and more particularly, to a method and apparatus for performing encoding or decoding of moving picture data in parallel.
  • moving picture data Since moving picture data has a large amount of data compared to audio data or still image data, it requires a lot of hardware resources including memory in order to store or transmit itself without processing for compression.
  • the moving picture data is generally compressed and stored or transmitted using an encoder, and the decoder receives the compressed moving picture data, decompresses and plays it.
  • video compression technologies there are H.264/AVC and HEVC (High Efficiency Video Coding), which improves coding efficiency by about 40% compared to H.264/AVC.
  • the present disclosure proposes a method and apparatus for parallel processing of encoding or decoding of moving picture data.
  • techniques for supporting improved wavefront parallel processing that minimizes a decrease in coding efficiency while having a low latency time are proposed.
  • a method of encoding video data includes encoding a syntax element indicating that a picture can be decoded using wavefront parallel processing, in a bitstream, and decoding using the wavefront parallel processing. And encoding the data of the picture so as to be possible.
  • the palette table for the first coding block is predicted using the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode. And encoding the first coding block in a palette mode using a palette table predicted for the first coding block.
  • a method of decoding video data includes decoding a syntax element indicating that a picture can be decoded using wavefront parallel processing from a bitstream, and decoding coded data of the picture.
  • the decoding of the coded data of the picture includes a palette table for the first coding block using palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode. And decoding the first coding block in a palette mode using the predicted palette table for the first coding block.
  • an apparatus for encoding video data includes a memory and at least one processor, the at least one processor encoding a syntax element indicating that a picture can be decoded using wavefront parallel processing, and It is configured to encode the data of the picture so that it can be decoded using parallel processing.
  • one or more processors use the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row to be encoded in the palette mode.
  • the palette table for is predicted, and the first coding block is encoded in the palette mode using the predicted palette table for the first coding block.
  • an apparatus for decoding video data includes a memory and at least one processor, and at least one processor decodes a syntax element indicating that a picture can be decoded using wavefront parallel processing from a bitstream. And, it is configured to decode the coded data of the picture.
  • one or more processors use the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row coded in the palette mode.
  • the palette table for the coding block is predicted, and the first coding block is decoded in the palette mode using the predicted palette table for the first coding block.
  • FIG. 1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
  • FIG. 2 is a diagram for explaining a method of dividing a block using a QTBTTT structure.
  • 3A is a diagram illustrating a plurality of intra prediction modes.
  • 3B is a diagram illustrating a plurality of intra prediction modes including wide-angle intra prediction modes.
  • FIG. 4 is an exemplary block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
  • FIG. 5 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1-CTU (4-VPDU) delay structure according to an aspect of the present disclosure.
  • FIG. 6 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1.5-CTU (6-VPDU) delay structure according to an aspect of the present disclosure.
  • FIG. 7 is a diagram for explaining a constraint added to an intra prediction mode or an intra block copy mode when a current block is larger than the size of a VPDU in a 1.5-CTU (6-VPDU) delay structure.
  • FIG. 8 illustrates a picture divided into a plurality of subgroups.
  • FIG. 9 is a flowchart illustrating a method of initializing CABAC context information of a first CTU of a subgroup in a picture by a video decoder according to an aspect of the present disclosure.
  • FIG. 10 is a conceptual diagram illustrating an example of initializing a palette for coding video data according to an aspect of the present disclosure.
  • 11 is for explaining initialization of a palette table when 2-CTU delay WPP is activated according to an aspect of the present disclosure.
  • FIG. 13 is a diagram illustrating scanning sequences for coding a palette index map according to an aspect of the present disclosure.
  • FIG. 14 is a flowchart illustrating a method by which a decoder determines a palette index for a current pixel, according to an aspect of the present disclosure.
  • 15 is a conceptual diagram illustrating a method of coding a palette index map according to an aspect of the present disclosure.
  • 16 is a flowchart illustrating a method of decoding video data according to an aspect of the present disclosure.
  • FIG. 1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
  • an image encoding apparatus and sub-elements of the apparatus will be described with reference to FIG. 1.
  • the image encoding apparatus includes a picture segmentation unit 110, a prediction unit 120, a subtractor 130, a transform unit 140, a quantization unit 145, a rearrangement unit 150, an entropy encoding unit 155, an inverse quantization unit. (160), an inverse transform unit 165, an adder 170, a filter unit 180, and a memory 190 may be included.
  • Each component of the image encoding apparatus may be implemented by hardware or software, or by a combination of hardware and software.
  • functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
  • One image is composed of a plurality of pictures. Each picture is divided into a plurality of regions, and encoding is performed for each region. For example, one picture is divided into one or more tiles or/and slices. Here, one or more tiles may be defined as a tile group. Each tile or/slice is divided into one or more Coding Tree Units (CTUs). And each CTU is divided into one or more CUs (Coding Units) by a tree structure. Information applied to each CU is encoded as the syntax of the CU, and information commonly applied to CUs included in one CTU is encoded as the syntax of the CTU.
  • CTUs Coding Tree Units
  • information commonly applied to all blocks in one slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one picture is a picture parameter set (PPS) or picture. It is coded in the header. Further, information commonly referred to by a plurality of pictures is encoded in a sequence parameter set (SPS). In addition, information commonly referred to by one or more SPSs is encoded in a video parameter set (VPS). Also, information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
  • PPS picture parameter set
  • SPS sequence parameter set
  • VPS video parameter set
  • information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
  • the picture dividing unit 110 determines the size of a coding tree unit (CTU).
  • CTU size Information on the size of the CTU (CTU size) is encoded as the syntax of the SPS or PPS and transmitted to the video decoding apparatus.
  • the picture dividing unit 110 After dividing each picture constituting an image into a plurality of CTUs (Coding Tree Units) having a predetermined size, the picture dividing unit 110 repetitively divides the CTU using a tree structure. (recursively) split. A leaf node in the tree structure becomes a coding unit (CU), which is a basic unit of coding.
  • CU coding unit
  • a quad tree (QuadTree, QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, or a binary tree (BinaryTree) in which an upper node is divided into two lower nodes. , BT), or a ternary tree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure in which two or more of these QT structures, BT structures, and TT structures are mixed.
  • QT quad tree
  • BT binary tree
  • TT ternary tree
  • a QTBT QuadTree plus BinaryTree
  • a QTBTTT QuadTree plus BinaryTree TernaryTree
  • MTT Multiple-Type Tree
  • the CTU may be first divided into a QT structure.
  • the quadtree division may be repeated until the size of a splitting block reaches the minimum block size (MinQTSize) of a leaf node allowed in QT.
  • a first flag (QT_split_flag) indicating whether each node of the QT structure is divided into four nodes of a lower layer is encoded by the entropy encoder 155 and signaled to the image decoding apparatus. If the leaf node of the QT is not larger than the maximum block size (MaxBTSize) of the root node allowed in BT, it may be further divided into one or more of a BT structure or a TT structure.
  • MaxBTSize maximum block size
  • a plurality of division directions may exist. For example, there may be two directions in which a block of a corresponding node is divided horizontally and a direction vertically divided.
  • a second flag indicating whether nodes are split, and if split, a flag indicating a split direction (vertical or horizontal) and/or a split type (Binary or Ternary).
  • a flag indicating) is encoded by the entropy encoder 155 and signaled to the image decoding apparatus.
  • a CU split flag (split_cu_flag) indicating whether the node is divided is encoded. It could be.
  • the block of the corresponding node becomes a leaf node in the split tree structure and becomes a coding unit (CU), which is a basic unit of encoding.
  • CU coding unit
  • a split flag indicating whether each node of the BT structure is divided into blocks of a lower layer and split type information indicating a type to be divided are encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
  • a type of dividing the block of the corresponding node into two blocks having an asymmetric shape may further exist.
  • the asymmetric form may include a form of dividing a block of a corresponding node into two rectangular blocks having a size ratio of 1:3, or a form of dividing a block of a corresponding node in a diagonal direction.
  • the CU can have various sizes according to the QTBT or QTBTTT split from the CTU.
  • a block corresponding to a CU to be encoded or decoded ie, a leaf node of QTBTTT
  • a'current block' a block corresponding to a CU to be encoded or decoded
  • the shape of the current block may be not only square but also rectangular.
  • the prediction unit 120 predicts the current block and generates a prediction block.
  • the prediction unit 120 includes an intra prediction unit 122 and an inter prediction unit 124.
  • each of the current blocks in a picture can be predictively coded.
  • prediction of the current block is performed using an intra prediction technique (using data from a picture containing the current block) or an inter prediction technique (using data from a picture coded before a picture containing the current block). Can be done.
  • Inter prediction includes both one-way prediction and two-way prediction.
  • the intra prediction unit 122 predicts pixels in the current block by using pixels (reference pixels) located around the current block in the current picture including the current block.
  • the plurality of intra prediction modes may include two non-directional modes including a planar mode and a DC mode, and 65 directional modes.
  • the surrounding pixels to be used and the equation are defined differently.
  • directional modes (67 to 80, intra prediction modes -1 to -14) shown by dotted arrows in FIG. 3B may be additionally used. These may be referred to as "wide angle intra-prediction modes". Arrows in FIG. 3B indicate corresponding reference samples used for prediction, and do not indicate a prediction direction. The prediction direction is opposite to the direction indicated by the arrow.
  • the wide-angle intra prediction modes when the current block is a rectangular shape, a specific directional mode is predicted in the opposite direction without additional bit transmission. In this case, among the wide-angle intra prediction modes, some wide-angle intra prediction modes available for the current block may be determined based on a ratio of the width and height of the rectangular current block.
  • intra prediction modes 67 to 80 are available when the current block has a rectangular shape whose height is less than the width, and wide-angle with an angle greater than -135 degrees.
  • the intra prediction modes can be used when the current block has a rectangular shape whose height is greater than the width.
  • the intra prediction unit 122 may determine an intra prediction mode to be used to encode the current block.
  • the intra prediction unit 122 may encode the current block using several intra prediction modes and select an appropriate intra prediction mode to use from the tested modes. For example, the intra prediction unit 122 calculates rate distortion values using rate-distortion analysis for several tested intra prediction modes, and has the best rate distortion characteristics among the tested modes. It is also possible to select an intra prediction mode.
  • the intra prediction unit 122 selects one intra prediction mode from among a plurality of intra prediction modes, and predicts the current block using a neighboring pixel (reference pixel) determined according to the selected intra prediction mode and an equation.
  • Information on the selected intra prediction mode is encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
  • the inter prediction unit 124 generates a prediction block for the current block through a motion compensation process.
  • the inter prediction unit 124 searches for a block most similar to the current block in the coded and decoded reference picture prior to the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated.
  • motion estimation is performed on a luma component, and a motion vector calculated based on the luma component is used for both the luma component and the chroma component.
  • Motion information including information on a reference picture used to predict the current block and information on a motion vector is encoded by the entropy encoder 155 and transmitted to an image decoding apparatus.
  • the prediction unit 120 may further use an intra block copy (IBC) mode.
  • IBC intra block copy
  • the prediction unit 120 searches for a prediction block in the same frame or picture as the current block as in the intra prediction mode, but the prediction unit 120 usually searches for a wider range of pixels as well as neighboring rows and columns. You can explore the area.
  • the prediction unit 120 may determine a block vector (also referred to as a motion vector) to identify a prediction block in the same frame or picture as the current block.
  • the block vector includes an x-component and a y-component, where the x-component identifies the horizontal displacement between the predicted current block and the predicted block, and the y-component identifies the vertical displacement between the predicted current block and the predicted block. Identify.
  • the determined block vector is signaled in the bitstream so that the image decoding apparatus can identify the same prediction block selected by the image encoding apparatus.
  • the image encoding apparatus may perform palette-based encoding on the current block and decode the encoded current block by using a palette-based coding technique to be described later.
  • the image encoding apparatus may further include a palette-based encoding unit as, for example, a module of the prediction unit 120.
  • the subtractor 130 generates a residual block by subtracting the prediction block generated by the intra prediction unit 122 or the inter prediction unit 124 from the current block.
  • the transform unit 140 divides the residual block into one or more transform blocks, applies the transform to one or more transform blocks, and transforms residual values of the transform blocks from the pixel domain to the frequency domain.
  • transformed blocks are referred to as coefficient blocks comprising one or more transform coefficient values.
  • a 2D transformation kernel may be used for transformation, and a 1D transformation kernel may be used for each of the horizontal and vertical directions.
  • the transform kernel may be based on discrete cosine transform (DCT), discrete sine transform (DST), or the like.
  • the transform unit 140 may transform residual signals in the residual block by using the entire size of the residual block as a transform unit.
  • the transform unit 140 may divide the residual block into two sub-blocks in a horizontal or vertical direction, and may perform transformation on only one of the two sub-blocks, as described later with reference to FIGS. 5A to 5D. . Accordingly, the size of the transform block may be different from the size of the residual block (and thus the size of the prediction block).
  • Non-zero residual sample values may not exist or may be very sparse in a subblock on which transformation is not performed.
  • the residual samples of the subblock on which the transformation is not performed are not signaled, and may be regarded as "0" by the image decoding apparatus.
  • the transform unit 140 includes information on the coding mode (or transform mode) of the residual block (e.g., information indicating whether the residual block is transformed or the residual subblock is transformed, and a partition type selected to divide the residual block into subblocks)
  • the entropy encoding unit 155 may be provided with information indicating information and information identifying a subblock on which transformation is performed.
  • the entropy encoder 155 may encode information about a coding mode (or transform mode) of the residual block.
  • the quantization unit 145 quantizes the transform coefficients output from the transform unit 140 and outputs the quantized transform coefficients to the entropy encoding unit 155.
  • the quantization unit 145 may immediately quantize a related residual block for a certain block or frame without transformation.
  • the rearrangement unit 150 may rearrange coefficient values on the quantized residual values.
  • the rearrangement unit 150 may change a two-dimensional coefficient array into a one-dimensional coefficient sequence through coefficient scanning. For example, the rearrangement unit 150 may scan from a DC coefficient to a coefficient in a high frequency region using a zig-zag scan or a diagonal scan to output a one-dimensional coefficient sequence. .
  • zig-zag scan instead of zig-zag scan, a vertical scan that scans a two-dimensional coefficient array in a column direction or a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used. That is, a scan method to be used may be determined from among zig-zag scan, diagonal scan, vertical scan, and horizontal scan according to the size of the transform unit and the intra prediction mode.
  • the entropy encoding unit 155 uses various encoding methods such as Context-based Adaptive Binary Arithmetic Code (CABAC), Exponential Golomb, and the like, and the quantized transform coefficients of 1D output from the reordering unit 150 are A bitstream is generated by encoding the sequence.
  • CABAC Context-based Adaptive Binary Arithmetic Code
  • Exponential Golomb Exponential Golomb
  • the entropy encoder 155 encodes information such as a CTU size related to block division, a CU division flag, a QT division flag, an MTT division type, and an MTT division direction, so that the video decoding apparatus performs the same block as the video encoding apparatus. Make it possible to divide.
  • the entropy encoder 155 encodes information on a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and intra prediction information (ie, intra prediction) according to the prediction type. Mode information) or inter prediction information (reference picture and motion vector information) is encoded.
  • the inverse quantization unit 160 inverse quantizes the quantized transform coefficients output from the quantization unit 145 to generate transform coefficients.
  • the inverse transform unit 165 converts transform coefficients output from the inverse quantization unit 160 from the frequency domain to the spatial domain to restore the residual block.
  • the addition unit 170 restores the current block by adding the restored residual block and the prediction block generated by the prediction unit 120.
  • the pixels in the reconstructed current block are used as reference pixels when intra-predicting the next block.
  • the filter unit 180 filters reconstructed pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization. Perform.
  • the filter unit 180 may include a deblocking filter 182 and a sample adaptive offset (SAO) filter 184.
  • the deblocking filter 180 filters the boundary between reconstructed blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter 184 adds additional information to the deblocking-filtered image. Filtering is performed.
  • the SAO filter 184 is a filter used to compensate for a difference between a reconstructed pixel and an original pixel caused by lossy coding.
  • the reconstructed block filtered through the deblocking filter 182 and the SAO filter 184 is stored in the memory 190.
  • the reconstructed picture may be used as a reference picture for inter prediction of a block in a picture to be encoded later. Meanwhile, when deblocking is performed, deblocking filtering is not applied to the palette-coded block on one side of the block boundary.
  • FIG. 4 is an exemplary functional block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
  • an image decoding apparatus and sub-components of the apparatus will be described with reference to FIG. 4.
  • the image decoding apparatus includes an entropy decoding unit 410, a rearrangement unit 415, an inverse quantization unit 420, an inverse transform unit 430, a prediction unit 440, an adder 450, a filter unit 460, and a memory 470. ) Can be included.
  • each component of the image decoding apparatus may be implemented as hardware or software, or may be implemented as a combination of hardware and software.
  • functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
  • the entropy decoding unit 410 determines the current block to be decoded by decoding the bitstream generated by the image encoding apparatus and extracting information related to block division, and predicting information and residual signals necessary to restore the current block. Extract information, etc.
  • the entropy decoding unit 410 determines the size of the CTU by extracting information on the CTU size from a sequence parameter set (SPS) or a picture parameter set (PPS), and divides the picture into CTUs of the determined size. Then, the CTU is determined as the uppermost layer of the tree structure, that is, the root node, and the CTU is divided using the tree structure by extracting partition information for the CTU.
  • SPS sequence parameter set
  • PPS picture parameter set
  • a first flag (QT_split_flag) related to the splitting of the QT is extracted and each node is split into four nodes of a lower layer.
  • the second flag (MTT_split_flag) related to the splitting of the MTT is extracted to MTT Divide into structure.
  • each node may have 0 or more repetitive MTT segmentation after 0 or more repetitive QT segmentation.
  • MTT division may occur immediately, or, conversely, only multiple QT divisions may occur.
  • each node is divided into four nodes of a lower layer by extracting the first flag (QT_split_flag) related to the division of the QT.
  • QT_split_flag the first flag related to the division of the QT.
  • a split flag indicating whether or not the node corresponding to the leaf node of the QT is further split into BT and split direction information are extracted.
  • the entropy decoder 410 extracts information on a prediction type indicating whether the current block is intra prediction or inter prediction.
  • the prediction type information indicates intra prediction
  • the entropy decoder 410 extracts a syntax element for intra prediction information (intra prediction mode) of the current block.
  • the prediction type information indicates inter prediction
  • the entropy decoder 410 extracts a syntax element for the inter prediction information, that is, information indicating a motion vector and a reference picture referenced by the motion vector.
  • the entropy decoder 410 includes information on the coding mode of the residual block (e.g., information on whether the residual block is encoded or only the subblocks of the residual block are encoded, and is selected to divide the residual block into subblocks). Information indicating the partition type, information identifying the encoded residual subblock, quantization parameters, etc.) are extracted from the bitstream. In addition, the entropy decoder 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.
  • information on the coding mode of the residual block e.g., information on whether the residual block is encoded or only the subblocks of the residual block are encoded, and is selected to divide the residual block into subblocks.
  • Information indicating the partition type, information identifying the encoded residual subblock, quantization parameters, etc. are extracted from the bitstream.
  • the entropy decoder 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.
  • the rearrangement unit 415 in the reverse order of the coefficient scanning order performed by the image encoding apparatus, reconverts the sequence of one-dimensional quantized transform coefficients entropy-decoded by the entropy decoder 410 into a two-dimensional coefficient array (ie, Block).
  • the inverse quantization unit 420 inverse quantizes the quantized transform coefficients, and the inverse transform unit 430 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain based on information on the coding mode of the residual block By reconstructing the signals, a reconstructed residual block for the current block is generated.
  • the inverse transform unit 430 determines the size of the current block (and thus, to be reconstructed) with respect to the inverse quantized transformation coefficients.
  • a reconstructed residual block for the current block is generated by performing inverse transformation using the residual block size) as a transformation unit.
  • the inverse transform unit 430 performs the transformed sub-blocks on the inverse quantized transform coefficients.
  • the size of the block as a transformation unit, performing inverse transformation to restore residual signals for the transformed subblock, and filling the residual signals for untransformed subblocks with a value of "0", the reconstructed current block Create a residual block.
  • the prediction unit 440 may include an intra prediction unit 442 and an inter prediction unit 444.
  • the intra prediction unit 442 is activated when the prediction type of the current block is intra prediction
  • the inter prediction unit 444 is activated when the prediction type of the current block is inter prediction.
  • the intra prediction unit 442 determines an intra prediction mode of the current block among a plurality of intra prediction modes from the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and references around the current block according to the intra prediction mode. Predict the current block using pixels.
  • the inter prediction unit 444 determines a motion vector of the current block and a reference picture referenced by the motion vector using the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and determines the motion vector and the reference picture. Is used to predict the current block.
  • the prediction unit 440 may further use an intra block copy (IBC) mode.
  • the predictor 440 may use a block vector decoded by the entropy decoder 410 from a bitstream in order to identify the same predictive block selected by the image encoding apparatus.
  • IBC intra block copy
  • the image decoding apparatus may reconstruct the current block by performing palette-based decoding on the current block using a palette-based coding technique to be described later.
  • the image decoding apparatus may further include a palette-based decoding unit as, for example, a module of the prediction unit 440.
  • the adder 450 restores the current block by adding the residual block output from the inverse transform unit and the prediction block output from the inter prediction unit or the intra prediction unit.
  • the pixels in the reconstructed current block are used as reference pixels for intra prediction of a block to be decoded later.
  • the filter unit 460 may include a deblocking filter 462 and an SAO filter 464.
  • the deblocking filter 462 performs deblocking filtering on the boundary between reconstructed blocks in order to remove blocking artifacts caused by decoding in units of blocks.
  • the SAO filter 464 performs additional filtering on the reconstructed block after deblocking filtering in order to compensate for the difference between the reconstructed pixel and the original pixel caused by lossy coding.
  • the reconstructed block filtered through the deblocking filter 462 and the SAO filter 464 is stored in the memory 470. When all blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later.
  • deblocking filtering may not be applied to blocks decoded in the palette mode on one side of the block boundary.
  • decoding technique that is, an operation of an image decoding apparatus
  • descriptions of encoding techniques are simplified because they are opposite to the comprehensively described decoding technique.
  • One aspect of the present disclosure relates to improving the parallel coding of blocks of video data.
  • HEVC High Efficiency Video Coding
  • VPDU Virtual Pipeline Data Unit
  • WPP Wavefront Parallel Processing
  • the decoder may be designed to configure the decoding process into several pipelines and process them in parallel, where the data unit input or output from each pipeline stage is VPDU (Virtual Pipeline Data Unit). ).
  • the size of the VPDU is determined by the largest transform block. In the case of other blocks such as prediction blocks, it is possible to divide a given block into arbitrary small blocks and design them to operate, but in the case of transform blocks, this method cannot be applied.
  • a transform having a size of up to 64 ⁇ 64 is used based on the luma component, and pipelines operating in a 64 ⁇ 64 block size can be used in a hardware decoder.
  • Tiles provide partitioning for dividing a picture into a plurality of independently decodeable rectangular regions so that a video decoding apparatus can decode a plurality of tiles in parallel.
  • each row of CTUs in a picture is referred to as a “wavefront”.
  • wavefronts are not independently decodeable, but a video decoder can decode several wavefronts in parallel by sequentially delaying the time point at which decoding of several wavefronts starts. For example, when the video decoder uses WPP to decode a picture, the video decoder starts decoding the second wavefront below the first wavefront after decoding two consecutive CTUs of the first wavefront. Accordingly, it can be ensured that arbitrary information on the first wavefront required for decoding the second wavefront is available at the time of decoding the second wavefront.
  • each CTU row is processed using a delay of two consecutive CTUs based on the upper CTU row.
  • CABAC context information is from the second CTU of the preceding CTU row (i.e., upper right CTU) to the current CTU row. Is propagated to the first CTU of
  • an improved WPP structure that minimizes deterioration of coding efficiency while having a lower waiting time compared to the 2-CTU delay structure of HEVC is proposed.
  • a 1-CTU (4-VPDU) delayed WPP structure may be considered.
  • 5 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1-CTU (4-VPDU) delay structure according to an aspect of the present disclosure.
  • the pipeline delay of WPP is reduced from 2 CTUs to 4 VPDUs (1 CTU).
  • the CABAC context information of the block corresponding to the first VPDU of each CTU row can be updated by getting the CABAC context information from the bottom-right VPDU in the first CTU of the preceding CTU row that has already been decoded.
  • This 1-CTU (4-VPDU) delay structure has higher parallelism than the 2-CTU delay structure of the HEVC framework, but the pixel reference and intra block copy (or intra line) for intra prediction for the upper-right block A restriction on block vectors for copy) should be added.
  • a 1.5-CTU (6-VPDU) delayed WPP structure may be considered.
  • 6 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1.5-CTU (6-VPDU) delay structure according to an aspect of the present disclosure.
  • the restrictions on the pixel reference for intra prediction and the block vector for intra block copy are relaxed compared to the 1-CTU (4-VPDU) delay structure.
  • More efficient encoding and decoding is possible by setting CABAC context information of the first CTU of each CTU row by using the CABAC context information updated more than the CTU (4-VPDU) delay structure.
  • CABAC context information of the block corresponding to the first VPDU of each CTU row is top-right in the second CTU of the preceding CTU row that has already been decoded. right) CABAC context information can be retrieved from the VPDU and updated.
  • the use of a block vector for intra block copies (or intra line copies) in those directions may be allowed.
  • a restriction may be added to the intra prediction mode or the intra block copy mode.
  • FIG. 7 is a diagram for explaining a constraint added to an intra prediction mode or an intra block copy mode when a current block is larger than the size of a VPDU in a 1.5-CTU (6-VPDU) delay structure.
  • O/X indicated in the VPDU indicates the availability of the VPDU when coding the current block.
  • the video encoder may exclude blocks corresponding to the lower two VPDUs in the upper-right CTU from the motion search area for intra-block copy.
  • the video encoder has an offset of an unusable size from the block vector ( A block vector (or a block vector scaled by 1/2) minus the offset) may be signaled.
  • the video decoder may restore the original block vector by adding an offset to the decoded block vector.
  • a video encoder and a decoder may determine whether to apply WPP in units of sequences, typically.
  • whether to apply WPP may be determined in units of subgroups of pictures (eg, which may be subpictures, slices, tiles, CTU groups, etc.).
  • the video encoder may signal a flag for whether to apply WPP (eg, wpp_enable_flag ) for each of the aforementioned units, and the video decoder may determine whether to perform WPP for each unit by parsing the flag from the bitstream.
  • the video encoder and decoder may not apply WPP to the corresponding subgroup. Accordingly, in this case, encoding and decoding of the WPP flag is omitted, and the video decoder may implicitly disable WPP.
  • dependency between subgroups may be controlled at a higher level or a subgroup level.
  • Such dependency possibility may be signaled through one or more syntax elements at a higher level, and may be signaled through a flag for each subgroup.
  • a picture may be encoded so that all subgroups of the picture (eg, CTU groups, tiles, tile groups, slices, subpictures, etc.) do not have dependence, and only some subgroups It may be coded so as not to have this dependency.
  • each subgroup in a picture may be decoded independently (or in parallel) with other subgroups, and some subgroups may be decoded depending on information of another subgroup that has already been decoded.
  • initializing the CABAC context information of the first CTU of the current subgroup by using the CABAC context information of the CTU of another subgroup previously encoded and decoded may provide a gain in encoding efficiency.
  • each subgroup is independently decoded (or sequentially decoded) may be signaled as a bitstream through a flag in the encoder.
  • the encoder and decoder may search for preceding subgroups in reverse order of the Z-scan order to search whether or not a subgroup that has already been encoded and decoded exists.
  • the encoder and decoder may initialize the context information of the current CTU by using the CABAC context information of the last CTU of the subgroup that is already coded before the coding of the first CTU of subgroup A. For example, if subgroup B and subgroup A, which are preceding subgroups adjacent to subgroup A, are encoded so that two subgroups are sequentially decoded (i.e., if subgroup B is a subgroup that cannot be independently decoded), decoding The group may obtain the CABAC context information of the CTU decoded last of subgroup B and initialize the context information of the first CTU of subgroup A.
  • FIG. 9 is a flowchart illustrating a method of initializing CABAC context information of a first CTU of a subgroup in a picture by a video decoder according to an aspect of the present disclosure.
  • the video decoder may parse the flag from the bitstream and determine whether the current subgroup is a subgroup that can be independently decoded (S910 to S920).
  • a subgroup that cannot be independently decoded may be searched for subgroups preceding in the reverse order of the Z-scanning order (S940).
  • the video decoder uses the CABAC context information of the CTU (or VPDU) last decoded in the subgroup, and the first CTU of the current subgroup ( Alternatively, CABAC context information of (VPDU) may be set (S960).
  • context information of the first CTU (or VPDU) of the current subgroup may be initialized to a preset value (eg, 0 or 0.5). (S930).
  • information eg, a specific value or table and/or index
  • a video encoder and decoder derive a palette table (also simply referred to as a "palette") for a block of pixels.
  • Each entry in the palette table contains color component (eg, RGB, YUV, or the like) values or luma component values identified by indexes.
  • the video encoder and decoder first determine the palette table to be used for the block. Then, the palette indices for each pixel (or sample) of the block can be coded to indicate which entry in the palette should be used to predict or reconstruct the pixel (sample).
  • Initializing a palette prediction list generally refers to the process of generating a palette prediction list for the first block of a group of video blocks (eg, subpicture, slice or tile, etc.).
  • the palette prediction list for subsequent blocks is typically generated by updating the previously used palette prediction list. That is, after coding a given block in a palette mode, the encoder and decoder update the palette prediction list using the current palette. Entries used in the current palette are inserted into the new palette prediction list, and entries in the previous palette prediction list that are not used in the current palette are new entries in the new palette prediction list until the maximum allowed size of the palette prediction list is reached.
  • the palette prediction list for the first block is initialized to 0 in the prior art.
  • the entries in the palette table for the first block are new entries explicitly signaled by the encoder.
  • the present disclosure proposes a technique for efficiently generating or initializing a palette table for a block that is first encoded/decoded from a group of video blocks (eg, picture, slice, tile, etc.).
  • a group of video blocks eg, picture, slice, tile, etc.
  • a video encoder sets a default palette table having a plurality of palette colors at a higher level (Picture Parameter Set (PPS), Sequence Parameter Set (SPS), Adaptation Parameter Set (APS), slice header, etc.)). Can signal.
  • the default palette table may be used to generate (ie, initialize) a palette table for sub-unit palette coding when a previously configured palette prediction list is not available.
  • the video decoder may determine entries of the palette table for the first block of the lower unit based on the default palette table signaled from the upper unit.
  • the palette table for the first block of the lower unit may be referred to as “initial palette table” or “initial palette”.
  • a binary flag may be signaled for each entry to indicate which of the entries in the default palette table should be used for initialization of the palette table.
  • a binary flag with a value of "1" may indicate that the related entry is used in the palette, and a binary flag with a value of "0" may indicate that the related entry is not used in the initial palette.
  • the string of binary flags may also be referred to as an index vector.
  • the index vector may be transmitted using run-length coding (of bins of 0 or 1).
  • the video decoder may construct a palette table for palette decoding of the first CU by parsing a default palette table signaled in a higher unit and an index vector signaled in a lower unit.
  • FIG. 10 is a conceptual diagram illustrating an example of initializing a palette for coding video data according to an aspect of the present disclosure.
  • the default palette table signaled in the upper unit has 8 entries.
  • the first entry, the third entry, and the eighth entry i.e., entries mapped to index 0, 2, 7 of the default palette table are included in the initial palette table of the lower unit, and the remaining entries (i.e. It indicates that entries mapped to indexes 1, 3 to 6) are not included in the initial palette table.
  • the number of entries reused from the default palette table may be signaled in an upper unit or a lower unit.
  • the size of the initial palette table to be used in the lower unit ie, the maximum number of entries
  • an initial palette table of a fixed size may be used, and thus signaling about the size of the initial palette table to be used in a lower unit may not be required.
  • the palette for coding the current block may also contain one or more new palette entries that are explicitly coded (eg, separate from the index vector).
  • new palette entries that are explicitly coded in the initial palette table illustrated in FIG. 10, (r', g', b') corresponding to indices 3 and 4 are not palette entries of the upper unit, but new entries explicitly signaled in the lower unit by the encoder. .
  • coding of syntax elements indicating a new palette entry ie, color values
  • a flag indicating the presence or absence of new palette entries may be coded.
  • a palette for each color component e.g., Y palette, Cb palette, Cr palette
  • two palettes e.g., Y palette
  • Cb/Cr palette a palette for each color component
  • a single palette including all color component (Y, Cb, Cr) values in each entry may be used.
  • a single palette may be used.
  • the palette table may need to be initialized at the first CTU (or VPDU) of each CTU row for parallel processing.
  • the palette prediction list for the first CTU (or VPDU) of the current CTU row may be initialized using the pallet data of the CTU or VPDU that has already been decoded located at the top of the current CTU row.
  • a palette prediction list of the upper-right CTU of the current CTU that has already been decoded is obtained and the first of the current CTU row It is also possible to initialize the palette prediction list for configuring the palette table of the CTU.
  • the palette prediction of VPDUs that have already been decoded in the previous CTU row i.e., the upper CTU of the current CTU
  • the list may be used to initialize the palette prediction list for constructing the palette table of the first CTU in the current CTU row.
  • the palette prediction list of the already decoded CTU of the upper CTU row may be used as the palette prediction list of the first CTU of the current CTU row.
  • the palette table of the first CTU of the current CTU row may be configured using a palette prediction list through signaling of an index vector and signaling of additional color component values, similar to the method illustrated in FIG. 10.
  • the pallet table of the already decoded upper CTU in case of 1-CTU delayed WPP
  • the upper right CTU in case of 1-CTU delayed WPP
  • the encoder and decoder may be configured to code and/or determine a flag (which may be referred to as a block-level escape flag) indicating whether any sample of a block is coded in an escape mode described below.
  • a flag value of 0 may indicate that no samples of the block are coded using the escape mode. That is, values of all samples of a block may be determined based on a color value included in a palette for coding a block.
  • a flag value of 1 may indicate that at least one sample of the block is coded using the escape mode. In other words, the value of at least one sample is coded as an escape sample.
  • a CU level escape flag indicating whether the current CU has an escape sample may be signaled in the bitstream.
  • the presence of the escape sample in the CU may affect the number of palette indices for the CU.
  • the palette of the CU generated from the palette prediction list may have N entry indices so that, for example, an entry index for a sample can be selected from ⁇ 0, 1, ⁇ , N-1 ⁇ . If the CU-level escape flag indicates that there is an escape sample in the current block, the encoder and decoder will be able to ensure that the possible index values in the current block are ⁇ 0, 1, Z, N-1, N ⁇ . It is also possible to add an unrelated) index to the palette for the current block.
  • an index equal to N indicates that the associated sample is an escape sample. Indexes less than N may indicate that the associated sample is represented in a color from the palette associated with that index.
  • the two-dimensional block of palette indices for each pixel (sample) in the CU is referred to as a palette index map.
  • the video encoder may convert a 2D block of palette indices into a 1D array by scanning the palette indices using a scanning order.
  • the video decoder may reconstruct a block of palette indices using a scanning order.
  • the previous sample refers to a sample that precedes the sample currently being coded in the scanning order.
  • the horizontal traverse scanning sequence illustrated in FIG. 13A and the vertical traverse scanning sequence illustrated in FIG. 13B. scanning) order can be used selectively.
  • a horizontal scanning sequence and a vertical scanning sequence may be selectively used.
  • the encoder may signal a flag indicating the selected scanning order for a given CU.
  • to scan the palette index of a CU given the diagonal scanning sequence illustrated in FIG. 13(c) or the zigzag scanning sequence illustrated in FIG. 13(d) Can be used.
  • Each sample in a block coded with a palette-based coding mode may be coded using one of two index coding modes as disclosed below.
  • COPY_ABOVE mode In this mode, the palette index for the current sample is copied from the same position sample from the previous line (top row or left column) in the scanning order in the block.
  • INDEX mode In this mode, the palette index is explicitly signaled in the bitstream using a syntax element, expressed by the encoder, for example as truncated binary code, or inferred by the decoder. .
  • the INDEX mode includes a first INDEX mode in which the palette index of a previous sample position preceding in the scan order is copied, that is, inferred by the decoder, and a second INDEX mode in which the palette index is explicitly signaled.
  • the encoder and decoder set the index coding mode of the previous sample of the current sample and/or the same-positioned samples (ie, the upper sample or the left sample) in the previous line in the CABAC context. Can be used as information.
  • the palette index coding scheme proposed in the present disclosure for each sample position in a block, one or two flags for determining a mode are parsed. For each sample position, a first flag having a value of 0 or 1 is parsed, and a second flag having a value of 0 or 1 is parsed depending at least in part on the value of the first flag.
  • One of the COPY_ABOVE mode, the first INDEX mode, and the second INDEX mode is determined according to a value derived from one or more flags parsed for each pixel position.
  • the palette index for the corresponding pixel position is signaled by the encoder only when the determined mode is the second INDEX mode and parsed by the decoder. That is, in the present disclosure, a block map in which index coding modes are allocated according to one or two flags for each pixel position in a block, and a palette index for each pixel position is determined according to the block map.
  • a first flag e.g., run_copy_flag indicating whether the index coding mode of the current sample and the previous sample are both COPY_ABOVE mode, or both the current sample and the previous sample are INDEX mode and have the same index or not
  • a first flag e.g., run_copy_flag
  • a second flag (eg, copy_above_palette_indices_flag ) indicating whether the index coding mode of the current sample is INDEX or COPY_ABOVE may be additionally coded.
  • a variable Copy_Above_Flag representing the index coding mode of the sample is introduced.
  • Table 1 shows how the palette index of the related sample is determined according to the values of the syntax element run_copy_flag and the variable Copy_Above_Flag.
  • FIG. 14 is a flowchart illustrating a method for a decoder to determine a palette index for a current sample according to an aspect of the present disclosure.
  • the decoder determines whether the current sample is in the same index coding mode as the previous sample (that is, whether the current sample and the previous sample are both COPY_ABOVE, or whether the current sample and the previous sample are both INDEX and have the same index or not.
  • the first flag ( run_copy_flag ) indicating ) may be parsed (S1611 ).
  • the decoder sets Copy_Above_Flag of the current sample to the same value as Copy_Above_Flag of the previous sample (S1414). That is, if Copy_Above_Flag of the previous sample is 0, Copy_Above_Flag of the current sample is set to 0, and thus, referring to Table 1, the palette index of the current sample is copied from the previous sample.
  • the Copy_Above_Flag of the previous sample is 1
  • the Copy_Above_Flag of the current sample is set to 1, and thus, referring to Table 1, the palette index of the current sample is copied from the sample at the same position in the previous line (upper row or left column) ( In other words, the palette index of the current sample is copied from the sample at the same position in the upper row for the horizontal transverse scanning of FIG. 13(a), and in the left column for the vertical transverse scanning of FIG. 13(b). The palette index of the current sample is copied from the sample at the same position).
  • the decoder parses a syntax element ( palette_idx_idc ) representing the palette index of the current sample from the bitstream (S1420). If Copy_Above_Flag of the previous sample has a value of 0 ("Yes" in S1416), the decoder further parses the second flag ( copy_above_palette_indices_flag ) (S1422).
  • copy_above_palette_indices_flag 0 (No" in S1412)
  • the decoder parses a syntax element ( palette_idx_idc ) indicating the palette index of the current sample from the bitstream (S1430).
  • the index coding mode of samples located in the first row of FIG. 13A and the first column of FIG. 13B is regarded as the INDEX mode by default.
  • the encoder can also code the palette index for each sample of the block substantially the same as the order illustrated in FIG. 14.
  • the encoder and decoder may perform the above-described palette index coding by dividing the one-dimensional array of palette indices into sample groups of a predefined size (eg, 16 samples). When palette index coding for one sample group is finished, palette index coding for the next sample group may start. In addition, in palette index coding for one sample group, after coding of the first flag ( run_copy_flag ) and the second flag ( copy_above_palette_indices_flag ) is completed, a syntax element ( palette_idx_idc ) for necessary samples may be coded.
  • a syntax element palette_idx_idc
  • FIG. 15 is a conceptual diagram illustrating a method of coding a palette index map according to an aspect of the present disclosure.
  • a palette index map 1510 for an 8 ⁇ 8 coding block is illustrated, and it is assumed that the horizontal transverse scanning order is used to scan the palette indices.
  • the palette table has two entries associated with index 0 and 1, and index 3 as an escape index for the escape sample.
  • values of the first flag ( run_copy_flag ) and the second flag ( copy_above_palette_indices_flag ) signaled for the palette indices in the second row 1512 of the palette index map 1510 are shown.
  • the samples indicated in bold in the second row 1512 refer to samples in which a syntax element (palette_idx_idc) expressly expressing a related palette index is coded.
  • the INDEX mode is used for all samples of the first row 1511 in a given palette index map, and all of the samples in the given index map have a 0 value palette index, and as described above, the first row in the given index map Since the INDEX mode is used for all samples in (1511), the last sample in the first row (1511) (the variable Copy_Above_Flag for the rightmost sample has a value of 0.
  • the encoder codes the palette index of the first sample in the second row 1512.
  • the index coding mode to be used can be selected from INDEX mode and COPY_ABOVE mode, which can be based on R/D testing.
  • a run_copy_flag with a value of 0 is signaled for the first sample in the second row 1512, and an additional value of 1.
  • the copy_above_palette_indices_flag of is signaled.
  • the encoder may select an index coding mode to be used for coding the palette index of the second sample in the second row 1512 from the INDEX mode and the COPY_ABOVE mode. This choice can be based on R/D testing. If the COPY_ABOVE mode is selected, the second sample and the previous sample (first sample) in the scan order in the second row 1512 are the COPY_ABOVE mode. Accordingly, the encoder signals run_copy_flag of a value of 1 for the first sample in the second row 1512.
  • index_pred_flag indicating whether the palette index of the current sample is the same as the palette index of the left or upper sample
  • a flag ( left_or_above_flag ) indicating whether the palette index of the current sample is the same as the palette index of the left sample or the palette index of the upper sample may be additionally coded.
  • the value of the associated palette index is determined by the encoder, e.g., truncated binary code. code) is explicitly signaled in the bitstream.
  • the encoder and decoder are coded as escape samples (e.g., samples that do not have color values represented in the palette for coding the block), the index is 1 It is also possible to code data representing the last index (ie, escape index) of the palette increased by. For example, if the index for the sample is the same as the escape index (eg, the last index in the above-mentioned palette), the decoder may infer the sample to be decoded as the escape sample.
  • the encoder and decoder may restore the current block by determining color components corresponding to the palette index of each sample by referring to the palette table for the current block.
  • the quantized sample value can be explicitly signaled in the bitstream for all color components by the encoder.
  • the sample value is already decoded in a non-directional mode (DC, Planar, etc.) or a directional mode, similar to the intra-predicted sample. It may be predicted from neighboring blocks.
  • the encoder may determine whether to explicitly signal the quantized sample value by calculating the RD-cost for explicitly signaling the quantized sample value and predicting from the neighboring block. have.
  • the encoder may signal a 1-bit flag indicating whether the quantized sample value for the escape sample is explicitly signaled in the bitstream.
  • the decoder parses the 1-bit flag, selects whether to decode the quantized sample value from the bitstream for the escape sample, an escape mode or (non-directional or directional mode), and escapes from the already decoded neighboring blocks. It is possible to determine whether to predict the sample value of the sample.
  • an encoder and a decoder may be configured to always predict an escape sample from an already decoded neighboring block. In this case, signaling of the aforementioned 1-bit flag is not required.
  • the encoder may signal a syntax element indicating the mode number of the intra prediction mode selected for the escape pixel, and when one preset intra prediction mode is used, signaling of the syntax element indicating the mode number may not be required. .
  • the palette prediction list is updated using the palette table for the current CU. Entries used in the current palette are inserted into the new palette prediction list, and subsequently, entries from the previous palette prediction list that are not used in the current palette are added to the new palette prediction list until the maximum allowed size of the palette prediction list is reached. do.
  • 16 is a flowchart illustrating a method for a decoder to decode video data according to an aspect of the present disclosure.
  • step S1610 the decoder decodes a syntax element indicating that the picture can be decoded using wavefront parallel processing (WPP) from the bitstream.
  • the syntax element may be signaled at a sequence parameter set (SPS) level.
  • the decoder decodes the coded data of the picture.
  • the decoder may use wavefront parallel processing to decode the coded data of the picture.
  • the decoder may decode multiple CTU rows in parallel in a manner that starts decoding of the first CTU of each CTU row, after the first CTU of the previous CTU row is decoded.
  • Wavefront parallel processing may be performed in units of slices or units of tiles.
  • the decoder may not decode multiple CTU rows in parallel. Even in such a case, the decoding of the first CTU of each CTU row can be started after the first CTU of the previous CTU row is decoded.
  • the decoder uses the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row to be decoded in the palette mode.
  • the palette table for the coding block may be predicted (S1621).
  • the decoder may decode the first coding block in the palette mode by using the predicted palette table for the first coding block (S1622).
  • the decoder determines whether to reuse one or more entries of the palette data from the first CTU of the previous CTU row in the palette table for the first coding block. You can decide. Also, the decoder may determine new entries to be added to the palette table for the first coding block.
  • the decoder may decode an escape flag indicating whether one or more escape samples exist in the first coding block from the bitstream. .
  • the decoder may add an additional index to the predicted palette table for the first coding block.
  • the decoder may decode at least one syntax element from the bitstream for each sample of the first coding block in order to reconstruct the palette index map for the first coding block.
  • the encoder may identify one or more escape samples having an additional index based on the reconstructed palette index map, and decode a syntax element representing quantized color component values for the identified escape samples from the bitstream.
  • At least one syntax element decoded to reconstruct the palette index map of the coding block includes a first flag (eg, run_copy_flag ) indicating whether the related sample is in the same index coding mode as the previous sample preceding in the scanning order.
  • the first flag may be decoded for each sample of the coding block.
  • the at least one syntax element further includes a second flag (eg, copy_above_palette_indices_flag ) indicating whether the palette index of the related sample is copied from the sample at the same position in the previous line in the scanning order.
  • the second flag is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and may be decoded when the index coding mode of the previous sample is the INDEX mode.
  • the second flag may be omitted for samples located in the first row of the coding block for the horizontal transverse scanning order and samples located in the first column of the coding block for the vertical transverse scanning order.
  • the at least one syntax element further includes a syntax element (eg, palette_idx_idc ) explicitly expressing a palette index of a related sample.
  • the syntax element explicitly expressing the palette index is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and may be decoded when the index coding mode of the related sample is not the COPY ABOVE mode.
  • the encoder may also perform encoding of video data in substantially the same manner as in the order illustrated in FIG.
  • the encoder may encode a syntax element indicating that a picture of video data can be encoded and decoded using wavefront parallel processing, and may encode data of the picture to enable decoding using wavefront parallel processing.
  • the encoder for the first coding block of the current CTU row encoded in the palette mode using the palette data from the first CTU of the previous CTU row, for the first coding block.
  • a palette table may be predicted, and the first coding block may be encoded in a palette mode by using the predicted palette table for the first coding block.
  • the non-transitory recording medium includes, for example, all kinds of recording devices in which data is stored in a form readable by a computer system.
  • the non-transitory recording medium includes a storage medium such as an erasable programmable read only memory (EPROM), a flash drive, an optical drive, a magnetic hard drive, and a solid state drive (SSD).
  • EPROM erasable programmable read only memory
  • SSD solid state drive

Abstract

Disclosed is a method and an apparatus for parallel encoding and decoding of moving picture data. A method of decoding video data comprises the steps of: decoding, from a bitstream, a syntax element indicating that a picture can be decoded using wavefront parallel processing; and decoding encoded data of the picture. The step of decoding encoded data of the picture comprises the steps of: for a first coding block of a current CTU row encoded in a palette mode, predicting a palette table for the first coding block by using palette data from a first CTU of a previous CTU row; and decoding the first coding block in the palette mode by using the palette table predicted for the first coding block.

Description

동영상 데이터의 병렬 부호화 및 복호화를 위한 방법 및 장치Method and apparatus for parallel encoding and decoding of moving picture data
본 발명은 동영상 데이터의 부호화 및 복호화에 관한 것으로서, 더욱 구체적으로는 동영상 데이터의 부호화 혹은 복호화를 병렬적으로 처리하는 방법 및 장치에 관한 것이다.The present invention relates to encoding and decoding of moving picture data, and more particularly, to a method and apparatus for performing encoding or decoding of moving picture data in parallel.
동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터량을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다. Since moving picture data has a large amount of data compared to audio data or still image data, it requires a lot of hardware resources including memory in order to store or transmit itself without processing for compression.
따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC에 비해 약 40% 정도의 부호화 효율을 향상시킨 HEVC(High Efficiency Video Coding)가 존재한다. Therefore, when storing or transmitting moving picture data, the moving picture data is generally compressed and stored or transmitted using an encoder, and the decoder receives the compressed moving picture data, decompresses and plays it. As such video compression technologies, there are H.264/AVC and HEVC (High Efficiency Video Coding), which improves coding efficiency by about 40% compared to H.264/AVC.
그러나, 픽쳐의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다.However, the size, resolution, and frame rate of pictures are gradually increasing, and accordingly, the amount of data to be encoded is also increasing. Accordingly, a new compression technique having higher encoding efficiency and higher quality improvement effect than the existing compression technique is required.
본 개시는 동영상 데이터의 부호화 혹은 복호화를 병렬적으로 처리하는 방법 및 장치를 제시하고자 한다. 특히, 적은 대기 시간을 가지면서도 코딩 효율의 저하를 최소화한 개선된 파면 병렬 프로세싱(wavefront parallel processing)을 지원하기 위한 기법들이 제시된다.The present disclosure proposes a method and apparatus for parallel processing of encoding or decoding of moving picture data. In particular, techniques for supporting improved wavefront parallel processing that minimizes a decrease in coding efficiency while having a low latency time are proposed.
본 개시의 일 측면에 따르면, 비디오 데이터의 부호화 방법은 픽쳐가 파면 병렬 프로세싱(wavefront parallel processing)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림에서 부호화하는 단계 및 상기 파면 병렬 프로세싱을 이용하여 복호화 가능하도록, 상기 픽쳐의 데이터를 부호화하는 단계를 포함한다. 상기 픽쳐의 데이터를 부호화하는 단계는 팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계 및 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 부호화하는 단계를 포함한다.According to an aspect of the present disclosure, a method of encoding video data includes encoding a syntax element indicating that a picture can be decoded using wavefront parallel processing, in a bitstream, and decoding using the wavefront parallel processing. And encoding the data of the picture so as to be possible. In the encoding of the picture data, the palette table for the first coding block is predicted using the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode. And encoding the first coding block in a palette mode using a palette table predicted for the first coding block.
본 개시의 다른 측면에 따르면, 비디오 데이터의 복호화 방법은 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계 및 상기 픽쳐의 부호화된 데이터를 복호화하는 단계를 포함한다. 상기 픽쳐의 부호화된 데이터를 복호화하는 단계는 팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계 및 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계를 포함한다.According to another aspect of the present disclosure, a method of decoding video data includes decoding a syntax element indicating that a picture can be decoded using wavefront parallel processing from a bitstream, and decoding coded data of the picture. . The decoding of the coded data of the picture includes a palette table for the first coding block using palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode. And decoding the first coding block in a palette mode using the predicted palette table for the first coding block.
본 개시의 또 다른 측면에 따르면, 비디오 데이터를 부호화하기 위한 장치는 메모리 및 하나 이상의 프로세서를 포함하며, 하나 이상의 프로세서는 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 부호화하고, 파면 병렬 프로세싱을 이용하여 복호화 가능하도록, 상기 픽쳐의 데이터를 부호화하도록 구성된다. 상기 픽쳐의 데이터를 부호화하는 것의 일부로서, 하나 이상의 프로세서는 팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하고, 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 첫 번째 코딩 블록을 팔레트 모드로 부호화한다.According to another aspect of the present disclosure, an apparatus for encoding video data includes a memory and at least one processor, the at least one processor encoding a syntax element indicating that a picture can be decoded using wavefront parallel processing, and It is configured to encode the data of the picture so that it can be decoded using parallel processing. As part of encoding the data of the picture, one or more processors use the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row to be encoded in the palette mode. The palette table for is predicted, and the first coding block is encoded in the palette mode using the predicted palette table for the first coding block.
본 개시의 또 다른 측면에 따르면, 비디오 데이터를 복호화하기 위한 장치는 메모리 및 하나 이상의 프로세서를 포함하며, 하나 이상의 프로세서는 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하고, 상기 픽쳐의 부호화된 데이터를 복호화하도록 구성된다. 상기 픽쳐의 부호화된 데이터를 복호화하는 것의 일부로서, 하나 이상의 프로세서는 팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하고, 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 첫 번째 코딩 블록을 팔레트 모드로 복호화한다.According to another aspect of the present disclosure, an apparatus for decoding video data includes a memory and at least one processor, and at least one processor decodes a syntax element indicating that a picture can be decoded using wavefront parallel processing from a bitstream. And, it is configured to decode the coded data of the picture. As part of decoding the coded data of the picture, one or more processors use the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row coded in the palette mode. The palette table for the coding block is predicted, and the first coding block is decoded in the palette mode using the predicted palette table for the first coding block.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다.1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a method of dividing a block using a QTBTTT structure.
도 3a는 복수의 인트라 예측 모드들을 나타낸 도면이다.3A is a diagram illustrating a plurality of intra prediction modes.
도 3b는 광각 인트라 예측모드들을 포함한 복수의 인트라 예측 모드들을 나타낸 도면이다.3B is a diagram illustrating a plurality of intra prediction modes including wide-angle intra prediction modes.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.4 is an exemplary block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
도 5는 본 개시의 일 측면에 따른, 1-CTU (4-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다.5 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1-CTU (4-VPDU) delay structure according to an aspect of the present disclosure.
도 6은 본 개시의 일 측면에 따른, 1.5-CTU (6-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다.6 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1.5-CTU (6-VPDU) delay structure according to an aspect of the present disclosure.
도 7은 1.5-CTU (6-VPDU) 지연 구조에서, 현재 블록이 VPDU의 크기보다 큰 경우에 인트라 예측 모드 혹은 인트라 블록 카피 모드에 부가되는 제약을 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining a constraint added to an intra prediction mode or an intra block copy mode when a current block is larger than the size of a VPDU in a 1.5-CTU (6-VPDU) delay structure.
도 8은 복수의 서브그룹들로 나뉘어진 픽쳐를 예시한다.8 illustrates a picture divided into a plurality of subgroups.
도 9는 본 개시의 일 측면에 따른, 비디오 복호화기가 픽쳐내 서브그룹의 첫 번째 CTU의 CABAC 문맥정보를 초기화하는 방법을 예시하는 흐름도이다.9 is a flowchart illustrating a method of initializing CABAC context information of a first CTU of a subgroup in a picture by a video decoder according to an aspect of the present disclosure.
도 10은 본 개시의 일 측면에 따른, 비디오 데이터를 코딩하기 위한 팔레트를 초기화하는 일 예를 예시하는 개념도이다.10 is a conceptual diagram illustrating an example of initializing a palette for coding video data according to an aspect of the present disclosure.
도 11은, 본 개시의 일 측면에 따른, 2-CTU 지연 WPP가 활성화된 경우에 팔레트 테이블의 초기화를 설명하기 위한 것이다.11 is for explaining initialization of a palette table when 2-CTU delay WPP is activated according to an aspect of the present disclosure.
도 12는, 본 개시의 일 측면에 따른, 1-CTU 지연 WPP가 활성화된 경우에 팔레트 테이블의 초기화를 설명하기 위한 것이다.12 is for explaining initialization of a palette table when 1-CTU delayed WPP is activated according to an aspect of the present disclosure.
도 13은 본 개시의 일 측면에 따른, 팔레트 인덱스 맵을 코딩을 위한 스캐닝 순서들을 예시하는 도면이다. 13 is a diagram illustrating scanning sequences for coding a palette index map according to an aspect of the present disclosure.
도 14는 본 개시의 일 측면에 따른, 복호화기가 현재의 픽셀에 대한 팔레트 인덱스를 결정하는 방법을 예시하는 흐름도이다.14 is a flowchart illustrating a method by which a decoder determines a palette index for a current pixel, according to an aspect of the present disclosure.
도 15는 본 개시의 일 측면에 따른, 팔레트 인덱스 맵을 코딩하는 방법을 예시하는 개념도이다.15 is a conceptual diagram illustrating a method of coding a palette index map according to an aspect of the present disclosure.
도 16은 본 개시의 일 측면에 따른, 비디오 데이터를 복호화하는 방법을 도시한 흐름도이다.16 is a flowchart illustrating a method of decoding video data according to an aspect of the present disclosure.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding identification codes to elements of each drawing, it should be noted that the same elements have the same symbols as possible even if they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1을 참조하여 영상 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure. Hereinafter, an image encoding apparatus and sub-elements of the apparatus will be described with reference to FIG. 1.
영상 부호화 장치는 픽처 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 재정렬부(150), 엔트로피 부호화부(155), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.The image encoding apparatus includes a picture segmentation unit 110, a prediction unit 120, a subtractor 130, a transform unit 140, a quantization unit 145, a rearrangement unit 150, an entropy encoding unit 155, an inverse quantization unit. (160), an inverse transform unit 165, an adder 170, a filter unit 180, and a memory 190 may be included.
영상 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.Each component of the image encoding apparatus may be implemented by hardware or software, or by a combination of hardware and software. In addition, functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
하나의 영상(비디오)는 복수의 픽처들로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 타일(Tile) 또는/및 슬라이스(Slice)로 분할된다. 여기서, 하나 이상의 타일을 타일 그룹(Tile Group)으로 정의할 수 있다. 각 타일 또는/슬라이스는 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다. 각 CU에 적용되는 정보들은 CU의 신택스로서 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로서 부호화된다. 또한, 하나의 슬라이스 내의 모든 블록들에 공통적으로 적용되는 정보는 슬라이스 헤더의 신택스로서 부호화되며, 하나의 픽처들을 구성하는 모든 블록들에 적용되는 정보는 픽처 파라미터 셋(PPS, Picture Parameter Set) 혹은 픽처 헤더에 부호화된다. 나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화된다. 그리고, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다. 또한, 하나의 타일 또는 타일 그룹에 공통으로 적용되는 정보는 타일 또는 타일 그룹 헤더의 신택스로서 부호화될 수도 있다.One image (video) is composed of a plurality of pictures. Each picture is divided into a plurality of regions, and encoding is performed for each region. For example, one picture is divided into one or more tiles or/and slices. Here, one or more tiles may be defined as a tile group. Each tile or/slice is divided into one or more Coding Tree Units (CTUs). And each CTU is divided into one or more CUs (Coding Units) by a tree structure. Information applied to each CU is encoded as the syntax of the CU, and information commonly applied to CUs included in one CTU is encoded as the syntax of the CTU. In addition, information commonly applied to all blocks in one slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one picture is a picture parameter set (PPS) or picture. It is coded in the header. Further, information commonly referred to by a plurality of pictures is encoded in a sequence parameter set (SPS). In addition, information commonly referred to by one or more SPSs is encoded in a video parameter set (VPS). Also, information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
픽처 분할부(110)는 CTU(Coding Tree Unit)의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로서 부호화되어 영상 복호화 장치로 전달된다. The picture dividing unit 110 determines the size of a coding tree unit (CTU). Information on the size of the CTU (CTU size) is encoded as the syntax of the SPS or PPS and transmitted to the video decoding apparatus.
픽처 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU(Coding Tree Unit)들로 분할한 이후에, 트리 구조(tree structure)를 이용하여 CTU를 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU(coding unit)가 된다. After dividing each picture constituting an image into a plurality of CTUs (Coding Tree Units) having a predetermined size, the picture dividing unit 110 repetitively divides the CTU using a tree structure. (recursively) split. A leaf node in the tree structure becomes a coding unit (CU), which is a basic unit of coding.
트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT), 또는 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(TernaryTree, TT), 또는 이러한 QT 구조, BT 구조 및 TT 구조 중 둘 이상을 혼용한 구조일 수 있다. 예컨대, QTBT(QuadTree plus BinaryTree) 구조가 사용될 수 있고, 또는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조가 사용될 수 있다. 여기서, BTTT를 합쳐서 MTT(Multiple-Type Tree)라 지칭될 수 있다. As a tree structure, a quad tree (QuadTree, QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, or a binary tree (BinaryTree) in which an upper node is divided into two lower nodes. , BT), or a ternary tree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure in which two or more of these QT structures, BT structures, and TT structures are mixed. have. For example, a QTBT (QuadTree plus BinaryTree) structure may be used, or a QTBTTT (QuadTree plus BinaryTree TernaryTree) structure may be used. Here, by combining BTTT, it may be referred to as MTT (Multiple-Type Tree).
도 2는 QTBTTT 분할 트리 구조를 보인다. 도 2에서 보는 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다. QT 구조의 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 어느 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다. 예컨대, 해당 노드의 블록이 가로로 분할되는 방향과 세로로 분할되는 방향 두 가지가 존재할 수 있다. 도 2와 같이, MTT 분할이 시작되면, 노드들이 분할되었는지 여부를 지시하는 제2 플래그(mtt_split_flag)와, 분할이 되었다면 추가적으로 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. 대안적으로, 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)를 부호화하기에 앞서, 그 노드가 분할되는지 여부를 지시하는 CU 분할 플래그(split_cu_flag)가 부호화될 수도 있다. CU 분할 플래그(split_cu_flag) 값이 분할되지 않았음을 지시하는 경우, 해당 노드의 블록이 분할 트리 구조에서의 리프 노드(leaf node)가 되어 부호화의 기본 단위인 CU(coding unit)가 된다. CU 분할 플래그(split_cu_flag) 값이 분할됨을 지시하는 경우, 영상 부호화 장치는 전술한 방식으로 제1 플래그부터 부호화를 시작한다.2 shows a QTBTTT split tree structure. As shown in FIG. 2, the CTU may be first divided into a QT structure. The quadtree division may be repeated until the size of a splitting block reaches the minimum block size (MinQTSize) of a leaf node allowed in QT. A first flag (QT_split_flag) indicating whether each node of the QT structure is divided into four nodes of a lower layer is encoded by the entropy encoder 155 and signaled to the image decoding apparatus. If the leaf node of the QT is not larger than the maximum block size (MaxBTSize) of the root node allowed in BT, it may be further divided into one or more of a BT structure or a TT structure. In the BT structure and/or the TT structure, a plurality of division directions may exist. For example, there may be two directions in which a block of a corresponding node is divided horizontally and a direction vertically divided. As shown in FIG. 2, when MTT splitting starts, a second flag (mtt_split_flag) indicating whether nodes are split, and if split, a flag indicating a split direction (vertical or horizontal) and/or a split type (Binary or Ternary). A flag indicating) is encoded by the entropy encoder 155 and signaled to the image decoding apparatus. Alternatively, before encoding the first flag (QT_split_flag) indicating whether each node is divided into four nodes of a lower layer, a CU split flag (split_cu_flag) indicating whether the node is divided is encoded. It could be. When it is indicated that the value of the CU split flag (split_cu_flag) is not split, the block of the corresponding node becomes a leaf node in the split tree structure and becomes a coding unit (CU), which is a basic unit of encoding. When indicating that the value of the CU split flag (split_cu_flag) is to be split, the video encoding apparatus starts encoding from the first flag in the above-described manner.
트리 구조의 다른 예시로서 QTBT가 사용되는 경우, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. BT 구조의 각 노드가 하위 레이어의 블록으로 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할되는 타입을 지시하는 분할 타입 정보가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다. 한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태가 포함될 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태가 포함될 수도 있다.When QTBT is used as another example of the tree structure, two types of horizontally splitting a block of the corresponding node into two blocks of the same size (i.e., symmetric horizontal splitting) and a type splitting vertically (i.e., symmetric vertical splitting) Branches can exist. A split flag indicating whether each node of the BT structure is divided into blocks of a lower layer and split type information indicating a type to be divided are encoded by the entropy encoder 155 and transmitted to the image decoding apparatus. Meanwhile, a type of dividing the block of the corresponding node into two blocks having an asymmetric shape may further exist. The asymmetric form may include a form of dividing a block of a corresponding node into two rectangular blocks having a size ratio of 1:3, or a form of dividing a block of a corresponding node in a diagonal direction.
CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다. QTBTTT 분할의 채용에 따라, 현재블록의 모양은 정사각형뿐만 아니라 직사각형일 수도 있다.The CU can have various sizes according to the QTBT or QTBTTT split from the CTU. Hereinafter, a block corresponding to a CU to be encoded or decoded (ie, a leaf node of QTBTTT) is referred to as a'current block'. According to the adoption of the QTBTTT division, the shape of the current block may be not only square but also rectangular.
예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다. The prediction unit 120 predicts the current block and generates a prediction block. The prediction unit 120 includes an intra prediction unit 122 and an inter prediction unit 124.
일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 일반적으로 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.In general, each of the current blocks in a picture can be predictively coded. In general, prediction of the current block is performed using an intra prediction technique (using data from a picture containing the current block) or an inter prediction technique (using data from a picture coded before a picture containing the current block). Can be done. Inter prediction includes both one-way prediction and two-way prediction.
인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3a에서 보는 바와 같이, 복수의 인트라 예측모드는 planar 모드와 DC 모드를 포함하는 2개의 비방향성 모드와 65개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.The intra prediction unit 122 predicts pixels in the current block by using pixels (reference pixels) located around the current block in the current picture including the current block. There are a plurality of intra prediction modes according to the prediction direction. For example, as shown in FIG. 3A, the plurality of intra prediction modes may include two non-directional modes including a planar mode and a DC mode, and 65 directional modes. Depending on each prediction mode, the surrounding pixels to be used and the equation are defined differently.
직사각형 모양의 현재블록에 대한 효율적인 방향성 예측을 위해, 도 3b에 점선 화살표로 도시된 방향성 모드들(67 ~ 80번, -1 ~ -14 번 인트라 예측모드들)이 추가로 사용될 수 있다. 이들은 "광각 인트라 예측모드들(wide angle intra-prediction modes)"로 지칭될 수 있다. 도 3b에서 화살표들은 예측에 사용되는 대응하는 참조샘플들을 가리키는 것이며, 예측 방향을 나타내는 것이 아니다. 예측 방향은 화살표가 가리키는 방향과 반대이다. 광각 인트라 예측모드들은 현재블록이 직사각형일 때 추가적인 비트 전송 없이 특정 방향성 모드를 반대방향으로 예측을 수행하는 모드이다. 이때 광각 인트라 예측모드들 중에서, 직사각형의 현재블록의 너비와 높이의 비율에 의해, 현재블록에 이용 가능한 일부 광각 인트라 예측모드들이 결정될 수 있다. 예컨대, 45도보다 작은 각도를 갖는 광각 인트라 예측모드들(67 ~ 80번 인트라 예측모드들)은 현재블록이 높이가 너비보다 작은 직사각형 형태일 때 이용 가능하고, -135도보다 큰 각도를 갖는 광각 인트라 예측모드들(-1 ~ -14 번 인트라 예측모드들)은 현재블록이 높이가 너비보다 큰 직사각형 형태일 때 이용 가능하다.For efficient directional prediction for the rectangular-shaped current block, directional modes (67 to 80, intra prediction modes -1 to -14) shown by dotted arrows in FIG. 3B may be additionally used. These may be referred to as "wide angle intra-prediction modes". Arrows in FIG. 3B indicate corresponding reference samples used for prediction, and do not indicate a prediction direction. The prediction direction is opposite to the direction indicated by the arrow. In the wide-angle intra prediction modes, when the current block is a rectangular shape, a specific directional mode is predicted in the opposite direction without additional bit transmission. In this case, among the wide-angle intra prediction modes, some wide-angle intra prediction modes available for the current block may be determined based on a ratio of the width and height of the rectangular current block. For example, wide-angle intra prediction modes with an angle less than 45 degrees (intra prediction modes 67 to 80) are available when the current block has a rectangular shape whose height is less than the width, and wide-angle with an angle greater than -135 degrees. The intra prediction modes (intra prediction modes -1 to -14) can be used when the current block has a rectangular shape whose height is greater than the width.
인트라 예측부(122)는 현재블록을 부호화하는데 사용할 인트라 예측모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측모드를 선택할 수도 있다.The intra prediction unit 122 may determine an intra prediction mode to be used to encode the current block. In some examples, the intra prediction unit 122 may encode the current block using several intra prediction modes and select an appropriate intra prediction mode to use from the tested modes. For example, the intra prediction unit 122 calculates rate distortion values using rate-distortion analysis for several tested intra prediction modes, and has the best rate distortion characteristics among the tested modes. It is also possible to select an intra prediction mode.
인트라 예측부(122)는 복수의 인트라 예측모드 중에서 하나의 인트라 예측모드를 선택하고, 선택된 인트라 예측모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측모드에 대한 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.The intra prediction unit 122 selects one intra prediction mode from among a plurality of intra prediction modes, and predicts the current block using a neighboring pixel (reference pixel) determined according to the selected intra prediction mode and an equation. Information on the selected intra prediction mode is encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
인터 예측부(124)는 움직임 보상 과정을 통해 현재블록에 대한 예측블록을 생성한다. 인터 예측부(124)는 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.The inter prediction unit 124 generates a prediction block for the current block through a motion compensation process. The inter prediction unit 124 searches for a block most similar to the current block in the coded and decoded reference picture prior to the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated. In general, motion estimation is performed on a luma component, and a motion vector calculated based on the luma component is used for both the luma component and the chroma component. Motion information including information on a reference picture used to predict the current block and information on a motion vector is encoded by the entropy encoder 155 and transmitted to an image decoding apparatus.
예측부(120)는 인트라 블록 카피(intra block copy; IBC) 모드를 더 사용할 수도 있다. IBC 모드에서, 예측부(120)는 인트라 예측 모드에서와 같이 현재블록과 동일한 프레임 또는 픽처내에서 예측블록을 탐색하지만, 예측부(120)는 보통 픽셀들의 이웃하는 행들 및 열들 뿐만 아니라 더 넓은 탐색 영역을 탐색할 수 있다. IBC 모드에서, 예측부(120)는 현재블록과 동일한 프레임 또는 픽처 내의 예측블록을 식별하기 위해, (모션 벡터로도 지칭되는) 블록 벡터를 결정할 수도 있다. 블록 벡터는 x-컴포넌트 및 y-컴포넌트를 포함하고, 여기서 x-컴포넌트는 예측되고 있는 현재블록과 예측 블록 간의 수평 변위를 식별하며, y-컴포넌트는 예측되고 있는 현재블록과 예측 블록 간의 수직 변위를 식별한다. 영상 복호화 장치가 영상 부호화 장치에 의해 선택된 동일한 예측 블록을 식별할 수 있도록, 결정된 블록 벡터는 비트스트림에서 시그널링된다.The prediction unit 120 may further use an intra block copy (IBC) mode. In the IBC mode, the prediction unit 120 searches for a prediction block in the same frame or picture as the current block as in the intra prediction mode, but the prediction unit 120 usually searches for a wider range of pixels as well as neighboring rows and columns. You can explore the area. In the IBC mode, the prediction unit 120 may determine a block vector (also referred to as a motion vector) to identify a prediction block in the same frame or picture as the current block. The block vector includes an x-component and a y-component, where the x-component identifies the horizontal displacement between the predicted current block and the predicted block, and the y-component identifies the vertical displacement between the predicted current block and the predicted block. Identify. The determined block vector is signaled in the bitstream so that the image decoding apparatus can identify the same prediction block selected by the image encoding apparatus.
영상 부호화 장치는 후술하는 팔레트 기반의 코딩 기법을 이용하여 현재블록에 대해 팔레트 기반의 부호화를 수행하고 부호화된 현재블록에 대해 복호화를 수행할 수도 있다. 이를 위해 영상 부호화 장치는, 예컨대 예측부(120)의 일 모듈로서, 팔레트 기반의 부호화부를, 더 포함할 수 있다.The image encoding apparatus may perform palette-based encoding on the current block and decode the encoded current block by using a palette-based coding technique to be described later. To this end, the image encoding apparatus may further include a palette-based encoding unit as, for example, a module of the prediction unit 120.
감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차블록을 생성한다.The subtractor 130 generates a residual block by subtracting the prediction block generated by the intra prediction unit 122 or the inter prediction unit 124 from the current block.
변환부(140)는 잔차블록을 하나 이상의 변환블록들로 나누고, 변환을 하나 이상의 변환 블록들에 적용하여, 변환블록들의 잔차 값들을 픽셀 도메인에서 주파수 도메인으로 변환한다. 주파수 도메인에서, 변환된 블록들은 하나 이상의 변환 계수 값들을 포함하는 계수 블록들이라고 지칭된다. 변환에는 2차원 변환 커널이 사용될 수 있으며, 수평 방향 변환과 수직 방향 방향에 각각 1차원 변환 커널이 사용될 수도 있다. 변환 커널은 이산 코사인 변환(DCT), 이산 사인 변환(DST) 등에 기반할 수 있다.The transform unit 140 divides the residual block into one or more transform blocks, applies the transform to one or more transform blocks, and transforms residual values of the transform blocks from the pixel domain to the frequency domain. In the frequency domain, transformed blocks are referred to as coefficient blocks comprising one or more transform coefficient values. A 2D transformation kernel may be used for transformation, and a 1D transformation kernel may be used for each of the horizontal and vertical directions. The transform kernel may be based on discrete cosine transform (DCT), discrete sine transform (DST), or the like.
변환부(140)는 잔차블록의 전체 크기를 변환 단위로 사용하여 잔차블록 내의 잔차 신호들을 변환할 수 있다. 또한, 변환부(140)는 도 5a 내지 도 5d를 참조하여 후술하는 것과 같이, 잔차블록을 수평 혹은 수직 방향으로 2개의 서브블록으로 분할하고, 변환을 2개의 서브블록 중 하나에만 수행할 수 있다. 따라서, 변환 블록의 사이즈는 잔차 블록의 사이즈(따라서 예측블록의 사이즈)와 상이할 수도 있다. 변환이 수행되지 않는 서브블록에는 논-제로 잔차 샘플 값들이 존재하지 않거나 매우 희소할 수 있다. 변환이 수행되지 않는 서브블록의 잔차 샘플들은 시그널링되지 않으며, 영상 복호화 장치에 의해 모두 "0"으로 간주될 수 있다. 분할 방향과 분할 비율에 따라 여러 파티션 타입들이 존재할 수 있다. 변환부(140)는 잔차블록의 코딩 모드(혹은 변환 모드)에 관한 정보(예컨대, 잔차 블록을 변환하였는지 아니면 잔차 서브블록을 변환하였는지를 나타내는 정보, 잔차블록을 서브블록들로 분할하기 위해 선택된 파티션 타입을 나타내는 정보, 변환이 수행되는 서브블록을 식별하는 정보 등을 포함하는 정보)를 엔트로피 부호화부(155)에 제공할 수 있다. 엔트로피 부호화부(155)는 잔차블록의 코딩 모드(혹은 변환 모드)에 관한 정보를 부호화할 수 있다. The transform unit 140 may transform residual signals in the residual block by using the entire size of the residual block as a transform unit. In addition, the transform unit 140 may divide the residual block into two sub-blocks in a horizontal or vertical direction, and may perform transformation on only one of the two sub-blocks, as described later with reference to FIGS. 5A to 5D. . Accordingly, the size of the transform block may be different from the size of the residual block (and thus the size of the prediction block). Non-zero residual sample values may not exist or may be very sparse in a subblock on which transformation is not performed. The residual samples of the subblock on which the transformation is not performed are not signaled, and may be regarded as "0" by the image decoding apparatus. There can be several partition types depending on the partitioning direction and the partitioning ratio. The transform unit 140 includes information on the coding mode (or transform mode) of the residual block (e.g., information indicating whether the residual block is transformed or the residual subblock is transformed, and a partition type selected to divide the residual block into subblocks) The entropy encoding unit 155 may be provided with information indicating information and information identifying a subblock on which transformation is performed. The entropy encoder 155 may encode information about a coding mode (or transform mode) of the residual block.
양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 엔트로피 부호화부(155)로 출력한다. 양자화부(145)는, 어떤 블록 혹은 프레임에 대해, 변환 없이, 관련된 잔차 블록을 곧바로 양자화할 수도 있다.The quantization unit 145 quantizes the transform coefficients output from the transform unit 140 and outputs the quantized transform coefficients to the entropy encoding unit 155. The quantization unit 145 may immediately quantize a related residual block for a certain block or frame without transformation.
재정렬부(150)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다. 재정렬부(150)는 계수 스캐닝(coefficient scanning)을 통해 2차원의 계수 어레이를 1차원의 계수 시퀀스로 변경할 수 있다. 예를 들어, 재정렬부(150)에서는 지그-재그 스캔(zig-zag scan) 또는 대각선 스캔(diagonal scan)을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원의 계수 시퀀스를 출력할 수 있다. 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔 대신 2차원의 계수 어레이를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔, 대각선 스캔, 수직 방향 스캔 및 수평 방향 스캔 중에서 사용될 스캔 방법이 결정될 수도 있다.The rearrangement unit 150 may rearrange coefficient values on the quantized residual values. The rearrangement unit 150 may change a two-dimensional coefficient array into a one-dimensional coefficient sequence through coefficient scanning. For example, the rearrangement unit 150 may scan from a DC coefficient to a coefficient in a high frequency region using a zig-zag scan or a diagonal scan to output a one-dimensional coefficient sequence. . Depending on the size of the transform unit and the intra prediction mode, instead of zig-zag scan, a vertical scan that scans a two-dimensional coefficient array in a column direction or a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used. That is, a scan method to be used may be determined from among zig-zag scan, diagonal scan, vertical scan, and horizontal scan according to the size of the transform unit and the intra prediction mode.
엔트로피 부호화부(155)는, CABAC(Context-based Adaptive Binary Arithmetic Code), 지수 골롬(Exponential Golomb) 등의 다양한 부호화 방식을 사용하여, 재정렬부(150)로부터 출력된 1차원의 양자화된 변환 계수들의 시퀀스를 부호화함으로써 비트스트림을 생성한다. The entropy encoding unit 155 uses various encoding methods such as Context-based Adaptive Binary Arithmetic Code (CABAC), Exponential Golomb, and the like, and the quantized transform coefficients of 1D output from the reordering unit 150 are A bitstream is generated by encoding the sequence.
또한, 엔트로피 부호화부(155)는 블록 분할과 관련된 CTU size, CU 분할 플래그, QT 분할 플래그, MTT 분할 타입, MTT 분할 방향 등의 정보를 부호화하여, 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다. 또한, 엔트로피 부호화부(155)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측모드에 대한 정보) 또는 인터 예측정보(참조픽처 및 움직임벡터에 대한 정보)를 부호화한다.In addition, the entropy encoder 155 encodes information such as a CTU size related to block division, a CU division flag, a QT division flag, an MTT division type, and an MTT division direction, so that the video decoding apparatus performs the same block as the video encoding apparatus. Make it possible to divide. In addition, the entropy encoder 155 encodes information on a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and intra prediction information (ie, intra prediction) according to the prediction type. Mode information) or inter prediction information (reference picture and motion vector information) is encoded.
역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.The inverse quantization unit 160 inverse quantizes the quantized transform coefficients output from the quantization unit 145 to generate transform coefficients. The inverse transform unit 165 converts transform coefficients output from the inverse quantization unit 160 from the frequency domain to the spatial domain to restore the residual block.
가산부(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.The addition unit 170 restores the current block by adding the restored residual block and the prediction block generated by the prediction unit 120. The pixels in the reconstructed current block are used as reference pixels when intra-predicting the next block.
필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 줄이기 위해 복원된 픽셀들에 대한 필터링을 수행한다. 필터부(180)는 디블록킹 필터(182)와 SAO(Sample Adaptive Offset) 필터(184)를 포함할 수 있다.The filter unit 180 filters reconstructed pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization. Perform. The filter unit 180 may include a deblocking filter 182 and a sample adaptive offset (SAO) filter 184.
디블록킹 필터(180)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 필터링하고, SAO 필터(184)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다. SAO 필터(184)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해 사용되는 필터이다.The deblocking filter 180 filters the boundary between reconstructed blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter 184 adds additional information to the deblocking-filtered image. Filtering is performed. The SAO filter 184 is a filter used to compensate for a difference between a reconstructed pixel and an original pixel caused by lossy coding.
디블록킹 필터(182) 및 SAO 필터(184)를 통해 필터링된 복원블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용될 수 있다. 한편, 디블록킹 수행 시, 블록 경계의 한쪽 측면에 있는 팔레트 부호화된 블록에 대하여는 디블로킹 필터링을 적용하지 않는다.The reconstructed block filtered through the deblocking filter 182 and the SAO filter 184 is stored in the memory 190. When all blocks in one picture are reconstructed, the reconstructed picture may be used as a reference picture for inter prediction of a block in a picture to be encoded later. Meanwhile, when deblocking is performed, deblocking filtering is not applied to the palette-coded block on one side of the block boundary.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 기능 블록도이다. 이하에서는 도 4를 참조하여 영상 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.4 is an exemplary functional block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure. Hereinafter, an image decoding apparatus and sub-components of the apparatus will be described with reference to FIG. 4.
영상 복호화 장치는 엔트로피 복호화부(410), 재정렬부(415), 역양자화부(420), 역변환부(430), 예측부(440), 가산기(450), 필터부(460) 및 메모리(470)를 포함하여 구성될 수 있다. The image decoding apparatus includes an entropy decoding unit 410, a rearrangement unit 415, an inverse quantization unit 420, an inverse transform unit 430, a prediction unit 440, an adder 450, a filter unit 460, and a memory 470. ) Can be included.
도 1의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.Like the image encoding apparatus of FIG. 1, each component of the image decoding apparatus may be implemented as hardware or software, or may be implemented as a combination of hardware and software. In addition, functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
엔트로피 복호화부(410)는 영상 부호화 장치에 의해 생성된 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출함으로써 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측정보와 잔차신호에 대한 정보 등을 추출한다.The entropy decoding unit 410 determines the current block to be decoded by decoding the bitstream generated by the image encoding apparatus and extracting information related to block division, and predicting information and residual signals necessary to restore the current block. Extract information, etc.
엔트로피 복호화부(410)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고, CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할정보를 추출함으로써 트리 구조를 이용하여 CTU를 분할한다. The entropy decoding unit 410 determines the size of the CTU by extracting information on the CTU size from a sequence parameter set (SPS) or a picture parameter set (PPS), and divides the picture into CTUs of the determined size. Then, the CTU is determined as the uppermost layer of the tree structure, that is, the root node, and the CTU is divided using the tree structure by extracting partition information for the CTU.
예컨대, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 MTT의 분할과 관련된 제2 플래그(MTT_split_flag) 및 분할 방향(vertical / horizontal) 및/또는 분할 타입(binary / ternary) 정보를 추출하여 해당 리프 노드를 MTT 구조로 분할한다. 이를 통해 QT의 리프 노드 이하의 각 노드들을 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.For example, in the case of splitting the CTU using the QTBTTT structure, first, a first flag (QT_split_flag) related to the splitting of the QT is extracted and each node is split into four nodes of a lower layer. And, for the node corresponding to the leaf node of QT, the second flag (MTT_split_flag) related to the splitting of the MTT, and the splitting direction (vertical / horizontal) and / or split type (binary / ternary) information is extracted to MTT Divide into structure. Through this, each node below the leaf node of the QT is recursively divided into a BT or TT structure.
또 다른 예로서, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 CU의 분할 여부를 지시하는 CU 분할 플래그(split_cu_flag)를 추출하고, 해당 블록이 분할된 경우, 제1 플래그(QT_split_flag)를 추출할 수도 있다. 분할 과정에서 각 노드는 0번 이상의 반복적인 QT 분할 후에 0번 이상의 반복적인 MTT 분할이 발생할 수 있다. 예컨대, CTU는 바로 MTT 분할이 발생하거나, 반대로 다수 번의 QT 분할만 발생할 수도 있다. As another example, when splitting the CTU using the QTBTTT structure, first extract the CU split flag (split_cu_flag) indicating whether to split the CU, and if the corresponding block is split, the first flag (QT_split_flag) is extracted. May be. In the segmentation process, each node may have 0 or more repetitive MTT segmentation after 0 or more repetitive QT segmentation. For example, in the CTU, MTT division may occur immediately, or, conversely, only multiple QT divisions may occur.
다른 예로서, QTBT 구조를 사용하여 CTU를 분할하는 경우, QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT로 더 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할 방향 정보를 추출한다.As another example, when the CTU is divided using the QTBT structure, each node is divided into four nodes of a lower layer by extracting the first flag (QT_split_flag) related to the division of the QT. In addition, a split flag indicating whether or not the node corresponding to the leaf node of the QT is further split into BT and split direction information are extracted.
한편, 엔트로피 복호화부(410)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. 예측 타입 정보가 인트라 예측을 지시하는 경우, 엔트로피 복호화부(410)는 현재블록의 인트라 예측정보(인트라 예측모드)에 대한 신택스 엘리먼트를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 엔트로피 복호화부(410)는 인터 예측정보에 대한 신택스 엘리먼트, 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조픽처를 나타내는 정보를 추출한다.Meanwhile, when determining the current block to be decoded through the division of the tree structure, the entropy decoder 410 extracts information on a prediction type indicating whether the current block is intra prediction or inter prediction. When the prediction type information indicates intra prediction, the entropy decoder 410 extracts a syntax element for intra prediction information (intra prediction mode) of the current block. When the prediction type information indicates inter prediction, the entropy decoder 410 extracts a syntax element for the inter prediction information, that is, information indicating a motion vector and a reference picture referenced by the motion vector.
한편, 엔트로피 복호화부(410)는 잔차블록의 코딩 모드에 관한 정보(예컨대, 잔차블록이 부호화되었는지 잔차블록의 서브블록만이 부호화되었는지 여부에 관한 정보, 잔차블록을 서브블록들로 분할하기 위해 선택된 파티션 타입을 나타내는 정보, 부호화된 잔차 서브블록을 식별하는 정보, 양자화 파라미터 등)를 비트스트림으로부터 추출한다. 또한, 엔트로피 복호화부(410)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.On the other hand, the entropy decoder 410 includes information on the coding mode of the residual block (e.g., information on whether the residual block is encoded or only the subblocks of the residual block are encoded, and is selected to divide the residual block into subblocks). Information indicating the partition type, information identifying the encoded residual subblock, quantization parameters, etc.) are extracted from the bitstream. In addition, the entropy decoder 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.
재정렬부(415)는, 영상 부호화 장치에 의해 수행된 계수 스캐닝 순서의 역순으로, 엔트로피 복호화부(410)에서 엔트로피 복호화된 1차원의 양자화된 변환계수들의 시퀀스를 다시 2차원의 계수 어레이(즉, 블록)로 변경할 수 있다.The rearrangement unit 415, in the reverse order of the coefficient scanning order performed by the image encoding apparatus, reconverts the sequence of one-dimensional quantized transform coefficients entropy-decoded by the entropy decoder 410 into a two-dimensional coefficient array (ie, Block).
역양자화부(420)는 양자화된 변환계수들을 역양자화하고, 역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보를 기초로, 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 복원된 잔차블록을 생성한다.The inverse quantization unit 420 inverse quantizes the quantized transform coefficients, and the inverse transform unit 430 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain based on information on the coding mode of the residual block By reconstructing the signals, a reconstructed residual block for the current block is generated.
역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보가 영상 부호화 장치에서 현재블록의 잔차블록이 부호화되었다고 지시하는 경우에, 역양자화된 변환계수들에 대해 현재블록의 사이즈(따라서, 복원될 잔차블록의 사이즈)를 변환 단위로 사용하여 역변환을 수행하여 현재블록에 대한 복원된 잔차블록을 생성한다. When the information on the coding mode of the residual block indicates that the residual block of the current block is coded in the image encoding apparatus, the inverse transform unit 430 determines the size of the current block (and thus, to be reconstructed) with respect to the inverse quantized transformation coefficients. A reconstructed residual block for the current block is generated by performing inverse transformation using the residual block size) as a transformation unit.
또한, 역변환부(430)는, 잔차블록의 코딩 모드에 관한 정보가 영상 부호화 장치에서 잔차블록의 하나의 서브블록만이 부호화되었다고 지시하는 경우에, 역양자화된 변환계수들에 대해, 변환된 서브블록의 사이즈를 변환 단위로 사용하여, 역변환을 수행하여 변환된 서브블록에 대한 잔차신호들을 복원하고, 비변환된 서브블록에 대한 잔차신호들을 "0" 값으로 채움으로써, 현재블록에 대한 복원된 잔차블록을 생성한다.In addition, when the information on the coding mode of the residual block indicates that only one subblock of the residual block is coded in the image encoding apparatus, the inverse transform unit 430 performs the transformed sub-blocks on the inverse quantized transform coefficients. By using the size of the block as a transformation unit, performing inverse transformation to restore residual signals for the transformed subblock, and filling the residual signals for untransformed subblocks with a value of "0", the reconstructed current block Create a residual block.
예측부(440)는 인트라 예측부(442) 및 인터 예측부(444)를 포함할 수 있다. 인트라 예측부(442)는 현재블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(444)는 현재블록의 예측 타입이 인터 예측일 때 활성화된다.The prediction unit 440 may include an intra prediction unit 442 and an inter prediction unit 444. The intra prediction unit 442 is activated when the prediction type of the current block is intra prediction, and the inter prediction unit 444 is activated when the prediction type of the current block is inter prediction.
인트라 예측부(442)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 엘리먼트로부터 복수의 인트라 예측모드 중 현재블록의 인트라 예측모드를 결정하고, 인트라 예측모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다.The intra prediction unit 442 determines an intra prediction mode of the current block among a plurality of intra prediction modes from the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and references around the current block according to the intra prediction mode. Predict the current block using pixels.
인터 예측부(444)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 엘리먼트를 이용하여 현재블록의 움직임벡터와 그 움직임벡터가 참조하는 참조픽처를 결정하고, 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다.The inter prediction unit 444 determines a motion vector of the current block and a reference picture referenced by the motion vector using the syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and determines the motion vector and the reference picture. Is used to predict the current block.
예측부(440)는 인트라 블록 카피(IBC) 모드를 더 사용할 수도 있다. 예측부(440)는 영상 부호화 장치에 의해 선택된 동일한 예측 블록을 식별하기 위해, 엔트로피 복호화부(410)가 비트스트림으로부터 복호화한 블록 벡터를 이용할 수도 있다.The prediction unit 440 may further use an intra block copy (IBC) mode. The predictor 440 may use a block vector decoded by the entropy decoder 410 from a bitstream in order to identify the same predictive block selected by the image encoding apparatus.
영상 복호화 장치는 후술하는 팔레트 기반의 코딩 기법을 이용하여 현재블록에 대해 팔레트 기반으로 복호화를 수행하여 현재블록을 복원할 수도 있다. 영상 복호화 장치는, 예컨대 예측부(440)의 일 모듈로서, 팔레트 기반의 복호화부를, 더 포함할 수 있다.The image decoding apparatus may reconstruct the current block by performing palette-based decoding on the current block using a palette-based coding technique to be described later. The image decoding apparatus may further include a palette-based decoding unit as, for example, a module of the prediction unit 440.
가산기(450)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.The adder 450 restores the current block by adding the residual block output from the inverse transform unit and the prediction block output from the inter prediction unit or the intra prediction unit. The pixels in the reconstructed current block are used as reference pixels for intra prediction of a block to be decoded later.
필터부(460)는 디블록킹 필터(462) 및 SAO 필터(464)를 포함할 수 있다. 디블록킹 필터(462)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)를 제거하기 위해, 복원된 블록 간의 경계를 디블록킹 필터링한다. SAO 필터(464)는 손실 부호화(lossy coding)으로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다. 디블록킹 필터(462) 및 SAO 필터(464)를 통해 필터링된 복원블록은 메모리(470)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다. 디블록킹 수행 시, 블록 경계의 한쪽 측면에 있는 팔레트 모드로 복호화된 블록에 대하여는 디블로킹 필터링을 적용하지 않을 수 있다.The filter unit 460 may include a deblocking filter 462 and an SAO filter 464. The deblocking filter 462 performs deblocking filtering on the boundary between reconstructed blocks in order to remove blocking artifacts caused by decoding in units of blocks. The SAO filter 464 performs additional filtering on the reconstructed block after deblocking filtering in order to compensate for the difference between the reconstructed pixel and the original pixel caused by lossy coding. The reconstructed block filtered through the deblocking filter 462 and the SAO filter 464 is stored in the memory 470. When all blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later. When deblocking is performed, deblocking filtering may not be applied to blocks decoded in the palette mode on one side of the block boundary.
이하의 설명은 주로 복호화 기술, 즉 영상 복호화 장치의 동작에 초점이 맞춰져 있으며, 부호화 기술들에 대한 설명은, 포괄적으로 설명된 복호화 기술과 반대이므로, 간략화된다. The following description mainly focuses on a decoding technique, that is, an operation of an image decoding apparatus, and descriptions of encoding techniques are simplified because they are opposite to the comprehensively described decoding technique.
본 개시의 일 측면은 비디오 데이터의 블록들의 병렬적인 코딩을 개선하는 것과 관련되어 있다. One aspect of the present disclosure relates to improving the parallel coding of blocks of video data.
High Efficiency Video Coding (HEVC) 표준을 포함하는 다양한 비디오 코딩 표준들은 동일한 픽처 내의 상이한 블록들이 동시에 복호화될 수 있도록 VPDU(Virtual Pipeline Data Unit), 타일들, 및 파면 병렬 프로세싱(Wavefront Parallel Processing: WPP)과 같은 병렬 프로세싱 메커니즘들을 지원한다. Various video coding standards including the High Efficiency Video Coding (HEVC) standard include Virtual Pipeline Data Unit (VPDU), tiles, and Wavefront Parallel Processing (WPP) so that different blocks in the same picture can be simultaneously decoded. It supports the same parallel processing mechanisms.
복호화기의 하드웨어 구현 관점에서, 복호화 프로세스를 여러 파이프라인(pipeline)으로 구성하여 병렬 처리하도록 복호화기를 설계될 수 있으며, 여기서, 각 파이프라인 스테이지에서 입력되거나 출력되는 데이터 단위는 VPDU(Virtual Pipeline Data Unit)로 지칭된다. VPDU의 크기는 최대 변환 블록(Transform block)에 의해 결정된다. 예측 블록과 같은 다른 블록들의 경우 주어진 블록을 임의의 작은 블록으로 분할하여 동작하도록 설계하는 것이 가능하지만, 변환 블록의 경우 이런 방법의 적용이 불가능하기 때문이다. 현재의 VVC 표준화 논의에서는 루마 성분 기준으로 최대 64×64 크기의 변환을 사용하는 바, 하드웨어 복호화기에서는 64×64 블록 크기로 동작하는 파이프라인들을 사용할 수 있다.From the perspective of hardware implementation of the decoder, the decoder may be designed to configure the decoding process into several pipelines and process them in parallel, where the data unit input or output from each pipeline stage is VPDU (Virtual Pipeline Data Unit). ). The size of the VPDU is determined by the largest transform block. In the case of other blocks such as prediction blocks, it is possible to divide a given block into arbitrary small blocks and design them to operate, but in the case of transform blocks, this method cannot be applied. In the current discussion of VVC standardization, a transform having a size of up to 64×64 is used based on the luma component, and pipelines operating in a 64×64 block size can be used in a hardware decoder.
타일들은, 비디오 복호화 장치가 다수의 타일들을 병렬로 복호화할 수 있도록, 다수의 독립적으로 복호화 가능한 직사각형 영역들로 픽처를 분할하는 파티셔닝을 제공한다. Tiles provide partitioning for dividing a picture into a plurality of independently decodeable rectangular regions so that a video decoding apparatus can decode a plurality of tiles in parallel.
WPP에서, 픽처에서 CTU들의 각각의 행(row)은 "파면(wavefront)"으로 지칭된다. 타일들과 달리, 파면들은 독립적으로 복호화 가능하지 않지만, 비디오 복호화기는 여러 파면들의 복호화가 시작되는 시점을 순차적으로 지연시킴으로써 여러 파면들을 병렬로 복호화할 수 있다. 예를 들어, 비디오 복호화기가 픽처를 복호화하기 위해 WPP를 이용하는 경우, 비디오 복호화기는 제 1 파면의 두 개의 연속적인 CTU들을 복호화한 후에 제 1 파면 아래의 제 2 파면의 복호화를 시작한다. 따라서, 제 2 파면을 복호화하기 위해 필요한 제 1 파면의 임의의 정보가 제 2 파면을 복호화하는 시점에 이용 가능하다는 것이 보장될 수 있다. N-1 번째 CTU 행을 복호화하기 시작한 후 N 번째 CTU 행을 복호화하기 전까지, 비디오 복호화기가 대기하여야 하는 시간은 지연으로 지칭될 수 있다. HEVC의 WPP 구조에서, 각 CTU 행은 상측 CTU 행을 기준으로 두 개의 연속적인 CTU의 지연을 사용하여 처리된다. 각 CTU 행의 시작점에서 종래의 CABAC 초기화로 인한 코딩 효율의 잠재적 손실을 완화하기 위해, WPP에서, CABAC 문맥(context) 정보는 선행 CTU 행의 두 번째 CTU(즉, upper right CTU)로부터 현재 CTU 행의 첫 번째 CTU로 전파된다.In WPP, each row of CTUs in a picture is referred to as a “wavefront”. Unlike tiles, wavefronts are not independently decodeable, but a video decoder can decode several wavefronts in parallel by sequentially delaying the time point at which decoding of several wavefronts starts. For example, when the video decoder uses WPP to decode a picture, the video decoder starts decoding the second wavefront below the first wavefront after decoding two consecutive CTUs of the first wavefront. Accordingly, it can be ensured that arbitrary information on the first wavefront required for decoding the second wavefront is available at the time of decoding the second wavefront. The time required by the video decoder to wait after decoding the N-1 th CTU row and before decoding the N th CTU row may be referred to as a delay. In the WPP structure of HEVC, each CTU row is processed using a delay of two consecutive CTUs based on the upper CTU row. To mitigate the potential loss of coding efficiency due to conventional CABAC initialization at the beginning of each CTU row, in WPP, CABAC context information is from the second CTU of the preceding CTU row (i.e., upper right CTU) to the current CTU row. Is propagated to the first CTU of
HEVC에서 최대 CTU 사이즈가 64×64 였던 반면에, VVC 표준화 논의에서 최대 CTU 사이즈는 128×128로 증가하였으며, 그에 따라 2-CTU 지연을 가진 WPP 구조가 제공할 수 있는 병렬 프로세싱 능력은 급격히 감소하게 되었다.While the maximum CTU size in HEVC was 64×64, in the discussion of VVC standardization, the maximum CTU size increased to 128×128, and accordingly, the parallel processing capability that the WPP architecture with 2-CTU delay can provide decreases rapidly. Became.
WPP 모드에서 CTU 행 간의 지연을 줄일수록, 병렬 처리 성능은 높아지지만, 인트라 예측에서의 픽셀 참조와 인트라 블록 카피(intra block copy; IBC)에서의 블록 벡터에 대한 탐색범위가 제한되며, 비교적 적게 업데이트된 CABAC 문맥 정보가 다음 파면(wavefront)의 첫 CTU에 전파되므로 코딩 효율이 떨어지게 된다. 즉, WPP 구조에서 코딩 효율과 병렬처리 성능 사이에 트레이드-오프(trade-off)가 존재한다.In the WPP mode, as the delay between CTU rows is reduced, the parallel processing performance increases, but the search range for the pixel reference in intra prediction and the block vector in the intra block copy (IBC) is limited, and relatively few updates are made. Since the CABAC context information is propagated to the first CTU of the next wavefront, coding efficiency decreases. That is, in the WPP structure, there is a trade-off between coding efficiency and parallel processing performance.
본 개시의 일 측면에 따르면, HEVC의 2-CTU 지연 구조에 비해 적은 대기 시간을 가지면서도 코딩 효율의 저하를 최소화한 개선된 WPP 구조를 제안한다.According to an aspect of the present disclosure, an improved WPP structure that minimizes deterioration of coding efficiency while having a lower waiting time compared to the 2-CTU delay structure of HEVC is proposed.
일 예로, 1-CTU (4-VPDU) 지연 방식의 WPP 구조가 고려될 수 있다. 도 5는 본 개시의 일 측면에 따른, 1-CTU (4-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다. 제안된 1-CTU (4-VPDU) 지연 방식의 WPP 구조에 따르면, HEVC 프레임워크에 비해, WPP의 파이프라인 지연이 2 CTU에서 4 VPDU(1 CTU)로 경감된다. 각 CTU 행의 첫 번째 VPDU에 해당하는 블록의 CABAC 문맥 정보는 이미 복호화된 선행 CTU 행의 첫 번째 CTU 내 좌하측(bottom-right) VPDU에서 CABAC 문맥 정보를 가져와 업데이트할 수 있다. 이러한 1-CTU (4-VPDU) 지연 구조는 HEVC 프레임워크의 2-CTU 지연 구조보다 높은 병렬성을 갖지만 우상측(above-right) 블록에 대한 인트라 예측을 위한 픽셀 참조 및 인트라 블록 카피(혹은 인트라 라인 카피)를 위한 블록 벡터에 대한 제한이 부가되어야 한다.As an example, a 1-CTU (4-VPDU) delayed WPP structure may be considered. 5 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1-CTU (4-VPDU) delay structure according to an aspect of the present disclosure. According to the proposed 1-CTU (4-VPDU) delayed WPP structure, compared to the HEVC framework, the pipeline delay of WPP is reduced from 2 CTUs to 4 VPDUs (1 CTU). The CABAC context information of the block corresponding to the first VPDU of each CTU row can be updated by getting the CABAC context information from the bottom-right VPDU in the first CTU of the preceding CTU row that has already been decoded. This 1-CTU (4-VPDU) delay structure has higher parallelism than the 2-CTU delay structure of the HEVC framework, but the pixel reference and intra block copy (or intra line) for intra prediction for the upper-right block A restriction on block vectors for copy) should be added.
다른 일 예로, 1.5-CTU (6-VPDU) 지연 방식의 WPP 구조가 고려될 수 있다. 도 6은 본 개시의 일 측면에 따른, 1.5-CTU (6-VPDU) 지연 구조의 파면 병렬 부호화 및 복호화 기법을 예시하는 개념도이다.As another example, a 1.5-CTU (6-VPDU) delayed WPP structure may be considered. 6 is a conceptual diagram illustrating a wavefront parallel encoding and decoding scheme of a 1.5-CTU (6-VPDU) delay structure according to an aspect of the present disclosure.
제안된 1.5-CTU (6-VPDU) 지연 구조에 따르면, 인트라 예측을 위한 픽셀 참조 및 인트라 블록 카피를 위한 블록 벡터에 대한 제한이 1-CTU (4-VPDU) 지연 구조에 비해 완화되며, 1-CTU (4-VPDU) 지연 구조보다 더 많이 업데이트된 CABAC 문맥정보를 이용하여 각 CTU 행의 첫 CTU의 CABAC 문맥정보를 설정함으로써 더 효율적인 부호화 및 복호화를 가능하게 한다.According to the proposed 1.5-CTU (6-VPDU) delay structure, the restrictions on the pixel reference for intra prediction and the block vector for intra block copy are relaxed compared to the 1-CTU (4-VPDU) delay structure. More efficient encoding and decoding is possible by setting CABAC context information of the first CTU of each CTU row by using the CABAC context information updated more than the CTU (4-VPDU) delay structure.
도 6을 참조하면, 1.5-CTU (6-VPDU) 지연 구조에서, 각 CTU 행의 첫 번째 VPDU에 해당하는 블록의 CABAC 문맥 정보는 이미 복호화된 선행 CTU 행의 두 번째 CTU 내 우상측(top-right) VPDU에서 CABAC 문맥 정보를 가져와 업데이트할 수 있다.6, in the 1.5-CTU (6-VPDU) delay structure, the CABAC context information of the block corresponding to the first VPDU of each CTU row is top-right in the second CTU of the preceding CTU row that has already been decoded. right) CABAC context information can be retrieved from the VPDU and updated.
도 6의 예시에서, VPDU의 크기 = N, CTU의 크기 = 2N 인 경우를 예시하고 있으며, 이러한 경우에, 좌측, 좌상측, 상측, 우상측 방향으로의 인트라 예측을 위한 픽셀 참조가 허용될 수 있으며, 그 방향들로의 인트라 블록 카피(혹은 인트라 라인 카피)를 위한 블록 벡터의 사용이 허용될 수 있다. In the example of FIG. 6, a case in which the size of the VPDU = N and the size of the CTU = 2N is illustrated, and in this case, pixel reference for intra prediction in the left, upper left, upper and upper right directions may be allowed. In addition, the use of a block vector for intra block copies (or intra line copies) in those directions may be allowed.
만약, 현재 블록(CU)의 크기가 VPDU의 크기보다 큰 경우에, 인트라 예측 모드 혹은 인트라 블록 카피 모드에 제약이 부가될 수 있다. If the size of the current block (CU) is larger than the size of the VPDU, a restriction may be added to the intra prediction mode or the intra block copy mode.
도 7은 1.5-CTU (6-VPDU) 지연 구조에서, 현재 블록이 VPDU의 크기보다 큰 경우에 인트라 예측 모드 혹은 인트라 블록 카피 모드에 부가되는 제약을 설명하기 위한 도면이다. 도 7에서 VPDU 내에 표시된 O/X는 현재 블록을 코딩할 때 VPDU의 이용 가능성을 나타낸다.FIG. 7 is a diagram for explaining a constraint added to an intra prediction mode or an intra block copy mode when a current block is larger than the size of a VPDU in a 1.5-CTU (6-VPDU) delay structure. In FIG. 7, O/X indicated in the VPDU indicates the availability of the VPDU when coding the current block.
도 7의 (a)와 같이, 현재 CU가 VPDU의 크기보다 큰 경우에, 좌상(above-right) 방향의 X 표시된 VPDU들에 포함된 참조 픽셀들은 이용 불가능하다. 이 경우, 이용 불가능한 참조 픽셀들을 이용가능한 위쪽(above) 참조 픽셀들 중 최우측 픽셀 값으로 채워 넣음으로써, 현재 CU의 인트라 예측에 좌상측 (above-right) 방향의 픽셀을 참조하는 인트라 예측 모드의 사용이 허용될 수도 있다. As shown in FIG. 7A, when the current CU is larger than the size of the VPDU, reference pixels included in the X-marked VPDUs in the upper-right direction are not available. In this case, by filling the unavailable reference pixels with the value of the rightmost pixel among the available upper reference pixels, the intra prediction mode referring to the pixel in the upper-right direction in the intra prediction of the current CU Use may be permitted.
현재 CU의 예측 모드가 인트라 블록 카피(혹은 인트라 라인 카피)인 경우에, 우상단(above-right) CTU 내 아래쪽 2개 VPDU에 해당하는 블록들을 향하는 블록 벡터의 사용이 제한된다. 따라서, 비디오 부호화기는 우상단(above-right) CTU 내 아래쪽 2개 VPDU에 해당하는 블록들을 인트라 블록 카피를 위한 움직임 탐색 영역에서 배제할 수 있다. 또한, 비디오 부호화기는 우상단(above-right) CTU 내 위쪽 2개 VPDU에 해당하는 블록들을 가리키는 우상측(above-right) 방향의 블록 벡터가 선택되었을 경우, 그 블록 벡터에서 사용 불가능한 크기만큼의 오프셋(offset)을 뺀 크기의 블록 벡터(혹은 1/2만큼 스케일링된 블록 벡터)를 시그널링할 수도 있다. 비디오 복호화기는 비트스트림으로부터 좌상(above-right) 방향의 블록 벡터를 복호화한 경우에, 복호화된 블록 벡터에 오프셋(offset)을 더하여, 원래의 블록 벡터를 복원할 수도 있다.When the prediction mode of the current CU is intra block copy (or intra line copy), the use of block vectors directed to blocks corresponding to two lower VPDUs in the upper-right CTU is restricted. Accordingly, the video encoder may exclude blocks corresponding to the lower two VPDUs in the upper-right CTU from the motion search area for intra-block copy. In addition, when a block vector in the upper-right direction indicating blocks corresponding to the upper two VPDUs in the upper-right CTU is selected, the video encoder has an offset of an unusable size from the block vector ( A block vector (or a block vector scaled by 1/2) minus the offset) may be signaled. When the video decoder decodes the block vector in the upper-right direction from the bitstream, the video decoder may restore the original block vector by adding an offset to the decoded block vector.
유사하게, 도 7의 (b)와 같이, 현재 CU가 VPDU의 크기보다 큰 경우에, 좌상(above-right) 방향의 X 표시된 VPDU에 포함된 참조샘플들은 이용 불가능하다. 이 경우, 이용 불가능한 참조 픽셀들을 이용 가능한 위쪽 참조 픽셀들 중 최우측 픽셀 값으로 채워 넣음으로써, 현재 CU의 인트라 예측에 좌상(above-right) 방향의 픽셀을 참조하는 인트라 예측 모드의 사용이 허용될 수도 있다.Similarly, as shown in (b) of FIG. 7, when the current CU is larger than the size of the VPDU, reference samples included in the X-marked VPDU in the upper-right direction are not available. In this case, by filling the unavailable reference pixels with the rightmost pixel value among the available upper reference pixels, the use of the intra prediction mode referring to the upper-right pixel for intra prediction of the current CU is allowed. May be.
일부 실시예에서, CTU의 크기가 VPDU의 크기와 같거나 작은 경우(즉, CTU의 크기 <= VPDU의 크기)에, 비디오 부호화기와 복호화기는 1.5-CTU 지연이 아닌 2-CTU 지연을 가진 WPP 구조를 통해 부호화 및 복호화를 진행할 수도 있다. 이에 따라 부호화기 및 복호화기는 우상단(above-right) CTU의 CABAC 문맥정보를 이용하여 현재의 CTU 행의 첫 번째 CTU의 CABAC 문맥정보를 초기화할 수 있다. 이 경우, 2-CTU 지연을 가진 WPP 구조로 부호화됨을 알리는 플래그와 같은 별도의 시그널링은 요구되지 않을 수도 있다.In some embodiments, when the size of the CTU is equal to or smaller than the size of the VPDU (i.e., the size of the CTU <= the size of the VPDU), the video encoder and the decoder have a 2-CTU delay rather than a 1.5-CTU delay. Encoding and decoding may be performed through Accordingly, the encoder and decoder can initialize the CABAC context information of the first CTU of the current CTU row by using the CABAC context information of the upper-right CTU. In this case, separate signaling, such as a flag indicating that the coding is performed in a WPP structure with a 2-CTU delay, may not be required.
한편, 비디오 부호화기 및 복호화기는, 전형적으로, 시퀀스 단위로 WPP 적용 여부를 결정할 수 있다. 일부 실시예에서, (예컨대, 서브 픽처, 슬라이스, 타일, CTU 그룹 등일 수 있는) 픽쳐의 서브그룹 단위로 WPP 적용 여부를 결정할 수도 있다. 비디오 부호화기는 WPP 적용 여부에 대한 플래그(예컨대, wpp_enable_flag)를 전술한 단위 별로 시그널링할 수 있으며, 비디오 복호화기는 비트스트림으로부터 그 플래그를 파싱하여 각 단위 별로 WPP 수행 여부를 결정할 수도 있다. 일부의 경우에, 부호화 또는 복호화되는 픽처의 서브그룹의 너비(width)가 미리 설정된 특정 너비보다 작은 경우에(예컨대, "(서브그룹의 너비/CTU의 너비) < 임계값" 인 경우에), 비디오 부호화기와 복호화기는 WPP를 해당 서브그룹에 적용하지 않을 수 있다. 따라서, 이러한 경우에, WPP 플래그의 부호화 및 복호화가 생략되며, 비디오 복호화기는 암시적으로 WPP를 비활성화할 수도 있다.Meanwhile, a video encoder and a decoder may determine whether to apply WPP in units of sequences, typically. In some embodiments, whether to apply WPP may be determined in units of subgroups of pictures (eg, which may be subpictures, slices, tiles, CTU groups, etc.). The video encoder may signal a flag for whether to apply WPP (eg, wpp_enable_flag ) for each of the aforementioned units, and the video decoder may determine whether to perform WPP for each unit by parsing the flag from the bitstream. In some cases, when the width of a subgroup of a picture to be encoded or decoded is smaller than a predetermined specific width (eg, "(width of subgroup/width of CTU) <threshold value”), The video encoder and decoder may not apply WPP to the corresponding subgroup. Accordingly, in this case, encoding and decoding of the WPP flag is omitted, and the video decoder may implicitly disable WPP.
픽쳐가 복수의 서브그룹들로 나뉘어 부호화 및 복호화 될 때, 서브그룹들 간의 의존성(dependency)이 상위 레벨 혹은 서브그룹 레벨에서 제어될 수도 있다. 그러한 의존성 가능성은 상위 레벨에서 하나 이상의 신택스 엘리먼트를 통해 시그널링될 수도 있으며, 각 서브그룹별로 플래그를 통해 시그널링될 수도 있다. 예를 들어, 픽쳐는 픽쳐의 모든 서브그룹들(예컨대, CTU 그룹들, 타일들, 타일 그룹들, 슬라이스들, 서브픽쳐들 등)이 의존성을 가지지 않도록 부호화가 수행될 수도 있으며, 일부 서브그룹들만이 의존성을 가지지 않도록 부호화될 수도 있다. When a picture is divided into a plurality of subgroups to be encoded and decoded, dependency between subgroups may be controlled at a higher level or a subgroup level. Such dependency possibility may be signaled through one or more syntax elements at a higher level, and may be signaled through a flag for each subgroup. For example, a picture may be encoded so that all subgroups of the picture (eg, CTU groups, tiles, tile groups, slices, subpictures, etc.) do not have dependence, and only some subgroups It may be coded so as not to have this dependency.
따라서, 픽쳐 내에서 각 서브그룹이 다른 서브그룹과 독립적으로(혹은 병렬적으로) 복호화될 수도 있으며, 일부 서브그룹이 이미 복호화된 다른 서브그룹의 정보에 의존하여 복호화될 수도 있다. 이러한 경우에, 이전에 부호화 및 복호화된 다른 서브그룹의 CTU의 CABAC 문맥정보를 사용해 현재의 서브그룹의 첫 번째 CTU의 CABAC 문맥정보를 초기화하는 것이 부호화 효율에 이득을 제공할 수도 있다.Accordingly, each subgroup in a picture may be decoded independently (or in parallel) with other subgroups, and some subgroups may be decoded depending on information of another subgroup that has already been decoded. In this case, initializing the CABAC context information of the first CTU of the current subgroup by using the CABAC context information of the CTU of another subgroup previously encoded and decoded may provide a gain in encoding efficiency.
도 8은 복수의 서브그룹들로 나뉘어진 픽쳐를 예시한다. 도 8에서, 서브그룹 A는 독립적으로 복호화 가능하지 않는 서브그룹이고 나머지 서브그룹들 중 일부는 독립적으로(혹은 병렬적으로) 복호화될 수 있다고 가정하자. 각각의 서브그룹이 독립적으로 복호화되는지 여부(혹은, 순차적으로 복호화 되는지 여부)는 부호화기에서 플래그를 통해 비트스트림으로 시그널링될 수 있다. 부호화기 및 복호화기는 서브그룹 A의 첫 번째 CTU의 CABAC 문맥정보를 초기화하기 위해, Z-스캔 오더의 역순으로 선행 서브그룹들을 탐색하여 이미 부호화 및 복호화된 서브그룹이 존재하는지 여부를 탐색할 수 있다. 부호화기 및 복호화기는 서브그룹 A의 첫 번째 CTU의 코딩 이전에 이미 코딩된 서브그룹의 마지막 CTU의 CABAC 문맥정보를 사용해 현재 CTU의 문맥정보를 초기화 할 수 있다. 예를 들어, 서브그룹 A에 인접한 선행 서브그룹인 서브그룹 B와 서브그룹 A가 두 서브그룹이 순차적으로 복호화되도록 부호화되었다면(즉, 서브그룹 B가 독립적으로 복호화 가능하지 않는 서브그룹이라면), 복호화기는 서브그룹 B의 마지막으로 복호화된 CTU의 CABAC 문맥정보를 가져와 서브그룹 A의 첫 번째 CTU의 문맥 정보를 초기화 할 수도 있다. 8 illustrates a picture divided into a plurality of subgroups. In FIG. 8, it is assumed that subgroup A is a subgroup that cannot be independently decoded, and some of the remaining subgroups can be decoded independently (or in parallel). Whether each subgroup is independently decoded (or sequentially decoded) may be signaled as a bitstream through a flag in the encoder. In order to initialize the CABAC context information of the first CTU of subgroup A, the encoder and decoder may search for preceding subgroups in reverse order of the Z-scan order to search whether or not a subgroup that has already been encoded and decoded exists. The encoder and decoder may initialize the context information of the current CTU by using the CABAC context information of the last CTU of the subgroup that is already coded before the coding of the first CTU of subgroup A. For example, if subgroup B and subgroup A, which are preceding subgroups adjacent to subgroup A, are encoded so that two subgroups are sequentially decoded (i.e., if subgroup B is a subgroup that cannot be independently decoded), decoding The group may obtain the CABAC context information of the CTU decoded last of subgroup B and initialize the context information of the first CTU of subgroup A.
도 9는 본 개시의 일 측면에 따른, 비디오 복호화기가 픽쳐내 서브그룹의 첫 번째 CTU의 CABAC 문맥정보를 초기화하는 방법을 예시하는 흐름도이다.9 is a flowchart illustrating a method of initializing CABAC context information of a first CTU of a subgroup in a picture by a video decoder according to an aspect of the present disclosure.
비디오 복호화기는 비트스트림으로부터 플래그를 파싱하여, 현재 서브그룹이 독립적으로 복호화 가능한 서브그룹인지 여부를 판단할 수 있다(S910~S920). The video decoder may parse the flag from the bitstream and determine whether the current subgroup is a subgroup that can be independently decoded (S910 to S920).
현재 서브그룹이 독립적으로 복호화 가능한 서브그룹이 아니면(S920에서 "No"), Z-스캐닝 순서의 역순으로 선행하는 서브그룹들에 대해 독립적으로 복호화 가능하지 않은 서브그룹을 탐색할 수 있다(S940). 독립적으로 복호화 가능하지 않은 서브그룹이 발견되면(S950에서 "No"), 비디오 복호화기는 해당 서브그룹에서 마지막으로 복호화된 CTU(혹은 VPDU)의 CABAC 문맥 정보를 이용하여 현재 서브그룹의 첫 번째 CTU(혹은 VPDU)의 CABAC 문맥정보를 설정할 수 있다(S960). If the current subgroup is not a subgroup that can be independently decoded ("No" in S920), a subgroup that cannot be independently decoded may be searched for subgroups preceding in the reverse order of the Z-scanning order (S940). . When a subgroup that cannot be independently decoded is found ("No" in S950), the video decoder uses the CABAC context information of the CTU (or VPDU) last decoded in the subgroup, and the first CTU of the current subgroup ( Alternatively, CABAC context information of (VPDU) may be set (S960).
현재 서브그룹이 독립적으로 복호화 가능한 서브그룹이라면(S920에서 "Yes"), 현재 서브그룹의 첫 번째 CTU(혹은 VPDU)의 문맥정보는 미리 설정된 값(예컨대, 0 혹은 0.5 등)으로 초기화될 수 있다(S930). 일부 실시예에서, 독립적으로(혹은 병렬적으로) 복호화 가능한 서브그룹의 첫 번째 CTU(혹은 VPDU)의 CABAC 문맥정보에 대한 초기화를 위한 정보(예컨대 특정 값 혹은 테이블 및/또는 인덱스)가 부호화기에 의해 비트스트림으로 시그널링될 수도 있다.If the current subgroup is a subgroup that can be independently decoded (“Yes” in S920), context information of the first CTU (or VPDU) of the current subgroup may be initialized to a preset value (eg, 0 or 0.5). (S930). In some embodiments, information (eg, a specific value or table and/or index) for initialization of CABAC context information of the first CTU (or VPDU) of a subgroup that can be decoded independently (or in parallel) is It may be signaled in a bitstream.
이하에서는 본 개시에서 제안하는 비디오 데이터의 팔레트-기반 코딩을 위한 기법들을 설명한다.Hereinafter, techniques for palette-based coding of video data proposed in the present disclosure will be described.
A. 팔레트 테이블의 초기화 및 생성A. Initialization and creation of pallet table
팔레트-기반 비디오 코딩에서, 비디오 부호화기 및 복호화기는 픽셀들의 블록에 대한 팔레트 테이블(또한, 간단히 "팔레트" 로도 지칭됨)을 유도한다. 팔레트 테이블에서의 각각의 엔트리는 인덱스들에 의해 식별되는 컬러 성분(예를 들어, RGB, YUV, 또는 기타 등등) 값들 혹은 루마 성분 값들을 포함한다.In palette-based video coding, a video encoder and decoder derive a palette table (also simply referred to as a "palette") for a block of pixels. Each entry in the palette table contains color component (eg, RGB, YUV, or the like) values or luma component values identified by indexes.
팔레트 모드에서 블록을 코딩하는 것의 일부로서, 비디오 부호화기 및 복호화기는 블록에 대해 이용되어야 할 팔레트 테이블을 먼저 결정한다. 그 다음으로, 블록의 각각의 픽셀(또는 샘플)에 대한 팔레트 인덱스들은 팔레트의 어느 엔트리가 픽셀(샘플)을 예측하거나 복원하기 위하여 이용되어야 하는지를 표시하기 위하여 코딩 될 수 있다.As part of coding a block in palette mode, the video encoder and decoder first determine the palette table to be used for the block. Then, the palette indices for each pixel (or sample) of the block can be coded to indicate which entry in the palette should be used to predict or reconstruct the pixel (sample).
팔레트 예측 리스트(팔레트 예측자로도 지칭됨)를 초기화하는 것은 일반적으로, 비디오 블록들의 그룹(예컨대, 서브픽처, 슬라이스 혹은 타일 등)의 첫 번째 블록에 대한 팔레트 예측 리스트를 생성하는 프로세스를 지칭한다. 후속 블록들에 대한 팔레트 예측 리스트는 전형적으로, 이전에 이용된 팔레트 예측 리스트를 업데이트함으로써 생성된다. 즉, 부호화기와 복호화기는 주어진 블록을 팔레트 모드로 코딩한 후, 현재의 팔레트를 사용하여 팔레트 예측 리스트를 업데이트한다. 현재의 팔레트에서 사용된 엔트리들이 새로운 팔레트 예측 리스트에 삽입되며, 현재의 팔레트에서 사용되지 않는 이전 팔레트 예측 리스트의 엔트리들은 팔레트 예측 리스트의 허용된 최대 크기에 도달할 때까지 새로운 팔레트 예측 리스트의 새로운 엔트리 다음 위치에 추가될 수 있다. 그러나, 첫 번째 블록의 경우, 이전에 이용된 팔레트 예측 리스트는 이용가능하지 않으므로, 종래의 기술에서는 첫 번째 블록을 위한 팔레트 예측 리스트는 0으로 초기화된다. 따라서, 첫 번째 블록을 위한 팔레트 테이블의 엔트리들은 부호화기에 의해 명시적으로 시그널링되는 새로운 엔트리들이다.Initializing a palette prediction list (also referred to as a palette predictor) generally refers to the process of generating a palette prediction list for the first block of a group of video blocks (eg, subpicture, slice or tile, etc.). The palette prediction list for subsequent blocks is typically generated by updating the previously used palette prediction list. That is, after coding a given block in a palette mode, the encoder and decoder update the palette prediction list using the current palette. Entries used in the current palette are inserted into the new palette prediction list, and entries in the previous palette prediction list that are not used in the current palette are new entries in the new palette prediction list until the maximum allowed size of the palette prediction list is reached. It can be added to the following locations: However, in the case of the first block, since the previously used palette prediction list is not available, the palette prediction list for the first block is initialized to 0 in the prior art. Thus, the entries in the palette table for the first block are new entries explicitly signaled by the encoder.
본 개시는 비디오 블록들의 그룹(예컨대, 픽처, 슬라이스, 타일 등)에서 첫 번째로 부/복호화되는 블록을 위한 팔레트 테이블을 효율적으로 생성 혹은 초기화하기 위한 기법을 제시한다.The present disclosure proposes a technique for efficiently generating or initializing a palette table for a block that is first encoded/decoded from a group of video blocks (eg, picture, slice, tile, etc.).
본 개시의 일 측면에 따르면, 비디오 부호화기는 복수의 팔레트 컬러를 갖는 디폴트 팔레트 테이블을 상위 레벨(PPS(Picture Parameter Set), SPS(Sequence Parameter Set), APS(Adaptation Parameter Set) 또는 슬라이스 헤더 등)에서 시그널링할 수 있다. 디폴트 팔레트 테이블은 이전에 구성된 팔레트 예측 리스트가 이용가능하지 않을 때에 하위 단위의 팔레트 코딩을 위한 팔레트 테이블을 생성(즉, 초기화)하기 위하여 이용될 수 있다. According to an aspect of the present disclosure, a video encoder sets a default palette table having a plurality of palette colors at a higher level (Picture Parameter Set (PPS), Sequence Parameter Set (SPS), Adaptation Parameter Set (APS), slice header, etc.)). Can signal. The default palette table may be used to generate (ie, initialize) a palette table for sub-unit palette coding when a previously configured palette prediction list is not available.
비디오 복호화기는 상위 단위에서 시그널링된 디폴트 팔레트 테이블에 기초하여 하위 단위의 첫 번째 블록을 위한 팔레트 테이블의 엔트리들을 결정할 수 있다. 하위 단위의 첫 번째 블록을 위한 팔레트 테이블은 "초기 팔레트 테이블" 혹은 "초기 팔레트"로 지칭될 수도 있다. 예를 들어, 초기 팔레트 테이블을 생성할 때, 디폴트 팔레트 테이블 내 엔트리들 중 어느 엔트리들이 팔레트 테이블의 초기화를 위하여 이용되어야 하는지를 표시하기 위하여, 엔트리마다 2진 플래그가 시그널링될 수 있다. "1" 값의 2진 플래그는 관련된 엔트리가 팔레트에 사용됨을 표시하며, "0" 값의 2진 플래그는 관련된 엔트리가 초기 팔레트에 사용되지 않음을 표시할 수 있다. 2진 플래그들의 스트링은 인덱스 벡터(index vector)로 지칭될 수도 있다. 인덱스 벡터는 (0 또는 1의 빈들의) 연속-길이 부호화(run-length coding)를 이용하여 전송될 수 있다. 비디오 복호화기는 상위 단위에서 시그널링되는 디폴트 팔레트 테이블을 파싱하고, 하위 단위에서 시그널링되는 인덱스 벡터를 파싱하여, 첫 번째 CU의 팔레트 디코딩을 위한 팔레트 테이블을 구성할 수 있다.The video decoder may determine entries of the palette table for the first block of the lower unit based on the default palette table signaled from the upper unit. The palette table for the first block of the lower unit may be referred to as “initial palette table” or “initial palette”. For example, when generating an initial palette table, a binary flag may be signaled for each entry to indicate which of the entries in the default palette table should be used for initialization of the palette table. A binary flag with a value of "1" may indicate that the related entry is used in the palette, and a binary flag with a value of "0" may indicate that the related entry is not used in the initial palette. The string of binary flags may also be referred to as an index vector. The index vector may be transmitted using run-length coding (of bins of 0 or 1). The video decoder may construct a palette table for palette decoding of the first CU by parsing a default palette table signaled in a higher unit and an index vector signaled in a lower unit.
도 10은 본 개시의 일 측면에 따른, 비디오 데이터를 코딩하기 위한 팔레트를 초기화하는 일 예를 예시하는 개념도이다.10 is a conceptual diagram illustrating an example of initializing a palette for coding video data according to an aspect of the present disclosure.
도 10의 예시에서, 상위 단위에서 시그널링되는 디폴트 팔레트 테이블은 8개의 엔트리를 가진다. 인덱스 벡터는, 디폴트 팔레트 테이블의 첫 번째 엔트리, 세 번째 엔트리 및 여덟 번째 엔트리(즉, 인덱스 0, 2, 7에 매핑된 엔트리들)가 하위 단위의 초기 팔레트 테이블에 포함되며 나머지 엔트리들(즉, 인덱스 1, 3 내지 6에 매핑된 엔트리들)이 초기 팔레트 테이블에 포함되는 않는다는 것을 표시한다. In the example of FIG. 10, the default palette table signaled in the upper unit has 8 entries. In the index vector, the first entry, the third entry, and the eighth entry (i.e., entries mapped to index 0, 2, 7) of the default palette table are included in the initial palette table of the lower unit, and the remaining entries (i.e. It indicates that entries mapped to indexes 1, 3 to 6) are not included in the initial palette table.
일부의 경우에, 디폴트 팔레트 테이블로부터 재사용되는 엔트리 개수는 상위 단위 혹은 하위 단위에서 시그널링될 수도 있다. 또한, 하위 단위에서 사용할 초기 팔레트 테이블의 크기(즉, 엔트리들의 최대 개수)가 시그널링될 수도 있다. 일부의 경우에, 고정된 크기의 초기 팔레트 테이블이 사용될 수도 있으며, 따라서 하위 단위에서 사용할 초기 팔레트 테이블의 크기에 대한 시그널링은 필요하지 않을 수도 있다.In some cases, the number of entries reused from the default palette table may be signaled in an upper unit or a lower unit. In addition, the size of the initial palette table to be used in the lower unit (ie, the maximum number of entries) may be signaled. In some cases, an initial palette table of a fixed size may be used, and thus signaling about the size of the initial palette table to be used in a lower unit may not be required.
현재의 블록을 코딩하기 위한 팔레트는 또한 (예컨대, 인덱스 벡터와는 별개로) 명시적으로 코딩되는 하나 이상의 새로운 팔레트 엔트리들을 포함할 수도 있다. 도 10에 예시된 초기 팔레트 테이블에서, 인덱스 3과 4에 대응되는 (r', g', b')는 상위 단위의 팔레트 엔트리가 아닌, 부호화기에 의해 하위 단위에서 명시적으로 시그널링되는 새로운 엔트리들이다. 인덱스 벡터에 의해 초기 팔레트 테이블의 모든 엔트리들이 채워지는 경우에는 새로운 팔레트 엔트리(즉, 컬러 값들)을 표시하는 신택스 엘리먼트들의 코딩은 스킵될 수 있다. 일부의 경우에, 새로운 팔레트 엔트리들의 존부를 표시하는 플래그가 코딩될 수도 있다.The palette for coding the current block may also contain one or more new palette entries that are explicitly coded (eg, separate from the index vector). In the initial palette table illustrated in FIG. 10, (r', g', b') corresponding to indices 3 and 4 are not palette entries of the upper unit, but new entries explicitly signaled in the lower unit by the encoder. . When all entries of the initial palette table are filled by the index vector, coding of syntax elements indicating a new palette entry (ie, color values) may be skipped. In some cases, a flag indicating the presence or absence of new palette entries may be coded.
루마와 크로마 성분 간에 CU 파티셔닝이 상이한 듀얼트리(Dual Tree)를 사용하는 슬라이스의 경우, 각 컬러 성분별 팔레트(예컨대, Y 팔레트, Cb 팔레트, Cr 팔레트)가 사용되거나 두 개의 팔레트(예컨대, Y 팔레트, Cb/Cr 팔레트)가 사용될 수도 있다. 또한, 단일트리(Single Tree)의 경우 각 엔트리에 모든 컬러 성분(Y, Cb, Cr) 값이 포함된 하나의 팔레트가 사용될 수도 있다. 모노크롬(monochrome)의 경우 하나의 팔레트가 사용될 수도 있다. In the case of slices using a dual tree in which CU partitioning is different between luma and chroma components, a palette for each color component (e.g., Y palette, Cb palette, Cr palette) or two palettes (e.g., Y palette) , Cb/Cr palette) may be used. In addition, in the case of a single tree, a single palette including all color component (Y, Cb, Cr) values in each entry may be used. In the case of monochrome, a single palette may be used.
B. WPP가 활성화된 경우에 팔레트 테이블의 초기화B. Initialization of the pallet table when WPP is activated
WPP(Wavefront Parallel Processing)이 활성화된 경우에, 병렬 처리를 위해 각 CTU 행(row)의 첫 CTU(또는 VPDU)에서 팔레트 테이블이 초기화되어야 할 수 있다. 이때, 현재 CTU 행의 상단에 위치한 이미 복호화가 완료된 CTU 또는 VPDU의 팔레트 데이터를 사용하여 현재 CTU 행의 첫 CTU(또는 VPDU)을 위한 팔레트 예측 리스트가 초기화될 수도 있다.When Wavefront Parallel Processing (WPP) is activated, the palette table may need to be initialized at the first CTU (or VPDU) of each CTU row for parallel processing. In this case, the palette prediction list for the first CTU (or VPDU) of the current CTU row may be initialized using the pallet data of the CTU or VPDU that has already been decoded located at the top of the current CTU row.
일 예로, 도 11과 같이, 2-CTU 지연 WPP가 사용되는 경우에, 이전 CTU 행에서, 이미 복호화가 완료된 현재 CTU의 우상단(above-right) CTU의 팔레트 예측 리스트를 가져와 현재 CTU행의 첫 번째 CTU의 팔레트 테이블을 구성하기 위한 팔레트 예측 리스트를 초기화 할 수도 있다. 다른 일 예로, 도 12와 같이, 4-VPDU 지연 WPP(즉, 1-CTU 지연 WPP)가 사용된 경우에, 이전 CTU 행에서 이미 복호화가 완료된 VPDU(즉, 현재 CTU의 상단 CTU)의 팔레트 예측 리스트를 사용하여 현재 CTU행의 첫 번째 CTU의 팔레트 테이블을 구성하기 위한 팔레트 예측 리스트를 초기화 할 수도 있다. As an example, as shown in FIG. 11, when a 2-CTU delayed WPP is used, from a previous CTU row, a palette prediction list of the upper-right CTU of the current CTU that has already been decoded is obtained and the first of the current CTU row It is also possible to initialize the palette prediction list for configuring the palette table of the CTU. As another example, as shown in FIG. 12, when 4-VPDU delayed WPP (i.e., 1-CTU delayed WPP) is used, the palette prediction of VPDUs that have already been decoded in the previous CTU row (i.e., the upper CTU of the current CTU) The list may be used to initialize the palette prediction list for constructing the palette table of the first CTU in the current CTU row.
일부 실시예에서, 상단 CTU 행의 이미 복호화된 CTU의 팔레트 예측 리스트가 그대로 현재 CTU 행의 첫 번째 CTU의 팔레트 예측 리스트로 사용될 수도 있다. 이 경우, 현재 CTU 행의 첫 번째 CTU의 팔레트 테이블은, 도 10에 예시된 방식과 유사하게, 인덱스 벡터의 시그널링 및 추가 컬러 성분 값들의 시그널링을 통해, 팔레트 예측 리스트를 이용하여 구성될 수 있다. 다른 일부 실시예에서, 이미 복호화된 상단 CTU(1-CTU 지연 WPP의 경우) 혹은 우상단 CTU(1-CTU 지연 WPP의 경우)의 팔레트 테이블이 그대로 현재 CTU행의 첫 번째 CTU의 팔레트 테이블로 사용될 수도 있다. 블록을 코딩하기 위한 팔레트에 표현된 칼라 값을 가지지 않는 샘플In some embodiments, the palette prediction list of the already decoded CTU of the upper CTU row may be used as the palette prediction list of the first CTU of the current CTU row. In this case, the palette table of the first CTU of the current CTU row may be configured using a palette prediction list through signaling of an index vector and signaling of additional color component values, similar to the method illustrated in FIG. 10. In some other embodiments, the pallet table of the already decoded upper CTU (in case of 1-CTU delayed WPP) or the upper right CTU (in case of 1-CTU delayed WPP) may be used as the palette table of the first CTU of the current CTU row. have. Samples that do not have color values expressed in the palette for coding blocks
한편, 부호화기 및 복호화기는 블록의 임의의 샘플이 후술하는 이스케이프 모드에서 코딩되는지 여부를 표시하는 (블록-레벨 이스케이프 플래그로서 지칭될 수도 있는) 플래그를 코딩하거나 및/또는 결정하도록 구성될 수도 있다. 예를 들어, 0 의 플래그 값은 블록의 어떤 샘플들도 이스케이프 모드를 이용하여 코딩되지 않는다는 것을 표시할 수도 있다. 즉, 블록의 모든 샘플들의 값이 블록을 코딩하기 위한 팔레트에 포함된 칼라 값에 기초하여 결정될 수도 있다. 1 의 플래그 값은 블록의 적어도 하나의 샘플이 이스케이프 모드를 이용하여 코딩된다는 것을 표시할 수도 있다. 즉, 적어도 하나의 샘플의 값이 이스케이프 샘플로서 코딩된다. On the other hand, the encoder and decoder may be configured to code and/or determine a flag (which may be referred to as a block-level escape flag) indicating whether any sample of a block is coded in an escape mode described below. For example, a flag value of 0 may indicate that no samples of the block are coded using the escape mode. That is, values of all samples of a block may be determined based on a color value included in a palette for coding a block. A flag value of 1 may indicate that at least one sample of the block is coded using the escape mode. In other words, the value of at least one sample is coded as an escape sample.
일부 예들에서, 현재의 CU가 이스케이프 샘플을 가지는지 여부를 지시하는 CU 레벨 이스케이프 플래그가 비트스트림으로 시그널링될 수도 있다. CU에서의 이스케이프 샘플의 존재는 CU에 대한 팔레트 인덱스들의 개수에 영향을 미칠 수도 있다. 예를 들어, 팔레트 예측 리스트로부터 생성된 CU의 팔레트는 예컨대, 샘플에 대한 엔트리 인덱스가 {0, 1, 쪋, N-1} 중에서 선택될 수 있도록, N개의 엔트리 인덱스들을 가질 수도 있다. 현재의 블록에 이스케이프 샘플이 있다는 것을 CU 레벨 이스케이프 플래그가 표시하면, 부호화기 및 복호화기는 현재의 블록에서의 가능한 인덱스 값들이 {0, 1, 쪋, N-1, N} 일 수 있도록, (엔트리와 연관되지 않은) 1개의 인덱스를 현재의 블록에 대한 팔레트에 추가할 수도 있다. 여기서, (이스케이프 인덱스로도 지칭되는) N과 동일한 인덱스는 관련된 샘플이 이스케이프 샘플이라는 것을 표시한다. N 미만의 인덱스들은 관련된 샘플이 그 인덱스와 연관된 팔레트로부터의 칼라로 표현된다는 것을 표시할 수도 있다.In some examples, a CU level escape flag indicating whether the current CU has an escape sample may be signaled in the bitstream. The presence of the escape sample in the CU may affect the number of palette indices for the CU. For example, the palette of the CU generated from the palette prediction list may have N entry indices so that, for example, an entry index for a sample can be selected from {0, 1, 쪋, N-1}. If the CU-level escape flag indicates that there is an escape sample in the current block, the encoder and decoder will be able to ensure that the possible index values in the current block are {0, 1, Z, N-1, N}. It is also possible to add an unrelated) index to the palette for the current block. Here, an index equal to N (also referred to as an escape index) indicates that the associated sample is an escape sample. Indexes less than N may indicate that the associated sample is represented in a color from the palette associated with that index.
C. 팔레트 인덱스의 스캐닝 순서C. Pallet Index Scanning Order
CU 내 각 픽셀(샘플)에 대한 팔레트 인덱스들의 2차원 블록은 팔레트 인덱스 맵이라고 지칭된다. 비디오 부호화기는 스캐닝 순서를 이용하여 팔레트 인덱스들을 스캐닝함으로써 팔레트 인덱스들의 2차원 블록을 1차원 어레이로 변환할 수도 있다. 이와 유사하게, 비디오 복호화기는 스캐닝 순서를 이용하여 팔레트 인덱스들의 블록을 복원할 수도 있다. 이전 샘플은 스캐닝 순서에서 현재 코딩중인 샘플에 선행하는 샘플을 지칭한다.The two-dimensional block of palette indices for each pixel (sample) in the CU is referred to as a palette index map. The video encoder may convert a 2D block of palette indices into a 1D array by scanning the palette indices using a scanning order. Similarly, the video decoder may reconstruct a block of palette indices using a scanning order. The previous sample refers to a sample that precedes the sample currently being coded in the scanning order.
일부 실시예에서, 주어진 CU의 팔레트 인덱스를 스캔하기 위해, 도 13의 (a)에 예시된 수평 횡단 스캔닝(horizontal traverse scanning) 순서와 도 13의 (b)에 예시된 수직 횡단 스캐닝(vertical traverse scanning) 순서가 선택적으로 사용될 수 있다. 다른 실시예에서, 수평 스캐닝(horizontal scanning) 순서와 수직 스캐닝(vertical scanning) 순서가 선택적으로 사용될 수도 있다. 부호화기는 주어진 CU에 대해 선택된 스캐닝 순서를 나타내는 플래그를 시그널링할 수도 있다. 또 다른 일부 실시예에서, 도 13의 (c)에 예시된 대각 스캐닝(diagonal scanning) 순서 혹은 도 13의 (d)에 예시된 지그재그 스캐닝(zigzag scanning) 순서가 주어진 CU의 팔레트 인덱스를 스캔하기 위해 사용될 수 있다.In some embodiments, in order to scan the palette index of a given CU, the horizontal traverse scanning sequence illustrated in FIG. 13A and the vertical traverse scanning sequence illustrated in FIG. 13B. scanning) order can be used selectively. In another embodiment, a horizontal scanning sequence and a vertical scanning sequence may be selectively used. The encoder may signal a flag indicating the selected scanning order for a given CU. In still other embodiments, to scan the palette index of a CU given the diagonal scanning sequence illustrated in FIG. 13(c) or the zigzag scanning sequence illustrated in FIG. 13(d) Can be used.
D. 팔레트 인덱스의 코딩D. Coding of palette index
팔레트-기반의 코딩 모드로 코딩된 블록에서의 각각의 샘플은 아래에 개시된 바와 같은 2개의 인덱스 코딩 모드들 중 하나를 이용하여 코딩될 수도 있다.Each sample in a block coded with a palette-based coding mode may be coded using one of two index coding modes as disclosed below.
COPY_ABOVE 모드: 이 모드에서, 현재의 샘플에 대한 팔레트 인덱스는 블록에서 스캐닝 순서상 이전 라인(상측 행 혹은 좌측 열)로부터의 동일 위치의 샘플로부터 복사된다.COPY_ABOVE mode: In this mode, the palette index for the current sample is copied from the same position sample from the previous line (top row or left column) in the scanning order in the block.
INDEX 모드: 이 모드에서, 팔레트 인덱스는, 부호화기에 의해 예를 들어 절삭된 2진 코드(truncated binary code)로 표현되는, 신택스 엘리먼트를 이용하여 비트스트림에서 명시적으로 시그널링되거나, 복호화기에 의해 추론된다.INDEX mode: In this mode, the palette index is explicitly signaled in the bitstream using a syntax element, expressed by the encoder, for example as truncated binary code, or inferred by the decoder. .
INDEX 모드는 스캔 순서상 선행하는 이전 샘플 위치의 팔레트 인덱스를 복사하는, 즉 복호화기에 의해 추론되는 제1 INDEX 모드와 팔레트 인덱스를 명시적으로 시그널링하는 제2 INDEX 모드를 포함한다.The INDEX mode includes a first INDEX mode in which the palette index of a previous sample position preceding in the scan order is copied, that is, inferred by the decoder, and a second INDEX mode in which the palette index is explicitly signaled.
부호화기와 복호화기는 현재의 샘플의 팔레트 인덱스를 효율적으로 코딩하기 위해, 현재의 샘플의 이전 샘플 및/또는 이전 라인에서의 동일 위치의 샘플(즉, 상측 샘플 혹은 좌측 샘플)들의 인덱스 코딩 모드를 CABAC 문맥 정보로 사용할 수 있다.In order to efficiently code the palette index of the current sample, the encoder and decoder set the index coding mode of the previous sample of the current sample and/or the same-positioned samples (ie, the upper sample or the left sample) in the previous line in the CABAC context. Can be used as information.
본 개시에서 제안하는 팔레트 인덱스 코딩 기법에서는, 블록 내의 각 샘플 위치에 대해, 모드를 결정하기 위한 하나 또는 두 개의 플래그가 파싱된다. 각 샘플 위치에 대해, 0 또는 1의 값을 가지는 제1 플래그가 파싱되고, 제1 플래그의 값에 적어도 부분적으로 의존하여 0 또는 1의 값을 가지는 제2 플래그가 파싱된다. 픽셀 위치별로 파싱된 하나 이상의 플래그로부터 유도된 값에 따라 COPY_ABOVE 모드, 제1 INDEX 모드, 및 제2 INDEX 모드들 중 하나의 모드가 결정된다. 해당 픽셀 위치에 대한 팔레트 인덱스는 결정된 모드가 제2 INDEX 모드일 때에만 부호화기에 의해 시그널링되고, 복호화기에 의해 파싱된다. 즉, 본 개시에서는 블록 내의 각 픽셀 위치마다 하나 또는 두 개의 플래그에 따라 인덱스 코딩 모드들을 할당한 블록 맵을 구성하고, 그 블록 맵에 따라 각 픽셀 위치에 대한 팔레트 인덱스를 결정한다.In the palette index coding scheme proposed in the present disclosure, for each sample position in a block, one or two flags for determining a mode are parsed. For each sample position, a first flag having a value of 0 or 1 is parsed, and a second flag having a value of 0 or 1 is parsed depending at least in part on the value of the first flag. One of the COPY_ABOVE mode, the first INDEX mode, and the second INDEX mode is determined according to a value derived from one or more flags parsed for each pixel position. The palette index for the corresponding pixel position is signaled by the encoder only when the determined mode is the second INDEX mode and parsed by the decoder. That is, in the present disclosure, a block map in which index coding modes are allocated according to one or two flags for each pixel position in a block, and a palette index for each pixel position is determined according to the block map.
도 13의 (a)와 도 13의 (b)에 예시된 스캐닝 순서가 선택적으로 사용될 수도 있는 일부 실시예에서, 현재의 블록 내 각 샘플에 대해, 현재 샘플이 이전 샘플과 동일한 인덱스 코딩 모드인지 여부(즉, 현재 샘플과 이전 샘플의 인덱스 코딩 모드가 모두 COPY_ABOVE 모드이거나 혹은 현재 샘플과 이전 샘플 모두 INDEX 모드이면서 동일한 인덱스를 가지는지 그렇지 않은지 여부)를 지시하는 제1플래그(예컨대, run_copy_flag)가 코딩된다. 제1플래그가 0 값을 가지며 이전 샘플이 INDEX 모드인 경우에, 현재 샘플의 인덱스 코딩 모드가 INDEX 인지 COPY_ABOVE 인지 여부를 지시하는 제2플래그(예컨대, copy_above_palette_indices_flag)가 추가로 코딩될 수도 있다. 또한, 샘플의 인덱스 코딩 모드를 표현하는 변수 Copy_Above_Flag가 도입된다.In some embodiments in which the scanning order illustrated in FIGS. 13A and 13B may be selectively used, for each sample in the current block, whether the current sample is the same index coding mode as the previous sample (In other words, a first flag (e.g., run_copy_flag ) indicating whether the index coding mode of the current sample and the previous sample are both COPY_ABOVE mode, or both the current sample and the previous sample are INDEX mode and have the same index or not) is coded. . When the first flag has a value of 0 and the previous sample is in the INDEX mode, a second flag (eg, copy_above_palette_indices_flag ) indicating whether the index coding mode of the current sample is INDEX or COPY_ABOVE may be additionally coded. In addition, a variable Copy_Above_Flag representing the index coding mode of the sample is introduced.
표 1은 신택스 엘리먼트 run_copy_flag와 변수 Copy_Above_Flag의 값들에 따라 관련된 샘플의 팔레트 인덱스가 어떻게 결정되는지를 보인다.Table 1 shows how the palette index of the related sample is determined according to the values of the syntax element run_copy_flag and the variable Copy_Above_Flag.
Figure PCTKR2020006424-appb-img-000001
Figure PCTKR2020006424-appb-img-000001
도 14는 본 개시의 일 측면에 따른, 복호화기가 현재의 샘플에 대한 팔레트 인덱스를 결정하는 방법을 예시하는 흐름도이다.14 is a flowchart illustrating a method for a decoder to determine a palette index for a current sample according to an aspect of the present disclosure.
도 14를 참조하면, 복호화기는 현재 샘플이 이전 샘플과 동일한 인덱스 코딩 모드인지 여부(즉, 현재 샘플과 이전 샘플이 모두 COPY_ABOVE 이거나 혹은 현재 샘플과 이전 샘플이 모두 INDEX 이면서 동일한 인덱스를 가지는지 그렇지 않은지 여부)를 지시하는 제1플래그( run_copy_flag)를 파싱할 수 있다(S1611).Referring to FIG. 14, the decoder determines whether the current sample is in the same index coding mode as the previous sample (that is, whether the current sample and the previous sample are both COPY_ABOVE, or whether the current sample and the previous sample are both INDEX and have the same index or not. The first flag ( run_copy_flag ) indicating ) may be parsed (S1611 ).
제1플래그( run_copy_flag)가 1 값을 가지면(S1412에서 "Yes"), 복호화기는 현재 샘플의 Copy_Above_Flag를 이전 샘플의 Copy_Above_Flag와 동일한 값으로 설정한다(S1414). 즉, 이전 샘플의 Copy_Above_Flag가 0이면 현재 샘플의 Copy_Above_Flag은 0으로 설정되고, 따라서, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 이전 샘플로부터 카피된다. 이전 샘플의 Copy_Above_Flag가 1이면 현재 샘플의 Copy_Above_Flag은 1로 설정되며, 따라서, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 이전 라인(상측 행 혹은 좌측 열)에서의 동일 위치의 샘플로부터 카피된다(다시 말해, 도 13의 (a)의 수평 횡단 스캔닝에 대해 상측 행에서의 동일 위치의 샘플로부터 현재 샘플의 팔레트 인덱스가 카피되고, 도 13의 (b)의 수직 횡단 스캐닝에 대해 좌측 열에서의 동일 위치의 샘플로부터 현재 샘플의 팔레트 인덱스가 카피된다).If the first flag run_copy_flag has a value of 1 ("Yes" in S1412), the decoder sets Copy_Above_Flag of the current sample to the same value as Copy_Above_Flag of the previous sample (S1414). That is, if Copy_Above_Flag of the previous sample is 0, Copy_Above_Flag of the current sample is set to 0, and thus, referring to Table 1, the palette index of the current sample is copied from the previous sample. If the Copy_Above_Flag of the previous sample is 1, the Copy_Above_Flag of the current sample is set to 1, and thus, referring to Table 1, the palette index of the current sample is copied from the sample at the same position in the previous line (upper row or left column) ( In other words, the palette index of the current sample is copied from the sample at the same position in the upper row for the horizontal transverse scanning of FIG. 13(a), and in the left column for the vertical transverse scanning of FIG. 13(b). The palette index of the current sample is copied from the sample at the same position).
제1플래그( run_copy_flag)가 0 값을 가지면(S1412에서 "No"), 복호화기는 이전 샘플의 Copy_Above_Flag가 1 값을 가지는지 여부를 판단한다(S1416). 이전 샘플의 Copy_Above_Flag가 1 값을 가지면(S1416에서 "Yes"), 복호화기는 현재 샘플의 Copy_Above_Flag를 0 값으로 설정한다(S1418). 따라서, 현재 샘플에 대해 run_copy_flag = 0 이고 Copy_Above_Flag = 0 이므로, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 비트스트림에서 명시적으로 시그널링된다. 복호화기는 비트스트림으로부터 현재 샘플의 팔레트 인덱스를 나타내는 신택스 엘리먼트( palette_idx_idc)를 파싱한다(S1420). 이전 샘플의 Copy_Above_Flag가 0 값을 가지면(S1416에서 "Yes"), 복호화기는 제2플래그( copy_above_palette_indices_flag)를 더 파싱한다(S1422).If the first flag run_copy_flag has a value of 0 ("No" in S1412), the decoder determines whether the Copy_Above_Flag of the previous sample has a value of 1 (S1416). If Copy_Above_Flag of the previous sample has a value of 1 ("Yes" in S1416), the decoder sets Copy_Above_Flag of the current sample to a value of 0 (S1418). Therefore, since run_copy_flag = 0 and Copy_Above_Flag = 0 for the current sample, referring to Table 1, the palette index of the current sample is explicitly signaled in the bitstream. The decoder parses a syntax element ( palette_idx_idc ) representing the palette index of the current sample from the bitstream (S1420). If Copy_Above_Flag of the previous sample has a value of 0 ("Yes" in S1416), the decoder further parses the second flag ( copy_above_palette_indices_flag ) (S1422).
copy_above_palette_indices_flag = 1이면(S1424에서 "Yes"), 복호화기는 현재 샘플의 Copy_Above_Flag 를 1 값으로 설정한다(S1426). 따라서, 현재 샘플에 대해 run_copy_flag = 0 이고 Copy_Above_Flag = 1 이므로, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 스캔 순서상 이전 라인(상측 행 혹은 좌측 열)에서의 동일 위치의 샘플로부터 카피된다.If copy_above_palette_indices_flag = 1 ("Yes" in S1424), the decoder sets Copy_Above_Flag of the current sample to a value of 1 (S1426). Therefore, since run_copy_flag = 0 and Copy_Above_Flag = 1 for the current sample, referring to Table 1, the palette index of the current sample is copied from the sample at the same position in the previous line (top row or left column) in the scan order.
copy_above_palette_indices_flag = 0이면(S1412에서 "No"), 복호화기는 현재 샘플의 Copy_Above_Flag 를 0 값으로 설정한다(S1428). 따라서, 현재 샘플에 대해 run_copy_flag = 0 이고 Copy_Above_Flag = 0 이므로, 표 1을 참조하면, 현재 샘플의 팔레트 인덱스는 비트스트림에서 명시적으로 시그널링된다. 복호화기는 비트스트림으로부터 현재 샘플의 팔레트 인덱스를 나타내는 신택스 엘리먼트( palette_idx_idc)를 파싱한다(S1430). If copy_above_palette_indices_flag = 0 ("No" in S1412), the decoder sets Copy_Above_Flag of the current sample to a value of 0 (S1428). Therefore, since run_copy_flag = 0 and Copy_Above_Flag = 0 for the current sample, referring to Table 1, the palette index of the current sample is explicitly signaled in the bitstream. The decoder parses a syntax element ( palette_idx_idc ) indicating the palette index of the current sample from the bitstream (S1430).
여기서, 도 13의 (a)의 첫 번째 행과 도 13의 (b)의 첫 번째 열에 위치한 샘플들에 대해서는, 이전 스캔 라인이 존재하지 않는 바, 제2플래그(copy_above_palette_indices_flag)는, 시그널링되지 않고, 0 값으로 추론된다. 즉, 도 13의 (a)의 첫 번째 행과 도 13의 (b)의 첫 번째 열에 위치한 샘플들의 인덱스 코딩 모드는 디폴트로 INDEX 모드로 간주된다.Here, for samples located in the first row of FIG. 13(a) and the first column of FIG. 13(b), there is no previous scan line, and the second flag (copy_above_palette_indices_flag) is not signaled, It is inferred as a value of 0. That is, the index coding mode of samples located in the first row of FIG. 13A and the first column of FIG. 13B is regarded as the INDEX mode by default.
부호화기 또한 도 14에 예시된 순서와 실질적으로 동일하게 블록의 각 샘플에 대한 팔레트 인덱스를 코딩할 수 있음을 이해하여야 한다.It should be understood that the encoder can also code the palette index for each sample of the block substantially the same as the order illustrated in FIG. 14.
부호화기 및 복호화기는 팔레트 인덱스들의 1차원 어레이를, 미리 정의된 크기(예컨대, 16 샘플)의 샘플 그룹 단위로 분할하여, 전술한 팔레트 인덱스 코딩을 수행할 수도 있다. 하나의 샘플 그룹에 대한 팔레트 인덱스 코딩이 끝나면, 다음 샘플 그룹에 대한 팔레트 인덱스 코딩이 시작될 수도 있다. 또한, 하나의 샘플 그룹에 대한 팔레트 인덱스 코딩에서, 제1플래그( run_copy_flag)와 제2플래그( copy_above_palette_indices_flag)의 코딩이 완료된 후에, 필요한 샘플들에 대한 신택스 엘리먼트( palette_idx_idc)이 코딩될 수도 있다.The encoder and decoder may perform the above-described palette index coding by dividing the one-dimensional array of palette indices into sample groups of a predefined size (eg, 16 samples). When palette index coding for one sample group is finished, palette index coding for the next sample group may start. In addition, in palette index coding for one sample group, after coding of the first flag ( run_copy_flag ) and the second flag ( copy_above_palette_indices_flag ) is completed, a syntax element ( palette_idx_idc ) for necessary samples may be coded.
도 15는 본 개시의 일 측면에 따른, 팔레트 인덱스 맵을 코딩하는 방법을 예시하는 개념도이다. 도 15에는 8×8 코딩 블록에 대한 팔레트 인덱스 맵(1510)이 예시되어 있으며, 팔레트 인덱스들을 스캔하는 데에 수평 횡단 스캔닝 순서를 사용하는 것을 전제한다. 팔레트 테이블은 인덱스 0과 1에 연관된 2개의 엔트리를 가지며, 이스케이프 샘플을 위한 이스케이프 인덱스로서 인덱스 3을 가진다. 15 is a conceptual diagram illustrating a method of coding a palette index map according to an aspect of the present disclosure. In FIG. 15, a palette index map 1510 for an 8×8 coding block is illustrated, and it is assumed that the horizontal transverse scanning order is used to scan the palette indices. The palette table has two entries associated with index 0 and 1, and index 3 as an escape index for the escape sample.
도 15에는 팔레트 인덱스 맵(1510)의 두 번째 행(1512)에서의 팔레트 인덱스들에 대해 시그널링되는 제1플래그( run_copy_flag) 및 제2플래그( copy_above_palette_indices_flag)의 값들을 보인다. 두 번째 행(1512)에서 굵게 표시된 샘플들은 관련된 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트(palette_idx_idc)가 코딩되는 샘플들을 의미한다. In FIG. 15, values of the first flag ( run_copy_flag ) and the second flag ( copy_above_palette_indices_flag ) signaled for the palette indices in the second row 1512 of the palette index map 1510 are shown. The samples indicated in bold in the second row 1512 refer to samples in which a syntax element (palette_idx_idc) expressly expressing a related palette index is coded.
전술한 바와 같이, 주어진 팔레트 인덱스 맵에서 첫 번째 행(1511)의 모든 샘플들에는 INDEX 모드가 사용되고 주어진 인덱스 맵에서 모두 0 값의 팔레트 인덱스를 가지고, 전술한 바와 같이, 주어진 인덱스 맵에서 첫 번째 행(1511)의 모든 샘플들에는 INDEX 모드가 사용되므로, 첫 번째 행(1511)의 마지막 샘플(최우측 샘플에 대한 변수 Copy_Above_Flag는 0 값을 가진다. 두 번째 행(1512)에서 스캔닝 순서상 첫 번째 샘플(최우측 샘플)에 대해, 첫 번째 행(1511)의 마지막 샘플(최우측 샘플)은 이전 샘플이면서 이전 라인의 동일 위치의 샘플이다. 예시된 팔레트 인덱스 맵(1510)에서, 두 번째 행(1512)에서 스캔 순서상 첫 번째 샘플의 팔레트 인덱스는 이전 샘플과 동일하고 이전 라인의 동일 위치의 샘플과도 동일하다. 따라서, 부호화기는 두 번째 행(1512)에서 첫 번째 샘플의 팔레트 인덱스를 코딩하는 데에 사용할 인덱스 코딩 모드를 INDEX 모드와 COPY_ABOVE 모드 중에서 선택할 수 있다. 이러한 선택은 R/D 테스트에 기초할 수 있다.As described above, the INDEX mode is used for all samples of the first row 1511 in a given palette index map, and all of the samples in the given index map have a 0 value palette index, and as described above, the first row in the given index map Since the INDEX mode is used for all samples in (1511), the last sample in the first row (1511) (the variable Copy_Above_Flag for the rightmost sample has a value of 0. In the second row (1512), the first in the scanning order) For a sample (rightmost sample), the last sample (rightmost sample) of the first row 1511 is the previous sample and a sample at the same position of the previous line In the illustrated palette index map 1510, the second row ( In 1512), the palette index of the first sample in the scan order is the same as the previous sample and the sample at the same position in the previous line. Therefore, the encoder codes the palette index of the first sample in the second row 1512. The index coding mode to be used can be selected from INDEX mode and COPY_ABOVE mode, which can be based on R/D testing.
만약 부호화기가 두 번째 행(1512)에서 스캔 순서상 첫 번째 샘플의 팔레트 인덱스를 COPY_ABOVE 모드로 부호화하였다면, 두 번째 행(1512)에서 첫 번째 샘플에 대해 0 값의 run_copy_flag가 시그널링되고, 추가로 1 값의 copy_above_palette_indices_flag가 시그널링된다. 복호화기는 run_copy_flag를 파싱하고, run_copy_flag = 0이고 이전 샘플(즉, 첫 번째 행(1511)의 샘플)의 Copy_Above_Flag가 0 값을 가지므로, copy_above_palette_indices_flag를 추가로 파싱한다. 복호화기는 copy_above_palette_indices_flag = 1 이므로, 현재 샘플에 대한 Copy_Above_Flag를 1 값으로 설정한다. 그리고, 현재 샘플에 대해 run_copy_flag = 0이고 Copy_Above_Flag = 1이므로, 복호화기는 현재 샘플의 인덱스 코딩 모드를 Above Copy로 결정(추론)할 수 있다. 즉, 두 번째 행(1512)에서 첫 번째 샘플의 팔레트 인덱스는 이전 라인인 첫 번째 행에서의 동일 위치의 샘플로부터 카피된다.If the encoder encodes the palette index of the first sample in the scan order in the second row 1512 in the COPY_ABOVE mode, a run_copy_flag with a value of 0 is signaled for the first sample in the second row 1512, and an additional value of 1. The copy_above_palette_indices_flag of is signaled. The decoder parses run_copy_flag, and since run_copy_flag = 0 and Copy_Above_Flag of the previous sample (that is, the sample of the first row 1511) has a value of 0, copy_above_palette_indices_flag is additionally parsed. Since the decoder is copy_above_palette_indices_flag = 1, Set Copy_Above_Flag for the current sample to a value of 1. And, since run_copy_flag = 0 and Copy_Above_Flag = 1 for the current sample, the decoder can determine (infer) the index coding mode of the current sample as Above Copy. That is, the palette index of the first sample in the second row 1512 is copied from the sample at the same position in the first row, which is the previous line.
두 번째 행(1512)에서 스캔 순서상 두 번째 샘플의 팔레트 인덱스는 이전 샘플과 동일하고 이전 라인의 동일 위치의 샘플과도 동일하다. 따라서, 부호화기는 두 번째 행(1512)에서 두 번째 샘플의 팔레트 인덱스를 코딩하는 데에 사용할 인덱스 코딩 모드를 INDEX 모드와 COPY_ABOVE 모드 중에서 선택할 수 있다. 이러한 선택은 R/D 테스트에 기초할 수 있다. 만약 COPY_ABOVE 모드를 선택하였다면, 두 번째 행(1512)에서 스캔 순서상 두 번째 샘플과 이전 샘플(첫 번째 샘플)은 COPY_ABOVE 모드이다. 따라서, 부호화기는 두 번째 행(1512)에서 첫 번째 샘플에 대해 1 값의 run_copy_flag를 시그널링한다. 복호화기는 현재 샘플(즉, 두 번째 행(1512)의 두 번째 샘플)에 대한 run_copy_flag를 파싱하고, run_copy_flag = 1이므로, 현재 샘플의 Copy_Above_Flag를 이전 샘플의 동일한 값(즉, 1)로 설정한다. 따라서, 현재 샘플에 대해 run_copy_flag = 0이고 Copy_Above_Flag = 1이므로, 복호화기는 현재 샘플(즉, 두 번째 행(1512)의 두 번째 샘플)의 인덱스 코딩 모드를 Above Copy로 결정(추론)할 수 있다. In the second row 1512, the palette index of the second sample in the scan order is the same as the previous sample and the same position of the sample in the previous line. Accordingly, the encoder may select an index coding mode to be used for coding the palette index of the second sample in the second row 1512 from the INDEX mode and the COPY_ABOVE mode. This choice can be based on R/D testing. If the COPY_ABOVE mode is selected, the second sample and the previous sample (first sample) in the scan order in the second row 1512 are the COPY_ABOVE mode. Accordingly, the encoder signals run_copy_flag of a value of 1 for the first sample in the second row 1512. The decoder parses the run_copy_flag for the current sample (i.e., the second sample in the second row 1512), and since run_copy_flag = 1, sets the Copy_Above_Flag of the current sample to the same value (ie, 1) of the previous sample. Therefore, since run_copy_flag = 0 and Copy_Above_Flag = 1 for the current sample, the decoder can determine (infer) the index coding mode of the current sample (that is, the second sample of the second row 1512) as Above Copy.
두 번째 행(1512)에서 스캔 순서상 세 번째 샘플의 팔레트 인덱스는 이전 샘플의 팔레트 인덱스와 상이하고, 상측 샘플의 팔레트 인덱스와도 상이하다. 따라서, 부호화기는 두 번째 샘플의 인덱스 코딩 모드를 INDEX 모드로 선택한다. 두 번째 샘플과 첫 번째 샘플의 인덱스 코딩 모드가 상이하므로, 0 값의 run_copy_flag가 시그널링되며, 이전 샘플인 첫 번째 샘플의 Copy_Above_Flag = 1이므로, 두 번째 샘플의 Copy_Above_Flag를 0 값으로 설정한다. 두 번째 샘플에 대한 run_copy_flag = 0이고 Copy_Above_Flag = 0이므로, 부호화기는 두 번째 샘플의 팔레트 인덱스 값을 특정하는 신택스 엘리먼트( palette_idx_idc)를 추가로 시그널링한다.In the second row 1512, the palette index of the third sample in the scan order is different from the palette index of the previous sample, and is also different from the palette index of the upper sample. Accordingly, the encoder selects the index coding mode of the second sample as the INDEX mode. Since the index coding mode of the second sample and the first sample are different, a run_copy_flag of a value of 0 is signaled, and Copy_Above_Flag of the first sample, which is a previous sample, = 1, so Copy_Above_Flag of the second sample is set to a value of 0. Since run_copy_flag = 0 for the second sample and Copy_Above_Flag = 0, the encoder additionally signals a syntax element ( palette_idx_idc ) specifying the palette index value of the second sample.
두 번째 행의 나머지 샘플들에 대해서도 유사한 방식으로 처리되며, 구체적인 설명은 생략된다. The remaining samples in the second row are processed in a similar manner, and detailed descriptions are omitted.
도 13의 (c) 혹은 도 13의 (d)에 예시된 스캐닝 순서가 사용될 수도 있는 다른 일부 실시예에서, 현재 샘플의 팔레트 인덱스가 좌측 또는 상측 샘플의 팔레트 인덱스로부터 예측(카피)되는지 여부(즉, 현재 샘플의 팔레트 인덱스가 좌측 또는 상측 샘플의 팔레트 인덱스와 같은지 여부)를 지시하는 플래그(예컨대, index_pred_flag)가 코딩될 수 있다. index_pred_flag=1은 현재 샘플의 팔레트 인덱스가 좌측 또는 상측 샘플의 팔레트 인덱스로부터 예측(카피)됨을 지시할 수 있으며, index_pred_flag=0은 예측(카피)되지 않음을 지시할 수 있다. In some other embodiments in which the scanning order illustrated in FIG. 13(c) or 13(d) may be used, whether the palette index of the current sample is predicted (copyed) from the palette index of the left or upper sample (i.e. , A flag (eg, index_pred_flag ) indicating whether the palette index of the current sample is the same as the palette index of the left or upper sample may be coded. index_pred_flag=1 may indicate that the palette index of the current sample is predicted (copied) from the palette index of the left or upper sample, and index_pred_flag=0 may indicate that the prediction (copy) is not performed.
index_pred_flag=1인 경우에, 현재 샘플의 팔레트 인덱스가 좌측 샘플의 팔레트 인덱스과 동일한지 아니면 상측 샘플의 팔레트 인덱스와 동일한 지를 지시하는 플래그( left_or_above_flag)가 추가로 코딩될 수도 있다. left_or_above_flag=0은 좌측 샘플의 팔레트 인덱스와 동일함을 지시하고, left_or_above_flag=1은 상측 샘플의 팔레트 인덱스와 동일함을 지시할 수 있다. 도 13의 (c) 와 도 13의 (d)에서, 현재 블록의 좌상측(uppermost-left) 샘플에 대해, index_pred_flag=0으로 추론될 수 있으며, 좌상측(uppermost-left) 샘플을 제외한 좌측 열의 샘플들에 대해 관련된 left_or_top_flag은 1으로 추론되고, 상측 열의 샘플들에 대해 관련된 left_or_top_flag은 0으로 추론될 수 있다.When index_pred_flag=1, a flag ( left_or_above_flag ) indicating whether the palette index of the current sample is the same as the palette index of the left sample or the palette index of the upper sample may be additionally coded. left_or_above_flag=0 may indicate that it is the same as the palette index of the left sample, and left_or_above_flag=1 may indicate that it is the same as the palette index of the upper sample. 13(c) and 13(d), for the upper-left sample of the current block, index_pred_flag=0 can be inferred, and the left column excluding the upper-left sample Left_or_top_flag related to samples may be inferred as 1, and left_or_top_flag related to samples in the upper column may be inferred as 0.
좌측 또는 상측 샘플의 팔레트 인덱스로부터 관련된 팔레트 인덱스가 예측되지 않는(즉, index_pred_flag=0 인) 샘플들에 대해서는, 관련된 팔레트 인덱스의 값은 부호화기에 의해, 예를 들어, 절삭된 2진 코드(truncated binary code)로 표현되는 신택스 엘리먼트를 이용하여, 비트스트림에서 명시적으로 시그널링된다.For samples whose associated palette index is not predicted (i.e., index_pred_flag = 0) from the palette index of the left or upper sample, the value of the associated palette index is determined by the encoder, e.g., truncated binary code. code) is explicitly signaled in the bitstream.
전술한 바와 같이, 부호화기 및 복호화기는 블록의 특정의 샘플 값에 대해, 이스케이프 샘플(예컨대, 블록을 코딩하기 위한 팔레트에 표현된 칼라 값을 가지지 않는 샘플)로서 코딩된다는 것을 표시하기 위해, 인덱스가 1 만큼 증가된 팔레트의 마지막 인덱스(즉, 이스케이프 인덱스)를 나타내는 데이터를 코딩할 수도 있다. 예를 들어, 샘플에 대한 인덱스가 이스케이프 인덱스(예컨대, 위에서 언급한 팔레트에서 마지막 인덱스)와 동일하면, 복호화기는 복호화할 샘플을 이스케이프 샘플로서 추론할 수도 있다. As described above, to indicate that for a particular sample value of the block, the encoder and decoder are coded as escape samples (e.g., samples that do not have color values represented in the palette for coding the block), the index is 1 It is also possible to code data representing the last index (ie, escape index) of the palette increased by. For example, if the index for the sample is the same as the escape index (eg, the last index in the above-mentioned palette), the decoder may infer the sample to be decoded as the escape sample.
인덱스 맵이 결정되면, 부호화기와 복호화기는 현재의 블록에 대한 팔레트 테이블을 참조하여 각 샘플의 팔레트 인덱스에 대응되는 컬러 성분들을 결정하여, 현재의 블록을 복원할 수 있다.When the index map is determined, the encoder and decoder may restore the current block by determining color components corresponding to the palette index of each sample by referring to the palette table for the current block.
E. 이스케이프 샘플의 샘플 값 예측E. Predicting the sample value of the escaped sample
그 샘플 값이 팔레트에 팔레트 엔트리로서 포함되지 않는 이스케이프 샘플에 대해, 전형적으로, 양자화된 샘플 값이 부호화기에 의해 모든 칼라 성분들에 대해 명시적으로 비트스트림에서 시그널링될 수 있다.For escape samples whose sample value is not included as a palette entry in the palette, typically, the quantized sample value can be explicitly signaled in the bitstream for all color components by the encoder.
본 개시에 따르면, 샘플 값이 팔레트에 팔레트 엔트리로서 포함되지 않는 이스케이프 샘플에 대해, 해당 샘플 값은, 인트라 예측되는 샘플과 유사하게, 무방향성 모드(DC, Planar 등) 또는 방향성 모드로 이미 복호화된 주변블록으로부터 예측될 수도 있다.According to the present disclosure, for an escape sample in which a sample value is not included as a palette entry in the palette, the sample value is already decoded in a non-directional mode (DC, Planar, etc.) or a directional mode, similar to the intra-predicted sample. It may be predicted from neighboring blocks.
일 예로, 이스케이프 샘플에 대해, 부호화기는 양자화된 샘플값을 명시적으로 시그널링하는 것과 주변블록으로부터 예측하는 것에 대해 RD-cost를 계산하여, 양자화된 샘플값을 명시적으로 시그널링할 지 여부를 결정할 수 있다. 그리고 부호화기는 이스케이프 샘플에 대해 양자화된 샘플값이 명시적으로 시그널링되는지 여부를 나타내는 1-비트 플래그를 비트스트림에서 시그널링할 수도 있다. 복호화기는 상기 1-비트 플래그를 파싱하여, 이스케이프 샘플에 대해 비트스트림으로부터 양자화된 샘플값을 복호화할 지, 이스케이프 모드 또는 (무방향성 또는 방향성 모드) 중 하나를 선택하고, 이미 복호화된 주변블록으로부터 이스케이프 샘플의 샘플값을 예측할지 여부를 결정할 수 있다. For example, for an escape sample, the encoder may determine whether to explicitly signal the quantized sample value by calculating the RD-cost for explicitly signaling the quantized sample value and predicting from the neighboring block. have. In addition, the encoder may signal a 1-bit flag indicating whether the quantized sample value for the escape sample is explicitly signaled in the bitstream. The decoder parses the 1-bit flag, selects whether to decode the quantized sample value from the bitstream for the escape sample, an escape mode or (non-directional or directional mode), and escapes from the already decoded neighboring blocks. It is possible to determine whether to predict the sample value of the sample.
다른 일 예로, 부호화기와 복호화기는 이스케이프 샘플에 대해, 그 샘플값을 이미 복호화된 주변블록으로부터 항상 예측하도록 구성될 수도 있다. 이 경우, 전술한 1-비트 플래그의 시그널링은 요구되지 않는다. As another example, an encoder and a decoder may be configured to always predict an escape sample from an already decoded neighboring block. In this case, signaling of the aforementioned 1-bit flag is not required.
부호화기는 이스케이프 픽셀에 대해 선택된 인트라 예측 모드의 모드 번호를 나타내는 신택스 엘리먼트를 시그널링할 수 있으며, 미리 설정된 하나의 인트라 예측 모드가 사용되는 경우에, 모드 번호를 나타내는 신택스 엘리먼트의 시그널링은 요구되지 않을 수 있다.The encoder may signal a syntax element indicating the mode number of the intra prediction mode selected for the escape pixel, and when one preset intra prediction mode is used, signaling of the syntax element indicating the mode number may not be required. .
현재 CU를 코딩한 후 팔레트 예측 리스트는 현재 CU에 대한 팔레트 테이블을 사용하여 업데이트된다. 현재 팔레트에서 사용된 엔트리들이 새로운 팔레트 예측 리스트에 삽입되며, 후속하여, 현재 팔레트에서 사용되지 않는 이전 팔레트 예측 리스트의 엔트리들은 팔레트 예측 리스트의 허용된 최대 크기에 도달할 때까지 새로운 팔레트 예측 리스트에 추가된다.After coding the current CU, the palette prediction list is updated using the palette table for the current CU. Entries used in the current palette are inserted into the new palette prediction list, and subsequently, entries from the previous palette prediction list that are not used in the current palette are added to the new palette prediction list until the maximum allowed size of the palette prediction list is reached. do.
도 16은 본 개시의 일 측면에 따른, 복호화기가 비디오 데이터를 복호화하는 방법을 도시한 흐름도이다. 16 is a flowchart illustrating a method for a decoder to decode video data according to an aspect of the present disclosure.
단계 S1610에서, 복호화기는 픽쳐가 파면 병렬 프로세싱(WPP)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화한다. 상기 신택스 엘리먼트는 SPS(Sequence parameter set) 레벨에서 시그널링될 수 있다. In step S1610, the decoder decodes a syntax element indicating that the picture can be decoded using wavefront parallel processing (WPP) from the bitstream. The syntax element may be signaled at a sequence parameter set (SPS) level.
단계 S1620에서, 복호화기는 픽쳐의 부호화된 데이터를 복호화한다. 복호화기는 픽쳐의 부호화된 데이터를 복호화하기 위해 파면 병렬 프로세싱을 이용할 수도 있다. 예를 들어, 복호화기는 각 CTU 행의 첫 번째 CTU의 복호화를, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작하는 방식으로, 다수의 CTU 행을 병렬적으로 복호화할 수 있다. 파면 병렬 프로세싱은 슬라이스 단위로 혹은 타일 단위로 수행될 수도 있다. 또한, 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능하다록 부호화되었다고 하더라도, 픽쳐의 부호화된 데이터는 반드시 다수의 CTU 행을 병렬적으로 복호화되어야 하는 것은 아니다. 따라서, 복호화기는 다수의 CTU 행을 병렬적으로 복호화하지 않을 수도 있다. 그러한 경우에도 각 CTU 행의 첫 번째 CTU의 복호화는, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작될 수 있다.In step S1620, the decoder decodes the coded data of the picture. The decoder may use wavefront parallel processing to decode the coded data of the picture. For example, the decoder may decode multiple CTU rows in parallel in a manner that starts decoding of the first CTU of each CTU row, after the first CTU of the previous CTU row is decoded. Wavefront parallel processing may be performed in units of slices or units of tiles. Further, even if a picture is coded so that it can be decoded using wavefront parallel processing, the coded data of the picture does not necessarily have to decode a plurality of CTU rows in parallel. Thus, the decoder may not decode multiple CTU rows in parallel. Even in such a case, the decoding of the first CTU of each CTU row can be started after the first CTU of the previous CTU row is decoded.
픽쳐의 부호화된 데이터를 복호화하는 것(S1620)의 일부로서, 복호화기는 팔레트 모드로 복호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측할 수 있다(S1621). 그리고 복호화기는 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 첫 번째 코딩 블록을 팔레트 모드로 복호화할 수 있다(S1622).As part of decoding the coded data of the picture (S1620), the decoder uses the palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row to be decoded in the palette mode. The palette table for the coding block may be predicted (S1621). In addition, the decoder may decode the first coding block in the palette mode by using the predicted palette table for the first coding block (S1622).
첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 것(S1621)의 일부로서, 복호화기는 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터의 하나 이상의 엔트리들을 첫 번째 코딩 블록에 대한 팔레트 테이블에 재사용할지 여부를 결정할 수 있다. 또한, 복호화기는 첫 번째 코딩 블록에 대한 팔레트 테이블에 추가될 새로운 엔트리들을 결정할 수도 있다.As part of predicting the palette table for the first coding block (S1621), the decoder determines whether to reuse one or more entries of the palette data from the first CTU of the previous CTU row in the palette table for the first coding block. You can decide. Also, the decoder may determine new entries to be added to the palette table for the first coding block.
현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 것(S1622)의 일부로서, 복호화기는 첫 번째 코딩 블록에 하나 이상의 이스케이프 샘플이 존재하는지 여부를 지시하는 이스케이프 플래그를 비트스트림으로부터 복호화할 수 있다. 복호화기는 이스케이프 플래그가 첫 번째 코딩 블록에 적어도 하나의 이스케이프 샘플이 존재함을 지시하는 경우에, 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블에 추가적인 인덱스를 추가할 수 있다. 복호화기는 첫 번째 코딩 블록에 대한 팔레트 인덱스 맵을 재구성하기 위해, 첫 번째 코딩 블록의 각 샘플들에 대해 적어도 하나의 신택스 엘리먼트를 비트스트림으로부터 복호화할 수 있다. 나아가, 부호화기는 재구성된 팔레트 인덱스 맵을 기초로 추가적인 인덱스를 가지는 하나 이상의 이스케이프 샘플을 식별하고, 식별된 이스케이프 샘플에 대한 양자화된 컬러 성분 값들을 나타내는 신택스 엘리먼트를 비트스트림으로부터 복호화할 수 있다. As part of decoding the first coding block of the current CTU row in the palette mode (S1622), the decoder may decode an escape flag indicating whether one or more escape samples exist in the first coding block from the bitstream. . When the escape flag indicates that at least one escape sample is present in the first coding block, the decoder may add an additional index to the predicted palette table for the first coding block. The decoder may decode at least one syntax element from the bitstream for each sample of the first coding block in order to reconstruct the palette index map for the first coding block. Furthermore, the encoder may identify one or more escape samples having an additional index based on the reconstructed palette index map, and decode a syntax element representing quantized color component values for the identified escape samples from the bitstream.
코딩 블록의 팔레트 인덱스 맵을 재구성하기 위해 복호화되는 적어도 하나의 신택스 엘리먼트는 관련된 샘플이 스캐닝 순서상 선행하는 이전 샘플과 동일한 인덱스 코딩 모드인지 여부를 지시하는 제1플래그(예컨대, run_copy_flag)를 포함한다. 제1플래그는 코딩 블록의 각 샘플마다 복호화될 수 있다. 상기 적어도 하나의 신택스 엘리먼트는 관련된 샘플의 팔레트 인덱스가 스캐닝 순서상 이전 라인에서의 동일 위치의 샘플로부터 카피되는지 여부를 지시하는 제2플래그(예컨대, copy_above_palette_indices_flag)를 더 포함한다. 제2플래그는 관련된 샘플이 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며 상기 이전 샘플의 인덱스 코딩 모드가 INDEX 모드인 경우에 복호화될 수 있다. 또한 제2플래그는 수평 횡단 스캐닝 순서에 대해 코딩 블록의 첫 번째 행에 위치한 샘플들과 수직 횡단 스캐닝 순서에 대해 코딩 블록의 첫 번째 열에 위치한 샘플들에 대해 생략될 수 있다. 상기 적어도 하나의 신택스 엘리먼트는 관련된 샘플의 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트(예컨대, palette_idx_idc)를 더 포함한다. 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트는 관련된 샘플이 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 제1플래그에 의해 지시되며, 관련된 샘플의 인덱스 코딩 모드가 COPY ABOVE 모드가 아닌 경우에 복호화될 수 있다.At least one syntax element decoded to reconstruct the palette index map of the coding block includes a first flag (eg, run_copy_flag ) indicating whether the related sample is in the same index coding mode as the previous sample preceding in the scanning order. The first flag may be decoded for each sample of the coding block. The at least one syntax element further includes a second flag (eg, copy_above_palette_indices_flag ) indicating whether the palette index of the related sample is copied from the sample at the same position in the previous line in the scanning order. The second flag is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and may be decoded when the index coding mode of the previous sample is the INDEX mode. Further, the second flag may be omitted for samples located in the first row of the coding block for the horizontal transverse scanning order and samples located in the first column of the coding block for the vertical transverse scanning order. The at least one syntax element further includes a syntax element (eg, palette_idx_idc ) explicitly expressing a palette index of a related sample. The syntax element explicitly expressing the palette index is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and may be decoded when the index coding mode of the related sample is not the COPY ABOVE mode.
부호화기 또한 도 16에 예시된 순서와 실질적으로 동일하게 비디오 데이터의 부호화를 수행할 수도 있음을 이해하여야 한다. 예를 들어, 부호화기는 비디오 데이터의 픽쳐가 파면 병렬 프로세싱을 이용하여 부복호화 가능함을 지시하는 신택스 엘리먼트를 부호화하고, 파면 병렬 프로세싱을 이용하여 복호화하는 것이 가능하도록 상기 픽쳐의 데이터를 부호화할 수 있다. 상기 픽쳐의 데이터를 부호화하는 것의 일부로서, 부호화기는 팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측할 수 있으며, 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 부호화할 수 있다.It should be understood that the encoder may also perform encoding of video data in substantially the same manner as in the order illustrated in FIG. For example, the encoder may encode a syntax element indicating that a picture of video data can be encoded and decoded using wavefront parallel processing, and may encode data of the picture to enable decoding using wavefront parallel processing. As part of encoding the data of the picture, the encoder for the first coding block of the current CTU row encoded in the palette mode, using the palette data from the first CTU of the previous CTU row, for the first coding block. A palette table may be predicted, and the first coding block may be encoded in a palette mode by using the predicted palette table for the first coding block.
이상의 설명에서 예시적인 실시예들은 많은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 하나 이상의 예시들에서 설명된 기능들 혹은 방법들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다. 본 명세서에서 설명된 기능적 컴포넌트들은 그들의 구현 독립성을 특히 더 강조하기 위해 "...부(unit)" 로 라벨링되었음을 이해해야 한다. In the above description, it should be understood that the exemplary embodiments may be implemented in many different ways. The functions or methods described in one or more examples may be implemented in hardware, software, firmware, or any combination thereof. It should be understood that the functional components described herein are labeled "...unit" to particularly emphasize their implementation independence.
한편, 본 개시에서 설명된 다양한 기능들 혹은 방법들은 하나 이상의 프로세서에 의해 판독되고 실행될 수 있는 비일시적 기록매체에 저장된 명령어들로 구현될 수도 있다. 비일시적 기록매체는, 예를 들어, 컴퓨터 시스템에 의하여 판독가능한 형태로 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 예를 들어, 비일시적 기록매체는 EPROM(erasable programmable read only memory), 플래시 드라이브, 광학 드라이브, 자기 하드 드라이브, 솔리드 스테이트 드라이브(SSD)와 같은 저장매체를 포함한다.Meanwhile, various functions or methods described in the present disclosure may be implemented as instructions stored in a non-transitory recording medium that can be read and executed by one or more processors. The non-transitory recording medium includes, for example, all kinds of recording devices in which data is stored in a form readable by a computer system. For example, the non-transitory recording medium includes a storage medium such as an erasable programmable read only memory (EPROM), a flash drive, an optical drive, a magnetic hard drive, and a solid state drive (SSD).
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those of ordinary skill in the technical field to which the present embodiment belongs will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present exemplary embodiments are not intended to limit the technical idea of the present exemplary embodiment, but are illustrative, and the scope of the technical idea of the present exemplary embodiment is not limited by these exemplary embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.
CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은, 본 명세서에 그 전체가 참고로서 포함되는, 2019년 05월 15일 한국에 출원한 특허출원번호 제10-2019-0056975호, 2019년 09월 30일 한국에 출원한 특허출원번호 제10-2019-0120806호 및 2020년 05월 15일 한국에 출원한 특허출원번호 제10-2020-0058318호에 대해 우선권을 주장한다.This patent application is a patent application No. 10-2019-0056975 filed in Korea on May 15, 2019, and Patent application No. filed in Korea on September 30, 2019, which is incorporated by reference in its entirety in this specification. Priority is claimed for 10-2019-0120806 and Patent Application No. 10-2020-0058318 filed in Korea on May 15, 2020.

Claims (15)

  1. 비디오 데이터의 복호화 방법으로서,As a decoding method of video data,
    픽쳐가 파면 병렬 프로세싱(wavefront parallel processing)을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계; 및Decoding a syntax element indicating that the picture can be decoded using wavefront parallel processing from the bitstream; And
    상기 픽쳐의 부호화된 데이터를 복호화하는 단계Decoding the coded data of the picture
    를 포함하고,Including,
    상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,The step of decoding the coded data of the picture,
    팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계; 및Predicting a palette table for the first coding block using palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode; And
    상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계Decoding the first coding block in a palette mode using a palette table predicted for the first coding block
    를 포함하는, 복호화 방법.Including a decoding method.
  2. 제1항에 있어서,The method of claim 1,
    상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,The step of decoding the coded data of the picture,
    각 CTU 행의 첫 번째 CTU의 복호화를, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작하는 방식으로, 복수의 CTU 행을 병렬적으로 복호화하는 단계를 포함하는, 복호화 방법.And decoding a plurality of CTU rows in parallel in a manner that starts decoding of the first CTU of each CTU row, after the first CTU of the previous CTU row is decoded.
  3. 제1항에 있어서,The method of claim 1,
    상기 팔레트 테이블을 예측하는 단계는,Predicting the palette table,
    상기 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터의 하나 이상의 엔트리들을 상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 재사용할지 여부를 결정하는 단계; 및Determining whether to reuse one or more entries of palette data from a first CTU of the previous CTU row in a palette table for the first coding block; And
    상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 추가될 새로운 엔트리들을 결정하는 단계Determining new entries to be added to the palette table for the first coding block
    를 포함하는, 복호화 방법.Including a decoding method.
  4. 제1항에 있어서,The method of claim 1,
    상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,The step of decoding the first coding block of the current CTU row in the palette mode,
    상기 비트스트림으로부터, 상기 첫 번째 코딩 블록에 하나 이상의 이스케이프 샘플이 존재하는지 여부를 지시하는 이스케이프 플래그를 복호화하는 단계;Decoding an escape flag indicating whether one or more escape samples are present in the first coding block from the bitstream;
    상기 이스케이프 플래그가 상기 첫 번째 코딩 블록에 적어도 하나의 이스케이프 샘플이 존재함을 지시하는 경우에, 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블에 추가적인 인덱스를 추가하는 단계;If the escape flag indicates that at least one escape sample exists in the first coding block, adding an additional index to a predicted palette table for the first coding block;
    상기 첫 번째 코딩 블록에 대한 팔레트 인덱스 맵을 재구성하기 위해, 상기 비트스트림으로부터 상기 첫 번째 코딩 블록의 각 샘플마다 적어도 하나의 신택스 엘리먼트를 복호화하는 단계; 및Decoding at least one syntax element for each sample of the first coding block from the bitstream to reconstruct the palette index map for the first coding block; And
    상기 재구성된 팔레트 인덱스 맵을 기초로 상기 추가적인 인덱스를 가지는 하나 이상의 이스케이프 샘플을 식별하고, 식별된 이스케이프 샘플에 대한 양자화된 컬러 성분 값들을 나타내는 신택스 엘리먼트를 상기 비트스트림으로부터 복호화하는 단계 Identifying one or more escape samples having the additional index based on the reconstructed palette index map, and decoding a syntax element representing quantized color component values for the identified escape samples from the bitstream
    를 포함하는, 복호화 방법.Including a decoding method.
  5. 제4항에 있어서,The method of claim 4,
    상기 적어도 하나의 신택스 엘리먼트는,The at least one syntax element,
    관련된 샘플이 스캐닝 순서상 선행하는 이전 샘플과 동일한 인덱스 코딩 모드인지 여부를 지시하며, 상기 첫 번째 코딩 블록의 각 샘플마다 복호화되는 제1플래그;A first flag indicating whether a related sample is in the same index coding mode as a preceding sample in a scanning order, and is decoded for each sample of the first coding block;
    상기 관련된 샘플의 팔레트 인덱스가 스캐닝 순서상 이전 라인에서의 동일 위치의 샘플로부터 카피되는지 여부를 지시하는 제2플래그, 여기서 상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며 상기 이전 샘플의 인덱스 코딩 모드가 INDEX 모드인 경우에 상기 제2 플래그가 복호화됨; 및A second flag indicating whether the palette index of the related sample is copied from the sample at the same position in the previous line in the scanning order, wherein the related sample is not in the same index coding mode as the previous sample by the first flag Indicated and the second flag is decoded when the index coding mode of the previous sample is the INDEX mode; And
    상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며, 상기 관련된 샘플의 인덱스 코딩 모드가 COPY ABOVE 모드가 아닌 경우에, 상기 관련된 샘플의 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트It is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and when the index coding mode of the related sample is not the COPY ABOVE mode, the palette index of the related sample is explicitly expressed. Syntax element
    를 포함하는, 복호화 방법. Including a decoding method.
  6. 제4항에 있어서, The method of claim 4,
    상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,The step of decoding the first coding block of the current CTU row in the palette mode,
    상기 현재 CTU 행의 첫 번째 코딩 블록을 위한 팔레트 테이블로부터의 팔레트 데이터를 사용하여 상기 현재 CTU 행의 후속 코딩 블록에 대한 팔레트 테이블을 예측하는 단계를 더 포함하는, 복호화 방법.And predicting a palette table for a subsequent coding block of the current CTU row using palette data from a palette table for a first coding block of the current CTU row.
  7. 제1항에 있어서,The method of claim 1,
    상기 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 상기 신택스 엘리먼트는 SPS(Sequence parameter set) 레벨에서 시그널링되는 것을 특징으로 하는, 복호화 방법.The syntax element indicating that the picture can be decoded using wavefront parallel processing is signaled at a sequence parameter set (SPS) level.
  8. 비디오 데이터를 복호화하기 위한 장치로서,An apparatus for decoding video data, comprising:
    메모리; 및 Memory; And
    하나 이상의 프로세서를 포함하며,Contains one or more processors,
    상기 하나 이상의 프로세서는, The one or more processors,
    픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 신택스 엘리먼트를 비트스트림으로부터 복호화하는 단계; 및Decoding a syntax element indicating that the picture can be decoded using wavefront parallel processing from the bitstream; And
    상기 픽쳐의 부호화된 데이터를 복호화하는 단계를 수행하도록 구성되며, It is configured to perform the step of decoding the encoded data of the picture,
    상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,The step of decoding the coded data of the picture,
    팔레트 모드로 부호화된 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계; 및Predicting a palette table for the first coding block using palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode; And
    상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계Decoding the first coding block in a palette mode using a palette table predicted for the first coding block
    을 포함하는, 복호화 장치.Containing, a decoding device.
  9. 제8항에 있어서,The method of claim 8,
    상기 픽쳐의 부호화된 데이터를 복호화하는 단계는,The step of decoding the coded data of the picture,
    각 CTU 행의 첫 번째 CTU의 복호화를, 이전 CTU 행의 첫 번째 CTU가 복호화된 이후에, 시작하는 방식으로, 복수의 CTU 행을 병렬적으로 복호화하는 단계를 포함하는, 복호화 장치.And decoding a plurality of CTU rows in parallel in a manner that starts decoding of the first CTU of each CTU row, after the first CTU of the previous CTU row is decoded.
  10. 제8항에 있어서,The method of claim 8,
    상기 팔레트 테이블을 예측하는 단계는,Predicting the palette table,
    상기 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터의 하나 이상의 엔트리들을 상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 재사용할지 여부를 결정하는 단계; 및Determining whether to reuse one or more entries of palette data from a first CTU of the previous CTU row in a palette table for the first coding block; And
    상기 첫 번째 코딩 블록에 대한 팔레트 테이블에 추가될 새로운 엔트리들을 결정하는 단계Determining new entries to be added to the palette table for the first coding block
    을 포함하는, 복호화 장치.Containing, a decoding device.
  11. 제8항에 있어서,The method of claim 8,
    상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,The step of decoding the first coding block of the current CTU row in the palette mode,
    상기 비트스트림으로부터, 상기 첫 번째 코딩 블록에 하나 이상의 이스케이프 샘플이 존재하는지 여부를 지시하는 이스케이프 플래그를 복호화하는 단계;Decoding an escape flag indicating whether one or more escape samples are present in the first coding block from the bitstream;
    상기 이스케이프 플래그가 상기 첫 번째 코딩 블록에 적어도 하나의 이스케이프 샘플이 존재함을 지시하는 경우에, 상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블에 추가적인 인덱스를 추가하는 단계;If the escape flag indicates that at least one escape sample exists in the first coding block, adding an additional index to a predicted palette table for the first coding block;
    상기 첫 번째 코딩 블록에 대한 팔레트 인덱스 맵을 재구성하기 위해, 상기 비트스트림으로부터 상기 첫 번째 코딩 블록의 각 샘플마다 적어도 하나의 신택스 엘리먼트를 복호화하는 단계; 및Decoding at least one syntax element for each sample of the first coding block from the bitstream to reconstruct the palette index map for the first coding block; And
    상기 재구성된 팔레트 인덱스 맵을 기초로 상기 추가적인 인덱스를 가지는 하나 이상의 이스케이프 샘플을 식별하고, 식별된 이스케이프 샘플에 대한 양자화된 컬러 성분 값들을 나타내는 신택스 엘리먼트를 상기 비트스트림으로부터 복호화하는 단계 Identifying one or more escape samples having the additional index based on the reconstructed palette index map, and decoding a syntax element representing quantized color component values for the identified escape samples from the bitstream
    를 포함하는, 복호화 장치.Containing, the decoding device.
  12. 제11항에 있어서,The method of claim 11,
    상기 적어도 하나의 신택스 엘리먼트는,The at least one syntax element,
    관련된 샘플이 스캐닝 순서상 선행하는 이전 샘플과 동일한 인덱스 코딩 모드인지 여부를 지시하며, 상기 첫 번째 코딩 블록의 각 샘플마다 복호화되는 제1플래그;A first flag indicating whether a related sample is in the same index coding mode as a preceding sample in a scanning order, and is decoded for each sample of the first coding block;
    상기 관련된 샘플의 팔레트 인덱스가 스캐닝 순서상 이전 라인에서의 동일 위치의 샘플로부터 카피되는지 여부를 지시하는 제2플래그, 여기서 상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며 상기 이전 샘플의 인덱스 코딩 모드가 INDEX 모드인 경우에 상기 제2 플래그가 복호화됨; 및A second flag indicating whether the palette index of the related sample is copied from the sample at the same position in the previous line in the scanning order, wherein the related sample is not in the same index coding mode as the previous sample by the first flag Is indicated and the second flag is decoded when the index coding mode of the previous sample is the INDEX mode; And
    상기 관련된 샘플이 상기 이전 샘플과 동일한 인덱스 코딩 모드가 아니라고 상기 제1플래그에 의해 지시되며, 상기 관련된 샘플의 인덱스 코딩 모드가 COPY ABOVE 모드가 아닌 경우에, 상기 관련된 샘플의 팔레트 인덱스를 명시적으로 표현하는 신택스 엘리먼트It is indicated by the first flag that the related sample is not the same index coding mode as the previous sample, and when the index coding mode of the related sample is not the COPY ABOVE mode, the palette index of the related sample is explicitly expressed. Syntax element
    를 포함하는, 복호화 장치. Containing, the decoding device.
  13. 제11항에 있어서,The method of claim 11,
    상기 현재 CTU 행의 첫 번째 코딩 블록을 팔레트 모드로 복호화하는 단계는,The step of decoding the first coding block of the current CTU row in the palette mode,
    상기 현재 CTU 행의 첫 번째 코딩 블록을 위한 팔레트 테이블로부터의 팔레트 데이터를 사용하여 상기 현재 CTU 행의 후속 코딩 블록에 대한 팔레트 테이블을 예측하는 단계를 더 포함하는, 복호화 장치.And predicting a palette table for a subsequent coding block of the current CTU row by using palette data from a palette table for a first coding block of the current CTU row.
  14. 제8항에 있어서,The method of claim 8,
    상기 픽쳐가 파면 병렬 프로세싱을 이용하여 복호화 가능함을 지시하는 상기 신택스 엘리먼트는 SPS(Sequence parameter set) 레벨에서 시그널링되는 것을 특징으로 하는, 복호화 장치.The syntax element indicating that the picture can be decoded using wavefront parallel processing is signaled at a sequence parameter set (SPS) level.
  15. 비디오 데이터의 부호화 방법으로서,As a method of encoding video data,
    픽쳐가 파면 병렬 프로세싱을 이용하여 부복호화 가능함을 지시하는 신택스 엘리먼트를 부호화하는 단계; 및Encoding a syntax element indicating that the picture can be encoded and decoded using wavefront parallel processing; And
    상기 파면 병렬 프로세싱을 이용하여 복호화하는 것이 가능하도록 상기 픽쳐의 데이터를 부호화하는 단계Encoding the data of the picture to enable decoding using the wavefront parallel processing
    를 포함하고,Including,
    상기 픽쳐의 데이터를 부호화하는 단계는,Encoding the data of the picture,
    팔레트 모드로 부호화되는 현재 CTU 행의 첫 번째 코딩 블록에 대해, 이전 CTU 행의 첫 번째 CTU로부터의 팔레트 데이터를 이용하여 상기 첫 번째 코딩 블록에 대한 팔레트 테이블을 예측하는 단계; 및Predicting a palette table for the first coding block using palette data from the first CTU of the previous CTU row for the first coding block of the current CTU row encoded in the palette mode; And
    상기 첫 번째 코딩 블록에 대해 예측된 팔레트 테이블을 이용하여, 상기 첫 번째 코딩 블록을 팔레트 모드로 부호화하는 단계Encoding the first coding block in a palette mode using a palette table predicted for the first coding block
    를 포함하는, 부호화 방법.Including, the encoding method.
PCT/KR2020/006424 2019-05-15 2020-05-15 Method and apparatus for parallel encoding and decoding of moving picture data WO2020231220A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US17/277,936 US11553209B2 (en) 2019-05-15 2020-05-15 Method and apparatus for parallel encoding and decoding of moving picture data
CN202080036152.0A CN113853789A (en) 2019-05-15 2020-05-15 Method and apparatus for parallel encoding and decoding of moving image data
US18/078,983 US11902591B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,986 US11910023B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,978 US11889120B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,981 US11895337B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2019-0056975 2019-05-15
KR20190056975 2019-05-15
KR20190120806 2019-09-30
KR10-2019-0120806 2019-09-30
KR10-2020-0058318 2020-05-15
KR1020200058318A KR20200132761A (en) 2019-05-15 2020-05-15 Method and apparatus for parallel encoding and decoding of video data

Related Child Applications (5)

Application Number Title Priority Date Filing Date
US17/277,936 A-371-Of-International US11553209B2 (en) 2019-05-15 2020-05-15 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,986 Continuation US11910023B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,981 Continuation US11895337B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,983 Continuation US11902591B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data
US18/078,978 Continuation US11889120B2 (en) 2019-05-15 2022-12-11 Method and apparatus for parallel encoding and decoding of moving picture data

Publications (1)

Publication Number Publication Date
WO2020231220A1 true WO2020231220A1 (en) 2020-11-19

Family

ID=73289704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/006424 WO2020231220A1 (en) 2019-05-15 2020-05-15 Method and apparatus for parallel encoding and decoding of moving picture data

Country Status (1)

Country Link
WO (1) WO2020231220A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170002512A (en) * 2014-06-30 2017-01-06 인텔 코포레이션 Techniques for processing a video frame by a video encoder
KR20170008285A (en) * 2014-05-23 2017-01-23 퀄컴 인코포레이티드 Predictor palette initialization in palette-based video coding
KR20170063885A (en) * 2014-09-30 2017-06-08 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Rules for intra-picture prediction modes when wavefront parallel processing is enabled
KR20180059571A (en) * 2012-01-20 2018-06-04 지이 비디오 컴프레션, 엘엘씨 Coding concept allowing parallel processing, transport demultiplexer and video bitstream

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180059571A (en) * 2012-01-20 2018-06-04 지이 비디오 컴프레션, 엘엘씨 Coding concept allowing parallel processing, transport demultiplexer and video bitstream
KR20170008285A (en) * 2014-05-23 2017-01-23 퀄컴 인코포레이티드 Predictor palette initialization in palette-based video coding
KR20170002512A (en) * 2014-06-30 2017-01-06 인텔 코포레이션 Techniques for processing a video frame by a video encoder
KR20170063885A (en) * 2014-09-30 2017-06-08 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Rules for intra-picture prediction modes when wavefront parallel processing is enabled

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IKAI, TOMOHIRO ET AL.: "AHG12: One CTU delay wavefront parallel processing", JVET-N0150. JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. 14TH MEETING, 21 March 2019 (2019-03-21), Geneva, CH, XP030204065 *

Similar Documents

Publication Publication Date Title
WO2018080135A1 (en) Video encoding/decoding method and apparatus, and recording medium in which bit stream is stored
WO2017057953A1 (en) Method and device for coding residual signal in video coding system
WO2020185004A1 (en) Intra prediction method and device for predicting prediction unit and dividing prediction unit into sub-units
WO2017159901A1 (en) Method and device for deriving block structure in video coding system
WO2020185009A1 (en) Method and apparatus for efficiently coding residual blocks
WO2021025478A1 (en) Method and device for intra prediction coding of video data
WO2020231228A1 (en) Inverse quantization device and method used in image decoding device
WO2021025485A1 (en) Entropy coding for video encoding and decoding
WO2019135630A1 (en) Hiding sign data of transform coefficient
WO2020242181A1 (en) Intra mode candidate configuration method and image decoding device
US11889120B2 (en) Method and apparatus for parallel encoding and decoding of moving picture data
WO2022030980A1 (en) Method and apparatus for patch book-based encoding and decoding of video data
WO2020185027A1 (en) Method and device for efficiently applying transform skip mode to data block
WO2020231220A1 (en) Method and apparatus for parallel encoding and decoding of moving picture data
WO2021060804A1 (en) Method for restoring residual block of chroma block, and decoding device
WO2020076049A1 (en) Method and apparatus for encoding and decoding quantized transform coefficients
WO2020122573A1 (en) Filtering method and image decoding device
WO2021040430A1 (en) Video encoding and decoding using differential coding
WO2022108422A1 (en) Image encoding and decoding method using adaptive reference pixel selection
WO2022177317A1 (en) Video coding method and device using subblock division-based intra prediction
WO2022108421A1 (en) Image encoding and decoding method using adaptive alternative mode
WO2024034886A1 (en) Method and device for video coding using rearrangement of prediction signals in intra block copy mode
WO2021112544A1 (en) Video encoding and decoding using differential modulation
WO2023182673A1 (en) Method and device for video coding by using context model initialization
WO2020256510A1 (en) Method and device for controlling coding tools

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20806731

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20806731

Country of ref document: EP

Kind code of ref document: A1