WO2020050705A1 - Method of decoding and encoding image for processing group unit quantization parameter - Google Patents

Method of decoding and encoding image for processing group unit quantization parameter Download PDF

Info

Publication number
WO2020050705A1
WO2020050705A1 PCT/KR2019/011651 KR2019011651W WO2020050705A1 WO 2020050705 A1 WO2020050705 A1 WO 2020050705A1 KR 2019011651 W KR2019011651 W KR 2019011651W WO 2020050705 A1 WO2020050705 A1 WO 2020050705A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
quantization
block
picture
quantization parameter
Prior art date
Application number
PCT/KR2019/011651
Other languages
French (fr)
Korean (ko)
Inventor
임화섭
임정윤
Original Assignee
가온미디어 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가온미디어 주식회사 filed Critical 가온미디어 주식회사
Publication of WO2020050705A1 publication Critical patent/WO2020050705A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to video encoding and decoding, and more particularly, to a method of performing prediction and quantization by dividing a video picture into a plurality of blocks.
  • one picture is divided into a plurality of blocks having a predetermined size, and encoding is performed.
  • inter prediction and intra prediction techniques that remove redundancy between pictures are used to increase compression efficiency.
  • a residual signal is generated using intra prediction and inter prediction, and the reason for obtaining the residual signal is that when coding with the residual signal, the amount of data is small, so the data compression rate is high, and the better the prediction, the better the residual signal. This is because the value of.
  • the intra prediction method predicts data of the current block using pixels around the current block.
  • the difference between the actual value and the predicted value is called the residual signal block.
  • the intra prediction method increases from 9 prediction modes used in the existing H.264 / AVC to 35 prediction modes to further refine the prediction.
  • the current block is compared with blocks in neighboring pictures to find the most similar block.
  • the location information (Vx, Vy) for the found block is called a motion vector.
  • the difference of pixel values in a block between a current block and a prediction block predicted by a motion vector is called a residual signal block (motion-compensated residual block).
  • the quantization processing process according to the current block structure may be inefficient.
  • the present invention is to solve the above problems, is suitable for encoding and decoding of high-resolution images, and the image processing method for processing a more efficient quantization process according to a complex encoding characteristic change, and an image decoding and encoding method using the same
  • the purpose is to provide.
  • a picture is a plurality of basic units in which inter prediction or intra prediction is performed.
  • Decoding the coding unit is divided into a coding unit (Coding Unit) of the picture or the divided coding unit into a quad tree (quad tree), binary tree (binary tree) or ternery tree (ternery tree) structure
  • a plurality of pictures are basic units in which inter prediction or intra prediction is performed.
  • Decoding the coding unit is divided into a coding unit (Coding Unit) of the picture or the divided coding unit into a quad tree (quad tree), binary tree (binary tree) or ternery tree (ternery tree) structure
  • a characteristic adaptive quantization parameter determining unit selectively adaptively determining a quantization parameter according to the quantization process of the target block, based on the group quantization information of the target block.
  • a plurality of pictures are basic units in which inter prediction or intra prediction is performed.
  • Decoding the coding unit is divided into a coding unit (Coding Unit) of the picture or the divided coding unit into a quad tree (quad tree), binary tree (binary tree) or ternery tree (ternery tree) structure
  • a coding unit which is a basic unit in which inter prediction or intra prediction is performed, may be divided into a composite tree structure including a quad tree, a binary tree, and a ternary tree, and the target block group of the target block
  • quantization efficiency corresponding to a diversified block shape can be improved, and coding efficiency for a high-resolution image can be improved.
  • the derivation process of the quantization parameter and the quantization parameter derived therefrom are selectively adaptively determined using the detailed characteristic information of the image, the motion compensation efficiency corresponding to the diversified block form and The filtering effect can be improved, and coding efficiency for a high resolution image can be improved.
  • FIG. 1 is a block diagram showing the configuration of an image encoding apparatus according to an embodiment of the present invention.
  • 2 to 5 are diagrams for describing a first embodiment of a method of dividing and processing an image in block units.
  • FIG. 6 is a block diagram illustrating an embodiment of a method for performing inter prediction in an image encoding apparatus.
  • FIG. 7 is a block diagram showing the configuration of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 8 is a block diagram illustrating an embodiment of a method of performing inter prediction in an image decoding apparatus.
  • FIG. 9 is a view for explaining a second embodiment of a method of dividing and processing an image in block units.
  • FIG. 10 is a diagram illustrating an embodiment of a syntax structure used to process an image by dividing it into blocks.
  • FIG. 11 is a diagram for describing a third embodiment of a method of dividing and processing an image in block units.
  • FIG. 12 is a diagram for explaining an embodiment of a method of configuring a transformation unit by dividing a coding unit into a binary tree structure.
  • FIG. 13 is a view for explaining a fourth embodiment of a method of dividing and processing an image in block units.
  • 14 to 16 are diagrams for explaining other embodiments of a method of dividing and processing an image in block units.
  • 17 and 18 are diagrams for explaining embodiments of a method of determining a split structure of a transform unit by performing rate distortion optimization (RDO).
  • RDO rate distortion optimization
  • 19 is a view for explaining a composite partition structure according to another embodiment of the present invention.
  • 20 is a block diagram illustrating a quantization unit according to an embodiment of the present invention in more detail.
  • 21 is a diagram for explaining a characteristic adaptive quantization parameter determiner according to an embodiment of the present invention in more detail.
  • FIG. 22 is a flowchart illustrating a process of determining an initial quantization parameter corresponding to a CTU group unit according to an embodiment of the present invention.
  • 23 is a view for explaining that an initial quantization parameter is determined for each group quantization unit according to an embodiment of the present invention.
  • 24 is a flowchart illustrating a decoding method for processing inverse quantization according to an embodiment of the present invention.
  • 25 is a view for explaining slice type based quantization parameter derivation according to an embodiment of the present invention.
  • 26 is a flowchart illustrating an entire process according to an embodiment of the present invention.
  • 27 to 29 are diagrams for explaining a high level syntax according to an embodiment of the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.
  • first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component.
  • each component shown in the embodiments of the present invention are shown independently to indicate different characteristic functions, and do not mean that each component is composed of separate hardware or one software component. That is, for convenience of description, each component is listed and included as each component, and at least two components of each component are combined to form one component, or one component is divided into a plurality of components to perform functions.
  • the integrated and separated embodiments of the components are also included in the scope of the present invention without departing from the essence of the present invention.
  • the components are not essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented by including only components necessary for realizing the essence of the present invention, except for components used for performance improvement, and structures including only essential components excluding optional components used for performance improvement. Also included in the scope of the present invention.
  • the image encoding apparatus 10 includes a picture splitter 110, a transform unit 120, a quantization unit 130, and scanning.
  • the picture splitter 110 analyzes an input video signal, divides a picture into coding units, determines a prediction mode, and determines the size of a prediction unit for each coding unit.
  • the picture splitter 110 sends the prediction unit to be encoded to the intra prediction unit 150 or the inter prediction unit 160 according to a prediction mode (or prediction method). Also, the picture splitter 110 sends a prediction unit to be encoded to the subtractor 190.
  • a picture of an image may be composed of a plurality of bricks, tiles, or slices, and the bricks, tiles, or slices are a plurality of coding tree units, which are basic units for dividing a picture ( Coding Tree Unit (CTU).
  • CTU Coding Tree Unit
  • each tile, brick, or slice may form a CTU group unit described according to an embodiment of the present invention.
  • the tile may be a rectangular CTU unit partition defined by rows and columns
  • the brick may be a rectangular partition composed of CTU row units or a substructure included in a specific tile.
  • a slice may be composed of an integer number of bricks formed continuously, and configuration information may be exclusively included in one network abstraction layer unit (NAL unit).
  • NAL unit network abstraction layer unit
  • the slice may include one or more entire tiles, or may include only consecutive bricks included in one tile.
  • one picture may be divided into a plurality of bricks, which are rectangular regions of a CTU row group, and the picture includes the bricks and is divided into one or more columns. It may be divided into tiles, divided into tiles including the bricks and divided into one or more horizontal columns, or divided into tiles including the bricks and divided into one or more vertical columns and one or more horizontal columns.
  • the picture may be equally divided into tiles of the same size based on the lengths of the horizontal and vertical columns in the picture, or may be divided into tiles of different sizes.
  • the coding tree unit may be divided into one or two or more coding units (CUs), which are basic units in which inter prediction or intra prediction is performed.
  • CUs coding units
  • the coding unit CU may be divided into one or more prediction units (PUs), which are basic units for which prediction is performed.
  • PUs prediction units
  • the encoding apparatus 10 determines one of inter prediction and intra prediction for each of the divided coding units (CUs) as a prediction method, but differently predicts blocks for each prediction unit (PU). Can be created.
  • the coding unit CU may be divided into one or two or more transform units (TUs), which are basic units for transforming a residual block.
  • TUs transform units
  • the picture division unit 110 may transmit the image data to the subtraction unit 190 in a block unit (eg, a prediction unit (PU) or a transformation unit (TU)) divided as described above.
  • a block unit eg, a prediction unit (PU) or a transformation unit (TU)
  • a coding tree unit (CTU) having a maximum size of 256x256 pixels is divided into a quad tree structure, and may be divided into four coding units (CUs) having a square shape.
  • Each of the four coding units (CUs) having the square shape may be re-divided into a quad tree structure, and the depth (Depth) of the coding unit (CU) divided into a quad tree structure may be 0 to 3 as described above. It can have one integer value.
  • the coding unit CU may be divided into one or two or more prediction units PU according to a prediction mode.
  • the prediction unit PU may have the size of 2Nx2N shown in FIG. 3A or NxN shown in FIG. 3B. have.
  • the prediction unit PU when the size of the coding unit CU is 2Nx2N, the prediction unit PU is 2Nx2N shown in FIG. 4A, 2NxN shown in FIG. 4B, and FIG. 4B Nx2N shown in (c), NxN shown in FIG. 4 (d), 2NxnU shown in FIG. 4 (e), 2NxnD shown in FIG. 4 (f), and shown in FIG. 4 (g) It may have a size of any one of nLx2N and nRx2N shown in Figure 4 (h).
  • the coding unit is divided into a quad tree structure, and can be divided into four transform units (TUs) having a square shape.
  • the four transform units (TUs) having the square shape may be re-divided into quad tree structures, and the depth (Depth) of the transform unit (TU) divided into quad tree structures may be 0 to 3 as described above. It can have one integer value.
  • the prediction unit PU and the transform unit TU split from the corresponding coding unit CU may have independent splitting structures.
  • the transform unit TU divided from the coding unit CU cannot be larger than the size of the prediction unit PU.
  • the conversion unit (TU) divided as described above may have a maximum size of 64x64 pixels.
  • the conversion unit 120 converts the residual block, which is a residual signal between the original block of the input prediction unit PU and the prediction block generated by the intra prediction unit 150 or the inter prediction unit 160, wherein the conversion is conversion
  • the unit TU may be performed as a basic unit.
  • different transformation matrices may be determined according to a prediction mode (intra or inter), and since the residual signal of intra prediction has directionality according to the intra prediction mode, the transformation matrix may be adaptively determined according to the intra prediction mode. have.
  • the transformation unit may be transformed by two (horizontal, vertical) one-dimensional transformation matrices, for example, in the case of inter prediction, one predetermined transformation matrix may be determined.
  • a DCT-based integer matrix is applied in the vertical direction, and DST-based or in the horizontal direction.
  • KLT-based integer matrix When the intra prediction mode is vertical, a DST-based or KLT-based integer matrix may be applied in the vertical direction, and a DCT-based integer matrix may be applied in the horizontal direction.
  • a DCT-based integer matrix can be applied to both directions.
  • a transform matrix may be adaptively determined based on the size of the transform unit (TU).
  • the quantization unit 130 determines a quantization step size for quantizing the coefficients of the residual block transformed by the transform matrix, and the quantization step size may be determined for each quantization unit having a predetermined size or more.
  • the size of the quantization unit may be 8x8 or 16x16, and the quantization unit 130 quantizes coefficients of a transform block using a quantization matrix determined according to a quantization step size and a prediction mode.
  • the quantization unit 130 may use a quantization step size of a quantization unit adjacent to the current quantization unit as a quantization step size predictor of the current quantization unit.
  • the quantization unit 130 may search the left quantization unit, the upper quantization unit, and the left upper quantization unit of the current quantization unit to generate a quantization step size predictor of the current quantization unit using one or two valid quantization step sizes. have.
  • the quantization unit 130 may determine a valid first quantization step size retrieved in the order as a quantization step size predictor, or determine an average value of two valid quantization step sizes retrieved in the order as a quantization step size predictor, or If only one quantization step size is valid, it can be determined as a quantization step size predictor.
  • the quantization unit 130 transmits the difference between the quantization step size of the current quantization unit and the quantization step size predictor to the entropy encoding unit 140.
  • all of the left coding unit, the upper coding unit, and the left upper coding unit of the current coding unit do not exist.
  • quantization units adjacent to the current coding unit and the quantization step size of the previous quantization unit in the coding order may be candidates in the largest coding unit.
  • priority is set in the order of 1) the left quantization unit of the current coding unit, 2) the upper quantization unit of the current coding unit, 3) the upper left quantization unit of the current coding unit, and 4) the order of the previous quantization unit in the coding order.
  • the quantized transform block as described above is transferred to the inverse quantization unit 135 and the scanning unit 131.
  • the scanning unit 131 scans the coefficients of the quantized transform block and converts them into one-dimensional quantized coefficients.
  • the scanning method is based on the intra prediction mode. It can be decided accordingly.
  • the coefficient scanning method may be differently determined according to the size of the transform unit, and the scan pattern may be changed according to the directional intra prediction mode, and in this case, the scan order of the quantization coefficients may be scanned in the reverse direction.
  • the same scan pattern may be applied to quantization coefficients in each subset, and a zigzag scan or diagonal scan may be applied to the scan pattern between subsets.
  • the scan pattern is preferably scanned from the main subset including DC to the remaining subsets in the forward direction, but the reverse direction is also possible.
  • a scan pattern between subsets may be set in the same manner as the scan pattern of quantized coefficients in the subset, and the scan pattern between subsets may be determined according to the intra prediction mode.
  • the encoding apparatus 10 includes a decoding apparatus by including in the bitstream information indicating the position of the last non-zero quantization coefficient and the position of the last non-zero quantization coefficient in each subset in the transform unit (PU) ( 20).
  • the inverse quantization unit 135 inverse quantizes the quantized quantized coefficients as described above, and the inverse transform unit 125 performs inverse transformation in units of transform units (TU) to restore the inverse quantized transform coefficients to a residual block in a spatial domain. can do.
  • TU transform units
  • the adder 195 may generate a reconstructed block by combining the residual block reconstructed by the inverse transform unit 125 with the predicted block received from the intra predictor 150 or the inter predictor 160.
  • the post-processing unit 170 deblocking filtering process to remove the blocking effect occurring in the reconstructed picture, sample adaptive offset (Sample Adaptive Offset: to compensate for the difference value from the original image in units of pixels) SAO) application process and a coding unit can perform post-processing such as an adaptive loop filtering (ALF) process to compensate for a difference value from the original image.
  • ALF adaptive loop filtering
  • the deblocking filtering process may be applied to a boundary of a prediction unit (PU) or a transform unit (TU) having a size equal to or greater than a predetermined size.
  • PU prediction unit
  • TU transform unit
  • the deblocking filtering process may include determining a boundary to be filtered, determining a boundary filtering strength to be applied to the boundary, and determining whether to apply a deblocking filter, If it is determined to apply the deblocking filter, it may include selecting a filter to be applied to the boundary.
  • whether or not the deblocking filter is applied includes i) whether the boundary filtering intensity is greater than 0, and ii) the degree of change in pixel values at the boundary of two block (P block, Q block) adjacent to the boundary to be filtered. It may be determined by whether the value indicated is smaller than the first reference value determined by the quantization parameter.
  • At least two said filters are preferable.
  • a filter that performs relatively weak filtering is selected.
  • the second reference value is determined by the quantization parameter and the boundary filtering intensity.
  • sample adaptive offset (SAO) application process is to reduce the difference (distortion) between the pixel and the original pixel in the image to which the deblocking filter is applied, and the sample adaptive offset (SAO) application process is performed in units of pictures or slices. It can be decided whether or not to perform.
  • the picture or slice may be divided into a plurality of offset areas, and an offset type may be determined for each offset area, wherein the offset type is a predetermined number (eg, 4) edge offset types and 2 band offsets. Type.
  • the offset type is an edge offset type
  • an edge type to which each pixel belongs is determined and an offset corresponding thereto is applied
  • the edge type may be determined based on a distribution of two pixel values adjacent to the current pixel. have.
  • the adaptive loop filtering (ALF) process may perform filtering based on a value obtained by comparing a reconstructed image and an original image that have undergone a deblocking filtering process or an adaptive offset application process.
  • the picture storage unit 180 receives the post-processed image data from the post-processing unit 170 and restores and stores the image in picture units, and the picture may be a frame unit image or a field unit image.
  • the inter prediction unit 160 may perform motion estimation using at least one reference picture stored in the picture storage unit 180 and determine a reference picture index and a motion vector indicating the reference picture.
  • a prediction block corresponding to a prediction unit to be encoded may be extracted from a reference picture used for motion estimation among a plurality of reference pictures stored in the picture storage unit 180 according to the determined reference picture index and motion vector. have.
  • the intra prediction unit 150 may perform intra prediction encoding using reconstructed pixel values inside a picture in which the current prediction unit is included.
  • the intra prediction unit 150 may receive the current prediction unit to be predictively encoded and select one of a preset number of intra prediction modes according to the size of the current block to perform intra prediction.
  • the intra prediction unit 150 adaptively filters the reference pixel to generate the intra prediction block, and when the reference pixel is not available, the reference pixels may be generated using the available reference pixels.
  • the entropy encoding unit 140 may entropy encode quantization coefficients quantized by the quantization unit 130, intra prediction information received from the intra prediction unit 150, and motion information received from the inter prediction unit 160. .
  • FIG. 6 is a block diagram showing an embodiment of a configuration in which the encoding apparatus 10 performs inter prediction, and the illustrated inter prediction encoder is a motion information determination unit 161 and a motion information encoding mode determination unit 162.
  • the motion information determination unit 161 determines motion information of a current block, motion information includes a reference picture index and a motion vector, and the reference picture index is any one of pictures that have been previously encoded and reconstructed. Can represent
  • the current block is one-way inter-prediction coded, it indicates any one of the reference pictures belonging to list 0 (L0), and when the current block is two-way predictive-coded, it refers to one of the reference pictures in list 0 (L0).
  • An index and a reference picture index indicating one of the reference pictures of list 1 (L1) may be included.
  • an index indicating one or two pictures of reference pictures of the composite list LC generated by combining list 0 and list 1 may be included.
  • the motion vector indicates a position of a prediction block in a picture indicated by each reference picture index, and the motion vector may be a pixel unit (integer unit) or a sub pixel unit.
  • the motion vector may have a precision of 1/2, 1/4, 1/8, or 1/16 pixels, and when the motion vector is not an integer unit, a prediction block is generated from pixels of the integer unit. You can.
  • the motion information encoding mode determiner 162 may determine an encoding mode for motion information of a current block, and the encoding mode may be exemplified as one of a skip mode, a merge mode, and an AMVP mode.
  • the skip mode is applied when there is a skip candidate having the same motion information as the motion information of the current block, and the residual signal is 0.
  • the current block which is the prediction unit (PU)
  • the merge mode is applied when there is a merge candidate having the same motion information as the motion information of the current block, and the merge mode has a residual signal when the size of the current block is different from the coding unit (CU) or the same size. In case it applies. Meanwhile, the merge candidate and the skip candidate may be the same.
  • the AMVP mode is applied when the skip mode and the merge mode are not applied, and an AMVP candidate having a motion vector most similar to the motion vector of the current block can be selected as the AMVP predictor.
  • the encoding mode is a process other than the above-described method, and may include a more fine-grained motion compensation prediction encoding mode.
  • the adaptively determined motion compensation prediction mode includes the above-described AMVP mode, merge mode, and skip mode, as well as FRUC (FRAME RATE UP-CONVERSION) mode, BIO (BI-DIRECTIONAL OPTICAL FLOW), which is currently proposed as a new motion compensation prediction mode.
  • AMP AFFINE MOTION PREDICTION
  • OBMC OverLAPPED BLOCK MOTION COMPENSATION
  • DMVR DECODER-SIDE MOTION VECTOR REFINEMENT
  • ATMVP Alternative temporal motion vector prediction
  • STMVP Sepatial-temporal motion vector prediction
  • LIC Local Illumination Compensation
  • the motion information encoding unit 163 may encode motion information according to a method determined by the motion information encoding mode determiner 162.
  • the motion information encoding unit 163 may perform a merge motion vector encoding process when the motion information encoding mode is a skip mode or a merge mode, and may perform an AMVP encoding process in the AMVP mode.
  • the prediction block generation unit 164 generates a prediction block using motion information of the current block, and when the motion vector is an integer unit, copies a block corresponding to a position indicated by the motion vector in the picture indicated by the reference picture index and copies the current block To generate predictive blocks.
  • the prediction block generator 164 may generate pixels of the prediction block from integer unit pixels in the picture indicated by the reference picture index.
  • a prediction pixel may be generated using an 8-tap interpolation filter for a luminance pixel, and a prediction pixel may be generated using a 4-tap interpolation filter for a chrominance pixel.
  • the residual block generator 165 generates a residual block using the current block and the prediction block of the current block, and when the size of the current block is 2Nx2N, the residual block is generated using the 2Nx2N prediction block corresponding to the current block and the current block You can create blocks.
  • the size of the current block used for prediction is 2NxN or Nx2N
  • a final prediction block of 2Nx2N size is obtained by using the 2 2NxN prediction blocks. Can be created.
  • a 2Nx2N size residual block may be generated using the 2Nx2N size prediction block, and overlap smoothing may be applied to pixels of the boundary part to resolve discontinuity of the boundary part of the 2 prediction blocks having 2NxN size. You can.
  • the residual block encoder 166 divides the residual block into one or more transform units (TUs), so that each transform unit (TU) can be transform-encoded, quantized, and entropy-encoded.
  • the residual block encoder 166 may transform the residual block generated by the inter prediction method using an integer-based transform matrix, and the transform matrix may be an integer-based DCT matrix.
  • the residual block encoder 166 uses a quantization matrix to quantize the coefficients of the residual block transformed by the transform matrix, and the quantization matrix can be determined by a quantization parameter.
  • the quantization parameter is determined for each coding unit (CU) having a predetermined size or more, and if the current coding unit (CU) is smaller than the predetermined size, the first coding unit (in coding order) among coding units (CU) within the predetermined size ( Only the quantization parameter of CU) is coded, and the quantization parameter of the remaining coding unit CU is the same as the above parameter, and thus may not be coded.
  • coefficients of the transform block may be quantized using a quantization matrix determined according to the quantization parameter and a prediction mode.
  • the quantization parameter determined for each coding unit (CU) having a predetermined size or more may be predictively coded using the quantization parameter of the coding unit (CU) adjacent to the current coding unit (CU).
  • a valid first quantization parameter retrieved in the above order may be determined as a quantization parameter predictor, and a valid first quantization parameter may be quantized by searching in the order of the left coding unit (CU) and the previous coding unit (CU) in the coding order. It can be determined as a parameter predictor.
  • the coefficients of the quantized transform block are scanned and converted into one-dimensional quantized coefficients, and the scanning method may be set differently according to the entropy coding mode.
  • inter-prediction-encoded quantization coefficients can be scanned in one predetermined manner (zigzag, or raster scan in a diagonal direction), and when encoded with CAVLC, scanning in a different way from the above method Can be.
  • the scanning method may be determined according to a zigzag case in the case of inter and an intra prediction mode in case of intra, and the coefficient scanning method may be differently determined according to the size of a transform unit.
  • the scan pattern may vary according to the directional intra prediction mode, and the scan order of quantization coefficients may be scanned in the reverse direction.
  • the multiplexer 167 multiplexes the motion information encoded by the motion information encoding unit 163 and the residual signals encoded by the residual block encoding unit 166.
  • the motion information may vary according to an encoding mode, and for example, in the case of skip or merge, only the index indicating the predictor may be included, and in the case of AMVP, the reference picture index, the differential motion vector, and the AMVP index of the current block may be included. .
  • the intra prediction unit 150 receives the prediction mode information and the size of the prediction unit PU from the picture division unit 110, and the picture storage unit determines a reference pixel to determine the intra prediction mode of the prediction unit PU It can be read from 180.
  • the intra prediction unit 150 determines whether a reference pixel is generated by examining whether there is an unavailable reference pixel, and the reference pixels can be used to determine an intra prediction mode of the current block.
  • pixels adjacent to the upper side of the current block are not defined, and when the current block is located at the left boundary of the current picture, pixels adjacent to the left of the current block are not defined, It may be determined that the pixels are not available pixels.
  • the current block is located at the slice boundary and pixels adjacent to the upper or left side of the slice are not available pixels even if the pixels are not encoded and reconstructed first.
  • the intra prediction mode of the current block may be determined using only available pixels.
  • a reference pixel at a location that is not available may be generated using the available reference pixels of the current block. For example, when the pixels of the upper block are not available, the upper pixel may be used using some or all of the left pixels. You can create them, and vice versa.
  • a reference pixel is generated by copying an available reference pixel at a location closest to a predetermined direction from a reference pixel at a location that is not available, or when there is no reference pixel available in a predetermined direction, the closest in the opposite direction
  • a reference pixel may be generated by copying the available reference pixel of the position.
  • the upper or left pixels of the current block may be determined as a reference pixel that is not available according to an encoding mode of a block to which the pixels belong.
  • the pixels may be determined as unavailable pixels.
  • available reference pixels may be generated using pixels belonging to a reconstructed block in which a block adjacent to the current block is intra coded, and information indicating that the encoding apparatus 10 determines available reference pixels according to an encoding mode. It is transmitted to the decoding device 20.
  • the intra prediction unit 150 determines the intra prediction mode of the current block using the reference pixels, and the number of intra prediction modes allowable for the current block may vary according to the size of the block.
  • 34 intra prediction modes may exist when the size of the current block is 8x8, 16x16, and 32x32, and 17 intra prediction modes may exist when the size of the current block is 4x4.
  • the 34 or 17 intra prediction modes may be composed of at least one non-directional mode (non-directional mode) and a plurality of directional modes (directional modes).
  • the one or more non-directional modes may be DC mode and / or planar mode.
  • 35 intra prediction modes may exist regardless of the size of the current block.
  • DC mode and planner mode two non-directional modes (DC mode and planner mode) and 33 directional modes may be included.
  • At least one pixel value (or a prediction value of the pixel value, hereinafter referred to as a first reference value) and a reference pixel positioned at a bottom-right of the current block is used to predict the prediction block of the current block. Is generated.
  • the configuration of the video decoding apparatus may be derived from the configuration of the video encoding apparatus 10 described with reference to FIGS. 1 to 6, for example, as described with reference to FIGS. 1 to 6.
  • An image can be decoded by inversely performing the processes of the same image encoding method.
  • the decoding apparatus 20 includes an entropy decoding unit 210, an inverse quantization / inverse transformation unit 220, an adder 270, It has a post-processing unit 250, a picture storage unit 260, an intra prediction unit 230, a motion compensation prediction unit 240, and an intra / inter switch 280.
  • the entropy decoding unit 210 receives and decodes the encoded bit stream from the image encoding apparatus 10, separates it into intra prediction mode indexes, motion information, and quantization coefficient sequences, and decodes the decoded motion information into a motion compensation prediction unit ( 240).
  • the entropy decoding unit 210 transmits the intra prediction mode index to the intra prediction unit 230 and the inverse quantization / inverse transformation unit 220 to transmit the inverse quantization coefficient sequence to the inverse quantization / inverse transformation unit 220.
  • the inverse quantization / inverse transform unit 220 converts the quantization coefficient sequence into an inverse quantization coefficient in a two-dimensional array, and can select one of a plurality of scanning patterns for the conversion, for example, a prediction mode (ie, a current block) (Intra prediction or inter prediction) and an intra prediction mode.
  • a prediction mode ie, a current block
  • Intra prediction or inter prediction Intra prediction mode
  • the inverse quantization / inverse transform unit 220 restores a quantization coefficient by applying a quantization matrix selected from a plurality of quantization matrices to an inverse quantization coefficient of a two-dimensional array.
  • a quantization matrix may be selected for a block having the same size based on at least one of the prediction mode and the intra prediction mode of the current block.
  • the inverse quantization / inverse transform unit 220 inversely transforms the reconstructed quantization coefficient to restore a residual block, and the inverse transform process may be performed using a transform unit (TU) as a basic unit.
  • TU transform unit
  • the adder 270 reconstructs the image block by combining the residual block reconstructed by the inverse quantization / inverse transform unit 220 and the prediction block generated by the intra prediction unit 230 or the motion compensation prediction unit 240.
  • the post-processing unit 250 may perform post-processing on the reconstructed image generated by the adder 270 to reduce deblocking artifacts and the like due to image loss due to quantization by filtering or the like.
  • the picture storage unit 260 is a frame memory for storing a local decoded image in which filter post-processing is performed by the post-processing unit 250.
  • the intra prediction unit 230 restores the intra prediction mode of the current block based on the intra prediction mode index received from the entropy decoding unit 210 and generates a prediction block according to the restored intra prediction mode.
  • the motion compensation prediction unit 240 generates a prediction block for a current block from a picture stored in the picture storage unit 260 based on the motion vector information, and applies a selected interpolation filter to apply the selected interpolation filter when motion compensation with a decimal precision is applied.
  • the intra / inter switch 280 may provide the adder 270 with a prediction block generated by any one of the intra prediction unit 230 and the motion compensation prediction unit 240 based on the encoding mode.
  • the inter prediction decoder is a demultiplexer 241, a motion information encoding mode determination unit 242, a merge mode motion
  • the de-multiplexer 241 demultiplexes the currently encoded motion information and the encoded residual signals from the received bitstream, and transmits the demultiplexed motion information to the motion information encoding mode determination unit 242 Then, the demultiplexed residual signal may be transmitted to the residual block decoder 246.
  • the motion information encoding mode determining unit 242 determines the motion information encoding mode of the current block, and when the skip_flag of the received bitstream has a value of 1, the motion information encoding mode of the current block is determined to be encoded in the skip encoding mode can do.
  • the motion information encoding mode determining unit 242 is a motion information encoding mode of the current block It can be determined that is encoded in the merge mode.
  • the motion information encoding mode determining unit 242 has a value of 0 for skip_flag of the received bitstream, and motion information received from the demultiplexer 241 has a reference picture index, a differential motion vector, and an AMVP index. In this case, it may be determined that the motion information encoding mode of the current block is encoded in the AMVP mode.
  • the merge mode motion information decoding unit 243 is activated when the motion information encoding mode determining unit 242 determines the current block motion information encoding mode as skip or merge mode, and the AMVP mode motion information decoding unit 244 moves It may be activated when the information encoding mode determining unit 242 determines the current block motion information encoding mode as the AMVP mode.
  • the selection mode motion information decoding unit 248 may decode motion information in a prediction mode selected from among other motion compensation prediction modes except for the above-described AMVP mode, merge mode, and skip mode.
  • the selective prediction mode may include a more precise motion prediction mode compared to the AMVP mode, and may be determined block-adaptively according to predetermined conditions (eg, block size and block segmentation information, signaling information existence, block position, etc.). .
  • Selective prediction mode is, for example, FRUC (FRAME RATE UP-CONVERSION) mode, BIO (BI-DIRECTIONAL OPTICAL FLOW) mode, AMP (AFFINE MOTION PREDICTION) mode, OBMC (OVERLAPPED BLOCK MOTION COMPENSATION) mode, DMVR (DECODER-SIDE) It may include at least one of a MOTION VECTOR REFINEMENT mode, an ATMVP (Alternative temporal motion vector prediction) mode, a STMVP (Spatial-temporal motion vector prediction) mode, and a LIC (Local Illumination Compensation) mode.
  • FRUC FRAME RATE UP-CONVERSION
  • BIO BIO
  • AMP AFFINE MOTION PREDICTION
  • OBMC OverLAPPED BLOCK MOTION COMPENSATION
  • DMVR DECODER-SIDE
  • the prediction block generator 245 generates a prediction block of the current block by using the motion information restored by the merge mode motion information decoder 243 or the AMVP mode motion information decoder 244.
  • a block corresponding to a position indicated by the motion vector in the picture indicated by the reference picture index may be copied to generate a prediction block of the current block.
  • pixels of a prediction block are generated from integer unit pixels in a picture indicated by a reference picture index.
  • an 8-tap interpolation filter is used for a luminance pixel and a color difference pixel Prediction pixels may be generated using a 4-tap interpolation filter.
  • the residual block decoder 246 entropy-decodes the residual signal and inversely scans the entropy-decoded coefficients to generate a two-dimensional quantized coefficient block, and the inverse scanning method may vary according to the entropy decoding method.
  • the inverse scanning method may be applied in a diagonal raster inverse scanning method when decoded based on CABAC or in a zigzag inverse scan method when decoded based on CAVLC.
  • the inverse scanning method may be differently determined according to the size of the prediction block.
  • the residual block decoding unit 246 may inverse quantize the coefficient block generated as described above using an inverse quantization matrix, and reconstruct a quantization parameter to derive the quantization matrix.
  • the quantization step size may be restored for each coding unit having a predetermined size or more.
  • the residual block decoding unit 260 inversely transforms the inverse-quantized coefficient block to restore the residual block.
  • the reconstructed block generator 270 generates a reconstructed block by adding the predicted block generated by the predicted block generator 250 and the residual block generated by the residual block decoder 260.
  • the intra prediction mode of the current block is decoded from the received bitstream, and for that purpose, the entropy decoding unit 210 restores the first intra prediction mode index of the current block by referring to one of the plurality of intra prediction mode tables. You can.
  • any one table selected according to the distribution of intra prediction modes for multiple blocks adjacent to the current block may be applied.
  • the first intra prediction mode table is applied to restore the index of the first intra prediction mode of the current block, and is not the same. Otherwise, the first intra prediction mode index of the current block may be restored by applying the second intra prediction mode table.
  • the intra prediction mode of the upper block and the left block of the current block are both directional intra prediction modes
  • the direction of the intra prediction mode of the upper block and the intra prediction mode of the left block If it is within a predetermined angle, the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, and if it is outside the predetermined angle, the second intra prediction mode table is applied to the first intra prediction mode index of the current block. Can also be restored.
  • the entropy decoding unit 210 transmits the first intra prediction mode index of the restored current block to the intra prediction unit 230.
  • the intra prediction unit 230 receiving the index of the first intra prediction mode may determine the maximum possible mode of the current block as the intra prediction mode of the current block. .
  • the intra prediction unit 230 compares the index indicated by the maximum possible mode of the current block with the index of the first intra prediction mode, and as a result of the comparison, the first intra prediction mode If the index is not smaller than the index indicated by the maximum possible mode of the current block, the intra prediction mode corresponding to the second intra prediction mode index obtained by adding 1 to the first intra prediction mode index is determined as the intra prediction mode of the current block. Otherwise, the intra prediction mode corresponding to the first intra prediction mode index may be determined as the intra prediction mode of the current block.
  • the intra prediction mode allowable for the current block may include at least one non-directional mode (non-directional mode) and a plurality of directional modes (directional modes).
  • the one or more non-directional modes may be DC mode and / or planar mode.
  • either the DC mode or the planner mode may be adaptively included in the allowable intra prediction mode set.
  • information specifying a non-directional mode included in the allowable intra prediction mode set may be included in a picture header or a slice header.
  • the intra prediction unit 230 reads the reference pixels from the picture storage unit 260 to generate an intra prediction block, and determines whether there is an unavailable reference pixel.
  • the determination may be made according to the presence or absence of reference pixels used to generate an intra prediction block by applying the decoded intra prediction mode of the current block.
  • the intra prediction unit 230 may generate reference pixels at a location that is not available using previously reconstructed available reference pixels.
  • the definition of a reference pixel that is not available and the method of generating the reference pixel may be the same as the operation of the intra prediction unit 150 according to FIG. 1, but an intra prediction block is generated according to the decoded intra prediction mode of the current block.
  • the reference pixels used for this may be selectively restored.
  • the intra prediction unit 230 determines whether to apply a filter to reference pixels to generate a prediction block, that is, whether to apply filtering to reference pixels to generate an intra prediction block of the current block. It can be determined based on the decoded intra prediction mode and the size of the current prediction block.
  • the problem of blocking artifacts increases as the size of the block increases, so as the size of the block increases, the number of prediction modes for filtering the reference pixel can be increased, but if the block becomes larger than a predetermined size, it can be seen as a flat area, reducing complexity. For example, the reference pixel may not be filtered.
  • the intra prediction unit 230 filters the reference pixels using a filter.
  • At least two or more filters may be adaptively applied according to the difference in the level difference between the reference pixels.
  • the filter coefficient of the filter is preferably symmetrical.
  • the above two or more filters may be adaptively applied according to the size of the current block.
  • a filter having a narrow bandwidth for a small block and a filter having a wide bandwidth for a large block May be applied.
  • whether or not filtering is applied is also related to the intra prediction mode of the current block, so that the reference pixel can be filtered adaptively based on the intra prediction mode of the current block and the size of the prediction block.
  • the intra prediction unit 230 generates a prediction block using reference pixels or filtered reference pixels according to the restored intra prediction mode, and generation of the prediction block is the same as that of the operation of the encoding apparatus 10. Since it can be, a detailed description thereof will be omitted.
  • the intra prediction unit 230 determines whether to filter the generated prediction block, and the filtering may be determined by using information included in a slice header or a coding unit header or according to an intra prediction mode of the current block.
  • the intra prediction unit 230 may generate a new pixel by filtering a pixel at a specific position of the generated prediction block using available reference pixels adjacent to the current block. .
  • a prediction pixel contacting the reference pixels among the prediction pixels may be filtered using a reference pixel contacting the prediction pixel.
  • the prediction pixel is filtered using one or two reference pixels according to the position of the prediction pixel, and filtering of the prediction pixel in DC mode can be applied to prediction blocks of all sizes.
  • prediction pixels in contact with the left reference pixel among the prediction pixels of the prediction block may be changed using reference pixels other than the upper pixel used to generate the prediction block.
  • prediction pixels that come into contact with the upper reference pixel among the generated prediction pixels may be changed using reference pixels other than the left pixel used to generate the prediction block.
  • the current block may be reconstructed using the prediction block of the current block reconstructed and the residual block of the decoded current block.
  • FIG. 9 is a diagram for describing a second embodiment of a method of dividing and processing an image in block units.
  • a coding tree unit (CTU) having a maximum size of 256x256 pixels is first divided into a quad tree structure, and can be divided into four coding units (CUs) having a square shape.
  • At least one of the coding units divided into the quad tree structure is divided into a binary tree structure, and may be re-divided into two coding units (CUs) having a rectangular shape.
  • At least one of the coding units divided into the quad tree structure may be divided into a quad tree structure and re-divided into four coding units (CUs) having a square shape.
  • CUs coding units
  • At least one of the coding units re-divided into the binary tree structure may be divided into a binary tree structure and divided into two coding units (CUs) having a square or rectangular shape.
  • At least one of the coding units re-divided into the quad tree structure may be divided into a quad tree structure or a binary cree structure, and may be divided into coding units (CUs) having a square or rectangular shape.
  • CUs coding units
  • the binary partitioned CU may include a coding block (CB) that is a block unit that performs actual sub / decoding and syntax corresponding to the corresponding coding block. That is, the size of the prediction unit PU and the transformation unit TU belonging to the coding block CB as shown in FIG. 9 may be the same as the size of the corresponding coding block CB.
  • CB coding block
  • the coding unit split into the quad tree structure may be divided into one or more prediction units (PUs) using the method as described with reference to FIGS. 3 and 4.
  • the coding unit divided into a quad tree structure may be divided into one or two or more transform units (TUs) using the method as described with reference to FIG. 5, and the split transform unit (TU) Can have a maximum size of 64x64 pixels.
  • FIG. 10 illustrates an embodiment of a syntax structure used to process an image by dividing it into blocks.
  • a block structure according to an embodiment of the present invention may be determined through split_cu_flag indicating whether to split a quad tree and binary_split_flag indicating whether to split a binary tree.
  • whether to split the coding unit (CU) as described above may be indicated using split_cu_flag.
  • binary_split_flag indicating whether to split or not and syntax indicating the split direction may be determined in correspondence to a binary partitioned CU after quad tree splitting.
  • a method of indicating the directionality of binary splitting a method of determining a splitting direction based on this by decoding a plurality of syntaxes such as binary_split_hor and binary_split_ver, or decoding a single syntax and signal values according to it, such as binary_split_mode, and Horizontal (0)
  • a method of processing division in the vertical (1) direction may be exemplified.
  • the depth of a coding unit (CU) split using a binary tree may be represented using binary_depth.
  • coding unit e.g., a coding unit (CU), a prediction unit (PU), and a transform unit (TU)
  • PU prediction unit
  • TU transform unit
  • the coding unit may be divided into a binary tree structure and divided into transform units (TUs), which are basic units for transforming residual blocks.
  • TUs transform units
  • At least one of rectangular coding blocks CU 0 and Cu 1 divided into a binary tree structure and having a size of Nx2N or 2NxN is divided into a binary tree structure, and the size of NxN It can be divided into square transform units (TU 0 , TU 1 ).
  • the block-based image encoding method may perform prediction, transform, quantization, and entropy encoding steps.
  • a prediction signal is generated by referring to a block performing current encoding and an existing coded image or a surrounding image, and through this, a difference signal from the current block can be calculated.
  • the difference signal is used as input to perform conversion using various conversion functions, and the converted signal is classified into DC coefficients and AC coefficients to be energy compacted to improve encoding efficiency. You can.
  • quantization is performed with transform coefficients as an input, and then entropy encoding is performed on the quantized signal, so that an image may be encoded.
  • the image decoding method proceeds in the reverse order of the encoding process as described above, and an image quality distortion phenomenon may occur in the quantization step.
  • the size or shape of the transform unit (TU) and the type of transform function applied can be varied according to the distribution of the difference signal input to the input in the transform step and the characteristics of the image. have.
  • a difference is measured using a cost measurement method such as SAD (Sum of Absolute Difference) or MSE (Mean Square error).
  • SAD Sum of Absolute Difference
  • MSE Mel Square error
  • efficient encoding can be performed by selectively performing the transformation by determining the size or shape of the transformation unit CU based on the distribution of various difference signals.
  • the DC value generally represents the average value of the input signal
  • two coding units CUx
  • TUs conversion units
  • a square coding unit (CU 0 ) having a size of 2Nx2N is divided into a binary tree structure, and can be divided into rectangular transform units (TU 0 and TU 1 ) having a size of Nx2N or 2NxN. .
  • the step of dividing the coding unit (CU) into a binary tree structure may be performed repeatedly two or more times, and divided into a plurality of transform units (TUs).
  • a rectangular coding block (CB 1 ) having a size of Nx2N is divided into a binary tree structure, and a block having the size of the divided NxN is further divided into a binary tree structure to N / 2xN or NxN /
  • the block having the size of N / 2xN or NxN / 2 is divided into a binary tree structure, and square transform units having a size of N / 2xN / 2 (TU 1 , TU 2 , TU 4 , TU 5 ).
  • a square coding unit (CU 0 ) having a size of 2Nx2N is divided into a binary tree structure, and a block having the size of the divided Nx2N is divided into a binary tree structure, and a square having a size of NxN is obtained.
  • the block having the size of NxN may be further divided into a binary tree structure and divided into rectangular transform units (TU 1 and TU 2 ) having the size of N / 2xN.
  • a rectangular coding unit (CU 0 ) having a size of 2NxN is divided into a binary tree structure, and a block having the size of the divided NxN is divided into a quad tree structure to generate N / 2xN / 2. It can be divided into square transform units having a size (TU 1 , TU 2 , TU 3 , TU 4 ).
  • blocks eg, a coding unit (CU), a prediction unit (PU), and a transform unit (TU)
  • CU coding unit
  • PU prediction unit
  • TU transform unit
  • the picture dividing unit 110 provided in the image encoding apparatus 10 performs rate distortion optimization (RDO) according to a preset order, and as described above, the dividable coding unit (CU), prediction unit (PU), and transform
  • RDO rate distortion optimization
  • CU dividable coding unit
  • PU prediction unit
  • transform The division structure of the unit TU can be determined.
  • the picture division unit 110 determines an optimal block division structure in terms of bitrate and distortion while performing rate distortion optimization-quantization (RDO-Q). You can.
  • RDO-Q rate distortion optimization-quantization
  • RD may be performed in the order of 2NxN pixel sized conversion unit (PU) split structure shown in (d) to determine the optimal split structure of the transform unit (PU).
  • PU 2NxN pixel sized conversion unit
  • the coding unit CU has a form of Nx2N or 2NxN pixel size
  • the pixel size of Nx2N (or 2NxN) shown in (a) the pixel size of NxN shown in (b), Pixel size of N / 2xN (or NxN / 2) and NxN shown in (c), N / 2xN / 2, N / 2xN and pixel size of NxN shown in (d), N shown in (e)
  • It is possible to determine the optimal division structure of the conversion unit PU by performing RDO in the order of the division structure of the conversion unit (PU) having a pixel size of / 2xN.
  • the block division method of the present invention has been described as an example in which a block division structure is determined by performing rate distortion optimization (RDO), but the picture division unit 110 has a Sum of Absolute Difference (SAD) or Mean Square Error (MSE). ), It is possible to maintain a proper efficiency while reducing the complexity by determining the block division structure.
  • RDO rate distortion optimization
  • MSE Mean Square Error
  • ALF adaptive loop filtering
  • whether to apply the adaptive loop filter (ALF) may be determined on a coding unit (CU) basis, and the size or coefficient of a loop filter to be applied may vary according to the coding unit (CU).
  • information indicating whether to apply the adaptive loop filter (ALF) for each coding unit (CU) may be included in each slice header.
  • a chrominance signal it may be determined whether to apply an adaptive loop filter (ALF) on a picture-by-picture basis, and the shape of the loop filter may have a rectangular shape unlike luminance.
  • ALF adaptive loop filter
  • adaptive loop filtering may determine whether to apply for each slice. Accordingly, information indicating whether adaptive loop filtering (ALF) is applied to the current slice may be included in a slice header or a picture header.
  • the slice header or picture header may additionally include information indicating the filter length in the horizontal and / or vertical direction of the luminance component used in the adaptive loop filtering process.
  • the slice header or the picture header may include information indicating the number of filter sets, and when the number of filter sets is 2 or more, filter coefficients may be encoded using a prediction method.
  • the slice header or the picture header may include information indicating whether filter coefficients are encoded by a prediction method, and when the prediction method is used, may include predicted filter coefficients.
  • information indicating whether each chrominance component is filtered may be included in a slice header or a picture header, and for Cr and Cb to reduce the number of bits.
  • Joint coding ie, multiplexing coding
  • information indicating whether to filter may be included in a slice header or a picture header, and for Cr and Cb to reduce the number of bits.
  • Joint coding ie, multiplexing coding
  • entropy coding may be performed by assigning the largest index.
  • 19 is a view for explaining a composite partition structure according to another embodiment of the present invention.
  • the coding unit CU is divided into a binary tree structure, a rectangle having a shape in which the horizontal length W as shown in FIG. 19 (A) is longer than the vertical length H, and a vertical length as shown in FIG. 19 (B).
  • the shape of the coding unit (CU) in which H is divided into a rectangle having a shape longer than the width W may appear.
  • it is highly likely that the encoding information is concentrated in the left and right or upper and lower edge regions compared to the middle region.
  • the encoding apparatus 10 can facilitate the edge area of a coding unit, which has a long specific direction, by splitting quad trees and binary trees.
  • the coding unit can be split into a ternary tree or triple tree structure that can be split.
  • FIG. 19 (A) shows a first area of the left edge having a horizontal W / 8 and a vertical H / 4 length, and a horizontal W / 8 * 6, vertical when the coding unit to be divided is a horizontally divided coding unit.
  • H / 4 length it is shown that the second region, which is the middle region, and the third region of the right edge of the horizontal W / 8 and the vertical H / 4 length can be struck.
  • the encoding apparatus 10 may process the splitting of the ternary tree structure through the picture splitter 110.
  • the picture divider 110 may not only determine the division into the above-described quad-tree and binary-tree structures according to encoding efficiency, but may also fine-tune the segmentation scheme by considering the ternary tree structure together.
  • the division of the ternary tree structure may be processed for all coding units without limitation. However, considering the encoding and decoding efficiency as described above, it may be desirable to allow a ternary tree structure only for coding units having specific conditions.
  • the ternary tree structure may require ternary division of various methods for the coding tree unit, but it may be desirable to allow only an optimized predetermined form in consideration of encoding and decoding complexity and transmission bandwidth by signaling.
  • the picture division unit 110 may determine and determine whether to divide the current coding unit into a ternary tree structure of a specific type only when the preset coding condition is met.
  • the split ratio of the binary tree can be extended and varied to 3: 1, 1: 3, etc., not only 1: 1.
  • the splitting structure of the coding unit according to the embodiment of the present invention may include a composite tree structure that is subdivided into quad trees, binary trees, or ternary trees according to ratios.
  • the picture division unit 110 may determine a complex division structure of the coding unit to be divided based on the division table.
  • the picture dividing unit 110 processes quad-tree splitting and quad-tree-divided in response to a maximum size of a block (eg, pixel-based 128 x 128, 256 x 256, etc.) It is possible to perform a complex partitioning process that processes at least one of a dual tree structure and a triple tree structure partition corresponding to the terminal node.
  • a maximum size of a block eg, pixel-based 128 x 128, 256 x 256, etc.
  • the picture partitioning unit 110 may include a first binary partition (BINARY 1) and a second binary partition (BINARY 2) that are binary tree partitions corresponding to characteristics and sizes of a current block according to a partition table. ) And a first ternary partition (TRI 1) or a second ternary partition (TRI 2), which is a ternary tree partition, may be determined.
  • the first binary division may correspond to a vertical or horizontal division having a ratio of N: N
  • the second binary division may correspond to a vertical or horizontal division having a ratio of 3N: N or N: 3N
  • each The binary partitioned root CU may be divided into CU0 and CU1 of each size specified in the partition table.
  • the first ternary division may correspond to a vertical or horizontal division having a ratio of N: 2N: N
  • the second ternary division may correspond to a vertical or horizontal division having a ratio of N: 6N: N
  • each The ternary partitioned root CU may be divided into CU0, CU1, and CU2 of each size specified in the partition table.
  • a partition table indicating each processable partitioning structure and a coding unit size in the case of partitioning may be determined.
  • the picture division unit 110 according to an embodiment of the present invention, the maximum coding unit size and the minimum coding unit size for applying the first binary division, the second binary division, the first ternary division or the second ternary division Can be set respectively.
  • the allowable splitting structure for each size of each coding unit may be predefined.
  • the picture dividing unit 110 may prevent a case in which the horizontal or vertical pixel size is divided into 2 as a minimum size, for example, a size of less than 4, and for this purpose, the size of the block to be divided Determine whether the first binary partition, the second binary partition, the first ternary partition or the second ternary partition is allowed, and compare the RDO performance operation corresponding to the allowable partitioning structure to determine the optimal partitioning structure. You can.
  • the binary dividing structure may be divided into CU0 and CU1 constituting any one of 1: 1, 3: 1, or 1: 3 vertical partitioning.
  • the ternary division structure may be divided into CU0, CU1, and CU2 constituting either one of 1: 2: 1 or 1: 6: 1 vertical division.
  • an allowable vertical division structure may be limitedly determined depending on the size of the coding unit to be divided.
  • the vertical division structure of the 64X64 coding unit and the 32X32 coding unit may allow all of the first binary division, the second binary division, the first ternary division and the second ternary division, but among the vertical division structures of the 16X16 coding unit.
  • the second strikeout division may be limited to impossible.
  • only the first binary division may be limitedly allowed. Thus, partitioning into blocks below the minimum size that causes complexity can be prevented in advance.
  • the binary-divided structure may be divided into CU0 and CU1 constituting any one of 1: 1, 3: 1, or 1: 3 horizontal divisions
  • the ternary division structure may be divided into CU0, CU1 and CU2 constituting either one of 1: 2: 1 or 1: 6: 1 horizontal division.
  • an allowable horizontal division structure may be limitedly determined.
  • the horizontal division structure of the 64X64 coding unit and the 32X32 coding unit may allow all of the first binary division, the second binary division, the first ternary division and the second ternary division, but among the horizontal division structures of the 16X16 coding unit
  • the second strikeout division may be limited to impossible.
  • only the first binary division may be limitedly permitted.
  • the picture dividing unit 110 horizontally processes the coding unit vertically divided into the first binary division or the second binary division, or horizontally divides the first ternary division or the second ternary division according to the division table. You can.
  • the picture division unit 110 divides into CU0 and CU1 of 32X32 according to the first binary division, or CX and CU1 of 32X48 and 32X16 according to the second binary division.
  • the first ternary division 32X32, 32X16, 32X16 CU0, CU1, CU2, or according to the second ternary division 32X8, 64X48, 32X8 CU0, CU1, CU2.
  • the picture splitter 110 may vertically process the horizontally divided coding unit as the first binary split or the second binary split, or vertically split the first split or the second ternary split.
  • the picture division unit 110 may be divided into CU0 and CU1 of 16X16 according to the first binary division, or C0 and CU1 of 24X16 8X16 according to the second binary division.
  • the first ternary division it may be divided into CU0, CU1, CU2 of 8X16, 16X16, 8X16, or divided into CU0, CU1, CU2 of 4X16, 24X16, 4X16 according to the second ternary division.
  • the partitioning allowable structure may be conditionally determined differently for each CTU size, CTU group unit, and slice unit, and vertical and horizontal directions, such that the first binary partition, the second binary partition, the first ternary partition, and the second ternary partition
  • each CU partition ratio and decision size information may be defined by a partition table, or condition information may be set in advance.
  • division processing by allowing conditional division using a binary tree and a ternary tree, division of an appropriate ratio according to characteristics of the coding unit is possible, and thus encoding efficiency can be improved.
  • 20 is a block diagram illustrating a quantization unit according to an embodiment of the present invention in more detail.
  • the encoding and decoding process according to an embodiment of the present invention also corresponds to a coding tree unit (CTU) -based quantization group unit block for accurate and efficient prediction And a selective adaptive quantization parameter determination and quantization process.
  • CTU coding tree unit
  • the quantization parameter determination and quantization process may be performed by a specific configuration of the quantization unit 130 as illustrated in FIG. 20, and the operation of the quantization unit 130 in both the encoding and decoding processes according to an embodiment of the present invention And processing can be performed.
  • the quantization unit 130 may selectively adaptively determine a quantization parameter according to the quantization process of the target block, based on the quantization group unit information of the quantization target block.
  • the quantization unit 130 includes an initial quantization parameter derivation unit 1310, a characteristic adaptive quantization parameter determination unit 1320, a group unit difference quantization parameter derivation unit 1330, and coding block unit adaptation. And an enemy quantization parameter application unit 1340.
  • the initial quantization parameter deriving unit 1310 derives an initial quantization parameter (QUANTIZATION PARAMETER, QP) corresponding to each unit block.
  • the initial quantization parameter may be determined for each quantization group unit block corresponding to a CTU unit in a slice, and the initial quantization parameter derivation unit 1310 may include an initial quantization parameter determined for the quantization group unit block.
  • a list of quantization parameter (INITIAL QP) may be set in advance, and the initial quantization parameter list may be updated based on the determined difference quantization parameter (DELTA QP) value.
  • the quantization unit block may be determined corresponding to blocks grouped within a CTU unit in one slice, and the initial quantization parameter derivation unit 1310 may determine detailed initial quantization parameters for each unit. Accordingly, according to an embodiment of the present invention, an initial quantization parameter corresponding to at least one of a temporal spatial region (REGION) of a picture such as a VR image, or a subpicture, tile, slice in a picture, or the CTU-based quantization group unit Can be determined.
  • the initial quantization parameter derivation unit 1310 may construct an initial quantization parameter list based on the determined initial quantization parameter, and perform update processing corresponding thereto.
  • 21 is a flowchart illustrating an operation of the initial quantization parameter derivation unit 1310 according to an embodiment of the present invention.
  • the initial quantization parameter derivation unit 1310 first determines a division unit and a CTU quantization group region (S1001).
  • the initial quantization parameter derivation unit 1310 may determine a division unit and a CTU quantization group region based on image characteristics and picture division information obtained from the division unit 110.
  • the initial quantization parameter derivation unit 1310 configures an initial QP list based on the determined division unit and quantization group unit region (S1003).
  • the initial quantization parameter deriving unit 1310 derives an offset value based on the initial QP index of the configured initial QP list (S1005).
  • the initial quantization parameter derivation unit 1310 sets an initial QP corresponding to the determined division unit and CTU-based quantization group unit region, respectively (S1007).
  • an initial quantization parameter for each slice unit may be determined, and initial quantization for each CTU group unit included in the slice unit
  • the parameter may be determined as a value corresponding to the index.
  • the differential quantization parameter may also determine the differential quantization parameter for each slice unit and the differential quantization parameter for each CTU quantization group unit, and the differential quantization parameter for each CTU quantization group unit may be identified by a separate CTU QP index value. Can be processed.
  • Figure 23 shows the operation of the initial quantization parameter derivation unit 1310 for calculating the subdivided initial QP value for each CTU quantization unit block.
  • the initial quantization parameter derivation unit 1310 uses PPS (PICTURE) from the header information of the image. PARAMETER SET) is parsed (S1011), and an initial QP value corresponding to the picture division unit is derived (S1013).
  • the initial quantization parameter deriving unit 1310 obtains slice header information from the header information, derives a slice delta QP that is a difference value, and calculates an initial slice QP value for each slice unit based on the slice delta QP (S1017). .
  • the initial quantization parameter derivation unit 1310 determines a CTU quantization unit division, derives a CTU delta QP list for updating a difference value (S1019), and each CTU quantization unit corresponding thereto A CTU delta QP index for each block is determined (S1021).
  • the initial quantization parameter derivation unit 1310 may generate and update an initial quantization parameter list for each CTU quantization unit block by deriving an initial CTU QP value based on the CTU delta QP index for each CTU quantization unit block (S1023). have.
  • the characteristic adaptive quantization parameter determiner 1320 selectively updates and adapts a process for quantization parameter values corresponding to each CTU quantization group unit block and processes according to the image characteristics. It is possible to determine the quantization parameter accordingly, and it can be determined for each CTU quantization group unit block.
  • the characteristic adaptive quantization parameter determiner 1320 may set a quantization step size (QP STEP SIZE) and a quantization range (QP RANGE) for each CTU quantization group unit according to the determined process.
  • QP STEP SIZE quantization step size
  • QP RANGE quantization range
  • the characteristic adaptive quantization parameter determining unit 1320 sets the quantization step size (QP STEP SIZE) and quantization range (QP RANGE) for each CTU quantization group unit corresponding to the initial quantization parameter determined by the initial quantization parameter derivation unit 1310. By setting, it is possible to determine the final quantization parameter corresponding to this.
  • the determined quantization parameter value may be transmitted to the group-level difference quantization parameter derivation unit 1330.
  • the characteristic adaptive quantization parameter determiner 1320 illustrates the characteristic adaptive quantization parameter determiner 1320 in more detail.
  • the characteristic adaptive quantization parameter determiner 1320, an image case-based quantization parameter derivation unit 1321, slices A selection adaptive quantization parameter determination process may be processed by including at least one of a type-based quantization parameter derivation unit 1323, a color sample-based quantization parameter derivation unit 1325, and a transform coefficient-based quantization parameter derivation unit 1327.
  • the image case-based quantization parameter derivation unit 1321 may determine a process for deriving quantization parameters for each case according to input image characteristics. Depending on the derivation process, the quantization step size and QP range can be determined for each case.
  • CASE 2 When the input image is a multi-view image or multiple images for each synchronized area are merged into one input image; EX) VR video such as Cube Map / ERP
  • CASE 3 When a single picture is divided into a plurality of input video segmentation units by slice / tile / region, etc .;
  • the image case-based quantization parameter derivation unit 1321 determines different quantization step sizes and QP ranges for Case 2 and Case 3 for each subregion REGION corresponding to a user's viewpoint in each division unit or a picture division unit. It can be processed to apply the Initial QP and update accordingly.
  • the image case-based quantization parameter derivation unit 1321 in applying the initial QP, determines different quantization step sizes and QP ranges for each CTU quantization group unit in the slice initial QP value, and thus delta QP By processing to be applied, various offset values corresponding to regions divided in one input image may be processed.
  • the image case-based quantization parameter derivation unit 1321 may store delta QPs corresponding to each split unit image as a list corresponding to CTU quantization group units. And, the delta QPs can be matched to the offset in the list, and index values are assigned for each offset, which can be used to distinguish each other.
  • the image case-based quantization parameter derivation unit 1321 derives the offset value as a delta value for adjusting the initial QP in the slice, or the CTU quantization group unit.
  • the corresponding delta QP (CTU_dQP) value can be derived directly. Accordingly, the image case-based quantization parameter derivation unit 1321 may process different quantization step sizes and QP ranges between units of each CTU quantization group, even if they are within one picture, and calculate an Initial QP value.
  • the image case-based quantization parameter derivation unit 1321 determines the CTU quantization group unit for adjusting the initial quantization parameter value based on the image case, and the quantization step size and QP range are determined for each group, and separately The delta QP value can be processed to be updated as an offset value.
  • the video case-based quantization parameter deriving unit 1321 configures an initial QP list for each CTU quantization group unit that can be applied for each CTU based on each video characteristic case, and each delta QP corresponding to the index of the list. You can handle the process of deriving the offset value.
  • the image case-based quantization parameter derivation unit 1321 may set in advance the quantization step size and QP range and the number and size of QPs of the corresponding CTU quantization group unit or CTU_Initial_QP_List using slice header information or picture header information. .
  • the video case-based quantization parameter derivation unit 1321 may include video header information of a video parameter set (VPS), sequence parameter set (SPS), or a type of video encoded from a separate SEI message and a projection format. Alternatively, it is possible to derive flag information or the like that can identify it.
  • the encoded image may be determined using the corresponding encoding information, and an initial quantization parameter according to a picture division unit (eg, a sub picture or a CTU group unit) may be set.
  • a picture division unit eg, a sub picture or a CTU group unit
  • the initial QP information of the header information set as described above may be inserted into, for example, a PPS or a sequence parameter set (SPS), and the characteristic adaptive quantization parameter determination unit 1320 is included in the PPS or SPS as described above.
  • SPS sequence parameter set
  • the encoding parameter may include information on an encoding region (picture division region, picture division boundary, tile boundary, slice boundary, lower picture region and boundary) divided within one picture.
  • the image case-based quantization parameter derivation unit 1321 corresponds to the Initial QP List set in the initial quantization parameter derivation unit 1310 to adjust the initial QP between the divided regions, and divides it by adjusting the offset value for each index of the list Initial QP for each CTU quantization group unit in a region may be adjusted.
  • the image case-based quantization parameter derivation unit 1321 sets the maximum size of the Initial QP List, or according to a predefined Default value or Defined value between the encoding device 100 and the decoding device 200, to the initial QP list. Corresponding QP list update processing can be performed.
  • the slice type-based quantization parameter deriving unit 1323 may apply the quantization parameter differently according to the slice type to which the CTU quantization group unit belongs.
  • the slice type may be an I / B / P type slice, and prediction and transform results may be differently generated according to the slice type.
  • the slice type-based quantization parameter derivation unit 1323 adaptively determines different quantization parameters corresponding to slice type-based prediction and transformation results for each CTU quantization unit block, from a cognitive quality point of view. Can improve the coding efficiency.
  • the slice type-based quantization parameter derivation unit 1323 first determines the set value (quantization step size and QP range) of the quantization parameter and performs the quantization process accordingly, firstly slices the CTU quantization unit block. Judge.
  • the slice type-based quantization parameter derivation unit 1323 in the case of I Slice, the allowable prediction in the slice may be limited to intra-prediction, so a predefined quantization step size and QP range corresponding to the intra-prediction process Can decide.
  • uni-directional prediction may be allowed in intra-screen prediction and inter-screen prediction, and a predefined quantization step size and QP range are determined in response to the intra-screen prediction process and uni-directional prediction of inter-screen prediction. You can.
  • a prediction method may be limited, and this may affect an RDO process for determining a block partitioning structure. Therefore, the slice type based quantization parameter derivation unit 1323 according to an embodiment of the present invention, Coding and decoding efficiency can be improved by subdividing and determining an efficient quantization step size and QP range corresponding to each CTU quantization unit block.
  • the residual signal by the prediction is the input of the transform (Transform) process, it may affect the transform function mode and transform coefficients.
  • FIG. 25 shows a QP range table for determining the quantization step size and QP range for each slice type.
  • the slice type based quantization parameter derivation unit 1323 may selectively adaptively adjust the QP Range corresponding to the slice type based on the QP range table.
  • the selective adaptive QP adjustment information may be indicated in header information as a separate flag, or may be transmitted from the encoding device 100 to the decoding device 200 through separate signaling information.
  • the QP adjustment flag or signaling information may be 0 (False), and in this case, the quantization unit 130 processes a quantization process according to a fixed QP range, based on a fixed base QP It is possible to determine the applied QP for the picture and slice.
  • the slice type-based quantization parameter derivation unit 1323 determines a selective adaptive QP range based on a table and determines a corresponding base QP. By determining, the QP range corresponding to each slice and picture may be selectively adaptively determined for each CTU quantization block.
  • the slice type-based quantization parameter derivation unit 1323 may determine the minimum QP and the maximum QP corresponding to the slice or picture type in order to selectively adaptively calculate the QP value. Then, the slice type-based quantization parameter derivation unit 1323 calculates detailed QP values for each CTU quantization group unit based on the obtained CTU quantization group unit offset value and the minimum base QP value determined for each slice. You can.
  • the slice type-based quantization parameter derivation unit 1323 may perform a hierarchical QP range adjustment of a temporal layer of a picture to which the slice belongs.
  • a slice according to an embodiment of the present invention may be classified into hierarchical slices (B Slice0 to B Slice4) corresponding to a temporal layer of each picture.
  • the slice type-based quantization parameter derivation unit 1323 may adjust each detailed QP Range according to the classified layer information corresponding to each temporal layer, and may determine the BASE QP and QP values accordingly.
  • the slice type-based quantization parameter derivation unit 1323 may adaptively and efficiently determine a quantization parameter value according to characteristic information of an image corresponding to the slice type.
  • the slice type-based quantization parameter derivation unit 1323 may adaptively determine at least one of the range, step size, and QP value of the quantization parameter according to the slice type and image resolution. From the perspective of cognitive quality, as a region that can be recognized by a person varies according to the resolution (HD / FHD / 2K / 4K / 8K, etc.) of the image, the slice type-based quantization parameter derivation unit 1323 determines the specific image resolution. This is to allow the QP value to be adjusted by using as a reference point.
  • the slice type-based quantization parameter derivation unit 1323 may define a QP Resolution operation so that it can be applied according to a resolution, which may include an operation in which QP parameters corresponding to an arbitrary resolution are calculated.
  • the slice type-based quantization parameter derivation unit 1323 may selectively adaptively determine the QP of the slice to be encoded or decoded according to the resolution-based QP parameter calculated by the QP resolution operation.
  • the slice type based quantization parameter derivation unit 1323 may derive an individual QP value corresponding to an HDR image or a 360 VR image among image characteristics corresponding to the slice type. have.
  • the slice type-based quantization parameter derivation unit 1323 when the block to be determined QP is a block of an HDR image, the slice type-based quantization parameter derivation unit 1323 corresponds to a block of an image region in which the luminance range is significantly changed, and a relatively high QP Can be applied.
  • the slice type-based quantization parameter derivation unit 1323 obtains a separately designated QP offset value for the illumination adaptive deblocking filter for the QP determination target block from header information, and the QP determination target block is applied by HDR or the like.
  • the luminance range level is greater than a predetermined value
  • illuminance adaptive deblocking filtering based on the separately designated QP offset value may be performed. Accordingly, adaptive deblocking filtering for a block of an image region having a large change in the luminance range is selectively adaptively performed, thereby improving subjective image quality.
  • the slice type-based quantization parameter derivation unit 1323 identifies a region and a region of interest (ROI) of the image when the QP determination target block is a block of a VR 360 image for virtual reality, and the region of interest is identified in the identified region of interest. It is also possible to set a relatively high QP for the corresponding block.
  • ROI region of interest
  • the color sample-based quantization parameter deriving unit 1325 may derive a selective adaptive QP value according to the color sample.
  • the color sample-based quantization parameter derivation unit 1325 may calculate the QP value of a chroma color component sample using the QP value of the luminance color component sample.
  • the color sample-based quantization parameter derivation unit 1325 may conditionally determine the QP value of the saturation color sample based on the QP value of the illuminance color sample.
  • the determination condition i) when a separate block structure is formed between the illuminance sample and the color difference sample matching it, ii) a separate block tree is constructed between the illuminance sample and the color difference sample matching it, and has different block partitioning trees.
  • various conditions such as the case where the block division characteristics (division direction, division depth, block size, etc.) of the illuminance color sample have a predetermined value may be exemplified.
  • the color sample-based quantization parameter derivation unit 1325 is configured when i) a separate block structure between an illuminance sample and a color difference sample matching it, ii) a separate block tree between an illuminance sample and a color difference sample matching it. Therefore, in case of having different block partitioning trees, iii) for each color condition of the saturation color sample, such as the case where the block partitioning characteristics (division direction, division depth, block size, etc.) of the illuminance color sample have a predetermined value. Whether to derive QP values and quantization offset parameters for deriving QP values may be selectively adaptively determined.
  • the color sample-based quantization parameter derivation unit 1325 determines the QP value derivation function of the saturation color sample differently according to the block division characteristics (division direction, division depth, block size, block tree structure, etc.) of the illuminance color sample.
  • a selective adaptive QP decision can be processed.
  • the adaptive QP decision process according to an embodiment of the present invention can be illustrated as follows.
  • Chroma_QP Luma_QP-Diff_Offset
  • Diff_Offset min (MaxDiff_ChromaQP, LumaQP-Chroma_QP); To deal with.
  • the QP parameter applied to the Chroma Sample can be determined using an offset (Diff_Offset) value defined separately from Luma QP.
  • the Luma QP is a difference value corresponding to an initial QP calculated in advance from header information and block information, and can be calculated from delta QP obtained from header information or block information. Accordingly, when a separate block structure or block tree between the illuminance sample and a color difference sample matching it is configured in dual, Luma QP may be obtained from header information or block information of a block structure or block tree corresponding to illuminance.
  • the offset may be derived from QP Offset (MaxDiff_ChromaQP) transmitted from the encoding device 100.
  • the offset may be a smaller or larger value among the difference values between LumaQP and ChromaQP derived in advance.
  • the QP offset may be transmitted as header information signaled from the encoding apparatus 100 according to each condition or block information corresponding to a coding unit or a transformation unit.
  • the color sample-based quantization parameter derivation unit 1325 is composed of a separate block structure between the i) illuminance sample and the color difference sample matching it, ii) a separate block tree between the illuminance sample and the color difference sample matching it, In a DUAL Tree case or the like having a different block partitioning tree, a QP offset value as a Chroma QP parameter for each unit for individually deriving QPs corresponding to quantization units of a color difference sample tree from LumaQPs from signaling information or decoding target block information Accordingly, the color sample-based quantization parameter derivation unit 1325 may derive the QP of the color difference sample from the Luma QP using the determined Chroma QP parameter.
  • QP offset information for Chroma QP parameter calculation may be derived from high-level syntax of header information such as PPS or SPS, or may be obtained from block information such as a coding unit and a transformation unit.
  • the Chroma QP parameter calculation The QP offset information for can be configured in a list form corresponding to a quantization unit, and QP values for each color difference sample corresponding to each coding unit or transformation unit are pre-computed Luma QP values and QPs obtained from the list It can be calculated and determined based on the offset information.
  • the list may be derived from high level syntax of header information such as PPS or SPS as described above, or may be obtained from block information such as a coding unit and a transformation unit.
  • the transform coefficient-based quantization parameter derivation unit 1327 may process an adaptive quantization parameter determination process in consideration of transform coefficients and encoding characteristics in response to a CTU quantization unit block.
  • the transform coefficient may be leveled, and the quantization unit 130 may include a plurality of quantizers for each level (not shown). Such a plurality of quantizers may be mapped to each level, and accordingly, quantization processing for each transform level may be performed in each quantizer. Pre-defined step sizes and coefficient levels for each quantizer may be mapped, and accordingly, a scalar-based scaled quantization process may be processed for each transform coefficient level.
  • the transform coefficient-based quantization parameter deriving unit 1327 corresponds to at least one of the level of each transform coefficient, encoding characteristic information, and image characteristic information. Selective adaptive quantization parameter derivation can be handled.
  • the encoding characteristic information may include spatial layer information of a picture, slice type information, encoding layer information including an enhancement layer or a base layer, and the like.
  • HDR image information As the characteristic information of the input image, HDR image information, 360 VR image information, image information requesting high image quality of a partial region, or image resolution information may be exemplified.
  • two or three quantizers that provide level-based quantization processing of transform coefficients may be exemplified.
  • the first quantizer (BaseQ) that processes the base quantization parameter and a second quantizer (EnhancementQ) that processes the enhanced quantization parameter
  • the base may be composed of a first quantizer corresponding to (BASEQ), a second quantizer corresponding to uplink (HIGHQ) and a third quantizer corresponding to downlink (LOWQ).
  • the transform coefficient-based quantization parameter derivation unit 1327 may select information of each quantizer, quantization step size, and size according to characteristics of encoding information and image information.
  • the QP range can be determined.
  • the transform coefficient-based quantization parameter derivation unit 1327 may determine separate quantization step sizes and ranges using only an uplink quantizer (HighQ) and a base quantizer (baseQ), and correspond to the same. Can induce QP.
  • HighQ uplink quantizer
  • baseQ base quantizer
  • the transform coefficient-based quantization parameter derivation unit 1327 selects a base quantizer (BaseQ) or a down-quantizer (LowQ) corresponding to the resolution information in the case of a general image, and processes the QP value corresponding thereto to be derived. You can.
  • BaseQ base quantizer
  • LowQ down-quantizer
  • quantization processing using each quantizer includes a group-by-group difference quantization parameter derivation unit 1330 and a coding block unit adaptive quantization parameter application unit ( 1340).
  • the quantization unit 130 may perform level classification processing based on a transform coefficient value for a transform block.
  • the transform coefficient-based quantization parameter derivation unit 1327 may determine at least one of a plurality of quantizers to process quantization based on the processed level classification, image characteristic information, and encoding characteristic information.
  • the encoding characteristic information may include at least one of block structure information, block division information, division depth information, division direction information, or color difference component information.
  • at least one of the plurality of quantizers may be at least one of the above-described two or three quantizers.
  • the transform coefficient-based quantization parameter derivation unit 1327 may process QP values to be selectively adaptively determined by applying different quantization step sizes according to configuration and selection information of each quantizer.
  • 26 is a view showing in more detail the operation of the quantization unit 130 thus processed.
  • the quantization unit 130 derives an initial quantization parameter and an initial quantization parameter list through the initial quantization parameter derivation unit 1310 (S2001).
  • the quantization unit 130 determines a characteristic adaptive quantization parameter through the characteristic adaptive quantization parameter determination unit 1320 (S2003).
  • the characteristic adaptive quantization parameter determining unit 1320 includes the above-described image case-based quantization parameter derivation unit 1321, slice type-based quantization parameter derivation unit 1323, color sample-based quantization parameter derivation unit 1325, and transform coefficient-based quantization.
  • a quantization parameter corresponding to the initial quantization parameter list may be selectively adaptively determined for each CTU quantization unit block by using at least one of the parameter derivation units 1327.
  • the quantization unit 130 through the group unit difference quantization parameter derivation unit 1330, performs quantization processing, and then corresponds to the quantization parameters configured and updated by the list, and sets the difference quantization parameters for each CTU quantization unit block.
  • Derivation (S2005), and adaptive quantization parameters in units of coding blocks are applied accordingly (S2007), so that selective adaptive quantization for each block is processed (S2009).
  • the decoding device 200 can also process in the reverse order. That is, the inverse quantization unit 220 may selectively adaptively determine an inverse quantization parameter for inverse quantization processing of the target block, based on the quantization group unit information of the target block, and subsequent processing is described above. The same or similar treatment as the bar.
  • FIGS. 27 to 29 are diagrams illustrating high-level syntax information signaled for the operation of the quantization unit 130 according to an embodiment of the present invention.
  • FIG. 27 illustrates PPS syntax.
  • DIFF_CU_QP_DELTA_DEPTH information and QP offset information for each color difference are signaled as differential information for adaptively determining QP for each CTU quantization unit block through PPS. Can be illustrated.
  • FIG. 28 illustrates a range extension syntax of PPS.
  • Adaptive_Group_QP_list_flag indicating whether adaptive quantization group unit list processing is applied through the range extension syntax of PPS may be signaled, and each corresponding thereto It may be exemplified that offset and index information of the list and offset depth information (DIFF_CU_CHROMA_QP_OFFSET_DEPTH) corresponding to the differential color difference QP are signaled.
  • FIG. 29 illustrates slice header syntax according to an embodiment of the present invention.
  • color difference QP offset information and GROUP_QP_LIST [i] for processing each adaptive quantization group unit list are defined, and the slice QP value It may be indicated that this can be applied adaptively.
  • syntax information is exemplified for an embodiment of the present invention, and it is obvious that the expressions or terms may be modified.
  • FIGS. 30 to 33 are diagrams for explaining a case in which a QP parameter is adaptively determined when a picture according to an embodiment of the present invention is divided into a plurality of input image segmentation units.
  • the image division unit may not only be determined corresponding to each coding unit, but also a sub-picture (Sub) that divides one picture separately from the detailed coding unit (Sub picture) unit.
  • the sub-picture may correspond to a region corresponding to a specific viewpoint in a VR image, etc., and one picture may be composed of a plurality of sub-pictures.
  • separate signaling information corresponding to the sub-pictures may be transmitted from the encoding device 100 to the decoding device 200.
  • 30 is an exemplary syntax diagram of subpicture signaling information inserted into header information as such signaling information.
  • sub-picture signaling information includes the total number of sub-pictures (Total_subpics_nums), sub-picture width information (SubPic_Width), and sub-picture height information (SubPic_Height), It may include at least one of sub-picture horizontal split information (Subpic_Hor_split_flag) and sub-picture identification information (Subpic_ID), and further, whether to use information as a picture flag of the sub-picture and whether to allow loop filtering between sub-pictures may be further included. .
  • the entire picture may be divided into a plurality of sub-pictures, and sub-picture indices (SubPic [0] [0] to SubPic [2] [2) corresponding to each sub-picture. ]).
  • subpicture IDs (0 to N) may be assigned to each subpicture.
  • the signaling information may include picture width and height information corresponding to each sub-picture identifier and sub-picture index.
  • sub picture identifier may be included in header information such as SPS or PPS or an SEI message.
  • the sub picture ID may include initial sub picture ID information of the first coded picture in the sequence.
  • the decoding apparatus 200 may identify a specific picture and identify and update IDs of subpictures in the specific picture based on the subpicture ID information received through the SEI message. Accordingly, the subpicture ID in the sequence can be stored and updated.
  • the SEI message may be replaced with encoded header information such as PPS or slice header. Accordingly, the decoding apparatus 200 may update the identifier information of the subpicture in the picture using the PPS or slice header.
  • sub-picture identifier may be variably changed.
  • separate sub-picture Grid information, Index information, or Offset information for indicating the variable may be signaled as sub-picture identifier variable information.
  • the decoding apparatus 200 may determine the location and size of the sub-pictures in the picture based on the signaled sub-picture identifier variable information. IDs of sub-pictures corresponding to sub-pictures having the same size may be flexibly allocated and updated according to the progress of a picture sequence.
  • a sub-picture split flag indicating this may be designated and included in signaling information.
  • width information and height information of the subpicture are respectively designated and may be included in signaling information.
  • the sub-picture signaling information may be transmitted by being included in header information of a video bitstream such as Sequence Parameter Set (SPS) and Picture Parameter Set (PPS).
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • Total_subpics_nums may be sub-picture signaling information transmitted on the SPS, and may indicate the total number of sub-pictures (or sub-pictures) divided within each picture.
  • Subpic_ID may indicate a unique ID assigned to each subpicture.
  • unique identification information may be allocated and signaled to the sub-picture, and basically, a sub-picture ID may be allocated in Z-Scan order from the top-left to the right bottom of the picture.
  • sub-picture identification information may be transmitted in the form of a list or a table.
  • the decoding apparatus 200 may set an index based on the total number of sub-pictures, and sequentially allocate IDs of sub-pictures to the index according to a predefined order.
  • the sub-picture ID may indicate attributes of a sub-picture, and may be used as identification information (ID) for selecting a parameter set to be applied in response to a sub-picture, unlike index information corresponding to each position.
  • ID identification information
  • the sub-picture ID allocated to the sub-picture may be mapped or corresponded to the slice ID of the slice header.
  • the index or grid information corresponding to the sub picture ID may indicate the structure and size information of each sub picture, or may be used as fixed location information for slice decoding.
  • the decoding apparatus 200 may selectively adaptively derive and determine various encoding information (reference picture list information, selective adaptive QP allocation, NAL UNIT TYPE, and SLICE TYPE) using ID information of the subpicture.
  • various encoding information reference picture list information, selective adaptive QP allocation, NAL UNIT TYPE, and SLICE TYPE
  • the decoding apparatus 200 determines the QP offset corresponding to the sub-picture ID, changes the Scanning Order, or refers to a separate optional adaptive parameter set to initialize parameters for each sub-picture.
  • Subpicture id information may be used to determine the QP value.
  • a separate parameter set corresponding to the sub picture ID may be referenced.
  • the parameter set may be a picture parameter set or a separately selected adaptive parameter set, and the sub picture id may be configured to be included in the sequence parameter set and mapped to each other parameter set.
  • the decoding apparatus 200 may decode the size and structure information of each subpicture using Total_subpics_nums and Subpic_Width and Subpic_Height from the subpicture signaling information.
  • the decoding apparatus 200 may determine the structure and size information of the subpicture by using the width and height information of the pre-decoded picture and the subpic_width and subpic_height obtained previously. .
  • the decoding apparatus 200 may determine size information of a subpicture located in a right boundary of a picture through a separate operation.
  • the decoding apparatus 200 divides the entire picture width (Picture width) by the sub-picture width (Subpic width) or performs a difference operation, but when the remaining value within a certain size occurs, the sub located at the right boundary of the picture
  • the width of the picture (Subpicture_Width) may be derived from the remaining values.
  • Subpic_Hor_split_flag may be signaled when the height or width of the current sub-picture is smaller than the sub-picture of the upper left (Left-Top), and may include segmentation information including a segmentation ratio, segmentation direction, or segmentation size.
  • sub-pictures obtained by subpic_Hor_split_flag are sub-pictures whose height is horizontally divided according to a height corresponding to a sub-picture of a left-top.
  • the divided subpicture list may be included in the signaling information and transmitted, for example, the entire substructure information of the subpicture may be derived according to index and offset information for each subpicture.
  • the decoding apparatus 200 uses the remaining information (total number of sub pictures, split flag information, etc.) to more accurate sub picture for each index. You can derive the size and position of the.
  • FIG. 33 is a diagram for explaining a process of changing a subpicture id that is variable according to an embodiment of the present invention.
  • a unique ID may be assigned to each sub-picture, and for example, a sub-picture ID within a specific sequence unit may be variable.
  • the Subpic_ID corresponding to the subpicture may be variably determined based on separate signaling information.
  • the sub picture identification information may be mapped to a parameter set to be referenced in order to determine a QP value for the sub picture.
  • a parameter set to be referred to for determining the QP value for each sub picture may also be changed. For example, when the main view to be viewed by the user changes in the VR image, for example, the decoding apparatus 200 changes the current sub-picture identification information to sub-picture identification information for the main view, thereby referring to a parameter for reference to determine the QP value You can change the set.
  • the method according to the present invention described above is produced as a program to be executed on a computer and can be stored in a computer-readable recording medium.
  • the computer-readable recording medium include ROM, RAM, CD-ROM, and magnetic tape. , Floppy disks, optical data storage devices, and the like, and also implemented in the form of a carrier wave (for example, transmission via the Internet).
  • the computer-readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the technical field to which the present invention pertains.

Abstract

An image processing method according to an embodiment of the present invention comprises the steps of: dividing a picture of an image into a plurality of coding units each of which is a basic unit for which inter prediction or intra prediction is performed, and dividing the picture or each of the divided coding units in a quad tree, a binary tree, or a ternary tree structure to determine a target block for decoding the coding unit; and selectively and adaptively determining a quantization parameter for processing quantization of the target block on the basis of coding tree unit-based quantization group unit information including the target block.

Description

그룹 단위 양자화 파라미터를 처리하는 영상 복호화 및 부호화 방법Image decoding and encoding method for processing group-level quantization parameters
본 발명은 영상 부호화 및 복호화에 관한 것으로, 더욱 상세하게는 동영상 픽쳐(picture)를 복수의 블록(block)들로 분할하여 예측 및 양자화를 수행하는 방법에 관한 것이다.The present invention relates to video encoding and decoding, and more particularly, to a method of performing prediction and quantization by dividing a video picture into a plurality of blocks.
영상 압축 방법에서는 하나의 픽처(picture)를 소정 크기를 가지는 복수의 블록(block)으로 구분하여 부호화를 수행한다. 또한, 압축 효율을 높이기 위해 픽쳐들 사이의 중복도를 제거하는 인터 예측(inter prediction) 및 인트라 예측(intra prediction) 기술을 이용한다.In the image compression method, one picture is divided into a plurality of blocks having a predetermined size, and encoding is performed. In addition, inter prediction and intra prediction techniques that remove redundancy between pictures are used to increase compression efficiency.
이 경우, 인트라 예측과 인터 예측을 이용하여 잔차 신호(residual signal)를 만들며, 잔차 신호를 구하는 이유는 잔차 신호를 가지고 코딩을 했을 때 데이터의 양이 작아서 데이터 압축률이 높아지고, 예측이 좋을수록 잔차 신호의 값이 작게 되기 때문이다.In this case, a residual signal is generated using intra prediction and inter prediction, and the reason for obtaining the residual signal is that when coding with the residual signal, the amount of data is small, so the data compression rate is high, and the better the prediction, the better the residual signal. This is because the value of.
인트라 예측 방법은 현재 블록의 주변의 픽셀을 이용하여 현재 블록의 데이터를 예측한다. 실제 값과 예측 값의 차이를 잔차 신호 블록이라고 한다. HEVC의 경우는 인트라 예측 방법이 기존 H.264/AVC에서 사용되던 9개의 예측모드에서 35개의 예측모드로 증가하여 더욱 세분화하여 예측을 한다.The intra prediction method predicts data of the current block using pixels around the current block. The difference between the actual value and the predicted value is called the residual signal block. In the case of HEVC, the intra prediction method increases from 9 prediction modes used in the existing H.264 / AVC to 35 prediction modes to further refine the prediction.
인터 예측 방법의 경우는 현재 블록을 주변의 픽쳐들 내의 블록들과 비교하여 가장 비슷한 블록을 찾는다. 이때 찾은 블록에 대한 위치정보(Vx, Vy)를 모션 벡터라고 한다. 현재블록과 모션 벡터에 의하여 예측된 예측블록간의 블록내 화소 값들의 차이를 잔차 신호(residual signal) 블록이라고 한다 (motion-compensated residual block).In the case of the inter prediction method, the current block is compared with blocks in neighboring pictures to find the most similar block. At this time, the location information (Vx, Vy) for the found block is called a motion vector. The difference of pixel values in a block between a current block and a prediction block predicted by a motion vector is called a residual signal block (motion-compensated residual block).
이와 같이 인트라 예측과 인터 예측이 더 세분화 되어 잔차 신호의 데이터 양이 줄어들고 있으나, 동영상의 처리를 위한 연산량은 크게 증가하였다.In this way, although intra prediction and inter prediction are further subdivided, the amount of data of the residual signal is decreasing, but the amount of computation for processing a video has increased significantly.
특히, 영상 부호화 및 복호화를 위한 픽쳐 내 분할 구조를 결정하는 과정에서의 복잡도 증가량으로 인해 파이프라인 구현 등에 있어서의 어려움이 존재하며, 기존의 블록 분할 방법 및 그에 따라 분할된 블록의 크기가 고해상도 영상의 부호화에는 적합하지 않을 수 있다.In particular, there are difficulties in implementing a pipeline due to an increase in complexity in the process of determining a split structure in a picture for image encoding and decoding, and the existing block splitting method and the size of the split block according to the existing block are high-resolution images. It may not be suitable for encoding.
또한, 360 VR 영상 등, 가상현실을 지원하기 위한 초고해상도 영상의 처리와 이에 수반한 다양한 분할 구조의 처리로 인해, 현재의 블록 구조에 따른 양자화 처리 프로세스는 비효율적일 수 있다.In addition, due to the processing of ultra-high resolution images to support virtual reality, such as 360 VR images, and the processing of various divided structures accompanying it, the quantization processing process according to the current block structure may be inefficient.
본 발명은 상기와 같은 과제를 해결하기 위한 것으로, 고해상도 영상의 부호화 및 복호화에 적합하며, 복잡화된 부호화 특성 변화에 따라, 보다 효율적인 양자화 프로세스를 처리하는 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법을 제공하는데 그 목적이 있다.The present invention is to solve the above problems, is suitable for encoding and decoding of high-resolution images, and the image processing method for processing a more efficient quantization process according to a complex encoding characteristic change, and an image decoding and encoding method using the same The purpose is to provide.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 복호화 방법은, 영상 복호화 방법에 있어서, 영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree), 이진 트리(binary tree) 또는 삼진 트리(ternery tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 대상 블록을 결정하는 단계; 및 상기 대상 블록의 그룹 양자화 정보에 기초하여, 상기 대상 블록의 양자화 프로세스에 따른 양자화 파라미터를 선택 적응적으로 결정하는 단계;를 포함한다.An image decoding method according to an embodiment of the present invention for solving the above problems, in the image decoding method, a picture is a plurality of basic units in which inter prediction or intra prediction is performed. Decoding the coding unit is divided into a coding unit (Coding Unit) of the picture or the divided coding unit into a quad tree (quad tree), binary tree (binary tree) or ternery tree (ternery tree) structure Determining a target block for; And selectively adaptively determining a quantization parameter according to the quantization process of the target block, based on the group quantization information of the target block.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 복호화 장치는, 영상 복호화 방법에 있어서, 영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree), 이진 트리(binary tree) 또는 삼진 트리(ternery tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 대상 블록을 결정하는 분할부; 및 상기 대상 블록의 그룹 양자화 정보에 기초하여, 상기 대상 블록의 양자화 프로세스에 따른 양자화 파라미터를 선택 적응적으로 결정하는 특성 적응적 양자화 파라미터 결정부;를 포함한다.In the image decoding apparatus according to an embodiment of the present invention for solving the above problems, in the image decoding method, a plurality of pictures are basic units in which inter prediction or intra prediction is performed. Decoding the coding unit is divided into a coding unit (Coding Unit) of the picture or the divided coding unit into a quad tree (quad tree), binary tree (binary tree) or ternery tree (ternery tree) structure A dividing unit for determining a target block for; And a characteristic adaptive quantization parameter determining unit selectively adaptively determining a quantization parameter according to the quantization process of the target block, based on the group quantization information of the target block.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 부호화 방법은, 영상 부호화 방법에 있어서, 영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree), 이진 트리(binary tree) 또는 삼진 트리(ternery tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 대상 블록을 결정하는 단계; 및 상기 대상 블록의 그룹 양자화 정보에 기초하여, 상기 대상 블록의 양자화 프로세스에 따른 양자화 파라미터를 선택 적응적으로 결정하는 단계;를 포함한다.In the video encoding method according to an embodiment of the present invention for solving the above problems, in the video encoding method, a plurality of pictures are basic units in which inter prediction or intra prediction is performed. Decoding the coding unit is divided into a coding unit (Coding Unit) of the picture or the divided coding unit into a quad tree (quad tree), binary tree (binary tree) or ternery tree (ternery tree) structure Determining a target block for; And selectively adaptively determining a quantization parameter according to the quantization process of the target block, based on the group quantization information of the target block.
본 발명의 실시예에 따르면, 인터 예측 또는 인트라 예측이 수행되는 기본 단위인 코딩 유닛을 쿼드 트리, 이진 트리 및 삼진 트리를 포함하는 복합 트리 구조로 분할할 수 있으며, 대상 블록의 상기 대상 블록의 그룹 양자화 정보에 기초하여, 상기 대상 블록의 양자화 프로세스에 따른 양자화 파라미터를 선택 적응적으로 결정함으로써, 다변화된 블록 형태에 대응한 양자화 효율을 향상시킬 수 있고, 고해상도 영상에 대한 코딩 효율을 향상시킬 수 있다.According to an embodiment of the present invention, a coding unit, which is a basic unit in which inter prediction or intra prediction is performed, may be divided into a composite tree structure including a quad tree, a binary tree, and a ternary tree, and the target block group of the target block By selectively adaptively determining a quantization parameter according to the quantization process of the target block based on quantization information, quantization efficiency corresponding to a diversified block shape can be improved, and coding efficiency for a high-resolution image can be improved. .
또한, 본 발명의 실시예에 따르면, 영상의 세분화된 특성 정보를 이용하여 양자화 파라미터의 유도 프로세스 및 이에 따라 유도된 양자화 파라미터를 선택 적응적으로 결정하므로, 다변화된 블록 형태에 대응한 움직임 보상 효율과 필터링 효과를 향상시킬 수 있고, 고해상도 영상에 대한 코딩 효율을 향상시킬 수 있다.In addition, according to an embodiment of the present invention, since the derivation process of the quantization parameter and the quantization parameter derived therefrom are selectively adaptively determined using the detailed characteristic information of the image, the motion compensation efficiency corresponding to the diversified block form and The filtering effect can be improved, and coding efficiency for a high resolution image can be improved.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of an image encoding apparatus according to an embodiment of the present invention.
도 2 내지 도 5는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제1 실시예를 설명하기 위한 도면이다.2 to 5 are diagrams for describing a first embodiment of a method of dividing and processing an image in block units.
도 6은 영상 부호화 장치에서 인터 예측을 수행하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.6 is a block diagram illustrating an embodiment of a method for performing inter prediction in an image encoding apparatus.
도 7은 본 발명의 일실시예에 따른 영상 복호화 장치의 구성을 나타내는 블록도이다.7 is a block diagram showing the configuration of an image decoding apparatus according to an embodiment of the present invention.
도 8은 영상 복호화 장치에서 인터 예측을 수행하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.8 is a block diagram illustrating an embodiment of a method of performing inter prediction in an image decoding apparatus.
도 9는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제2 실시예를 설명하기 위한 도면이다.9 is a view for explaining a second embodiment of a method of dividing and processing an image in block units.
도 10은 영상을 블록 단위로 분할하여 처리하기 위해 사용되는 신택스(syntax) 구조에 대한 일실시예를 나타내는 도면이다.10 is a diagram illustrating an embodiment of a syntax structure used to process an image by dividing it into blocks.
도 11은 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제3 실시예를 설명하기 위한 도면이다.11 is a diagram for describing a third embodiment of a method of dividing and processing an image in block units.
도 12는 코딩 유닛을 이진 트리 구조로 분할하여 변환 유닛을 구성하는 방법에 대한 일실시예를 설명하기 위한 도면이다.12 is a diagram for explaining an embodiment of a method of configuring a transformation unit by dividing a coding unit into a binary tree structure.
도 13은 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제4 실시예를 설명하기 위한 도면이다.13 is a view for explaining a fourth embodiment of a method of dividing and processing an image in block units.
도 14 내지 도 16은 영상을 블록 단위로 분할하여 처리하는 방법에 대한 또 다른 실시예들을 설명하기 위한 도면들이다.14 to 16 are diagrams for explaining other embodiments of a method of dividing and processing an image in block units.
도 17 및 도 18은 RDO(Rate distortion Optimization)를 수행하여 변환 유닛의 분할 구조를 결정하는 방법에 대한 실시예들을 설명하기 위한 도면들이다.17 and 18 are diagrams for explaining embodiments of a method of determining a split structure of a transform unit by performing rate distortion optimization (RDO).
도 19는 본 발명의 다른 일 실시 예에 따른 복합 분할 구조를 설명하기 위한 도면이다.19 is a view for explaining a composite partition structure according to another embodiment of the present invention.
도 20은 본 발명의 실시 예에 따른 양자화부를 보다 구체적으로 설명하기 위한 블록도이다.20 is a block diagram illustrating a quantization unit according to an embodiment of the present invention in more detail.
도 21은 본 발명의 실시 예에 따른 특성 적응적 양자화 파라미터 결정부를 보다 구체적으로 설명하기 위한 도면이다.21 is a diagram for explaining a characteristic adaptive quantization parameter determiner according to an embodiment of the present invention in more detail.
도 22는 본 발명의 실시 예에 따른 CTU 그룹 단위에 대응하는 초기 양자화 파라미터의 결정 프로세스를 설명하기 위한 흐름도이다.22 is a flowchart illustrating a process of determining an initial quantization parameter corresponding to a CTU group unit according to an embodiment of the present invention.
도 23은 본 발명의 실시 예에 따른 그룹 양자화 단위별로 초기 양자화 파라미터가 결정되는 것을 설명하기 위한 도면이다.23 is a view for explaining that an initial quantization parameter is determined for each group quantization unit according to an embodiment of the present invention.
도 24는 본 발명의 실시 예에 따른 역양자화를 처리하는 복호화 방법을 설명하기 위한 흐름도이다.24 is a flowchart illustrating a decoding method for processing inverse quantization according to an embodiment of the present invention.
도 25는 본 발명의 실시 예에 따른 슬라이스 타입 기반 양자화 파라미터 유도를 설명하기 위한 도면이다.25 is a view for explaining slice type based quantization parameter derivation according to an embodiment of the present invention.
도 26은 본 발명의 실시 예에 따른 전체 프로세스를 설명하기 위한 흐름도이다.26 is a flowchart illustrating an entire process according to an embodiment of the present invention.
도 27 내지 도 29는 본 발명의 실시 예에 따른 하이 레벨 신택스를 설명하기 위한 도면들이다.27 to 29 are diagrams for explaining a high level syntax according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In describing the embodiments of the present specification, when it is determined that detailed descriptions of related known configurations or functions may obscure the subject matter of the present specification, detailed descriptions thereof will be omitted.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. When a component is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. In addition, the description of "including" a specific configuration in the present invention does not exclude configurations other than the configuration, and means that additional configurations may be included in the scope of the present invention or the technical spirit of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to indicate different characteristic functions, and do not mean that each component is composed of separate hardware or one software component. That is, for convenience of description, each component is listed and included as each component, and at least two components of each component are combined to form one component, or one component is divided into a plurality of components to perform functions. The integrated and separated embodiments of the components are also included in the scope of the present invention without departing from the essence of the present invention.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.Also, some of the components are not essential components for performing essential functions in the present invention, but may be optional components for improving performance. The present invention can be implemented by including only components necessary for realizing the essence of the present invention, except for components used for performance improvement, and structures including only essential components excluding optional components used for performance improvement. Also included in the scope of the present invention.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치의 구성을 블록도로 도시한 것으로, 영상 부호화 장치(10)는 픽쳐 분할부(110), 변환부(120), 양자화부(130), 스캐닝부(131), 엔트로피 부호화부(140), 인트라 예측부(150), 인터 예측부(160), 역양자화부(135), 역변환부(125), 후처리부(170), 픽쳐 저장부(180), 감산부(190) 및 가산부(195)를 포함한다.1 is a block diagram showing the configuration of an image encoding apparatus according to an embodiment of the present invention. The image encoding apparatus 10 includes a picture splitter 110, a transform unit 120, a quantization unit 130, and scanning. The unit 131, the entropy encoding unit 140, the intra prediction unit 150, the inter prediction unit 160, the inverse quantization unit 135, the inverse transform unit 125, the post-processing unit 170, the picture storage unit 180 ), A subtracting unit 190 and an adding unit 195.
도 1을 참조하면, 픽쳐 분할부(110)는 입력되는 비디오 신호를 분석하여 픽쳐를 코딩 유닛으로 분할하여 예측 모드를 결정하고, 상기 코딩 유닛별로 예측 유닛의 크기를 결정한다.Referring to FIG. 1, the picture splitter 110 analyzes an input video signal, divides a picture into coding units, determines a prediction mode, and determines the size of a prediction unit for each coding unit.
또한, 픽쳐 분할부(110)는 부호화할 예측 유닛을 예측 모드(또는 예측 방법)에 따라 인트라 예측부(150) 또는 인터 예측부(160)로 보낸다. 또한, 픽쳐 분할부(110)는 부호화할 예측 유닛을 감산부(190)로 보낸다.Also, the picture splitter 110 sends the prediction unit to be encoded to the intra prediction unit 150 or the inter prediction unit 160 according to a prediction mode (or prediction method). Also, the picture splitter 110 sends a prediction unit to be encoded to the subtractor 190.
여기서, 영상의 픽쳐(picture)는 복수의 브릭(brick), 타일(tile) 또는 슬라이스(slice)로 구성될 수 있고, 브릭, 타일 또는 슬라이스는 픽쳐를 분할하는 기본 단위인 복수의 코딩 트리 유닛(Coding Tree Unit: CTU)들로 분할될 수 있다.Here, a picture of an image may be composed of a plurality of bricks, tiles, or slices, and the bricks, tiles, or slices are a plurality of coding tree units, which are basic units for dividing a picture ( Coding Tree Unit (CTU).
따라서, 타일, 브릭 또는 슬라이스는 각각 본 발명의 실시 예에 따라 서술된 CTU 그룹 단위를 형성할 수 있다.Accordingly, each tile, brick, or slice may form a CTU group unit described according to an embodiment of the present invention.
예를 들어, 타일은 행과 열에 의해 정의되는 직사각형의 CTU 단위 분할 영역일 수 있으며, 브릭은 CTU 행 단위로 구성되는 직사각형 분할 영역일 수 있고, 특정 타일 내 포함되는 하위 구조일 수 있다. 또한, 슬라이스는 연속적으로 형성되는 정수 개의 브릭들로 구성될 수 있으며, 구성 정보는 하나의 네트워크 추상 레이어 유닛(NAL unit)에 독점적으로 포함될 수 있다. 여기서, 슬라이스는 하나 이상의 전체 타일을 포함할 수도 있으며, 하나의 타일 내 포함된 연속적인 브릭들만을 포함할 수도 있다.For example, the tile may be a rectangular CTU unit partition defined by rows and columns, and the brick may be a rectangular partition composed of CTU row units or a substructure included in a specific tile. Further, a slice may be composed of an integer number of bricks formed continuously, and configuration information may be exclusively included in one network abstraction layer unit (NAL unit). Here, the slice may include one or more entire tiles, or may include only consecutive bricks included in one tile.
예를 들어, 픽쳐 분할부(110)에 의해, 하나의 픽처는 CTU 행 그룹으로 구성되는 직사각형 영역들인 복수의 브릭들로 분할될 수 있으며, 픽처는 상기 브릭들을 포함하며 하나 이상의 세로열로 분할하는 타일로 분할되거나, 상기 브릭들을 포함하며 하나 이상의 가로열로 분할하는 타일로 분할되거나, 또는 상기 브릭들을 포함하며 하나 이상의 세로열 및 하나 이상의 가로열로 분할하는 타일들로 분할될 수도 있다. 픽처는 픽처 내 가로열 및 세로열의 길이를 기준으로 균등하게 동일한 크기의 타일들로 분할될 수도 있고, 상이한 크기들의 타일들로 분할될 수도 있다.For example, by the picture dividing unit 110, one picture may be divided into a plurality of bricks, which are rectangular regions of a CTU row group, and the picture includes the bricks and is divided into one or more columns. It may be divided into tiles, divided into tiles including the bricks and divided into one or more horizontal columns, or divided into tiles including the bricks and divided into one or more vertical columns and one or more horizontal columns. The picture may be equally divided into tiles of the same size based on the lengths of the horizontal and vertical columns in the picture, or may be divided into tiles of different sizes.
상기 코딩 트리 유닛은 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 하나 또는 2 이상의 코딩 유닛(Coding Unit: CU)들로 분할될 수 있다.The coding tree unit may be divided into one or two or more coding units (CUs), which are basic units in which inter prediction or intra prediction is performed.
코딩 유닛(CU)은 예측이 수행되는 기본 단위인 하나 또는 그 이상의 예측 유닛(Prediction unit: PU)들로 분할될 수 있다.The coding unit CU may be divided into one or more prediction units (PUs), which are basic units for which prediction is performed.
이 경우, 부호화 장치(10)는 상기 분할된 코딩 유닛(CU)들 각각에 대해 인터 예측과 인트라 예측 중 어느 하나를 예측 방법으로 결정하나, 각각의 예측 유닛(PU)에 대해 서로 다르게 예측 블록을 생성할 수 있다.In this case, the encoding apparatus 10 determines one of inter prediction and intra prediction for each of the divided coding units (CUs) as a prediction method, but differently predicts blocks for each prediction unit (PU). Can be created.
한편, 코딩 유닛(CU)은 잔차 블록(residual block)에 대한 변환이 수행되는 기본 단위인 하나 또는 2 이상의 변환 유닛(Transform Unit: TU)들로 분할될 수 있다.Meanwhile, the coding unit CU may be divided into one or two or more transform units (TUs), which are basic units for transforming a residual block.
이 경우, 픽쳐 분할부(110)는 상기와 같이 분할된 블록 단위(예를 들어, 예측 유닛(PU) 또는 변환 유닛(TU))로 영상 데이터를 감산부(190)에 전달할 수 있다.In this case, the picture division unit 110 may transmit the image data to the subtraction unit 190 in a block unit (eg, a prediction unit (PU) or a transformation unit (TU)) divided as described above.
도 2를 참조하면, 최대 256x256 픽셀 크기를 가지는 코딩 트리 유닛(CTU)는 쿼드 트리(quad tree) 구조로 분할되어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 분할될 수 있다.Referring to FIG. 2, a coding tree unit (CTU) having a maximum size of 256x256 pixels is divided into a quad tree structure, and may be divided into four coding units (CUs) having a square shape.
상기 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들은 각각 쿼드 트리 구조로 재 분할될 수 있으며, 상기와 같이 쿼드 트리 구조로 분할되는 코딩 유닛(CU)의 깊이(Depth)는 0부터 3 중 어느 하나의 정수 값을 가질 수 있다.Each of the four coding units (CUs) having the square shape may be re-divided into a quad tree structure, and the depth (Depth) of the coding unit (CU) divided into a quad tree structure may be 0 to 3 as described above. It can have one integer value.
코딩 유닛(CU)은 예측 모드에 따라 하나 또는 2 이상의 예측 유닛(PU)들로 분할될 수 있다.The coding unit CU may be divided into one or two or more prediction units PU according to a prediction mode.
인트라 예측 모드의 경우, 코딩 유닛(CU)의 크기가 2Nx2N 일 때, 예측 유닛(PU)은 도 3의 (a)에 도시된 2Nx2N 또는 도 3의 (b)에 도시된 NxN의 크기를 가질 수 있다.In the case of the intra prediction mode, when the size of the coding unit CU is 2Nx2N, the prediction unit PU may have the size of 2Nx2N shown in FIG. 3A or NxN shown in FIG. 3B. have.
한편, 인터 예측 모드의 경우, 코딩 유닛(CU)의 크기가 2Nx2N 일 때, 예측 유닛(PU)은 도 4의 (a)에 도시된 2Nx2N, 도 4의 (b)에 도시된 2NxN, 도 4의 (c)에 도시된 Nx2N, 도 4의 (d)에 도시된 NxN, 도 4의 (e)에 도시된 2NxnU, 도 4의 (f)에 도시된 2NxnD, 도 4의 (g)에 도시된 nLx2N 및 도 4의 (h)에 도시된 nRx2N 중 어느 하나의 크기를 가질 수 있다.On the other hand, in the case of the inter prediction mode, when the size of the coding unit CU is 2Nx2N, the prediction unit PU is 2Nx2N shown in FIG. 4A, 2NxN shown in FIG. 4B, and FIG. 4B Nx2N shown in (c), NxN shown in FIG. 4 (d), 2NxnU shown in FIG. 4 (e), 2NxnD shown in FIG. 4 (f), and shown in FIG. 4 (g) It may have a size of any one of nLx2N and nRx2N shown in Figure 4 (h).
도 5를 참조하면, 코딩 유닛(CU)는 쿼드 트리(quad tree) 구조로 분할되어, 정사각형의 형태를 가지는 4개의 변환 유닛(TU)들로 분할될 수 있다.Referring to FIG. 5, the coding unit (CU) is divided into a quad tree structure, and can be divided into four transform units (TUs) having a square shape.
상기 정사각형의 형태를 가지는 4개의 변환 유닛(TU)들은 각각 쿼드 트리 구조로 재 분할될 수 있으며, 상기와 같이 쿼드 트리 구조로 분할되는 변환 유닛(TU)의 깊이(Depth)는 0부터 3 중 어느 하나의 정수 값을 가질 수 있다.The four transform units (TUs) having the square shape may be re-divided into quad tree structures, and the depth (Depth) of the transform unit (TU) divided into quad tree structures may be 0 to 3 as described above. It can have one integer value.
여기서, 코딩 유닛(CU)이 인터 예측 모드인 경우, 해당 코딩 유닛(CU)으로부터 분할된 예측 유닛(PU)와 변환 유닛(TU)은 서로 독립적인 분할 구조를 가질 수 있다.Here, when the coding unit CU is in the inter prediction mode, the prediction unit PU and the transform unit TU split from the corresponding coding unit CU may have independent splitting structures.
코딩 유닛(CU)이 인트라 예측 모드인 경우, 해당 코딩 유닛(CU)으로부터 분할된 변환 유닛(TU)은 예측 유닛(PU)의 크기보다 클 수 없다.When the coding unit CU is an intra prediction mode, the transform unit TU divided from the coding unit CU cannot be larger than the size of the prediction unit PU.
또한, 상기와 같이 분할되는 변환 유닛(TU)은 최대 64x64 픽셀 크기를 가질 수 있다.In addition, the conversion unit (TU) divided as described above may have a maximum size of 64x64 pixels.
변환부(120)는 입력된 예측 유닛(PU)의 원본 블록과 인트라 예측부(150) 또는 인터 예측부(160)에서 생성된 예측 블록 사이의 잔차 신호인 잔차 블록을 변환하며, 상기 변환은 변환 유닛(TU)을 기본 단위로 하여 수행될 수 있다.The conversion unit 120 converts the residual block, which is a residual signal between the original block of the input prediction unit PU and the prediction block generated by the intra prediction unit 150 or the inter prediction unit 160, wherein the conversion is conversion The unit TU may be performed as a basic unit.
상기 변환 과정에서 예측 모드(intra or inter)에 따라 서로 다른 변환 매트릭스가 결정될 수 있으며, 인트라 예측의 잔차 신호는 인트라 예측 모드에 따라 방향성을 가지므로 인트라 예측 모드에 따라 적응적으로 변환 매트릭스가 결정될 수 있다.During the transformation process, different transformation matrices may be determined according to a prediction mode (intra or inter), and since the residual signal of intra prediction has directionality according to the intra prediction mode, the transformation matrix may be adaptively determined according to the intra prediction mode. have.
변환 단위는 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있으며, 예를 들어 인터 예측의 경우에는 미리 결정된 1개의 변환 매트릭스가 결정될 수 있다.The transformation unit may be transformed by two (horizontal, vertical) one-dimensional transformation matrices, for example, in the case of inter prediction, one predetermined transformation matrix may be determined.
한편, 인트라 예측의 경우, 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를 적용한다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를, 수평 방향으로는 DCT 기반의 정수 매트릭스를 적용할 수 있다.On the other hand, in the case of intra prediction, when the intra prediction mode is horizontal, since the probability of a residual block having directionality in the vertical direction increases, a DCT-based integer matrix is applied in the vertical direction, and DST-based or in the horizontal direction. Apply KLT-based integer matrix. When the intra prediction mode is vertical, a DST-based or KLT-based integer matrix may be applied in the vertical direction, and a DCT-based integer matrix may be applied in the horizontal direction.
또한, DC 모드의 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용할 수 있다.In addition, in the DC mode, a DCT-based integer matrix can be applied to both directions.
그리고, 인트라 예측의 경우, 변환 유닛(TU)의 크기에 기초하여 변환 매트릭스가 적응적으로 결정될 수도 있다.And, in the case of intra prediction, a transform matrix may be adaptively determined based on the size of the transform unit (TU).
양자화부(130)는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위한 양자화 스텝 사이즈를 결정하며, 양자화 스텝 사이즈는 미리 정해진 크기 이상의 양자화 유닛별로 결정될 수 있다.The quantization unit 130 determines a quantization step size for quantizing the coefficients of the residual block transformed by the transform matrix, and the quantization step size may be determined for each quantization unit having a predetermined size or more.
양자화 유닛의 크기는 8x8 또는 16x16일 수 있으며, 양자화부(130)는 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 변환 블록의 계수들을 양자화한다.The size of the quantization unit may be 8x8 or 16x16, and the quantization unit 130 quantizes coefficients of a transform block using a quantization matrix determined according to a quantization step size and a prediction mode.
또한, 양자화부(130)는 현재 양자화 유닛의 양자화 스텝 사이즈 예측자로서 현재 양자화 유닛에 인접한 양자화 유닛의 양자화 스텝 사이즈를 이용할 수 있다.Also, the quantization unit 130 may use a quantization step size of a quantization unit adjacent to the current quantization unit as a quantization step size predictor of the current quantization unit.
양자화부(130)는 현재 양자화 유닛의 좌측 양자화 유닛, 상측 양자화 유닛, 좌상측 양자화 유닛 순서로 검색하여 1개 또는 2개의 유효한 양자화 스텝 사이즈를 이용하여 현재 양자화 유닛의 양자화 스텝 사이즈 예측자를 생성할 수 있다.The quantization unit 130 may search the left quantization unit, the upper quantization unit, and the left upper quantization unit of the current quantization unit to generate a quantization step size predictor of the current quantization unit using one or two valid quantization step sizes. have.
예를 들어, 양자화부(130)는 상기 순서로 검색된 유효한 첫번째 양자화 스텝 사이즈를 양자화 스텝 사이즈 예측자로 결정하거나, 상기 순서로 검색된 유효한 2개의 양자화 스텝 사이즈의 평균값을 양자화 스텝 사이즈 예측자로 결정하거나, 또는 1개의 양자화 스텝 사이즈만이 유효한 경우에는 이를 양자화 스텝 사이즈 예측자로 결정할 수 있다.For example, the quantization unit 130 may determine a valid first quantization step size retrieved in the order as a quantization step size predictor, or determine an average value of two valid quantization step sizes retrieved in the order as a quantization step size predictor, or If only one quantization step size is valid, it can be determined as a quantization step size predictor.
상기 양자화 스텝 사이즈 예측자가 결정되면, 양자화부(130)는 현재 양자화 유닛의 양자화 스텝 사이즈와 양자화 스텝 사이즈 예측자 사이의 차분값을 엔트로피 부호화부(140)로 전송한다.When the quantization step size predictor is determined, the quantization unit 130 transmits the difference between the quantization step size of the current quantization unit and the quantization step size predictor to the entropy encoding unit 140.
한편, 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛, 좌상측 코딩 유닛 모두가 존재하지 않거나. 또는 최대 코딩 유닛 내의 부호화 순서 상으로 이전에 존재하는 코딩 유닛이 존재할 수 있다.Meanwhile, all of the left coding unit, the upper coding unit, and the left upper coding unit of the current coding unit do not exist. Alternatively, there may be previously existing coding units in the coding order in the largest coding unit.
따라서, 현재 코딩 유닛에 인접한 양자화 유닛들과 상기 최대 코딩 유닛 내에서는 부호화 순서상 바로 이전의 양자화 유닛의 양자화 스텝 사이즈가 후보자가 될 수 있다.Accordingly, quantization units adjacent to the current coding unit and the quantization step size of the previous quantization unit in the coding order may be candidates in the largest coding unit.
이 경우, 1) 현재 코딩 유닛의 좌측 양자화 유닛, 2) 현재 코딩 유닛의 상측 양자화 유닛, 3) 현재 코딩 유닛의 좌상측 양자화 유닛, 4) 부호화 순서상 바로 이전의 양자화 유닛 순서로 우선순위가 설정될 수 있다. 상기 순서는 바뀔 수 있고, 상기 좌상측 양자화 유닛은 생략될 수도 있다.In this case, priority is set in the order of 1) the left quantization unit of the current coding unit, 2) the upper quantization unit of the current coding unit, 3) the upper left quantization unit of the current coding unit, and 4) the order of the previous quantization unit in the coding order. Can be. The order may be changed, and the upper left quantization unit may be omitted.
한편, 상기와 같이 양자화된 변환 블록은 역양자화부(135)와 스캐닝부(131)로 전달된다.Meanwhile, the quantized transform block as described above is transferred to the inverse quantization unit 135 and the scanning unit 131.
스캐닝부(131)는 양자화된 변환 블록의 계수들을 스캐닝하여 1차원의 양자화 계수들로 변환하며, 이 경우 양자화 후의 변환 블록의 계수 분포가 인트라 예측 모드에 의존적일 수 있으므로 스캐닝 방식은 인트라 예측 모드에 따라 결정될 수 있다.The scanning unit 131 scans the coefficients of the quantized transform block and converts them into one-dimensional quantized coefficients. In this case, since the coefficient distribution of the transform block after quantization may depend on the intra prediction mode, the scanning method is based on the intra prediction mode. It can be decided accordingly.
또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있고, 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있으며, 이 경우 양자화 계수들의 스캔 순서는 역방향으로 스캔될 수 있다.Also, the coefficient scanning method may be differently determined according to the size of the transform unit, and the scan pattern may be changed according to the directional intra prediction mode, and in this case, the scan order of the quantization coefficients may be scanned in the reverse direction.
상기 양자화된 계수들이 복수의 서브셋(sub-set)들로 분할된 경우, 각각의 서브셋 내의 양자화 계수들에 동일한 스캔 패턴이 적용될 수 있으며, 서브셋 간의 스캔 패턴은 지그재그 스캔 또는 대각선 스캔이 적용될 수 있다.When the quantized coefficients are divided into a plurality of subsets, the same scan pattern may be applied to quantization coefficients in each subset, and a zigzag scan or diagonal scan may be applied to the scan pattern between subsets.
한편, 상기 스캔 패턴은 DC를 포함하는 메인 서브셋으로부터 순방향으로 잔여 서브셋들로 스캔하는 것이 바람직하나, 그 역방향도 가능하다.Meanwhile, the scan pattern is preferably scanned from the main subset including DC to the remaining subsets in the forward direction, but the reverse direction is also possible.
또한, 서브셋 내의 양자화된 계수들의 스캔 패턴과 동일하게 서브셋 간의 스캔 패턴을 설정할 수도 있으며, 서브셋 간의 스캔 패턴은 인트라 예측 모드에 따라 결정될 수 있다.Also, a scan pattern between subsets may be set in the same manner as the scan pattern of quantized coefficients in the subset, and the scan pattern between subsets may be determined according to the intra prediction mode.
한편, 부호화 장치(10)는 상기 변환 유닛(PU) 내에서 0이 아닌 마지막 양자화 계수의 위치 및 각 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보를 비트스트림에 포함시켜 복호화 장치(20)로 전송할 수 있다.On the other hand, the encoding apparatus 10 includes a decoding apparatus by including in the bitstream information indicating the position of the last non-zero quantization coefficient and the position of the last non-zero quantization coefficient in each subset in the transform unit (PU) ( 20).
역양자화부(135)는 상기와 같이 양자화된 양자화 계수를 역양자화하며, 역변환부(125)는 변환 유닛(TU) 단위로 역변환을 수행하여 상기 역양자화된 변환 계수를 공간 영역의 잔차 블록으로 복원할 수 있다.The inverse quantization unit 135 inverse quantizes the quantized quantized coefficients as described above, and the inverse transform unit 125 performs inverse transformation in units of transform units (TU) to restore the inverse quantized transform coefficients to a residual block in a spatial domain. can do.
가산기(195)는 상기 역변환부(125)에 의해 복원된 잔차 블록과 인트라 예측부(150) 또는 인터 예측부(160)로부터의 수신된 예측 블록을 합하여 복원 블록을 생성할 수 있다.The adder 195 may generate a reconstructed block by combining the residual block reconstructed by the inverse transform unit 125 with the predicted block received from the intra predictor 150 or the inter predictor 160.
또한, 후처리부(170)는 복원된 픽쳐에 발생하는 블록킹 효과를 제거하기 위한 디블록킹(deblocking) 필터링 과정, 화소 단위로 원본 영상과의 차이 값을 보완하기 위한 샘플 적응적 오프셋(Sample Adaptive Offset : SAO) 적용 과정 및 코딩 유닛으로 원본 영상과의 차이 값을 보완하기 위한 적응적 루프 필터링(Adaptive Loof Filtering : ALF) 과정 등의 후처리를 수행할 수 있다.In addition, the post-processing unit 170 deblocking filtering process to remove the blocking effect occurring in the reconstructed picture, sample adaptive offset (Sample Adaptive Offset: to compensate for the difference value from the original image in units of pixels) SAO) application process and a coding unit can perform post-processing such as an adaptive loop filtering (ALF) process to compensate for a difference value from the original image.
디블록킹 필터링 과정은 미리 정해진 크기 이상의 크기를 갖는 예측 유닛(PU) 또는 변환 유닛(TU)의 경계에 적용될 수 있다.The deblocking filtering process may be applied to a boundary of a prediction unit (PU) or a transform unit (TU) having a size equal to or greater than a predetermined size.
예를 들어, 디블록킹 필터링 과정은, 필터링할 경계(boundary)를 결정하는 단계, 상기 경계에 적용할 경계 필터링 강도(bounary filtering strength)를 결정하는 단계, 디블록킹 필터의 적용 여부를 결정하는 단계, 상기 디블록킹 필터를 적용할 것으로 결정된 경우, 상기 경계에 적용할 필터를 선택하는 단계를 포함할 수 있다.For example, the deblocking filtering process may include determining a boundary to be filtered, determining a boundary filtering strength to be applied to the boundary, and determining whether to apply a deblocking filter, If it is determined to apply the deblocking filter, it may include selecting a filter to be applied to the boundary.
한편, 상기 디블록킹 필터의 적용 여부는 i) 상기 경계 필터링 강도가 0보다 큰지 여부 및 ii) 상기 필터링할 경계에 인접한 2개의 블록(P 블록, Q블록) 경계 부분에서의 화소값들이 변화 정도를 나타내는 값이 양자화 파라미터에 의해 결정되는 제1 기준값보다 작은지 여부에 의해 결정될 수 있다.On the other hand, whether or not the deblocking filter is applied includes i) whether the boundary filtering intensity is greater than 0, and ii) the degree of change in pixel values at the boundary of two block (P block, Q block) adjacent to the boundary to be filtered. It may be determined by whether the value indicated is smaller than the first reference value determined by the quantization parameter.
상기 필터는 적어도 2개 이상인 것이 바람직하다. 블록 경계에 위치한 2개의 화소들간의 차이값의 절대값이 제2 기준값보다 크거나 같은 경우에는 상대적으로 약한 필터링을 수행하는 필터를 선택한다.It is preferable that at least two said filters. When the absolute value of the difference value between two pixels located at the block boundary is greater than or equal to the second reference value, a filter that performs relatively weak filtering is selected.
상기 제2 기준값은 상기 양자화 파라미터 및 상기 경계 필터링 강도에 의해 결정된다.The second reference value is determined by the quantization parameter and the boundary filtering intensity.
또한, 샘플 적응적 오프셋(SAO) 적용 과정은 디블록킹 필터가 적용된 영상 내의 화소와 원본 화소 간의 차이값(distortion)을 감소시키기 위한 것으로, 픽쳐 또는 슬라이스 단위로 샘플 적응적 오프셋(SAO) 적용 과정을 수행할지 여부가 결정될 수 있다.In addition, the sample adaptive offset (SAO) application process is to reduce the difference (distortion) between the pixel and the original pixel in the image to which the deblocking filter is applied, and the sample adaptive offset (SAO) application process is performed in units of pictures or slices. It can be decided whether or not to perform.
픽쳐 또는 슬라이스는 복수의 오프셋 영역들로 분할될 수 있고, 각 오프셋 영역별로 오프셋 타입이 결정될 수 있으며, 상기 오프셋 타입은 미리 정해진 개수(예를 들어, 4개)의 에지 오프셋 타입과 2개의 밴드 오프셋 타입을 포함할 수 있다.The picture or slice may be divided into a plurality of offset areas, and an offset type may be determined for each offset area, wherein the offset type is a predetermined number (eg, 4) edge offset types and 2 band offsets. Type.
예를 들어, 오프셋 타입이 에지 오프셋 타입일 경우, 각 화소가 속하는 에지 타입을 결정하여 이에 대응하는 오프셋을 적용하며, 상기 에지 타입은 현재 화소와 인접하는 2개의 화소값의 분포를 기준으로 결정될 수 있다.For example, when the offset type is an edge offset type, an edge type to which each pixel belongs is determined and an offset corresponding thereto is applied, and the edge type may be determined based on a distribution of two pixel values adjacent to the current pixel. have.
적응적 루프 필터링(ALF) 과정은 디블록킹 필터링 과정 또는 적응적 오프셋 적용 과정을 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 필터링을 수행할 수 있다.The adaptive loop filtering (ALF) process may perform filtering based on a value obtained by comparing a reconstructed image and an original image that have undergone a deblocking filtering process or an adaptive offset application process.
픽쳐 저장부(180)는 후처리된 영상 데이터를 후처리부(170)로부터 입력받아 픽쳐(picture) 단위로 영상을 복원하여 저장하며, 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다.The picture storage unit 180 receives the post-processed image data from the post-processing unit 170 and restores and stores the image in picture units, and the picture may be a frame unit image or a field unit image.
인터 예측부(160)는 픽쳐 저장부(180)에 저장된 적어도 하나 이상의 참조 픽쳐를 이용하여 움직임 추정을 수행하고, 참조 픽쳐를 나타내는 참조 픽쳐 인덱스 및 움직임 벡터를 결정할 수 있다.The inter prediction unit 160 may perform motion estimation using at least one reference picture stored in the picture storage unit 180 and determine a reference picture index and a motion vector indicating the reference picture.
이 경우, 결정된 참조 픽쳐 인덱스 및 움직임 벡터에 따라, 픽쳐 저장부(180)에 저장된 다수의 참조 픽쳐들 중 움직임 추정에 이용된 참조 픽쳐로부터, 부호화하고자 하는 예측 유닛에 대응하는 예측 블록이 추출될 수 있다.In this case, a prediction block corresponding to a prediction unit to be encoded may be extracted from a reference picture used for motion estimation among a plurality of reference pictures stored in the picture storage unit 180 according to the determined reference picture index and motion vector. have.
인트라 예측부(150)는 현재 예측 유닛이 포함되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행할 수 있다.The intra prediction unit 150 may perform intra prediction encoding using reconstructed pixel values inside a picture in which the current prediction unit is included.
인트라 예측부(150)는 예측 부호화할 현재 예측 유닛을 입력받아 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행할 수 있다.The intra prediction unit 150 may receive the current prediction unit to be predictively encoded and select one of a preset number of intra prediction modes according to the size of the current block to perform intra prediction.
인트라 예측부(150)는 인트라 예측 블록을 생성하기 위해 참조 화소를 적응적으로 필터링하며, 참조 화소가 이용 가능하지 않은 경우 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수 있다.The intra prediction unit 150 adaptively filters the reference pixel to generate the intra prediction block, and when the reference pixel is not available, the reference pixels may be generated using the available reference pixels.
엔트로피 부호화부(140)는 양자화부(130)에 의해 양자화된 양자화 계수, 인트라 예측부(150)로부터 수신된 인트라 예측 정보, 인터 예측부(160)로부터 수신된 움직임 정보 등을 엔트로피 부호화할 수 있다.The entropy encoding unit 140 may entropy encode quantization coefficients quantized by the quantization unit 130, intra prediction information received from the intra prediction unit 150, and motion information received from the inter prediction unit 160. .
도 6은 부호화 장치(10)에서 인터 예측을 수행하는 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 인터 예측 부호화기는 움직임 정보 결정부(161), 움직임 정보 부호화 모드 결정부(162), 움직임 정보 부호화부(163), 예측 블록 생성부(164), 잔차 블록 생성부(165), 잔차 블록 부호화부(166) 및 멀티플렉서(167)를 포함하여 구성될 수 있다.FIG. 6 is a block diagram showing an embodiment of a configuration in which the encoding apparatus 10 performs inter prediction, and the illustrated inter prediction encoder is a motion information determination unit 161 and a motion information encoding mode determination unit 162. , A motion information encoding unit 163, a prediction block generation unit 164, a residual block generation unit 165, a residual block encoding unit 166, and a multiplexer 167.
도 6을 참조하면, 움직임 정보 결정부(161)는 현재 블록의 움직임 정보를 결정하며, 움직임 정보는 참조 픽쳐 인덱스와 움직임 벡터를 포함하고, 참조 픽쳐 인덱스는 이전에 부호화되어 복원된 픽쳐 중 어느 하나를 나타낼 수 있다.Referring to FIG. 6, the motion information determination unit 161 determines motion information of a current block, motion information includes a reference picture index and a motion vector, and the reference picture index is any one of pictures that have been previously encoded and reconstructed. Can represent
현재 블록이 단방향 인터 예측 부호화되는 경우에는 리스트 0(L0)에 속하는 참조 픽쳐들 중의 어느 하나를 나타내며, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0(L0)의 참조 픽쳐들 중 하나를 나타내는 참조 픽쳐 인덱스와 리스트 1(L1)의 참조 픽쳐들 중의 하나를 나타내는 참조 픽쳐 인덱스를 포함할 수 있다.If the current block is one-way inter-prediction coded, it indicates any one of the reference pictures belonging to list 0 (L0), and when the current block is two-way predictive-coded, it refers to one of the reference pictures in list 0 (L0). An index and a reference picture index indicating one of the reference pictures of list 1 (L1) may be included.
또한, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0과 리스트 1을 결합하여 생성된 복합 리스트(LC)의 참조 픽쳐들 중의 1개 또는 2개의 픽쳐를 나타내는 인덱스를 포함할 수 있다.In addition, when the current block is bidirectionally predictively coded, an index indicating one or two pictures of reference pictures of the composite list LC generated by combining list 0 and list 1 may be included.
움직임 벡터는 각각의 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 예측 블록의 위치를 나타내며, 상기 움직임 벡터는 화소 단위(정수 단위) 또는 서브 화소 단위일 수 있다.The motion vector indicates a position of a prediction block in a picture indicated by each reference picture index, and the motion vector may be a pixel unit (integer unit) or a sub pixel unit.
예를 들어, 상기 움직임 벡터는 1/2, 1/4, 1/8 또는 1/16 화소의 정밀도를 가질 수 있으며, 움직임 벡터가 정수단위가 아닐 경우 예측 블록은 정수 단위의 화소들로부터 생성될 수 있다.For example, the motion vector may have a precision of 1/2, 1/4, 1/8, or 1/16 pixels, and when the motion vector is not an integer unit, a prediction block is generated from pixels of the integer unit. You can.
움직임 정보 부호화 모드 결정부(162)는 현재 블록의 움직임 정보에 대한 부호화 모드를 결정할 수 있으며, 부호화 모드는 스킵 모드, 머지 모드 및 AMVP 모드 중 어느 하나로 예시될 수 있다.The motion information encoding mode determiner 162 may determine an encoding mode for motion information of a current block, and the encoding mode may be exemplified as one of a skip mode, a merge mode, and an AMVP mode.
스킵 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 스킵 후보자가 존재하고, 잔차 신호가 0인 경우에 적용되며, 상기 스킵 모드는 예측 유닛(PU)인 현재 블록이 코딩 유닛(CU)과 크기가 같을 때 적용될 수 있다.The skip mode is applied when there is a skip candidate having the same motion information as the motion information of the current block, and the residual signal is 0. In the skip mode, the current block, which is the prediction unit (PU), is the size of the coding unit (CU). Can be applied when is equal.
머지 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 머지 후보자가 존재할 때 적용되며, 상기 머지 모드는 현재 블록이 코딩 유닛(CU)과 크기가 다르거나, 크기가 같을 경우에는 잔차 신호가 존재하는 경우에 적용된다. 한편, 머지 후보자와 스킵 후보자는 동일할 수 있다.The merge mode is applied when there is a merge candidate having the same motion information as the motion information of the current block, and the merge mode has a residual signal when the size of the current block is different from the coding unit (CU) or the same size. In case it applies. Meanwhile, the merge candidate and the skip candidate may be the same.
AMVP 모드는 스킵 모드 및 머지 모드가 적용되지 않을 때 적용되며, 현재 블록의 움직임 벡터와 가장 유사한 움직임 벡터를 갖는 AMVP 후보자를 AMVP 예측자로 선택할 수 있다.The AMVP mode is applied when the skip mode and the merge mode are not applied, and an AMVP candidate having a motion vector most similar to the motion vector of the current block can be selected as the AMVP predictor.
다만, 상기 부호화 모드는 상기 예시된 방법 이외의 프로세스로서, 보다 세분화된 움직임 보상 예측 부호화 모드를 적응적으로 포함할 수 있다. 적응적으로 결정되는 움직임 보상 예측 모드는 전술한 AMVP 모드 및 머지 모드, 스킵 모드 뿐만 아니라, 현재 새로운 움직임 보상 예측 모드로 제안되고 있는 FRUC(FRAME RATE UP-CONVERSION) 모드, BIO(BI-DIRECTIONAL OPTICAL FLOW) 모드, AMP(AFFINE MOTION PREDICTION)모드, OBMC(OVERLAPPED BLOCK MOTION COMPENSATION) 모드, DMVR(DECODER-SIDE MOTION VECTOR REFINEMENT) 모드, ATMVP(Alternative temporal motion vector prediction) 모드, STMVP(Spatial-temporal motion vector prediction) 모드, LIC(Local Illumination Compensation) 모드 중 적어도 하나를 더 포함할 수 있으며, 사전 결정된 조건에 따라 블록 적응적으로 결정될 수 있다.However, the encoding mode is a process other than the above-described method, and may include a more fine-grained motion compensation prediction encoding mode. The adaptively determined motion compensation prediction mode includes the above-described AMVP mode, merge mode, and skip mode, as well as FRUC (FRAME RATE UP-CONVERSION) mode, BIO (BI-DIRECTIONAL OPTICAL FLOW), which is currently proposed as a new motion compensation prediction mode. ) Mode, AMP (AFFINE MOTION PREDICTION) mode, OBMC (OVERLAPPED BLOCK MOTION COMPENSATION) mode, DMVR (DECODER-SIDE MOTION VECTOR REFINEMENT) mode, ATMVP (Alternative temporal motion vector prediction) mode, STMVP (Spatial-temporal motion vector prediction) Mode, and may further include at least one of LIC (Local Illumination Compensation) mode, it can be determined block adaptively according to a predetermined condition.
움직임 정보 부호화부(163)는 움직임 정보 부호화 모드 결정부(162)에 의해 결정된 방식에 따라 움직임 정보를 부호화할 수 있다.The motion information encoding unit 163 may encode motion information according to a method determined by the motion information encoding mode determiner 162.
예를 들어, 움직임 정보 부호화부(163)는 움직임 정보 부호화 모드가 스킵 모드 또는 머지 모드일 경우에는 머지 움직임 벡터 부호화 과정을 수행하며, AMVP 모드일 경우에는 AMVP 부호화 과정을 수행할 수 있다.For example, the motion information encoding unit 163 may perform a merge motion vector encoding process when the motion information encoding mode is a skip mode or a merge mode, and may perform an AMVP encoding process in the AMVP mode.
예측 블록 생성부(164)는 현재 블록의 움직임 정보를 이용하여 예측 블록을 생성하며, 움직임 벡터가 정수 단위일 경우 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록을 생성한다.The prediction block generation unit 164 generates a prediction block using motion information of the current block, and when the motion vector is an integer unit, copies a block corresponding to a position indicated by the motion vector in the picture indicated by the reference picture index and copies the current block To generate predictive blocks.
한편, 움직임 벡터가 정수 단위가 아닌 경우, 예측 블록 생성부(164)는 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 정수 단위 화소들로부터 예측 블록의 화소들을 생성할 수 있다.Meanwhile, when the motion vector is not an integer unit, the prediction block generator 164 may generate pixels of the prediction block from integer unit pixels in the picture indicated by the reference picture index.
이 경우, 휘도 화소에 대해 8탭의 보간 필터를 사용하여 예측 화소가 생성되며, 색차 화소에 대해서는 4탭 보간 필터를 사용하여 예측 화소가 생성될 수 있다.In this case, a prediction pixel may be generated using an 8-tap interpolation filter for a luminance pixel, and a prediction pixel may be generated using a 4-tap interpolation filter for a chrominance pixel.
잔차 블록 생성부(165)는 현재 블록과 현재 블록의 예측 블록을 이용하여 잔차 블록을 생성하며, 현재 블록의 크기가 2Nx2N인 경우 현재 블록과 현재 블록에 대응하는 2Nx2N 크기의 예측 블록을 이용하여 잔차 블록을 생성할 수 있다.The residual block generator 165 generates a residual block using the current block and the prediction block of the current block, and when the size of the current block is 2Nx2N, the residual block is generated using the 2Nx2N prediction block corresponding to the current block and the current block You can create blocks.
한편, 예측에 이용되는 현재 블록의 크기가 2NxN 또는 Nx2N인 경우, 2Nx2N을 구성하는 2개의 2NxN 블록 각각에 대한 예측 블록을 구한 후, 상기 2개의 2NxN 예측 블록을 이용하여 2Nx2N 크기의 최종 예측 블록이 생성될 수 있다.On the other hand, when the size of the current block used for prediction is 2NxN or Nx2N, after obtaining a prediction block for each of the 2 2NxN blocks constituting 2Nx2N, a final prediction block of 2Nx2N size is obtained by using the 2 2NxN prediction blocks. Can be created.
또한, 상기 2Nx2N 크기의 예측 블록을 이용하여 2Nx2N 크기의 잔차 블록이 생성될 수도 있으며, 2NxN 크기를 가지는 2개의 예측 블록들의 경계 부분의 불연속성을 해소하기 위해 경계 부분의 픽셀들에 대해 오버랩 스무딩이 적용될 수 있다.In addition, a 2Nx2N size residual block may be generated using the 2Nx2N size prediction block, and overlap smoothing may be applied to pixels of the boundary part to resolve discontinuity of the boundary part of the 2 prediction blocks having 2NxN size. You can.
잔차 블록 부호화부(166)는 상기 잔차 블록을 하나 이상의 변환 유닛(TU)들로 분할하여, 각각의 변환 유닛(TU)이 변환 부호화, 양자화 및 엔트로피 부호화될 수 있다.The residual block encoder 166 divides the residual block into one or more transform units (TUs), so that each transform unit (TU) can be transform-encoded, quantized, and entropy-encoded.
잔차 블록 부호화부(166)는 인터 예측 방법에 의해 생성된 잔차 블록을 정수기반 변환 매트릭스를 이용하여 변환할 수 있으며, 상기 변환 매트릭스는 정수기반 DCT 매트릭스일 수 있다.The residual block encoder 166 may transform the residual block generated by the inter prediction method using an integer-based transform matrix, and the transform matrix may be an integer-based DCT matrix.
한편, 잔차 블록 부호화부(166)는 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위해 양자화 매트릭스를 이용하며, 상기 양자화 매트릭스는 양자화 파라미터에 의해 결정될 수 있다.Meanwhile, the residual block encoder 166 uses a quantization matrix to quantize the coefficients of the residual block transformed by the transform matrix, and the quantization matrix can be determined by a quantization parameter.
상기 양자화 파라미터는 미리 정해진 크기 이상의 코딩 유닛(CU) 별로 결정되며, 현재 코딩 유닛(CU)이 상기 미리 정해진 크기보다 작은 경우 상기 미리 정해진 크기 내의 코딩 유닛(CU)들 중 부호화 순서상 첫번째 코딩 유닛(CU)의 양자화 파라미터만을 부호화하고 나머지 코딩 유닛(CU)의 양자화 파라미터는 상기 파라미터와 동일하므로 부호화하지 않을 수 있다.The quantization parameter is determined for each coding unit (CU) having a predetermined size or more, and if the current coding unit (CU) is smaller than the predetermined size, the first coding unit (in coding order) among coding units (CU) within the predetermined size ( Only the quantization parameter of CU) is coded, and the quantization parameter of the remaining coding unit CU is the same as the above parameter, and thus may not be coded.
또한, 상기 양자화 파라미터 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들이 양자화될 수 있다.Also, coefficients of the transform block may be quantized using a quantization matrix determined according to the quantization parameter and a prediction mode.
상기 미리 정해진 크기 이상의 코딩 유닛(CU) 별로 결정되는 양자화 파라미터는 현재 코딩 유닛(CU)에 인접한 코딩 유닛(CU)의 양자화 파라미터를 이용하여 예측 부호화될 수 있다.The quantization parameter determined for each coding unit (CU) having a predetermined size or more may be predictively coded using the quantization parameter of the coding unit (CU) adjacent to the current coding unit (CU).
현재 코딩 유닛(CU)의 좌측 코딩 유닛(CU), 상측 코딩 유닛(CU) 순서로 검색하여 유효한 1개 또는 2개의 유효한 양자화 파라미터를 이용하여 현재 코딩 유닛(CU)의 양자화 파라미터 예측자를 생성할 수 있다.It is possible to generate a quantization parameter predictor of the current coding unit (CU) by searching in the order of the left coding unit (CU) and the upper coding unit (CU) of the current coding unit (CU) and using one or two valid quantization parameters. have.
예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있으며, 또한 좌측 코딩 유닛(CU), 부호화 순서상 바로 이전의 코딩 유닛(CU) 순으로 검색하여 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다.For example, a valid first quantization parameter retrieved in the above order may be determined as a quantization parameter predictor, and a valid first quantization parameter may be quantized by searching in the order of the left coding unit (CU) and the previous coding unit (CU) in the coding order. It can be determined as a parameter predictor.
양자화된 변환 블록의 계수들은 스캐닝되어 1차원의 양자화 계수들로 변환되며, 스캐닝 방식은 엔트로피 부호화 모드에 따라 다르게 설정될 수 있다.The coefficients of the quantized transform block are scanned and converted into one-dimensional quantized coefficients, and the scanning method may be set differently according to the entropy coding mode.
예를 들어, CABAC으로 부호화될 경우 인터 예측 부호화된 양자화 계수들은 미리 정해진 하나의 방식(지그재그, 또는 대각선 방향으로의 래스터 스캔)으로 스캐닝될 수 있으며, CAVLC으로 부호화될 경우 상기 방식과 다른 방식으로 스캐닝될 수 있다.For example, when encoded with CABAC, inter-prediction-encoded quantization coefficients can be scanned in one predetermined manner (zigzag, or raster scan in a diagonal direction), and when encoded with CAVLC, scanning in a different way from the above method Can be.
예를 들어, 스캐닝 방식이 인터의 경우에는 지그재그, 인트라의 경우에는 인트라 예측 모드에 따라 결정될 수 있으며, 계수 스캐닝 방식은 변환 단위의 크기에 따라 상이하게 결정될 수도 있다.For example, the scanning method may be determined according to a zigzag case in the case of inter and an intra prediction mode in case of intra, and the coefficient scanning method may be differently determined according to the size of a transform unit.
한편, 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있으며, 양자화 계수들의 스캔 순서는 역방향으로 스캔 될 수 있다.Meanwhile, the scan pattern may vary according to the directional intra prediction mode, and the scan order of quantization coefficients may be scanned in the reverse direction.
멀티플렉서(167)는 상기 움직임 정보 부호화부(163)에 의해 부호화된 움직임 정보들과 상기 잔차 블록 부호화부(166)에 의해 부호화된 잔차 신호들을 다중한다.The multiplexer 167 multiplexes the motion information encoded by the motion information encoding unit 163 and the residual signals encoded by the residual block encoding unit 166.
상기 움직임 정보는 부호화 모드에 따라 달라질 수 있으며, 예를 들어 스킵 또는 머지일 경우에는 예측자를 나타내는 인덱스만을 포함하고, AMVP일 경우 현재 블록의 참조 픽쳐 인덱스, 차분 움직임 벡터 및 AMVP 인덱스를 포함할 수 있다.The motion information may vary according to an encoding mode, and for example, in the case of skip or merge, only the index indicating the predictor may be included, and in the case of AMVP, the reference picture index, the differential motion vector, and the AMVP index of the current block may be included. .
이하, 도 1에 도시된 인트라 예측부(150)의 동작에 대한 일실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the operation of the intra prediction unit 150 illustrated in FIG. 1 will be described in detail.
먼저, 인트라 예측부(150)는 픽쳐 분할부(110)로부터 예측 모드 정보 및 예측 유닛(PU)의 크기를 수신하며, 예측 유닛(PU)의 인트라 예측 모드를 결정하기 위해 참조 화소를 픽쳐 저장부(180)로부터 읽어들일 수 있다.First, the intra prediction unit 150 receives the prediction mode information and the size of the prediction unit PU from the picture division unit 110, and the picture storage unit determines a reference pixel to determine the intra prediction mode of the prediction unit PU It can be read from 180.
인트라 예측부(150)는 이용 가능하지 않은 참조 화소가 존재하는지 여부를 검토하여 참조 화소 생성 여부를 판단하며, 상기 참조 화소들은 현재 블록의 인트라 예측 모드를 결정하는데 사용될 수 있다.The intra prediction unit 150 determines whether a reference pixel is generated by examining whether there is an unavailable reference pixel, and the reference pixels can be used to determine an intra prediction mode of the current block.
현재 블록이 현재 픽쳐의 상측 경계에 위치하는 경우에는 현재 블록의 상측에 인접한 화소들이 정의되지 않고, 현재 블록이 현재 픽쳐의 좌측 경계에 위치하는 경우에는 현재 블록의 좌측에 인접한 화소들이 정의되지 않으며, 상기 화소들은 이용 가능한 화소들이 아닌 것으로 판단될 수 있다.When the current block is located at the upper boundary of the current picture, pixels adjacent to the upper side of the current block are not defined, and when the current block is located at the left boundary of the current picture, pixels adjacent to the left of the current block are not defined, It may be determined that the pixels are not available pixels.
또한, 현재 블록이 슬라이스 경계에 위치하여 슬라이스의 상측 또는 좌측에 인접하는 화소들이 먼저 부호화되어 복원되는 화소들이 아닌 경우에도 이용 가능한 화소들이 아닌 것으로 판단될 수 있다.In addition, it may be determined that the current block is located at the slice boundary and pixels adjacent to the upper or left side of the slice are not available pixels even if the pixels are not encoded and reconstructed first.
상기와 같이 현재 블록의 좌측 또는 상측에 인접한 화소들이 존재하지 않거나, 미리 부호화되어 복원된 화소들이 존재하지 않는 경우, 이용 가능한 화소들만을 이용하여 현재 블록의 인트라 예측 모드가 결정될 수도 있다.As described above, when pixels adjacent to the left or upper side of the current block do not exist, or pixels that have been pre-encoded and reconstructed do not exist, the intra prediction mode of the current block may be determined using only available pixels.
한편, 현재 블록의 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소가 생성될 수도 있으며, 예를 들어 상측 블록의 화소들이 이용 가능하지 않은 경우 좌측 화소들의 일부 또는 전부를 이용하여 상측 화소들을 생성할 수 있고, 그 역으로도 가능하다.Meanwhile, a reference pixel at a location that is not available may be generated using the available reference pixels of the current block. For example, when the pixels of the upper block are not available, the upper pixel may be used using some or all of the left pixels. You can create them, and vice versa.
즉, 이용 가능하지 않은 위치의 참조 화소로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조 화소를 복사하여 참조 화소가 생성되거나, 미리 정해진 방향에 이용 가능한 참조 화소가 존재하지 않는 경우 반대 방향의 가장 가까운 위치의 이용 가능한 참조 화소를 복사하여 참조 화소가 생성될 수 있다.That is, a reference pixel is generated by copying an available reference pixel at a location closest to a predetermined direction from a reference pixel at a location that is not available, or when there is no reference pixel available in a predetermined direction, the closest in the opposite direction A reference pixel may be generated by copying the available reference pixel of the position.
한편, 현재 블록의 상측 또는 좌측 화소들이 존재하는 경우에도 상기 화소들이 속하는 블록의 부호화 모드에 따라 이용 가능하지 않은 참조 화소로 결정될 수 있다.On the other hand, even when the upper or left pixels of the current block exist, it may be determined as a reference pixel that is not available according to an encoding mode of a block to which the pixels belong.
예를 들어, 현재 블록의 상측에 인접한 참조 화소가 속하는 블록이 인터 부호화되어 복원된 블록일 경우, 상기 화소들을 이용 가능하지 않은 화소들로 판단할 수 있다.For example, when a block to which the reference pixel adjacent to the upper side of the current block belongs is an inter-coded and reconstructed block, the pixels may be determined as unavailable pixels.
이 경우, 현재 블록에 인접한 블록이 인트라 부호화되어 복원된 블록에 속하는 화소들을 이용하여 이용 가능한 참조 화소들이 생성될 수 있으며, 부호화 장치(10)가 부호화 모드에 따라 이용 가능한 참조 화소를 판단한다는 정보를 복호화 장치(20)로 전송한다.In this case, available reference pixels may be generated using pixels belonging to a reconstructed block in which a block adjacent to the current block is intra coded, and information indicating that the encoding apparatus 10 determines available reference pixels according to an encoding mode. It is transmitted to the decoding device 20.
인트라 예측부(150)는 상기 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정하며, 현재 블록에 허용 가능한 인트라 예측 모드의 수는 블록의 크기에 따라 달라질 수 있다.The intra prediction unit 150 determines the intra prediction mode of the current block using the reference pixels, and the number of intra prediction modes allowable for the current block may vary according to the size of the block.
예를 들어, 현재 블록의 크기가 8x8, 16x16, 32x32인 경우에는 34개의 인트라 예측 모드가 존재할 수 있고, 현재 블록의 크기가 4x4인 경우에는 17개의 인트라 예측 모드가 존재할 수 있다.For example, 34 intra prediction modes may exist when the size of the current block is 8x8, 16x16, and 32x32, and 17 intra prediction modes may exist when the size of the current block is 4x4.
상기 34개 또는 17개의 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(비 directional 모드)와 복수개의 방향성 모드들(directional 모드s)로 구성될 수 있다.The 34 or 17 intra prediction modes may be composed of at least one non-directional mode (non-directional mode) and a plurality of directional modes (directional modes).
하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. DC 모드 및 플래너모드가 비방향성 모드로 포함되는 경우에는, 현재 블록의 크기에 관계없이 35개의 인트라 예측 모드가 존재할 수도 있다.The one or more non-directional modes may be DC mode and / or planar mode. When the DC mode and the planner mode are included as a non-directional mode, 35 intra prediction modes may exist regardless of the size of the current block.
이 경우, 2개의 비방향성 모드(DC 모드 및 플래너 모드)와 33개의 방향성 모드가 포함될 수 있다.In this case, two non-directional modes (DC mode and planner mode) and 33 directional modes may be included.
플래너 모드의 경우, 현재 블록의 우하측(bottom-right)에 위치하는 적어도 하나의 화소값(또는 상기 화소값의 예측값, 이하 제1 참조값이라 함)과 참조 화소들을 이용하여 현재 블록의 예측 블록이 생성된다.In the planner mode, at least one pixel value (or a prediction value of the pixel value, hereinafter referred to as a first reference value) and a reference pixel positioned at a bottom-right of the current block is used to predict the prediction block of the current block. Is generated.
본 발명의 일실시예에 따른 영상 복호화 장치의 구성은 도 1 내지 도 6을 참조하여 설명한 영상 부호화 장치(10)의 구성으로부터 도출될 수 있으며, 예를 들어 도 1 내지 도 6을 참조하여 설명한 바와 같은 영상 부호화 방법의 과정들을 역으로 수행함으로써 영상을 복호화할 수 있다.The configuration of the video decoding apparatus according to an embodiment of the present invention may be derived from the configuration of the video encoding apparatus 10 described with reference to FIGS. 1 to 6, for example, as described with reference to FIGS. 1 to 6. An image can be decoded by inversely performing the processes of the same image encoding method.
도 7은 본 발명의 일실시예에 따른 동영상 복호화 장치의 구성을 블록도로 도시한 것으로, 복호화 장치(20)는 엔트로피 복호화부(210), 역양자화/역변환부(220), 가산기(270), 후처리부(250), 픽쳐 저장부(260), 인트라 예측부(230), 움직임 보상 예측부(240) 및 인트라/인터전환 스위치(280)를 구비한다.7 is a block diagram showing the configuration of a video decoding apparatus according to an embodiment of the present invention, the decoding apparatus 20 includes an entropy decoding unit 210, an inverse quantization / inverse transformation unit 220, an adder 270, It has a post-processing unit 250, a picture storage unit 260, an intra prediction unit 230, a motion compensation prediction unit 240, and an intra / inter switch 280.
엔트로피 복호화부(210)는, 영상 부호화 장치(10)에서 부호화된 비트 스트림을 입력받아 복호화하여 인트라 예측 모드 인덱스, 움직임 정보, 양자화 계수 시퀀스 등으로 분리하며, 복호화된 움직임 정보를 움직임 보상 예측부(240)로 전달한다.The entropy decoding unit 210 receives and decodes the encoded bit stream from the image encoding apparatus 10, separates it into intra prediction mode indexes, motion information, and quantization coefficient sequences, and decodes the decoded motion information into a motion compensation prediction unit ( 240).
엔트로피 복호화부(210)는 인트라 예측 모드 인덱스를 인트라 예측부(230)와 역양자화/역변환부(220)로 전달하여, 역양자화 계수 시퀀스를 역양자화/역변환부(220)로 전달한다.The entropy decoding unit 210 transmits the intra prediction mode index to the intra prediction unit 230 and the inverse quantization / inverse transformation unit 220 to transmit the inverse quantization coefficient sequence to the inverse quantization / inverse transformation unit 220.
역양자화/역변환부(220)는 상기 양자화 계수 시퀀스를 2차원 배열의 역양자화 계수로 변환하며, 상기 변환을 위해 복수의 스캐닝 패턴들 중 하나를 선택할 수 있으며 예를 들어 현재 블록의 예측 모드(즉, 인트라 예측 또는 인터 예측)와 인트라 예측 모드에 기초하여 스캐닝 패턴을 선택할 수 있다.The inverse quantization / inverse transform unit 220 converts the quantization coefficient sequence into an inverse quantization coefficient in a two-dimensional array, and can select one of a plurality of scanning patterns for the conversion, for example, a prediction mode (ie, a current block) (Intra prediction or inter prediction) and an intra prediction mode.
역양자화/역변환부(220)는 2차원 배열의 역양자화 계수에 대해 복수의 양자화 매트릭스들 중에서 선택된 양자화 매트릭스를 적용하여 양자화 계수를 복원한다.The inverse quantization / inverse transform unit 220 restores a quantization coefficient by applying a quantization matrix selected from a plurality of quantization matrices to an inverse quantization coefficient of a two-dimensional array.
한편, 복원하고자 하는 현재 블록의 크기에 따라 서로 다른 양자화 매트릭스가 적용되며, 동일 크기의 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스가 선택될 수 있다.Meanwhile, different quantization matrices are applied according to the size of the current block to be reconstructed, and a quantization matrix may be selected for a block having the same size based on at least one of the prediction mode and the intra prediction mode of the current block.
역양자화/역변환부(220)는 상기 복원된 양자화 계수를 역변환하여 잔차 블록을 복원하며, 상기 역변환 과정은 변환 유닛(TU)을 기본 단위로 하여 수행될 수 있다.The inverse quantization / inverse transform unit 220 inversely transforms the reconstructed quantization coefficient to restore a residual block, and the inverse transform process may be performed using a transform unit (TU) as a basic unit.
가산기(270)는 역양자화/역변환부(220)에 의해 복원된 잔차 블록과 인트라 예측부(230) 또는 움직임 보상 예측부(240)에 의해 생성되는 예측 블록을 합하여 영상 블록을 복원한다.The adder 270 reconstructs the image block by combining the residual block reconstructed by the inverse quantization / inverse transform unit 220 and the prediction block generated by the intra prediction unit 230 or the motion compensation prediction unit 240.
후처리부(250)는 가산기(270)에 의해 생성된 복원 영상에 후처리를 수행하여, 필터링 등에 의해 양자화 과정에 따른 영상 손실에 기인하는 디블록킹 아티펙트 등을 감소시킬 수 있다.The post-processing unit 250 may perform post-processing on the reconstructed image generated by the adder 270 to reduce deblocking artifacts and the like due to image loss due to quantization by filtering or the like.
픽쳐 저장부(260)는 후처리부(250)에 의해 필터 후처리가 수행된 로컬 복호 영상을 저장하기 위한 프레임 메모리이다.The picture storage unit 260 is a frame memory for storing a local decoded image in which filter post-processing is performed by the post-processing unit 250.
인트라 예측부(230)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 모드 인덱스에 기초하여 현재 블록의 인트라 예측 모드를 복원하고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.The intra prediction unit 230 restores the intra prediction mode of the current block based on the intra prediction mode index received from the entropy decoding unit 210 and generates a prediction block according to the restored intra prediction mode.
움직임 보상 예측부(240)는 움직임 벡터 정보에 기초하여 픽쳐 저장부(260)에 저장된 픽쳐로부터 현재 블록에 대한 예측 블록을 생성하며, 소수 정밀도의 움직임 보상이 적용될 경우 선택된 보간 필터를 적용하여 예측 블록을 생성할 수 있다.The motion compensation prediction unit 240 generates a prediction block for a current block from a picture stored in the picture storage unit 260 based on the motion vector information, and applies a selected interpolation filter to apply the selected interpolation filter when motion compensation with a decimal precision is applied. You can create
인트라/인터 전환 스위치(280)는 부호화 모드에 기초하여 인트라 예측부(230)와 움직임 보상 예측부(240)의 어느 하나에서 생성된 예측 블록을 가산기(270)에 제공할 수 있다.The intra / inter switch 280 may provide the adder 270 with a prediction block generated by any one of the intra prediction unit 230 and the motion compensation prediction unit 240 based on the encoding mode.
도 8는 영상 복호화 장치(20)에서 인터 예측을 수행하는 구성에 대한 일실시예를 블록도로 도시한 것으로, 인터 예측 복호화기는 디멀티플렉서(241), 움직임 정보 부호화 모드 판단부(242), 머지 모드 움직임 정보 복호화부(243), AMVP 모드 움직임 정보 복호화부(244), 선택 모드 움직임 정보 복호화부(248), 예측블록 생성부(245), 잔차 블록 복호화부(246) 및 복원블록 생성부(247)를 포함한다.8 is a block diagram showing an embodiment of a configuration for performing inter prediction in the video decoding apparatus 20, the inter prediction decoder is a demultiplexer 241, a motion information encoding mode determination unit 242, a merge mode motion The information decoding unit 243, the AMVP mode motion information decoding unit 244, the selection mode motion information decoding unit 248, the prediction block generation unit 245, the residual block decoding unit 246 and the reconstructed block generation unit 247 It includes.
도 8을 참조하면, 디-멀티플렉서(241)는 수신된 비트스트림으로부터 현재 부호화된 움직임 정보와 부호화된 잔차 신호들을 역다중화하여, 역다중화된 움직임 정보를 움직임 정보 부호화 모드 판단부(242)로 전송하고, 역다중화된 잔차신호를 잔차블록 복호화부(246)로 전송할 수 있다.Referring to FIG. 8, the de-multiplexer 241 demultiplexes the currently encoded motion information and the encoded residual signals from the received bitstream, and transmits the demultiplexed motion information to the motion information encoding mode determination unit 242 Then, the demultiplexed residual signal may be transmitted to the residual block decoder 246.
움직임 정보 부호화 모드 판단부(242)는 현재 블록의 움직임 정보 부호화 모드를 판단하며, 수신된 비트스트림의 skip_flag가 1의 값을 갖는 경우 현재 블록의 움직임 정보 부호화 모드가 스킵 부호화 모드로 부호화된 것으로 판단할 수 있다.The motion information encoding mode determining unit 242 determines the motion information encoding mode of the current block, and when the skip_flag of the received bitstream has a value of 1, the motion information encoding mode of the current block is determined to be encoded in the skip encoding mode can do.
움직임 정보 부호화 모드 판단부(242)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디-멀티블렉서(241)로부터 수신된 움직임 정보가 머지 인덱스만을 갖는 경우, 현재 블록의 움직임 정보 부호화 모드가 머지 모드로 부호화된 것으로 판단할 수 있다.When the skip_flag of the received bitstream has a value of 0 and the motion information received from the de-multiplexer 241 has only a merge index, the motion information encoding mode determining unit 242 is a motion information encoding mode of the current block It can be determined that is encoded in the merge mode.
또한, 움직임 정보 부호화 모드 판단부(242)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디멀티블렉서(241)로부터 수신된 움직임 정보가 참조 픽쳐 인덱스와 차분 움직임 벡터와 AMVP인덱스를 갖는 경우, 현재 블록의 움직임 정보 부호화 모드가 AMVP 모드로 부호화된 것으로 판단할 수 있다.In addition, the motion information encoding mode determining unit 242 has a value of 0 for skip_flag of the received bitstream, and motion information received from the demultiplexer 241 has a reference picture index, a differential motion vector, and an AMVP index. In this case, it may be determined that the motion information encoding mode of the current block is encoded in the AMVP mode.
머지 모드 움직임 정보 복호화부(243)는 움직임 정보 부호화 모드 판단부(242)가 현재 블록의 움직임 정보 부호화 모드를 스킵 또는 머지 모드로 판단한 경우에 활성화되며, AMVP 모드 움직임 정보 복호화부(244)는 움직임 정보 부호화 모드 판단부(242)가 현재 블록의 움직임 정보 부호화 모드를 AMVP 모드로 판단한 경우에 활성화될 수 있다.The merge mode motion information decoding unit 243 is activated when the motion information encoding mode determining unit 242 determines the current block motion information encoding mode as skip or merge mode, and the AMVP mode motion information decoding unit 244 moves It may be activated when the information encoding mode determining unit 242 determines the current block motion information encoding mode as the AMVP mode.
선택 모드 움직임 정보 복호화부(248)는 전술한 AMVP 모드, 머지 모드, 스킵 모드를 제외한 다른 움직임 보상 예측 모드 중 선택된 예측 모드로 움직임 정보를 복호화 처리할 수 있다. 선택 예측 모드는 AMVP 모드 대비 더 정밀한 움직임 예측 모드를 포함할 수 있으며, 미리 결정된 조건(예를 들어, 블록 크기 및 블록 분할 정보, 시그널링 정보 존재, 블록 위치 등)에 따라 블록 적응적으로 결정될 수 있다. 선택 예측 모드는 예를 들어, FRUC(FRAME RATE UP-CONVERSION) 모드, BIO(BI-DIRECTIONAL OPTICAL FLOW) 모드, AMP(AFFINE MOTION PREDICTION)모드, OBMC(OVERLAPPED BLOCK MOTION COMPENSATION) 모드, DMVR(DECODER-SIDE MOTION VECTOR REFINEMENT) 모드, ATMVP(Alternative temporal motion vector prediction) 모드, STMVP(Spatial-temporal motion vector prediction) 모드, LIC(Local Illumination Compensation) 모드 중 적어도 하나를 포함할 수 있다.The selection mode motion information decoding unit 248 may decode motion information in a prediction mode selected from among other motion compensation prediction modes except for the above-described AMVP mode, merge mode, and skip mode. The selective prediction mode may include a more precise motion prediction mode compared to the AMVP mode, and may be determined block-adaptively according to predetermined conditions (eg, block size and block segmentation information, signaling information existence, block position, etc.). . Selective prediction mode is, for example, FRUC (FRAME RATE UP-CONVERSION) mode, BIO (BI-DIRECTIONAL OPTICAL FLOW) mode, AMP (AFFINE MOTION PREDICTION) mode, OBMC (OVERLAPPED BLOCK MOTION COMPENSATION) mode, DMVR (DECODER-SIDE) It may include at least one of a MOTION VECTOR REFINEMENT mode, an ATMVP (Alternative temporal motion vector prediction) mode, a STMVP (Spatial-temporal motion vector prediction) mode, and a LIC (Local Illumination Compensation) mode.
예측블록 생성부(245)는 머지 모드 움직임 정보 복호화부(243) 또는 AMVP 모드 움직임 정보 복호화부(244)에 의해 복원된 움직임 정보를 이용하여 현재 블록의 예측 블록을 생성한다.The prediction block generator 245 generates a prediction block of the current block by using the motion information restored by the merge mode motion information decoder 243 or the AMVP mode motion information decoder 244.
움직임 벡터가 정수 단위일 경우, 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록이 생성될 수 있다.When the motion vector is an integer unit, a block corresponding to a position indicated by the motion vector in the picture indicated by the reference picture index may be copied to generate a prediction block of the current block.
한편, 움직임 벡터가 정수 단위가 아닐 경우, 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 정수 단위 화소들로부터 예측 블록의 화소들이 생성되며, 이 경우 휘도 화소의 경우에는 8탭의 보간 필터를 사용하고 색차 화소의 경우 4탭 보간 필터를 사용하여 예측 화소가 생성될 수 있다.Meanwhile, when the motion vector is not an integer unit, pixels of a prediction block are generated from integer unit pixels in a picture indicated by a reference picture index. In this case, an 8-tap interpolation filter is used for a luminance pixel and a color difference pixel Prediction pixels may be generated using a 4-tap interpolation filter.
잔차 블록 복호화부(246)는 잔차 신호를 엔트로피 복호화하고, 엔트로피 복호화된 계수들을 역스캐닝하여 2차원의 양자화된 계수 블록을 생성하며, 역스캐닝 방식은 엔트로피 복호화 방식에 따라 달라질 수 있다.The residual block decoder 246 entropy-decodes the residual signal and inversely scans the entropy-decoded coefficients to generate a two-dimensional quantized coefficient block, and the inverse scanning method may vary according to the entropy decoding method.
예를 들어, CABAC 기반으로 복호화된 경우 대각선 방향의 래스터 역스캔 방식으로, CAVLC 기반으로 복호화된 경우에는 지그재그 역스캔 방식으로 상기 역스캐닝 방식이 적용될 수 있다. 또한, 예측 블록의 크기에 따라 상기 역스캐닝 방식이 상이하게 결정될 수도 있다.For example, the inverse scanning method may be applied in a diagonal raster inverse scanning method when decoded based on CABAC or in a zigzag inverse scan method when decoded based on CAVLC. Also, the inverse scanning method may be differently determined according to the size of the prediction block.
잔차블록 복호화부(246)는 상기와 같이 생성된 계수블록을 역양자화 매트릭스를 이용하여 역양자화하며, 상기 양자화 매트릭스를 유도하기 위해 양자화 파리미터를 복원할 수 있다. 여기서, 양자화 스텝 사이즈는 미리 정해진 크기 이상의 코딩 유닛별로 복원될 수 있다.The residual block decoding unit 246 may inverse quantize the coefficient block generated as described above using an inverse quantization matrix, and reconstruct a quantization parameter to derive the quantization matrix. Here, the quantization step size may be restored for each coding unit having a predetermined size or more.
잔차블록 복호화부(260)는 상기 역양자화된 계수 블록을 역변환하여 잔차블록을 복원한다.The residual block decoding unit 260 inversely transforms the inverse-quantized coefficient block to restore the residual block.
복원블록 생성부(270)는 상기 예측블록 생성부(250)에 의해 생성된 예측 블록과 상기 잔차블록 복호화부(260)에 의하여 생성된 잔차 블록을 더하여 복원 블록을 생성한다.The reconstructed block generator 270 generates a reconstructed block by adding the predicted block generated by the predicted block generator 250 and the residual block generated by the residual block decoder 260.
이하, 현재 블록을 인트라 예측을 통해 복원하는 과정에 대한 일실시예를 도 7을 다시 참조하여 설명한다.Hereinafter, an embodiment of a process of restoring a current block through intra prediction will be described with reference to FIG. 7 again.
먼저, 수신된 비트스트림으로부터 현재 블록의 인트라 예측 모드가 복호화되며, 그를 위해 엔트로피 복호화부(210)는 복수의 인트라 예측 모드 테이블들 중 하나를 참조하여 현재 블록의 제1 인트라 예측 모드 인덱스를 복원할 수 있다.First, the intra prediction mode of the current block is decoded from the received bitstream, and for that purpose, the entropy decoding unit 210 restores the first intra prediction mode index of the current block by referring to one of the plurality of intra prediction mode tables. You can.
상기 복수의 인트라 예측 모드 테이블들 부호화 장치(10)와 복호화 장치(20)가 공유하는 테이블로서, 현재 블록에 인접한 복수 블록들에 대한 인트라 예측 모드의 분포에 따라 선택된 어느 하나의 테이블이 적용될 수 있다.As a table shared by the plurality of intra prediction mode tables encoding apparatus 10 and decoding apparatus 20, any one table selected according to the distribution of intra prediction modes for multiple blocks adjacent to the current block may be applied. .
예를 들어, 현재 블록의 좌측 블록의 인트라 예측 모드와 현재 블록의 상측 블록의 인트라 예측 모드가 동일하면 제1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 동일하지 않으면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수 있다.For example, if the intra prediction mode of the left block of the current block and the intra prediction mode of the upper block of the current block are the same, the first intra prediction mode table is applied to restore the index of the first intra prediction mode of the current block, and is not the same. Otherwise, the first intra prediction mode index of the current block may be restored by applying the second intra prediction mode table.
또 다른 예로써, 현재 블록의 상측 블록과 좌측 블록의 인트라 예측 모드가 모두 방향성 예측 모드(directional intra prediction 모드)일 경우, 상기 상측 블록의 인트라 예측 모드의 방향과 상기 좌측 블록의 인트라 예측 모드의 방향이 소정 각도 이내이면 제 1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 소정 각도를 벗어나면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수도 있다.As another example, when the intra prediction mode of the upper block and the left block of the current block are both directional intra prediction modes, the direction of the intra prediction mode of the upper block and the intra prediction mode of the left block If it is within a predetermined angle, the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, and if it is outside the predetermined angle, the second intra prediction mode table is applied to the first intra prediction mode index of the current block. Can also be restored.
엔트로피 복호화부(210)는 복원된 현재 블록의 제1 인트라 예측 모드 인덱스를 인트라 예측부(230)로 전송한다.The entropy decoding unit 210 transmits the first intra prediction mode index of the restored current block to the intra prediction unit 230.
제1 인트라 예측 모드를 인덱스를 수신한 인트라 예측부(230)는, 상기 인덱스가 최소값을 가질 경우(즉, 0일 경우), 현재 블록의 최대 가능 모드를 현재 블록의 인트라 예측 모드로 결정할 수 있다.When the index has a minimum value (ie, 0), the intra prediction unit 230 receiving the index of the first intra prediction mode may determine the maximum possible mode of the current block as the intra prediction mode of the current block. .
한편, 인트라 예측부(230)는, 상기 인덱스가 0 이외의 값을 가질 경우, 현재 블록의 최대 가능 모드가 나타내는 인덱스와 상기 제1 인트라 예측 모드 인덱스를 비교하고, 비교 결과 상기 제1 인트라 예측 모드 인덱스가 상기 현재 블록의 최대 가능 모드가 나타내는 인덱스보다 작지 않으면 상기 제1 인트라 예측 모드 인덱스에 1을 더한 제2 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정하고, 그렇지 않으면 상기 제1 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정할 수 있다.Meanwhile, when the index has a value other than 0, the intra prediction unit 230 compares the index indicated by the maximum possible mode of the current block with the index of the first intra prediction mode, and as a result of the comparison, the first intra prediction mode If the index is not smaller than the index indicated by the maximum possible mode of the current block, the intra prediction mode corresponding to the second intra prediction mode index obtained by adding 1 to the first intra prediction mode index is determined as the intra prediction mode of the current block. Otherwise, the intra prediction mode corresponding to the first intra prediction mode index may be determined as the intra prediction mode of the current block.
현재 블록에 허용 가능한 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(비 directional 모드)와 복수 개의 방향성 모드들(directional 모드s)로 구성될 수 있다.The intra prediction mode allowable for the current block may include at least one non-directional mode (non-directional mode) and a plurality of directional modes (directional modes).
하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. 또한, DC 모드와 플래너 모드 중 어느 하나가 적응적으로 상기 허용 가능한 인트라 예측 모드 셋에 포함될 수 있다.The one or more non-directional modes may be DC mode and / or planar mode. In addition, either the DC mode or the planner mode may be adaptively included in the allowable intra prediction mode set.
이를 위해, 픽쳐 헤더 또는 슬라이스 헤더에 상기 허용 가능한 인트라 예측 모드 셋에 포함되는 비방향성 모드를 특정하는 정보가 포함될 수 있다.To this end, information specifying a non-directional mode included in the allowable intra prediction mode set may be included in a picture header or a slice header.
다음으로, 인트라 예측부(230)는 인트라 예측 블록을 생성하기 위해, 참조 화소들을 픽쳐 저장부(260)로터 읽어들이고, 이용 가능하지 않은 참조 화소가 존재하는지 여부를 판단한다.Next, the intra prediction unit 230 reads the reference pixels from the picture storage unit 260 to generate an intra prediction block, and determines whether there is an unavailable reference pixel.
상기 판단은 현재 블록의 복호된 인트라 예측 모드를 적용하여 인트라 예측 블록을 생성하는데 이용되는 참조 화소들의 존재 여부에 따라 행해질 수도 있다.The determination may be made according to the presence or absence of reference pixels used to generate an intra prediction block by applying the decoded intra prediction mode of the current block.
다음으로, 인트라 예측부(230)는 참조 화소를 생성할 필요가 있을 경우에는 미리 복원된 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소들을 생성할 수 있다.Next, when it is necessary to generate the reference pixel, the intra prediction unit 230 may generate reference pixels at a location that is not available using previously reconstructed available reference pixels.
이용 가능하지 않은 참조 화소에 대한 정의 및 참조 화소의 생성 방법은 도 1에 따른 인트라 예측부(150)에서의 동작과 동일할 수 있으나, 현재 블록의 복호화된 인트라 예측 모드에 따라 인트라 예측 블록을 생성하는데 이용되는 참조 화소들이 선택적으로 복원될 수도 있다.The definition of a reference pixel that is not available and the method of generating the reference pixel may be the same as the operation of the intra prediction unit 150 according to FIG. 1, but an intra prediction block is generated according to the decoded intra prediction mode of the current block. The reference pixels used for this may be selectively restored.
또한, 인트라 예측부(230)는 예측 블록을 생성하기 위해 참조 화소들에 필터를 적용할지 여부를 판단하며, 즉 현재 블록의 인트라 예측 블록을 생성하기 위하여 참조 화소들에 대해 필터링을 적용할지 여부를 상기 복호된 인트라 예측 모드 및 현재 예측 블록의 크기에 기초하여 결정할 수 있다.In addition, the intra prediction unit 230 determines whether to apply a filter to reference pixels to generate a prediction block, that is, whether to apply filtering to reference pixels to generate an intra prediction block of the current block. It can be determined based on the decoded intra prediction mode and the size of the current prediction block.
블록킹 아티펙트의 문제는 블록의 크기가 커질수록 커지므로, 블록의 크기가 커질수록 참조 화소를 필터링하는 예측모드의 수를 증가시킬 수 있으나, 블록이 소정 크기보다 커지는 경우 평탄한 영역으로 볼 수 있으므로 복잡도 감소를 위해 참조 화소를 필터링하지 않을 수도 있다.The problem of blocking artifacts increases as the size of the block increases, so as the size of the block increases, the number of prediction modes for filtering the reference pixel can be increased, but if the block becomes larger than a predetermined size, it can be seen as a flat area, reducing complexity. For example, the reference pixel may not be filtered.
상기 참조 화소에 필터 적용이 필요하다고 판단된 경우, 인트라 예측부(230)는 필터를 이용하여 상기 참조 화소들을 필터링한다.When it is determined that a filter needs to be applied to the reference pixel, the intra prediction unit 230 filters the reference pixels using a filter.
상기한 참조 화소들 간의 단차의 차이 정도에 따라 적어도 2개 이상의 필터를 적응적으로 적용할 수도 있다. 상기 필터의 필터계수는 대칭적인 것이 바람직하다.At least two or more filters may be adaptively applied according to the difference in the level difference between the reference pixels. The filter coefficient of the filter is preferably symmetrical.
또한, 상기한 2개 이상의 필터가 현재 블록의 크기에 따라 적응적으로 적용될 수도 있으며, 필터를 적용할 경우 크기가 작은 블록에 대해서는 대역폭이 좁은 필터가, 크기가 큰 블록들에 대해서는 대역폭이 넓은 필터가 적용될 수도 있다.In addition, the above two or more filters may be adaptively applied according to the size of the current block. When applying a filter, a filter having a narrow bandwidth for a small block and a filter having a wide bandwidth for a large block May be applied.
DC 모드의 경우에는 참조 화소들의 평균값으로 예측 블록이 생성되므로 필터를 적용할 필요가 없으며, 상이 수직 방향으로 연관성(correlation)이 있는 수직 모드에서는 참조 화소에 필터를 적용할 필요가 없고, 영상이 수평 방향으로 연관성이 있는 수평 모드에서도 참조 화소에 필터를 적용할 필요가 없을 수 있다.In the DC mode, since a prediction block is generated with the average value of the reference pixels, there is no need to apply a filter, and in a vertical mode where correlations are different in the vertical direction, there is no need to apply a filter to the reference pixels, and the image is horizontal. Even in a horizontal mode that is related in the direction, it may not be necessary to apply a filter to a reference pixel.
이와 같이, 필터링의 적용 여부는 현재 블록의 인트라 예측 모드와도 연관성이 있으므로, 현재 블록의 인트라 예측 모드 및 예측 블록의 크기에 기초하여 참조 화소를 적응적으로 필터링할 수 있다.As described above, whether or not filtering is applied is also related to the intra prediction mode of the current block, so that the reference pixel can be filtered adaptively based on the intra prediction mode of the current block and the size of the prediction block.
다음으로, 인트라 예측부(230)는 상기 복원된 인트라 예측 모드에 따라 참조 화소 또는 필터링된 참조 화소들을 이용하여 예측 블록을 생성하며, 상기 예측 블록의 생성은 부호화 장치(10)에서의 동작과 동일할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.Next, the intra prediction unit 230 generates a prediction block using reference pixels or filtered reference pixels according to the restored intra prediction mode, and generation of the prediction block is the same as that of the operation of the encoding apparatus 10. Since it can be, a detailed description thereof will be omitted.
인트라 예측부(230)는 상기 생성된 예측 블록을 필터링할지 여부를 판단하며, 상기 필터링 여부는 슬라이스 헤더 또는 부호화 유닛 헤더에 포함된 정보를 이용하거나 또는 현재 블록의 인트라 예측 모드에 따라 결정될 수 있다.The intra prediction unit 230 determines whether to filter the generated prediction block, and the filtering may be determined by using information included in a slice header or a coding unit header or according to an intra prediction mode of the current block.
상기 생성된 예측 블록을 필터링할 것으로 판단할 경우, 인트라 예측부(230)는 현재 블록에 인접한 이용 가능한 참조 화소들을 이용하여 생성된 예측 블록의 특정 위치의 화소를 필터링하여 새로운 화소를 생성할 수 있다.When it is determined that the generated prediction block is to be filtered, the intra prediction unit 230 may generate a new pixel by filtering a pixel at a specific position of the generated prediction block using available reference pixels adjacent to the current block. .
예를 들어, DC 모드에서는 예측 화소들 중 참조 화소들과 접하는 예측 화소는 상기 예측 화소와 접하는 참조 화소를 이용하여 필터링 될 수 있다.For example, in the DC mode, a prediction pixel contacting the reference pixels among the prediction pixels may be filtered using a reference pixel contacting the prediction pixel.
따라서, 예측 화소의 위치에 따라 1개 또는 2개의 참조 화소를 이용하여 예측 화소가 필터링되며, DC 모드에서의 예측 화소의 필터링은 모든 크기의 예측 블록에 적용할 수 있다.Accordingly, the prediction pixel is filtered using one or two reference pixels according to the position of the prediction pixel, and filtering of the prediction pixel in DC mode can be applied to prediction blocks of all sizes.
한편, 수직 모드에서는 예측 블록의 예측 화소들 중 좌측 참조 화소와 접하는 예측 화소들은 상기 예측블록을 생성하는데 이용되는 상측 화소 이외의 참조 화소들을 이용하여 변경될 수 있다.Meanwhile, in the vertical mode, prediction pixels in contact with the left reference pixel among the prediction pixels of the prediction block may be changed using reference pixels other than the upper pixel used to generate the prediction block.
마찬가지로, 수평 모드에서는 생성된 예측 화소들 중 상측 참조 화소와 접하는 예측 화소들은 상기 예측블록을 생성하는데 이용되는 좌측 화소 이외의 참조 화소들을 이용하여 변경될 수 있다.Similarly, in the horizontal mode, prediction pixels that come into contact with the upper reference pixel among the generated prediction pixels may be changed using reference pixels other than the left pixel used to generate the prediction block.
이와 같은 방식으로 복원된 현재 블록의 예측 블록과 복호화한 현재 블록의 잔차 블록을 이용하여 현재 블록이 복원될 수 있다.In this way, the current block may be reconstructed using the prediction block of the current block reconstructed and the residual block of the decoded current block.
도 9는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제2 실시예를 설명하기 위한 도시한 것이다.9 is a diagram for describing a second embodiment of a method of dividing and processing an image in block units.
도 9를 참조하면, 최대 256x256 픽셀 크기를 가지는 코딩 트리 유닛(CTU)은 먼저 쿼드 트리(quad tree) 구조로 나뉘어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 분할될 수 있다.Referring to FIG. 9, a coding tree unit (CTU) having a maximum size of 256x256 pixels is first divided into a quad tree structure, and can be divided into four coding units (CUs) having a square shape.
여기서, 상기 쿼드 트리 구조로 분할된 코딩 유닛들 중 적어도 하나는 이진 트리(binary tree) 구조로 나뉘어, 직사각형의 형태를 가지는 2개의 코딩 유닛(CU)들로 재 분할될 수 있다.Here, at least one of the coding units divided into the quad tree structure is divided into a binary tree structure, and may be re-divided into two coding units (CUs) having a rectangular shape.
한편, 상기 쿼드 트리 구조로 분할된 코딩 유닛들 중 적어도 하나는 쿼드 트리 구조로 나뉘어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 재 분할될 수도 있다.Meanwhile, at least one of the coding units divided into the quad tree structure may be divided into a quad tree structure and re-divided into four coding units (CUs) having a square shape.
그리고 상기 이진 트리 구조로 재 분할된 코딩 유닛들 중 적어도 하나는 이진 트리 구조로 다시 나뉘어, 정사각형 또는 직사각형의 형태를 가지는 2개의 코딩 유닛(CU)들로 분할될 수 있다.In addition, at least one of the coding units re-divided into the binary tree structure may be divided into a binary tree structure and divided into two coding units (CUs) having a square or rectangular shape.
한편, 상기 쿼드 트리 구조로 재 분할된 코딩 유닛들 중 적어도 하나는 쿼드 트리 구조 또는 이진 크리 구조로 다시 나뉘어, 정사각형 또는 직사각형의 형태를 가지는 코딩 유닛(CU)들로 분할될 수도 있다.Meanwhile, at least one of the coding units re-divided into the quad tree structure may be divided into a quad tree structure or a binary cree structure, and may be divided into coding units (CUs) having a square or rectangular shape.
상기와 같이 이진 트리 구조로 분할되어 구성된 CU들은 들은, 더 이상 분할되지 않고, 예측 및 변환에 이용될 수 있다. 이때, 이진 분할된 CU는 실제 부/복호화를 수행하는 블록 단위인 코딩 블록(Coding block: CB)과 해당 코딩 블록에 해당되는 신택스를 포함할 수 있다. 즉, 도 9에 도시된 바와 같은 코딩 블록(CB)에 속하는 예측 유닛(PU)과 변환 유닛(TU)의 크기는, 해당 코딩 블록(CB)의 크기와 동일할 수 있다.CUs configured by being divided into a binary tree structure as described above are not split anymore and can be used for prediction and transformation. In this case, the binary partitioned CU may include a coding block (CB) that is a block unit that performs actual sub / decoding and syntax corresponding to the corresponding coding block. That is, the size of the prediction unit PU and the transformation unit TU belonging to the coding block CB as shown in FIG. 9 may be the same as the size of the corresponding coding block CB.
상기와 같이 쿼드 트리 구조로 분할된 코딩 유닛은 도 3 및 도 4를 참조하여 설명한 바와 같은 방법을 이용하여 하나 또는 2 이상의 예측 유닛(PU)들로 분할될 수 있다.The coding unit split into the quad tree structure may be divided into one or more prediction units (PUs) using the method as described with reference to FIGS. 3 and 4.
또한, 상기와 같이 쿼드 트리 구조로 분할된 코딩 유닛은 도 5를 참조하여 설명한 바와 같은 방법을 이용하여 하나 또는 2 이상의 변환 유닛(TU)들로 분할될 수 있으며, 상기 분할된 변환 유닛(TU)은 최대 64x64 픽셀 크기를 가질 수 있다.In addition, the coding unit divided into a quad tree structure may be divided into one or two or more transform units (TUs) using the method as described with reference to FIG. 5, and the split transform unit (TU) Can have a maximum size of 64x64 pixels.
도 10은 영상을 블록 단위로 분할하여 처리하기 위해 사용되는 신택스(syntax) 구조에 대한 일실시예를 나타내는 것이다.10 illustrates an embodiment of a syntax structure used to process an image by dividing it into blocks.
도 10 및 도 9를 참조하면, 본 발명의 실시 예에 따른 블록 구조(block structure)는 쿼드 트리 분할 여부를 나타내는 split_cu_flag와 이진 트리 분할 여부를 나타내는 binary_split_flag를 통해 결정될 수 있다.10 and 9, a block structure according to an embodiment of the present invention may be determined through split_cu_flag indicating whether to split a quad tree and binary_split_flag indicating whether to split a binary tree.
예를 들어, 앞서 설명한 바와 같은 코딩 유닛(CU)의 분할 여부는 split_cu_flag를 이용하여 나타낼 수 있다. 그리고, 쿼드 트리 분할 이후 이진 분할된 CU에 대응하여, 이진 분할 여부를 나타내는 binary_split_flag 및 분할된 방향을 나타내는 신택스가 결정될 수 있다. 이 때, 이진 분할의 방향성을 나타내는 방법으로서, binary_split_hor과 binary_split_ver과 같이 복수개의 신택스를 복호화하여 이에 기초한 분할 방향을 결정하는 방법 또는 binary_split_mode와 같이 하나의 신택스와 이에 따른 신호 값을 복호화하여 Horizontal(0) 또는 Vertical(1) 방향으로의 분할을 처리하는 방법이 예시될 수 있다. For example, whether to split the coding unit (CU) as described above may be indicated using split_cu_flag. In addition, binary_split_flag indicating whether to split or not and syntax indicating the split direction may be determined in correspondence to a binary partitioned CU after quad tree splitting. At this time, as a method of indicating the directionality of binary splitting, a method of determining a splitting direction based on this by decoding a plurality of syntaxes such as binary_split_hor and binary_split_ver, or decoding a single syntax and signal values according to it, such as binary_split_mode, and Horizontal (0) Alternatively, a method of processing division in the vertical (1) direction may be exemplified.
본 발명에 따른 또 다른 실시예로써, 이진 트리를 이용하여 분할되는 코딩 유닛(CU)의 깊이는 binary_depth를 이용하여 나타내어질 수 있다.As another embodiment according to the present invention, the depth of a coding unit (CU) split using a binary tree may be represented using binary_depth.
도 9 및 도 10을 참조하여 설명한 바와 같은 방법에 의해 분할된 블록들(예를 들어, 코딩 유닛(CU), 예측 유닛(PU) 및 변환 유닛(TU))에 대해 도 1 내지 도 8을 참조하여 설명한 바와 같은 방법들이 적용됨으로써, 영상에 대한 부호화 및 복호화가 수행될 수 있다.1 to 8 for blocks (eg, a coding unit (CU), a prediction unit (PU), and a transform unit (TU)) divided by a method as described with reference to FIGS. 9 and 10. By applying the methods as described above, encoding and decoding of an image may be performed.
이하에서는, 도 11 내지 도 16을 참조하여, 코딩 유닛(CU)을 하나 또는 2 이상의 변환 유닛(TU)들로 분할하는 방법에 대한 또 다른 실시예들을 설명하기로 한다.Hereinafter, another embodiment of a method of dividing a coding unit (CU) into one or two or more transform units (TUs) will be described with reference to FIGS. 11 to 16.
본 발명의 실시예에 따르면, 코딩 유닛(CU)은 이진 트리 구조로 나뉘어 잔차 블록에 대한 변환이 수행되는 기본 단위인 변환 유닛(TU)들로 분할될 수 있다.According to an embodiment of the present invention, the coding unit (CU) may be divided into a binary tree structure and divided into transform units (TUs), which are basic units for transforming residual blocks.
예를 들어, 도 11을 참조하면, 이진 트리 구조로 분할되어 Nx2N 또는 2NxN의 크기를 가지는 직사각형의 코딩 블록들(CU 0, Cu 1) 중 적어도 하나는, 다시 이진 트리 구조로 나뉘어, NxN의 크기를 가지는 정사각형의 변환 유닛들(TU 0, TU 1)로 분할될 수 있다.For example, referring to FIG. 11, at least one of rectangular coding blocks CU 0 and Cu 1 divided into a binary tree structure and having a size of Nx2N or 2NxN is divided into a binary tree structure, and the size of NxN It can be divided into square transform units (TU 0 , TU 1 ).
상기한 바와 같이, 블록 기반의 영상 부호화 방법은, 예측, 변환, 양자화 및 엔트로피 부호화 단계들을 수행할 수 있다.As described above, the block-based image encoding method may perform prediction, transform, quantization, and entropy encoding steps.
상기 예측 단계에서는, 현재 부호화를 수행하는 블록과 기존의 부호화된 영상 또는 주변 영상을 참조하여 예측 신호를 생성하며, 이를 통해 현재 블록과의 차분 신호를 계산할 수 있다.In the prediction step, a prediction signal is generated by referring to a block performing current encoding and an existing coded image or a surrounding image, and through this, a difference signal from the current block can be calculated.
한편, 변환 단계에서는, 상기 차분 신호를 입력으로 하여 다양한 변환 함수를 이용하여 변환을 수행하며, 상기 변환된 신호는 DC 계수와 AC 계수들로 분류되 에너지 집중(Energy compaction)되어 부호화 효율이 향상될 수 있다.On the other hand, in the conversion step, the difference signal is used as input to perform conversion using various conversion functions, and the converted signal is classified into DC coefficients and AC coefficients to be energy compacted to improve encoding efficiency. You can.
또한, 양자화 단계에서는 변환 계수(Transform coefficient)들을 입력으로 양자화가 수행하며, 이후 양자화된 신호에 대해 엔트로피 부호화가 수행됨으로써 영상이 부호화될 수 있다.In addition, in the quantization step, quantization is performed with transform coefficients as an input, and then entropy encoding is performed on the quantized signal, so that an image may be encoded.
한편, 영상 복호화 방법은 상기와 같은 부호화 과정의 역순으로 진행되며, 영상의 화질 왜곡 현상이 양자화 단계에서 발생할 수 있다.On the other hand, the image decoding method proceeds in the reverse order of the encoding process as described above, and an image quality distortion phenomenon may occur in the quantization step.
부호화 효율을 향상시키면서 화질 왜곡 현상을 줄이기 위한 방법으로서, 변환 단계에서 입력으로 들어오는 차분 신호의 분포 및 영상의 특징에 따라 변환 유닛(TU)의 크기 또는 모양과 적용되는 변환 함수 종류를 다양하게 할 수 있다.As a method for reducing the image distortion while improving the encoding efficiency, the size or shape of the transform unit (TU) and the type of transform function applied can be varied according to the distribution of the difference signal input to the input in the transform step and the characteristics of the image. have.
예를 들어, 예측 단계에서 블록 기반 움직임 추정 과정을 통해 현재 블록과 유사한 블록을 찾는 경우, SAD(Sum of Absolute Difference) 또는 MSE(Mean Square error) 등과 같은 코스트(cost) 측정 방법을 이용하여, 차분 신호의 분포는 영상의 특성에 따라 다양한 형태로 생길 수 있다.For example, when a block similar to the current block is found through a block-based motion estimation process in a prediction step, a difference is measured using a cost measurement method such as SAD (Sum of Absolute Difference) or MSE (Mean Square error). Signal distribution can occur in various forms depending on the characteristics of the image.
그에 따라, 다양한 차분 신호의 분포에 기초해 선택적으로 변환 유닛(CU)의 크기 또는 모양을 결정하여 변환을 수행함으로써, 효과적인 부호화가 수행될 수 있다.Accordingly, efficient encoding can be performed by selectively performing the transformation by determining the size or shape of the transformation unit CU based on the distribution of various difference signals.
도 12를 참조하면, 임의의 코딩 유닛(CUx) 에서 (a)에 도시된 바와 같이 차분 신호가 발생하는 경우, (b)에 도시된 바와 같이 해당 코딩 유닛(CUx)을 이진 트리 구조로 나누어 2개의 변환 유닛(TU)들로 분할함으로써 효과적인 변환이 수행되도록 할 수 있다.Referring to FIG. 12, when a differential signal is generated as shown in (a) in any coding unit (CUx), the coding unit (CUx) is divided into a binary tree structure as shown in (b) 2 By dividing into two transform units (TUs), an effective transform can be performed.
예를 들어, DC 값은 일반적으로 입력 신호의 평균값을 나타낸다고 말할 수 있으므로, 도 12의 (a)에 도시된 바와 같은 차분 신호가 변환 과정의 입력으로 수신되는 경우, 코딩 유닛(CUx)을 2개의 변환 유닛(TU)들로 분할함으로써 효과적으로 DC 값을 나타낼 수 있다.For example, since it can be said that the DC value generally represents the average value of the input signal, when a differential signal as shown in (a) of FIG. 12 is received as the input of the conversion process, two coding units (CUx) are used. By dividing into conversion units (TUs), it is possible to effectively represent the DC value.
도 13을 참조하면, 2Nx2N의 크기를 가지는 정사각형의 코딩 유닛(CU 0)이 이진 트리 구조로 나뉘어, Nx2N 또는 2NxN의 크기를 가지는 직사각형의 변환 유닛들(TU 0, TU 1)로 분할될 수 있다.Referring to FIG. 13, a square coding unit (CU 0 ) having a size of 2Nx2N is divided into a binary tree structure, and can be divided into rectangular transform units (TU 0 and TU 1 ) having a size of Nx2N or 2NxN. .
본 발명의 또 다른 실시예에 따르면, 상기한 바와 같이 코딩 유닛(CU)을 이진 트리 구조로 분할하는 단계를 2회 이상 반복해 수행하여, 복수의 변환 유닛(TU)들로 분할할 수 있다.According to another embodiment of the present invention, as described above, the step of dividing the coding unit (CU) into a binary tree structure may be performed repeatedly two or more times, and divided into a plurality of transform units (TUs).
도 14를 참조하면, Nx2N의 크기를 가지는 직사각형의 코딩 블록(CB 1)을 이진 트리 구조로 분할하고, 상기 분할된 NxN의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 N/2xN 또는 NxN/2의 크기를 가지는 직사각형의 블록을 구성한 후, 상기 N/2xN 또는 NxN/2의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 N/2xN/2의 크기를 가지는 정사각형의 변환 유닛들(TU 1, TU 2, TU 4, TU 5)로 분할할 수 있다.Referring to FIG. 14, a rectangular coding block (CB 1 ) having a size of Nx2N is divided into a binary tree structure, and a block having the size of the divided NxN is further divided into a binary tree structure to N / 2xN or NxN / After constructing a rectangular block having a size of 2, the block having the size of N / 2xN or NxN / 2 is divided into a binary tree structure, and square transform units having a size of N / 2xN / 2 (TU 1 , TU 2 , TU 4 , TU 5 ).
도 15를 참조하면, 2Nx2N의 크기를 가지는 정사각형의 코딩 유닛(CU 0)을 이진 트리 구조로 분할하고, 상기 분할된 Nx2N의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 NxN의 크기를 가지는 정사각형의 블록을 구성한 후, 상기 NxN의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 N/2xN의 크기를 가지는 직사각형의 변환 유닛들(TU 1, TU 2)로 분할할 수 있다.Referring to FIG. 15, a square coding unit (CU 0 ) having a size of 2Nx2N is divided into a binary tree structure, and a block having the size of the divided Nx2N is divided into a binary tree structure, and a square having a size of NxN is obtained. After constructing the block of, the block having the size of NxN may be further divided into a binary tree structure and divided into rectangular transform units (TU 1 and TU 2 ) having the size of N / 2xN.
도 16을 참조하면, 2NxN의 크기를 가지는 직사각형의 코딩 유닛(CU 0)을 이진 트리 구조로 분할하고, 상기 분할된 NxN의 크기를 가지는 블록을 다시 쿼드 트리 구조로 분할하여 N/2xN/2의 크기를 가지는 정사각형의 변환 유닛들(TU 1, TU 2, TU 3, TU 4)로 분할할 수 있다.Referring to FIG. 16, a rectangular coding unit (CU 0 ) having a size of 2NxN is divided into a binary tree structure, and a block having the size of the divided NxN is divided into a quad tree structure to generate N / 2xN / 2. It can be divided into square transform units having a size (TU 1 , TU 2 , TU 3 , TU 4 ).
도 11 내지 도 16을 참조하여 설명한 바와 같은 방법에 의해 분할된 블록들(예를 들어, 코딩 유닛(CU), 예측 유닛(PU) 및 변환 유닛(TU))에 대해 도 1 내지 도 8을 참조하여 설명한 바와 같은 방법들이 적용됨으로써, 영상에 대한 부호화 및 복호화가 수행될 수 있다.1 to 8 for blocks (eg, a coding unit (CU), a prediction unit (PU), and a transform unit (TU)) divided by a method as described with reference to FIGS. 11 to 16. By applying the methods as described above, encoding and decoding of an image may be performed.
이하에서는, 본 발명에 따른 부호화 장치(10)가 블록 분할 구조를 결정하는 방법에 대한 실시예들에 대해 설명한다.Hereinafter, embodiments of a method of determining a block division structure by the encoding apparatus 10 according to the present invention will be described.
영상 부호화 장치(10)에 구비된 픽쳐 분할부(110)는 미리 설정된 순서에 따라 RDO(Rate distortion Optimization)를 수행하여, 상기한 바와 같이 분할 가능한 코딩 유닛(CU), 예측 유닛(PU) 및 변환 유닛(TU)의 분할 구조를 결정할 수 있다.The picture dividing unit 110 provided in the image encoding apparatus 10 performs rate distortion optimization (RDO) according to a preset order, and as described above, the dividable coding unit (CU), prediction unit (PU), and transform The division structure of the unit TU can be determined.
예를 들어, 블록 분할 구조를 결정하기 위해, 픽쳐 분할부(110)는 RDO-Q(Rate distortion Optimization- Quantization)를 수행하면서 비트율(bitrate)와 왜곡(distortion) 측면에서 최적의 블록 분할 구조를 결정할 수 있다. For example, in order to determine the block division structure, the picture division unit 110 determines an optimal block division structure in terms of bitrate and distortion while performing rate distortion optimization-quantization (RDO-Q). You can.
도 17을 참조하면, 코딩 유닛(CU)이 2Nx2N 픽셀 크기의 형태를 가지는 경우, (a)에 도시된 2Nx2N 픽셀 크기, (b)에 도시된 NxN 픽셀 크기, (c)에 도시된 Nx2N 픽셀 크기, (d)에 도시된 2NxN 픽셀 크기의 변환 유닛(PU) 분할 구조 순서로 RDO를 수행하여 변환 유닛(PU)의 최적 분할 구조를 결정할 수 있다.Referring to FIG. 17, when the coding unit CU has a form of 2Nx2N pixel size, 2Nx2N pixel size shown in (a), NxN pixel size shown in (b), and Nx2N pixel size shown in (c) , RD may be performed in the order of 2NxN pixel sized conversion unit (PU) split structure shown in (d) to determine the optimal split structure of the transform unit (PU).
도 18을 참조하면, 코딩 유닛(CU)이 Nx2N 또는 2NxN 픽셀 크기의 형태를 가지는 경우, (a)에 도시된 Nx2N(또는, 2NxN)의 픽셀 크기, (b)에 도시된 NxN의 픽셀 크기, (c)에 도시된 N/2xN(또는, NxN/2)와 NxN의 픽셀 크기, (d)에 도시된 N/2xN/2, N/2xN 및 NxN의 픽셀 크기, (e)에 도시된 N/2xN의 픽셀 크기의 변환 유닛(PU) 분할 구조 순서로 RDO를 수행하여 변환 유닛(PU)의 최적 분할 구조를 결정할 수 있다.Referring to FIG. 18, when the coding unit CU has a form of Nx2N or 2NxN pixel size, the pixel size of Nx2N (or 2NxN) shown in (a), the pixel size of NxN shown in (b), Pixel size of N / 2xN (or NxN / 2) and NxN shown in (c), N / 2xN / 2, N / 2xN and pixel size of NxN shown in (d), N shown in (e) It is possible to determine the optimal division structure of the conversion unit PU by performing RDO in the order of the division structure of the conversion unit (PU) having a pixel size of / 2xN.
상기에서는 RDO(Rate distortion Optimization)를 수행하여 블록 분할 구조가 결정되는 것을 예로 들어 본 발명의 블록 분할 방법을 설명하였으나, 픽쳐 분할부(110)는 SAD(Sum of Absolute difference) 또는 MSE(Mean Square Error)를 이용하여 블록 분할 구조를 결정함으로써 복잡도를 감소시키면서도 적절한 효율을 유지할 수 있다.In the above, the block division method of the present invention has been described as an example in which a block division structure is determined by performing rate distortion optimization (RDO), but the picture division unit 110 has a Sum of Absolute Difference (SAD) or Mean Square Error (MSE). ), It is possible to maintain a proper efficiency while reducing the complexity by determining the block division structure.
본 발명의 일실시예에 따르면, 상기한 바와 같이 분할된 코딩 유닛(CU), 예측 유닛(PU) 또는 변환 유닛(TU) 단위로 적응적 루프 필터링(Adaptive Loof Filtering: ALF)의 적용 여부가 결정될 수 있다.According to an embodiment of the present invention, whether to apply adaptive loop filtering (ALF) in units of a coding unit (CU), a prediction unit (PU), or a transformation unit (TU) divided as described above is determined. You can.
예를 들어, 적응적 루프 필터(ALF)의 적용 여부는 코딩 유닛(CU) 단위로 결정될 수 있으며, 코딩 유닛(CU)에 따라 적용될 루프 필터의 크기 또는 계수는 달라질 수 있다.For example, whether to apply the adaptive loop filter (ALF) may be determined on a coding unit (CU) basis, and the size or coefficient of a loop filter to be applied may vary according to the coding unit (CU).
이 경우, 코딩 유닛(CU) 별 상기 적응적 루프 필터(ALF)의 적용 여부를 나타내는 정보가 각 슬라이스 헤더에 포함될 수 있다.In this case, information indicating whether to apply the adaptive loop filter (ALF) for each coding unit (CU) may be included in each slice header.
색차 신호의 경우, 픽쳐 단위로 적응적 루프 필터(ALF)의 적용 여부를 결정할 수도 있으며, 루프 필터의 형태도 휘도와 달리 직사각형 형태를 가질 수 있다.In the case of a chrominance signal, it may be determined whether to apply an adaptive loop filter (ALF) on a picture-by-picture basis, and the shape of the loop filter may have a rectangular shape unlike luminance.
또한, 상기 적응적 루프 필터링(ALF)은 슬라이스별로 적용 여부를 결정할 수 있다. 따라서, 현재 슬라이스에 적응적 루프 필터링(ALF)이 적용되는지 여부를 나타내는 정보는 슬라이스 헤더 또는 픽쳐 헤더에 포함될 수 있다.In addition, the adaptive loop filtering (ALF) may determine whether to apply for each slice. Accordingly, information indicating whether adaptive loop filtering (ALF) is applied to the current slice may be included in a slice header or a picture header.
현재 슬라이스에 적응적 루프 필터링이 적용됨을 나타내면, 슬라이스 헤더 또는 픽쳐 헤더는 추가적으로 적응적 루프 필터링 과정에 사용되는 휘도 성분의 수평 및/또는 수직 방향의 필터 길이를 나타내는 정보를 포함할 수 있다.If it is indicated that adaptive loop filtering is applied to the current slice, the slice header or picture header may additionally include information indicating the filter length in the horizontal and / or vertical direction of the luminance component used in the adaptive loop filtering process.
슬라이스 헤더 또는 픽쳐 헤더는 필터 세트의 수를 나타내는 정보를 포함할 수 있으며, 필터 세트의 수가 2 이상인 경우 필터 계수들이 예측 방법을 사용하여 부호화 될 수 있다.The slice header or the picture header may include information indicating the number of filter sets, and when the number of filter sets is 2 or more, filter coefficients may be encoded using a prediction method.
따라서, 슬라이스 헤더 또는 픽쳐 헤더는 필터 계수들이 예측 방법으로 부호화 되는지 여부를 나타내는 정보를 포함할 수 있으며, 예측 방법이 사용되는 경우에는 예측된 필터 계수를 포함할 수 있다.Therefore, the slice header or the picture header may include information indicating whether filter coefficients are encoded by a prediction method, and when the prediction method is used, may include predicted filter coefficients.
한편, 휘도 뿐만 아니라, 색차 성분들도 적응적으로 필터링 될 수 있으며, 이 경우 색차 성분 각각이 필터링 되는지 여부를 나타내는 정보가 슬라이스 헤더 또는 픽쳐 헤더에 포함될 수 있으며 비트 수를 줄이기 위해 Cr과 Cb에 대한 필터링 여부를 나타내는 정보와 함께 조인트 코딩(즉, 다중화 코딩)될 수 있다.Meanwhile, not only luminance but also chrominance components can be adaptively filtered. In this case, information indicating whether each chrominance component is filtered may be included in a slice header or a picture header, and for Cr and Cb to reduce the number of bits. Joint coding (ie, multiplexing coding) may be performed together with information indicating whether to filter.
이 때, 색차 성분들의 경우에는 복잡도 감소를 위해 Cr과 Cb를 모두 필터링하지 않는 경우가 가장 빈번할 가능성이 높으므로, Cr과 Cb를 모두 필터링하지 않는 경우에 가장 작은 인덱스를 할당하여 엔트로피 부호화를 수행할 수 있다.At this time, in the case of chrominance components, since it is most likely that both Cr and Cb are not filtered to reduce complexity, entropy coding is performed by assigning the smallest index when both Cr and Cb are not filtered. can do.
그리고, Cr 및 Cb를 모두 필터링하는 경우에 가장 큰 인덱스를 할당하여 엔트로피 부호화를 수행할 수 있다.In addition, when filtering both Cr and Cb, entropy coding may be performed by assigning the largest index.
도 19는 본 발명의 다른 일 실시 예에 따른 복합 분할 구조를 설명하기 위한 도면들이다.19 is a view for explaining a composite partition structure according to another embodiment of the present invention.
도 19를 참조하면, 코딩 유닛(CU)이 이진 트리 구조로 분할됨에 따라, 도 19(A)와 같은 가로 길이 W가 세로 길이 H보다 긴 형태의 직사각형과, 도 19(B)와 같이 세로 길이 H가 가로 길이 W보다 긴 형태의 직사각형으로 분할된 코딩 유닛(CU)의 형태가 나타날 수 있다. 이와 같이 특정 방향의 길이가 긴 코딩 유닛의 경우, 중간 영역에 비하여 가장자리 좌우 또는 상하 경계 영역이 상대적으로 부호화 정보가 집중될 가능성이 높다.Referring to FIG. 19, as the coding unit CU is divided into a binary tree structure, a rectangle having a shape in which the horizontal length W as shown in FIG. 19 (A) is longer than the vertical length H, and a vertical length as shown in FIG. 19 (B). The shape of the coding unit (CU) in which H is divided into a rectangle having a shape longer than the width W may appear. In the case of a coding unit having a long length in a specific direction as described above, it is highly likely that the encoding information is concentrated in the left and right or upper and lower edge regions compared to the middle region.
따라서, 보다 정밀하고 효율적인 부호화 및 복호화를 위하여, 본 발명의 실시 예에 따른 부호화 장치(10)는 쿼드 트리 및 이진 트리 분할에 의해, 특정 방향 길이가 길게 분할된 코딩 유닛의 가장자리 영역 등을 용이하게 분할하게 할 수 있는 삼진 트리(ternary tree) 또는 삼중 트리(triple tree) 구조로 코딩 유닛을 분할할 수 있다.Therefore, for more precise and efficient encoding and decoding, the encoding apparatus 10 according to an exemplary embodiment of the present invention can facilitate the edge area of a coding unit, which has a long specific direction, by splitting quad trees and binary trees. The coding unit can be split into a ternary tree or triple tree structure that can be split.
예를 들어, 도 19(A)는 분할 대상 코딩 유닛이 수평 분할된 코딩 유닛인 경우, 가로 W/8, 세로 H/4 길이인 좌측 가장자리의 제1 영역과, 가로 W/8*6, 세로 H/4 길이로서, 중간 영역인 제2 영역과, 가로 W/8, 세로 H/4 길이의 우측 가장자리의 제3 영역으로 삼진 분할될 수 있음을 나타내고 있다.For example, FIG. 19 (A) shows a first area of the left edge having a horizontal W / 8 and a vertical H / 4 length, and a horizontal W / 8 * 6, vertical when the coding unit to be divided is a horizontally divided coding unit. As the H / 4 length, it is shown that the second region, which is the middle region, and the third region of the right edge of the horizontal W / 8 and the vertical H / 4 length can be struck.
또한, 도 19(B)는 분할 대상 코딩 유닛이 수직 분할된 코딩 유닛인 경우, 가로 W/4, 세로 H/8 길이인 상단 가장자리의 제1 영역과, 가로 W/4, 세로 H/8*6 길이로서, 중간 영역인 제2 영역과, 가로 W/4, 세로 H/8 길이의 하단 가장자리의 제3 영역으로 분할될 수 있음을 나타내고 있다.19 (B), when the coding unit to be divided is a vertically divided coding unit, a first region of a top edge having a horizontal W / 4 and a vertical H / 8 length, and a horizontal W / 4 and a vertical H / 8 * It is shown that the length can be divided into a second region, which is an intermediate region, and a third region of the lower edge of the horizontal W / 4 and the vertical H / 8 length.
그리고, 본 발명의 실시 예에 따른 부호화 장치(10)는, 픽쳐 분할부(110)를 통해 이와 같은 삼진 트리 구조의 분할을 처리할 수 있다. 이를 위해, 픽쳐 분할부(110)는 전술한 쿼드 트리 및 이진 트리 구조로의 분할을 부호화 효율에 따라 결정할 수 있을 뿐만 아니라, 삼진 트리 구조를 함께 고려하여 세분화된 분할 방식을 세결정할 수 있다.In addition, the encoding apparatus 10 according to an embodiment of the present invention may process the splitting of the ternary tree structure through the picture splitter 110. To this end, the picture divider 110 may not only determine the division into the above-described quad-tree and binary-tree structures according to encoding efficiency, but may also fine-tune the segmentation scheme by considering the ternary tree structure together.
여기서, 삼진 트리 구조의 분할은 별도 제한 없이 모든 코딩 유닛에 대해 처리될 수 있다. 그러나, 전술한 바와 같이 부호화 및 복호화 효율을 고려하면, 특정 조건의 코딩 유닛에 대하여만 삼진 트리 구조를 허용하는 것이 바람직할 수 있다.Here, the division of the ternary tree structure may be processed for all coding units without limitation. However, considering the encoding and decoding efficiency as described above, it may be desirable to allow a ternary tree structure only for coding units having specific conditions.
또한, 삼진 트리 구조는 코딩 트리 유닛에 대한 다양한 방식의 삼진 분할이 필요할 수 있으나, 부호화 및 복호화 복잡도 및 시그널링에 의한 전송 대역폭을 고려하여, 최적화된 소정 형태만이 허용되는 것이 바람직할 수 있다.In addition, the ternary tree structure may require ternary division of various methods for the coding tree unit, but it may be desirable to allow only an optimized predetermined form in consideration of encoding and decoding complexity and transmission bandwidth by signaling.
따라서, 픽쳐 분할부(110)는 현재 코딩 유닛의 분할을 결정함에 있어서, 현재 코딩 유닛이 미리 설정된 조건에 대항하는 경우에만 특정 형태의 삼진 트리 구조로의 분할여부를 판단 및 결정할 수 있다. 또한, 이와 같은 삼진 트리의 허용에 따라, 바이너리 트리의 분할 비율도 1:1만이 아닌 3:1, 1:3 등으로 확장 및 가변될 수 있다. 따라서, 본 발명의 실시 예에 따른 코딩 유닛의 분할 구조는 비율에 따라 쿼드 트리, 이진 트리 또는 삼진 트리로 세분화 분할되는 복합 트리 구조를 포함할 수 있다.Therefore, in determining the division of the current coding unit, the picture division unit 110 may determine and determine whether to divide the current coding unit into a ternary tree structure of a specific type only when the preset coding condition is met. In addition, according to the allowance of such a ternary tree, the split ratio of the binary tree can be extended and varied to 3: 1, 1: 3, etc., not only 1: 1. Accordingly, the splitting structure of the coding unit according to the embodiment of the present invention may include a composite tree structure that is subdivided into quad trees, binary trees, or ternary trees according to ratios.
예를 들어, 픽쳐 분할부(110)는 분할 테이블에 기초하여, 분할 대상 코딩 유닛의 복합 분할 구조를 결정할 수 있다. For example, the picture division unit 110 may determine a complex division structure of the coding unit to be divided based on the division table.
본 발명의 실시 예에 따르면, 픽쳐 분할부(110)는 블록의 최대 사이즈(예를 들어, 픽셀 기반 128 x 128, 256 x 256 등)에 대응하여, 쿼드 트리 분할을 처리하고, 쿼드 트리 분할된 단말 노드에 대응하는 이중 트리 구조 및 삼중 트리 구조 분할 중 적어도 하나를 처리하는 복합 분할 처리를 수행할 수 잇다. According to an embodiment of the present invention, the picture dividing unit 110 processes quad-tree splitting and quad-tree-divided in response to a maximum size of a block (eg, pixel-based 128 x 128, 256 x 256, etc.) It is possible to perform a complex partitioning process that processes at least one of a dual tree structure and a triple tree structure partition corresponding to the terminal node.
특히, 본 발명의 실시 예에 따르면 픽쳐 분할부(110)는 분할 테이블에 따라, 현재 블록의 특성 및 사이즈에 대응하는 이진 트리 분할인 제1 이진 분할(BINARY 1), 제2 이진 분할(BINARY 2)과, 삼진 트리 분할인 제1 삼진 분할(TRI 1) 또는 제2 삼진 분할(TRI 2) 중 어느 하나의 분할 구조를 결정할 수 있다.In particular, according to an embodiment of the present invention, the picture partitioning unit 110 may include a first binary partition (BINARY 1) and a second binary partition (BINARY 2) that are binary tree partitions corresponding to characteristics and sizes of a current block according to a partition table. ) And a first ternary partition (TRI 1) or a second ternary partition (TRI 2), which is a ternary tree partition, may be determined.
여기서, 제1 이진 분할은 N:N의 비율을 갖는 수직 또는 수평 분할에 대응할 수 있으며, 제2 이진 분할은 3N:N 또는 N:3N의 비율을 갖는 수직 또는 수평 분할에 대응될 수 있고, 각 이진 분할된 root CU는 분할 테이블에 명시된 각 사이즈의 CU0 및 CU1으로 분할될 수 있다.Here, the first binary division may correspond to a vertical or horizontal division having a ratio of N: N, and the second binary division may correspond to a vertical or horizontal division having a ratio of 3N: N or N: 3N, and each The binary partitioned root CU may be divided into CU0 and CU1 of each size specified in the partition table.
한편, 제1 삼진 분할은 N:2N:N의 비율을 갖는 수직 또는 수평 분할에 대응할 수 있으며, 제2 삼진 분할은 N:6N:N의 비율을 갖는 수직 또는 수평 분할에 대응될 수 있고, 각 삼진 분할된 root CU는 분할 테이블에 명시된 각 사이즈의 CU0, CU1 및 CU2로 분할될 수 있다.Meanwhile, the first ternary division may correspond to a vertical or horizontal division having a ratio of N: 2N: N, and the second ternary division may correspond to a vertical or horizontal division having a ratio of N: 6N: N, and each The ternary partitioned root CU may be divided into CU0, CU1, and CU2 of each size specified in the partition table.
이에 따라, 분할 대상 코딩 유닛의 사이즈에 대응하여, 각각의 처리 가능한 분할 구조 및 분할된 경우의 코딩 유닛 사이즈를 나타내는 분할 테이블이 결정될 수 있다.Accordingly, in accordance with the size of the coding unit to be divided, a partition table indicating each processable partitioning structure and a coding unit size in the case of partitioning may be determined.
다만, 본 발명의 실시 예에 따른 픽쳐 분할부(110)는, 상기 제1 이진 분할, 제2 이진 분할, 제1 삼진 분할 또는 제2 삼진 분할을 적용하기 위한 최대 코딩 유닛 크기 및 최소 코딩 유닛 크기를 각각 설정할 수 있다.However, the picture division unit 110 according to an embodiment of the present invention, the maximum coding unit size and the minimum coding unit size for applying the first binary division, the second binary division, the first ternary division or the second ternary division Can be set respectively.
이는, 최소 크기, 예를 들어 2 이하의 가로 또는 세로 픽셀을 갖는 블록에 대응하는 부호화 및 복호화 처리를 수행하는 것은 복잡도 측면에서 비효율적일 수 있게 때문이며, 따라서, 본 발명의 실시 예에 따른 분할 테이블은 각 코딩 유닛의 사이즈별 허용 가능한 분할 구조를 사전 정의할 수 있다.This is because it may be inefficient in terms of complexity to perform encoding and decoding processing corresponding to a block having a minimum size, for example, 2 or less horizontal or vertical pixels, and accordingly, the partition table according to an embodiment of the present invention The allowable splitting structure for each size of each coding unit may be predefined.
이에 따라, 픽쳐 분할부(110)는 최소 크기, 예를 들어 4 미만의 사이즈로서 가로 또는 세로 픽셀 사이즈가 2인 경우로 분할되는 경우등을 사전 방지할 수 있으며, 이를 위해, 분할 대상 블록의 사이즈로부터 제1 이진 분할, 제2 이진 분할, 제1 삼진 분할 또는 제2 삼진 분할에 대응하는 허용 여부를 미리 판단하고, 허용 가능한 분할 구조에 대응하는 RDO 성능 연산을 처리 비교하여 최적의 분할 구조를 결정할 수 있다.Accordingly, the picture dividing unit 110 may prevent a case in which the horizontal or vertical pixel size is divided into 2 as a minimum size, for example, a size of less than 4, and for this purpose, the size of the block to be divided Determine whether the first binary partition, the second binary partition, the first ternary partition or the second ternary partition is allowed, and compare the RDO performance operation corresponding to the allowable partitioning structure to determine the optimal partitioning structure. You can.
예를 들어, 최대 크기의 루트 코딩 유닛 CU 0가 이진 분할된 경우, 이진 분할 구조는 1:1, 3:1 또는 1:3 수직 분할 중 어느 하나의 구조를 구성하는 CU0, CU1으로 분할될 수 있고, 삼진 분할 구조는 1:2:1 또는 1:6:1 수직 분할 중 어느 하나의 구조를 구성하는 CU0, CU1 및 CU2로 분할 될 수 있다.For example, when the largest sized root coding unit CU 0 is binary-divided, the binary dividing structure may be divided into CU0 and CU1 constituting any one of 1: 1, 3: 1, or 1: 3 vertical partitioning. The ternary division structure may be divided into CU0, CU1, and CU2 constituting either one of 1: 2: 1 or 1: 6: 1 vertical division.
특히, 분할 대상 코딩 유닛의 사이즈에 따라, 허용 가능한 수직 분할 구조가 제한적으로 결정될 수 있다. 예를 들어, 64X64 코딩 유닛 및 32X32 코딩 유닛의 수직 분할구조는 제1 이진 분할, 제2 이진 분할, 제1 삼진 분할 및 제2 삼진 분할이 모두 허용될 수 있으나, 16X16 코딩 유닛의 수직 분할 구조 중 제2 삼진 분할은 불가능한 것으로 제한될 수 있다. 또한, 8X8 코딩 유닛의 수직 분할 구조는 제1 이진 분할만이 제한적으로 허용될 수도 있다. 이에 따라 복잡성을 야기시키는 최소 크기 미만의 블록으로의 분할은 사전에 방지될 수 있다.In particular, depending on the size of the coding unit to be divided, an allowable vertical division structure may be limitedly determined. For example, the vertical division structure of the 64X64 coding unit and the 32X32 coding unit may allow all of the first binary division, the second binary division, the first ternary division and the second ternary division, but among the vertical division structures of the 16X16 coding unit. The second strikeout division may be limited to impossible. Also, in the vertical division structure of the 8X8 coding unit, only the first binary division may be limitedly allowed. Thus, partitioning into blocks below the minimum size that causes complexity can be prevented in advance.
마찬가지로, 최대 크기의 루트 코딩 유닛 CU 0가 이진 분할된 경우, 이진 분할 구조는 1:1, 3:1 또는 1:3 수평 분할 중 어느 하나의 구조를 구성하는 CU0, CU1으로 분할될 수 있고, 삼진 분할 구조는 1:2:1 또는 1:6:1 수평 분할 중 어느 하나의 구조를 구성하는 CU0, CU1 및 CU2로 분할 될 수 있다.Similarly, when the largest sized root coding unit CU 0 is binary-divided, the binary-divided structure may be divided into CU0 and CU1 constituting any one of 1: 1, 3: 1, or 1: 3 horizontal divisions, The ternary division structure may be divided into CU0, CU1 and CU2 constituting either one of 1: 2: 1 or 1: 6: 1 horizontal division.
마찬가지로, 분할 대상 코딩 유닛의 사이즈에 따라, 허용 가능한 수평 분할 구조가 제한적으로 결정될 수 있다. 예를 들어, 64X64 코딩 유닛 및 32X32 코딩 유닛의 수평 분할구조는 제1 이진 분할, 제2 이진 분할, 제1 삼진 분할 및 제2 삼진 분할이 모두 허용될 수 있으나, 16X16 코딩 유닛의 수평 분할 구조 중 제2 삼진 분할은 불가능한 것으로 제한될 수 있다. 또한, 8X8 코딩 유닛의 수평 분할 구조는 제1 이진 분할만이 제한적으로 허용될 수도 있다. 이에 따라 복잡성을 야기시키는 최소 크기 미만의 블록으로의 분할은 사전에 방지될 수 있다.Likewise, according to the size of a coding unit to be divided, an allowable horizontal division structure may be limitedly determined. For example, the horizontal division structure of the 64X64 coding unit and the 32X32 coding unit may allow all of the first binary division, the second binary division, the first ternary division and the second ternary division, but among the horizontal division structures of the 16X16 coding unit The second strikeout division may be limited to impossible. Also, in the horizontal division structure of the 8X8 coding unit, only the first binary division may be limitedly permitted. Thus, partitioning into blocks below the minimum size that causes complexity can be prevented in advance.
한편, 먼저 수직 분할된 코딩 유닛에 대응하는 수평 분할이 처리되는 경우의 분할 형태도 예시될 수 있다.On the other hand, a division form in the case where horizontal division corresponding to a vertically divided coding unit is processed may also be illustrated.
이 경우, 픽쳐 분할부(110)는 분할 테이블에 따라, 수직 분할된 코딩 유닛을 제1 이진 분할 또는 제2 이진 분할로 수평 분할 처리하거나, 제1 삼진 분할 또는 제2 삼진 분할로 수평 분할 처리할 수 있다.In this case, the picture dividing unit 110 horizontally processes the coding unit vertically divided into the first binary division or the second binary division, or horizontally divides the first ternary division or the second ternary division according to the division table. You can.
예를 들어, 32X64 로 수직 분할된 코딩 유닛에 대응하여, 픽쳐 분할부(110)는 제1 이진 분할에 따라 32X32의 CU0, CU1으로 분할하거나, 제2 이진 분할에 따라 32X48, 32X16의 C0, CU1으로 분할하거나, 제1 삼진 분할에 따라, 32X32, 32X16, 32X16의 CU0, CU1, CU2로 분할하거나, 제2 삼진 분할에 따라 32X8, 64X48, 32X8의 CU0, CU1, CU2로 분할할 수 있다.For example, corresponding to a coding unit vertically divided into 32X64, the picture division unit 110 divides into CU0 and CU1 of 32X32 according to the first binary division, or CX and CU1 of 32X48 and 32X16 according to the second binary division. In accordance with the first ternary division, 32X32, 32X16, 32X16 CU0, CU1, CU2, or according to the second ternary division 32X8, 64X48, 32X8 CU0, CU1, CU2.
또한, 픽쳐 분할부(110)는 수평 분할된 코딩 유닛을 제1 이진 분할 또는 제2 이진 분할로 수직 분할 처리하거나, 제1 삼진 분할 또는 제2 삼진 분할로 수직 분할 처리할 수 있다.Also, the picture splitter 110 may vertically process the horizontally divided coding unit as the first binary split or the second binary split, or vertically split the first split or the second ternary split.
예를 들어, 32X16 으로 수평 분할된 코딩 유닛에 대응하여, 픽쳐 분할부(110)는 제1 이진 분할에 따라 16X16의 CU0, CU1으로 분할하거나, 제2 이진 분할에 따라 24X16 8X16의 C0, CU1으로 분할하거나, 제1 삼진 분할에 따라, 8X16, 16X16, 8X16의 CU0, CU1, CU2로 분할하거나, 제2 삼진 분할에 따라 4X16, 24X16, 4X16의 CU0, CU1, CU2로 분할할 수 있다.For example, corresponding to a coding unit horizontally divided into 32X16, the picture division unit 110 may be divided into CU0 and CU1 of 16X16 according to the first binary division, or C0 and CU1 of 24X16 8X16 according to the second binary division. According to the first ternary division, it may be divided into CU0, CU1, CU2 of 8X16, 16X16, 8X16, or divided into CU0, CU1, CU2 of 4X16, 24X16, 4X16 according to the second ternary division.
이러한 분할 허용 구조는 CTU의 크기, CTU 그룹 단위 및 슬라이스 단위와, 수직 및 수평 방향별로 상이하게 조건부로 결정될 수 있는 바, 제1 이진 분할, 제2 이진 분할, 제1 삼진 분할 및 제2 삼진 분할 처리되는 경우의 각 CU 분할 비율 및 결정 크기 정보가 분할 테이블에 의해 정의되거나, 조건 정보가 미리 설정될 수 있다.The partitioning allowable structure may be conditionally determined differently for each CTU size, CTU group unit, and slice unit, and vertical and horizontal directions, such that the first binary partition, the second binary partition, the first ternary partition, and the second ternary partition When processing, each CU partition ratio and decision size information may be defined by a partition table, or condition information may be set in advance.
이와 같은 분할 처리에 따라, 이진 트리 및 삼진 트리를 이용한 세분화된 분할을 조건부로 허용함으로써, 그 코딩 유닛에 특성에 맞는 적절한 비율의 분할이 가능하게 되며 이에 따른 부호화 효율은 향상될 수 있다.According to the division processing, by allowing conditional division using a binary tree and a ternary tree, division of an appropriate ratio according to characteristics of the coding unit is possible, and thus encoding efficiency can be improved.
도 20은 본 발명의 실시 예에 따른 양자화부를 보다 구체적으로 설명하기 위한 블록도이다.20 is a block diagram illustrating a quantization unit according to an embodiment of the present invention in more detail.
본 발명의 실시 예에 따른 블록 분할 구조가 복합화되고 다변화됨에 따라, 본 발명의 실시 예에 따른 부호화 및 복호화 프로세스 또한 정확하고 효율적인 예측을 위해, 코딩 트리 유닛(CTU)기반 양자화 그룹 단위 블록에 대응하는 선택 적응적 양자화 파라미터 결정 및 양자화 프로세스를 포함할 수 있다.As the block division structure according to an embodiment of the present invention is complex and diversified, the encoding and decoding process according to an embodiment of the present invention also corresponds to a coding tree unit (CTU) -based quantization group unit block for accurate and efficient prediction And a selective adaptive quantization parameter determination and quantization process.
이러한 양자화 파라미터 결정 및 양자화 프로세스는 도 20에 도시된 바와 같은 양자화부(130)의 구체적인 구성에 의해 수행될 수 있으며, 본 발명의 실시 예에 따른 부호화 및 복호화 프로세스 모두에서 양자화부(130)의 동작 및 처리가 수행될 수 있다.The quantization parameter determination and quantization process may be performed by a specific configuration of the quantization unit 130 as illustrated in FIG. 20, and the operation of the quantization unit 130 in both the encoding and decoding processes according to an embodiment of the present invention And processing can be performed.
특히, 양자화부(130)는 양자화 대상 블록의 양자화 그룹 단위 정보에 기초하여, 상기 대상 블록의 양자화 프로세스에 따른 양자화 파라미터를 선택 적응적으로 결정할 수 있다.In particular, the quantization unit 130 may selectively adaptively determine a quantization parameter according to the quantization process of the target block, based on the quantization group unit information of the quantization target block.
이를 위해, 본 발명의 실시 예에 따른 양자화부(130)는, 초기 양자화 파라미터 유도부(1310), 특성 적응적 양자화 파라미터 결정부(1320), 그룹 단위 차분 양자화 파라미터 유도부(1330) 및 코딩 블록 단위 적응적 양자화 파라미터 적용부(1340)를 포함한다.To this end, the quantization unit 130 according to an embodiment of the present invention includes an initial quantization parameter derivation unit 1310, a characteristic adaptive quantization parameter determination unit 1320, a group unit difference quantization parameter derivation unit 1330, and coding block unit adaptation. And an enemy quantization parameter application unit 1340.
먼저, 초기 양자화 파라미터 유도부(1310)는 각 단위 블록에 대응하는 초기 양자화 파라미터(QUANTIZATION PARAMETER, QP) 를 유도한다. 본 발명의 실시 예에 따르면, 초기 양자화 파라미터는 슬라이스 내 CTU 단위에 대응하는 양자화 그룹 단위 블록별로 결정될 수 있으며, 초기 양자화 파라미터 유도부(1310)는 양자화 그룹 단위 블록에 대해 결정된 초기 양자화 파라미터를 포함하는 초기 양자화 파라미터(INITIAL QP) 리스트를 미리 설정하고, 이후 결정되는 차분 양자화 파라미터(DELTA QP)값에 기초하여 상기 초기 양자화 파라미터 리스트를 업데이트 할 수 있다.First, the initial quantization parameter deriving unit 1310 derives an initial quantization parameter (QUANTIZATION PARAMETER, QP) corresponding to each unit block. According to an embodiment of the present invention, the initial quantization parameter may be determined for each quantization group unit block corresponding to a CTU unit in a slice, and the initial quantization parameter derivation unit 1310 may include an initial quantization parameter determined for the quantization group unit block. A list of quantization parameter (INITIAL QP) may be set in advance, and the initial quantization parameter list may be updated based on the determined difference quantization parameter (DELTA QP) value.
이러한 양자화 단위 블록은 하나의 슬라이스 내 CTU 단위 내에서 그룹핑된 블록들에 대응하여 결정될 수 있으며, 초기 양자화 파라미터 유도부(1310)는 각 단위 별로 세부 초기 양자화 파라미터를 결정할 수도 있다. 이에 따라, 본 발명의 실시 예에 따르면, VR영상과 같은 픽처의 시간적 공간적 영역(REGION), 또는 픽처 내 서브 픽쳐, 타일, 슬라이스 또는 상기 CTU 기반 양자화 그룹 단위 중 적어도 하나에 대응하는 초기 양자화 파라미터가 결정될 수 있다. 초기 양자화 파라미터 유도부(1310)는 상기 결정된 초기 양자화 파라미터에 기초한 초기 양자화 파라미터 리스트를 구성하고, 이에 대응하는 업데이트 처리를 수행할 수 있다.The quantization unit block may be determined corresponding to blocks grouped within a CTU unit in one slice, and the initial quantization parameter derivation unit 1310 may determine detailed initial quantization parameters for each unit. Accordingly, according to an embodiment of the present invention, an initial quantization parameter corresponding to at least one of a temporal spatial region (REGION) of a picture such as a VR image, or a subpicture, tile, slice in a picture, or the CTU-based quantization group unit Can be determined. The initial quantization parameter derivation unit 1310 may construct an initial quantization parameter list based on the determined initial quantization parameter, and perform update processing corresponding thereto.
도 21은 본 발명의 실시 예에 따른 초기 양자화 파라미터 유도부(1310)의 동작을 설명하기 위한 흐름도이다.21 is a flowchart illustrating an operation of the initial quantization parameter derivation unit 1310 according to an embodiment of the present invention.
도 21을 참조하면, 본 발명의 실시 예에 따른 초기 양자화 파라미터 유도부(1310)는, 먼저 분할 단위 및 CTU 양자화 그룹 영역을 결정한다(S1001).Referring to FIG. 21, the initial quantization parameter derivation unit 1310 according to an embodiment of the present invention first determines a division unit and a CTU quantization group region (S1001).
예를 들어, 초기 양자화 파라미터 유도부(1310)는 분할부(110)에서 획득되는 영상 특성 및 픽쳐 분할 정보에 기초하여, 분할 단위 및 CTU 양자화 그룹 영역을 결정할 수 있다.For example, the initial quantization parameter derivation unit 1310 may determine a division unit and a CTU quantization group region based on image characteristics and picture division information obtained from the division unit 110.
이후, 초기 양자화 파라미터 유도부(1310)는, 결정된 분할 단위 및 양자화 그룹 단위 영역에 기초하여, 초기 QP 리스트를 구성한다(S1003).Thereafter, the initial quantization parameter derivation unit 1310 configures an initial QP list based on the determined division unit and quantization group unit region (S1003).
그리고, 초기 양자화 파라미터 유도부(1310)는 구성된 초기 QP 리스트의 초기 QP 인덱스에 기초한 오프셋 값을 유도한다(S1005).Then, the initial quantization parameter deriving unit 1310 derives an offset value based on the initial QP index of the configured initial QP list (S1005).
그리고,이후, 초기 양자화 파라미터 유도부(1310)는 상기 결정된 분할 단위 및 CTU 기반 양자화 그룹 단위 영역에 대응하는 초기 QP를 각각 설정한다(S1007).Then, the initial quantization parameter derivation unit 1310 sets an initial QP corresponding to the determined division unit and CTU-based quantization group unit region, respectively (S1007).
예를 들어, 도 22를 참조하면, 본 발명의 실시 예에 따른 양자화 파라미터의 초기 파라미터 결정에 있어서, 각 슬라이스 단위별 초기 양자화 파라미터가 결정될 수 있으며, 슬라이스 단위에 포함된 각 CTU 그룹 단위별 초기 양자화 파라미터가 인덱스에 대응하는 값으로 결정될 수 있다.For example, referring to FIG. 22, in initial parameter determination of a quantization parameter according to an embodiment of the present invention, an initial quantization parameter for each slice unit may be determined, and initial quantization for each CTU group unit included in the slice unit The parameter may be determined as a value corresponding to the index.
이에 따라, 차분 양자화 파라미터 또한 마찬가지로, 슬라이스 단위별 차분 양자화 파라미터와, CTU 양자화 그룹 단위별 차분 양자화 파라미터가 각각 결정될 수 있으며, CTU 양자화 그룹 단위별 차분 양자화 파라미터는 별도의 CTU QP 인덱스 값에 의해 구분되도록 처리될 수 있다.Accordingly, the differential quantization parameter may also determine the differential quantization parameter for each slice unit and the differential quantization parameter for each CTU quantization group unit, and the differential quantization parameter for each CTU quantization group unit may be identified by a separate CTU QP index value. Can be processed.
도 22는 하나의 슬라이스 내 CTU 양자화 그룹 단위별 QP가 각각 결정됨에 따라, 차분 QP 값 또한 각각 업데이트 되는 것을 도시한 것으로서, 초기 양자화 파라미터 유도부(1310)는, 차분 양자화 파라미터 업데이트를 위한 양자화 파라미터 리스트를 구성할 수 있으며, 이에 대응하는 슬라이스 내 차분 양자화 파라미터 값은 CTU Delta QP list = {Delta_QP_A, Delta_QP_B, Delta_QP_C, Delta_QP_D} 의 형태와 같이 각 CTU 기반 양자화 그룹 단위별로 결정될 수 있다.FIG. 22 illustrates that as the QP for each CTU quantization group unit in one slice is determined, the difference QP value is also updated, and the initial quantization parameter derivation unit 1310 lists a quantization parameter list for updating the difference quantization parameter. It can be configured, and the difference quantization parameter value in the corresponding slice may be determined for each CTU-based quantization group unit such as CTU Delta QP list = {Delta_QP_A, Delta_QP_B, Delta_QP_C, Delta_QP_D}.
각 CTU에 있어서, CTU QP 인덱스는 = {0, 1, 2, 3 , ...}과 같은 형태로 할당될 수 있으며, 도 22에서 CTU Group A = 0, CTU Group B = 1, CTU Group = 2, CTU Group C = 3 과 같이 매핑될 수 있다.For each CTU, the CTU QP index may be allocated in the form of = {0, 1, 2, 3, ...}, and in FIG. 22, CTU Group A = 0, CTU Group B = 1, CTU Group = 2, CTU Group C = 3 can be mapped.
이에 따라, 초기 양자화 파라미터 유도부(1310)는 슬라이스 전체에 대해 할당된 QP 값 및 상기 결정된 CTU 양자화 단위 블록에 대응하여, 각 CTU 단위 블록별 초기 CTU 양자화 파라미터를 산출할 수 있는 바, 초기 CTU QP는, initial CTU QP = init_qp_minus26 + slice_qp_delta + 26 + CTU Delta QP List [CTU QP index] 와 같은 연산에 의해 산출될 수 있다.Accordingly, the initial quantization parameter derivation unit 1310 may calculate the initial CTU quantization parameter for each CTU unit block, corresponding to the QP value allocated for the entire slice and the determined CTU quantization unit block, and the initial CTU QP is , initial CTU QP = init_qp_minus26 + slice_qp_delta + 26 + CTU Delta QP List [CTU QP index].
한편, 도 23은 CTU 양자화 단위 블록 별 세분화된 초기 QP 값 산출을 위한 초기 양자화 파라미터 유도부(1310)의 동작을 도시하고 있는 바, 먼저 초기 양자화 파라미터 유도부(1310)는 영상의 헤더 정보로부터 PPS(PICTURE PARAMETER SET)을 파싱하여(S1011), 픽쳐 분할 단위에 대응하는 초기 QP 값을 유도한다(S1013).On the other hand, Figure 23 shows the operation of the initial quantization parameter derivation unit 1310 for calculating the subdivided initial QP value for each CTU quantization unit block. First, the initial quantization parameter derivation unit 1310 uses PPS (PICTURE) from the header information of the image. PARAMETER SET) is parsed (S1011), and an initial QP value corresponding to the picture division unit is derived (S1013).
이후, 초기 양자화 파라미터 유도부(1310)는, 헤더 정보로부터 슬라이스 헤더 정보를 획득하여, 차분값인 슬라이스 델타 QP를 유도하고, 슬라이스 델타 QP에 기초하여 슬라이스 단위별 초기 슬라이스 QP 값을 산출한다(S1017).Thereafter, the initial quantization parameter deriving unit 1310 obtains slice header information from the header information, derives a slice delta QP that is a difference value, and calculates an initial slice QP value for each slice unit based on the slice delta QP (S1017). .
이후, 본 발명의 실시 예에 다른 초기 양자화 파라미터 유도부(1310)는, CTU 양자화 단위 분할을 결정하여, 차분값을 업데이트하기 위한 CTU 델타 QP 리스트를 유도하고(S1019), 이에 대응하는 각 CTU 양자화 단위 블록별 CTU 델타 QP 인덱스를 결정한다(S1021).Thereafter, the initial quantization parameter derivation unit 1310 according to an embodiment of the present invention determines a CTU quantization unit division, derives a CTU delta QP list for updating a difference value (S1019), and each CTU quantization unit corresponding thereto A CTU delta QP index for each block is determined (S1021).
이후, 초기 양자화 파라미터 유도부(1310)는, 상기 CTU 양자화 단위 블록별 CTU 델타 QP 인덱스에 기초한 초기 CTU QP 값을 유도함으로써(S1023), 상기 CTU 양자화 단위 블록별 초기 양자화 파라미터 리스트를 생성 및 업데이트 할 수 있다.Thereafter, the initial quantization parameter derivation unit 1310 may generate and update an initial quantization parameter list for each CTU quantization unit block by deriving an initial CTU QP value based on the CTU delta QP index for each CTU quantization unit block (S1023). have.
한편, 특성 적응적 양자화 파라미터 결정부(1320)는 CTU 양자화 단위 블록별 초기 QP 리스트가 결정되면, 각 CTU 양자화 그룹 단위 블록에 대응하는 양자화 파라미터 값의 업데이트 및 이를 위한 프로세스를 영상 특성에 따라 선택 적응적으로 결정할 수 있으며, 이에 따른 양자화 파라미터를 CTU 양자화 그룹 단위 블록별로 결정할 수 있다.Meanwhile, when the initial QP list for each CTU quantization unit block is determined, the characteristic adaptive quantization parameter determiner 1320 selectively updates and adapts a process for quantization parameter values corresponding to each CTU quantization group unit block and processes according to the image characteristics. It is possible to determine the quantization parameter accordingly, and it can be determined for each CTU quantization group unit block.
예를 들어, 특성 적응적 양자화 파라미터 결정부(1320)는 결정된 프로세스에 따라, 각 CTU 양자화 그룹 단위별 양자화 스텝 크기(QP STEP SIZE) 및 양자화 범위(QP RANGE)를 설정할 수 있다.For example, the characteristic adaptive quantization parameter determiner 1320 may set a quantization step size (QP STEP SIZE) and a quantization range (QP RANGE) for each CTU quantization group unit according to the determined process.
그리고, 특성 적응적 양자화 파라미터 결정부(1320)는 초기 양자화 파라미터 유도부(1310)에서 결정된 초기 양자화 파라미터에 대응하는 각 CTU 양자화 그룹 단위별 양자화 스텝 크기(QP STEP SIZE) 및 양자화 범위(QP RANGE)를 설정하여, 이에 대응하는 최종적인 양자화 파라미터를 결정할 수 있다. 결정된 양자화 파라미터 값은 그룹 단위 차분 양자화 파라미터 유도부(1330)로 전달될 수 있다.Then, the characteristic adaptive quantization parameter determining unit 1320 sets the quantization step size (QP STEP SIZE) and quantization range (QP RANGE) for each CTU quantization group unit corresponding to the initial quantization parameter determined by the initial quantization parameter derivation unit 1310. By setting, it is possible to determine the final quantization parameter corresponding to this. The determined quantization parameter value may be transmitted to the group-level difference quantization parameter derivation unit 1330.
도 24는 특성 적응적 양자화 파라미터 결정부(1320)를 보다 구체적으로 도시한 것으로, 도 24를 참조하면, 특성 적응적 양자화 파라미터 결정부(1320)는, 영상 케이스 기반 양자화 파라미터 유도부(1321), 슬라이스 타입 기반 양자화 파라미터 유도부(1323), 컬러 샘플 기반 양자화 파라미터 유도부(1325) 및 변환 계수 기반 양자화 파라미터 유도부(1327) 중 적어도 하나를 포함하여, 상기 선택 적응적 양자화 파라미터 결정 프로세스를 처리할 수 있다.24 illustrates the characteristic adaptive quantization parameter determiner 1320 in more detail. Referring to FIG. 24, the characteristic adaptive quantization parameter determiner 1320, an image case-based quantization parameter derivation unit 1321, slices A selection adaptive quantization parameter determination process may be processed by including at least one of a type-based quantization parameter derivation unit 1323, a color sample-based quantization parameter derivation unit 1325, and a transform coefficient-based quantization parameter derivation unit 1327.
먼저, 영상 케이스 기반 양자화 파라미터 유도부(1321)는, 입력 영상 특성에 따른 케이스별 양자화 파라미터 유도 프로세스를 결정할 수 있다. 유도 프로세스에 따라, 양자화 스텝 사이즈 및 QP 범위가 각 케이스별로 결정될 수 있다.First, the image case-based quantization parameter derivation unit 1321 may determine a process for deriving quantization parameters for each case according to input image characteristics. Depending on the derivation process, the quantization step size and QP range can be determined for each case.
여기서, 각 케이스(CASE)는 아래와 같이 예시될 수 있다.Here, each case (CASE) may be illustrated as follows.
CASE 1: 입력 영상이 Original Picture 로 구성된 경우;CASE 1: When the input image is composed of Original Picture;
CASE 2: 입력 영상이 다시점 영상 또는 동기화된 영역별 복수 영상이 병합 처리되어 하나의 입력 영상으로 들어오는 경우; EX) Cube Map / ERP 등의 VR 영상CASE 2: When the input image is a multi-view image or multiple images for each synchronized area are merged into one input image; EX) VR video such as Cube Map / ERP
CASE 3: 슬라이스 / 타일 / 리젼 등에 의해 하나의 픽쳐가 다수의 입력 영상 분할 단위로 분할된 경우;CASE 3: When a single picture is divided into a plurality of input video segmentation units by slice / tile / region, etc .;
먼저, 영상 케이스 기반 양자화 파라미터 유도부(1321)는, Case 2 및 Case 3에 대하여, 각 분할 단위 또는 픽쳐 분할 단위 내 사용자 시점에 대응하는 세부 영역(REGION) 별로 서로 다른 양자화 스텝 사이즈 및 QP 범위가 결정되고, 이에 따른 Initial QP 및 업데이트가 적용되도록 처리할 수 있다.First, the image case-based quantization parameter derivation unit 1321 determines different quantization step sizes and QP ranges for Case 2 and Case 3 for each subregion REGION corresponding to a user's viewpoint in each division unit or a picture division unit. It can be processed to apply the Initial QP and update accordingly.
예를 들어, 영상 케이스 기반 양자화 파라미터 유도부(1321)는, Initial QP를 적용함에 있어서, 슬라이스 초기 QP 값에 각 CTU 양자화 그룹 단위별로 서로 다른 양자화 스텝 사이즈 및 QP 범위가 결정되고, 이에 따른 delta QP가 적용되도록 처리함으로써, 하나의 입력 영상에서 분할되는 영역들에 대응하는 서로 다른 다양한 Offset 값이 적용되도록 처리할 수 있다.For example, the image case-based quantization parameter derivation unit 1321, in applying the initial QP, determines different quantization step sizes and QP ranges for each CTU quantization group unit in the slice initial QP value, and thus delta QP By processing to be applied, various offset values corresponding to regions divided in one input image may be processed.
보다 구체적으로, 영상 케이스 기반 양자화 파라미터 유도부(1321)는 각 분할 단위 영상에 대응하는 델타 QP들을, CTU 양자화 그룹 단위에 대응하는 리스트로서 저장할 수 있다. 그리고, 델타 QP들은 리스트 내 Offset에 매칭될 수 있고, 오프셋별로 Index 값이 부여되어 상호 구분하는 데 이용할 수 있다.More specifically, the image case-based quantization parameter derivation unit 1321 may store delta QPs corresponding to each split unit image as a list corresponding to CTU quantization group units. And, the delta QPs can be matched to the offset in the list, and index values are assigned for each offset, which can be used to distinguish each other.
이 경우, CTU 양자화 그룹 단위 리스트 또는 그 리스트 인덱스에 따라, 영상 케이스 기반 양자화 파라미터 유도부(1321)는, 슬라이스 내 Initial QP를 조정하기 위한 delta 값으로서, 상기 Offset 값을 유도하거나, CTU 양자화 그룹 단위에 대응하는 델타 QP(CTU_dQP) 값을 직접 유도할 수 있다. 이에 따라, 영상 케이스 기반 양자화 파라미터 유도부(1321)는 한 픽쳐 내라 하더라도, 각 CTU 양자화 그룹 단위간 서로 다른 양자화 스텝 사이즈 및 QP 범위가 결정되고, Initial QP 값이 계산되도록 처리할 수 있다.In this case, according to a CTU quantization group unit list or a list index thereof, the image case-based quantization parameter derivation unit 1321 derives the offset value as a delta value for adjusting the initial QP in the slice, or the CTU quantization group unit. The corresponding delta QP (CTU_dQP) value can be derived directly. Accordingly, the image case-based quantization parameter derivation unit 1321 may process different quantization step sizes and QP ranges between units of each CTU quantization group, even if they are within one picture, and calculate an Initial QP value.
또한, 영상 케이스 기반 양자화 파라미터 유도부(1321)는, 영상 케이스에 기반하여, 초기 양자화 파라미터 값을 조정하기 위한 CTU 양자화 그룹 단위를 결정하고, 각 그룹별로 양자화 스텝 사이즈 및 QP 범위가 결정되고, 별도의 델타 QP 값이 Offset 값으로서 업데이트되도록 처리할 수 있다.In addition, the image case-based quantization parameter derivation unit 1321 determines the CTU quantization group unit for adjusting the initial quantization parameter value based on the image case, and the quantization step size and QP range are determined for each group, and separately The delta QP value can be processed to be updated as an offset value.
또한, 영상 케이스 기반 양자화 파라미터 유도부(1321)는 각 영상 특성 케이스에 기반하여, CTU별로 적용할 수 있는 CTU 양자화 그룹 단위별 초기 QP 리스트CTU_Initial_QP_List를 구성하고, 상기 리스트의 인덱스에 대응하는 각각의 델타 QP 오프셋 값을 유도하는 프로세스를 처리할 수 있다.In addition, the video case-based quantization parameter deriving unit 1321 configures an initial QP list for each CTU quantization group unit that can be applied for each CTU based on each video characteristic case, and each delta QP corresponding to the index of the list. You can handle the process of deriving the offset value.
여기서, 영상 케이스 기반 양자화 파라미터 유도부(1321)는, 양자화 스텝 사이즈 및 QP 범위와, 해당 CTU 양자화 Group 단위 또는 CTU_Initial_QP_List의 QP 개수 및 크기를 슬라이스 헤더 정보 또는 픽쳐 헤더 정보 등을 이용하여, 미리 설정할 수 있다. Here, the image case-based quantization parameter derivation unit 1321 may set in advance the quantization step size and QP range and the number and size of QPs of the corresponding CTU quantization group unit or CTU_Initial_QP_List using slice header information or picture header information. .
또 다른 예로 영상 케이스 기반 양자화 파라미터 유도부(1321)는 VPS (Video Parameter set), SPS (Sequence Parameter Set) 등의 영상의 헤더 정보 또는 별도의 SEI 메시지로부터 부호화된 영상의 종류, 프로젝션 포맷(Projection format) 또는 이를 식별할 수 있는 플래그 정보 등을 유도할 수 있다. (1321)은 해당 부호화 정보를 이용하여, 부호화된 영상을 판단하고, 이를 픽쳐 분할 단위(서브 픽쳐 또는 CTU 그룹 단위 등)에 따른 초기 양자화 파라미터를 설정할 수 있다.As another example, the video case-based quantization parameter derivation unit 1321 may include video header information of a video parameter set (VPS), sequence parameter set (SPS), or a type of video encoded from a separate SEI message and a projection format. Alternatively, it is possible to derive flag information or the like that can identify it. In operation 1321, the encoded image may be determined using the corresponding encoding information, and an initial quantization parameter according to a picture division unit (eg, a sub picture or a CTU group unit) may be set.
이와 같이 설정된 헤더 정보의 초기 QP 정보는 예를 들어, PPS 또는 SPS(Sequence parameter set)에 삽입될 수 있으며, 특성 적응적 양자화 파라미터 결정부(1320)는, 전술한 바와 같이 PPS 또는 SPS에 포함되어 유도된 각 CTU 기반 양자화 그룹 단위별 부호화 파라미터를 이용하여, 한 픽쳐 내에서도, 각 CTU 양자화 그룹 단위별 서로 다른 Initial QP Parameter를 선택 적응적으로 결정할 수 있게 된다.The initial QP information of the header information set as described above may be inserted into, for example, a PPS or a sequence parameter set (SPS), and the characteristic adaptive quantization parameter determination unit 1320 is included in the PPS or SPS as described above. By using the coding parameters for each CTU-based quantization group unit, it is possible to selectively adaptively determine different Initial QP parameters for each CTU quantization group unit, even within one picture.
보다 상세하게 부호화 파라미터는 한 픽쳐 내 분할되는 부호화 영역(픽쳐 분할 영역, 픽쳐 분할 경계, 타일 경계, 슬라이스 경계, 하위 픽쳐 영역 및 경계) 정보를 포함할 수 있다.In more detail, the encoding parameter may include information on an encoding region (picture division region, picture division boundary, tile boundary, slice boundary, lower picture region and boundary) divided within one picture.
그리고, 영상 케이스 기반 양자화 파라미터 유도부(1321)는 상기 분할 영역 간 Initial QP를 조정하기 위해, 초기 양자화 파라미터 유도부(1310)에서 설정된 Initial QP List에 대응하여, 각 리스트의 인덱스마다 Offset 값을 조정함으로서 분할 영역 내에서의 서로 다른 CTU 양자화 그룹 단위별 Initial QP를 조정할 수 있다. Then, the image case-based quantization parameter derivation unit 1321 corresponds to the Initial QP List set in the initial quantization parameter derivation unit 1310 to adjust the initial QP between the divided regions, and divides it by adjusting the offset value for each index of the list Initial QP for each CTU quantization group unit in a region may be adjusted.
이 때, 영상 케이스 기반 양자화 파라미터 유도부(1321)는 Initial QP List 의 최대 크기를 설정하거나, 부호화 장치(100)와 복호화 장치(200) 간에 사전 정의된 Default value 또는 Defined value 에 따라, 초기 QP 리스트에 대응하는 QP 리스트 업데이트 처리를 수행할 수 있다.At this time, the image case-based quantization parameter derivation unit 1321 sets the maximum size of the Initial QP List, or according to a predefined Default value or Defined value between the encoding device 100 and the decoding device 200, to the initial QP list. Corresponding QP list update processing can be performed.
한편, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 CTU 양자화 그룹 단위가 속한 슬라이스 타입에 따라, 양자화 파라미터를 각각 상이하게 적용할 수 있다. 예를 들어, 슬라이스 타입은 I / B / P 타입의 Slice가 존재할 수 있으며, 상기 슬라이스 타입에 따라, 예측 및 변환 결과가 다르게 발생할 수 있다.Meanwhile, the slice type-based quantization parameter deriving unit 1323 may apply the quantization parameter differently according to the slice type to which the CTU quantization group unit belongs. For example, the slice type may be an I / B / P type slice, and prediction and transform results may be differently generated according to the slice type.
따라서, 본 발명의 실시 예에 따른 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 슬라이스 타입 기반 예측 및 변환 결과에 대응하는 서로 다른 양자화 파라미터를 CTU 양자화 단위 블록별 선택 적응적으로 결정함으로써, 인지 품질 관점에서의 부호화 효율을 향상시킬 수 있다.Therefore, the slice type-based quantization parameter derivation unit 1323 according to an embodiment of the present invention adaptively determines different quantization parameters corresponding to slice type-based prediction and transformation results for each CTU quantization unit block, from a cognitive quality point of view. Can improve the coding efficiency.
보다 구체적으로 예를 들어, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 양자화 파라미터의 설정 값(양자화 스텝 사이즈 및 QP 범위) 결정 및 이에 따른 양자화 처리를 수행하기 위해, CTU 양자화 단위 블록의 슬라이스 타입을 먼저 판단한다.More specifically, for example, the slice type-based quantization parameter derivation unit 1323 first determines the set value (quantization step size and QP range) of the quantization parameter and performs the quantization process accordingly, firstly slices the CTU quantization unit block. Judge.
그리고, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, I Slice의 경우, Slice 내 허용 가능한 예측이 화면 내 예측으로 제한될 수 있는 바, 화면 내 예측 프로세스에 대응하여 사전 정의된 양자화 스텝 사이즈 및 QP 범위를 결정할 수 있다.In addition, the slice type-based quantization parameter derivation unit 1323, in the case of I Slice, the allowable prediction in the slice may be limited to intra-prediction, so a predefined quantization step size and QP range corresponding to the intra-prediction process Can decide.
또한, P Slice의 경우, 화면 내 예측 및 화면 간 예측에서 단 방향 예측이 허용될 수 있는 바, 화면 내 예측 프로세스 및 화면 간 예측의 단방향 예측에 대응하여 사전 정의된 양자화 스텝 사이즈 및 QP 범위를 결정할 수 있다.In addition, in the case of P Slice, uni-directional prediction may be allowed in intra-screen prediction and inter-screen prediction, and a predefined quantization step size and QP range are determined in response to the intra-screen prediction process and uni-directional prediction of inter-screen prediction. You can.
그리고, B Slice의 경우, 화면 내 예측, 화면 간 예측에서의 단 방향 예측, 양방향 예측 또는 복수의 참조 픽쳐를 참조하는 예측이 모두 가능한 바, 상기 복수 예측을 허용하는 케이스에 대응하여 사전 정의된 양자화 스텝 사이즈 및 QP 범위가 결정될 수 있다.In addition, in the case of B Slice, intra-prediction, uni-directional prediction in inter-prediction, bi-directional prediction, or prediction with reference to a plurality of reference pictures are all possible, and pre-defined quantization corresponding to a case that allows the multiple prediction The step size and QP range can be determined.
이와 같이 상기 슬라이스 타입에 따라, 예측 방법은 제한될 수 있으며, 이는 블록 분할 구조를 결정하는 RDO 프로세스에 영향을 미칠 수 있으므로, 본 발명의 실시 예에 따른 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, 이에 대응하는 효율적 양자화 스텝 사이즈 및 QP 범위를 CTU 양자화 단위 블록별로 세분화하여 결정함으로써 부호화 및 복호화 효율을 높일 수 있다.As described above, according to the slice type, a prediction method may be limited, and this may affect an RDO process for determining a block partitioning structure. Therefore, the slice type based quantization parameter derivation unit 1323 according to an embodiment of the present invention, Coding and decoding efficiency can be improved by subdividing and determining an efficient quantization step size and QP range corresponding to each CTU quantization unit block.
한편, 상기 예측에 의한 잔차 신호(Residual)는 변환(Transform) 프로세스의 입력이 되는 바, 변환 함수 모드 및 변환 계수에도 영향이 미칠 수 있다.On the other hand, the residual signal by the prediction (Residual) is the input of the transform (Transform) process, it may affect the transform function mode and transform coefficients.
따라서, 일련의 부호화 및 복호화 프로세스에 있어서, 슬라이스 타입 뿐만 아니라, 변환 계수에 대응하여 양자화 파라미터를 적응적으로 조정할 필요성이 있으며, 이는 후술할 변환 계수 기반 양자화 파라미터 유도부(1327)에서 처리될 수 있다.Therefore, in a series of encoding and decoding processes, it is necessary to adaptively adjust the quantization parameter in response to the transform coefficient as well as the slice type, which can be processed by the transform coefficient-based quantization parameter derivation unit 1327 to be described later.
한편, 도 25는 슬라이스 타입별 양자화 스텝 사이즈와 QP 범위의 결정을 위한 QP 범위 테이블을 도시한다.Meanwhile, FIG. 25 shows a QP range table for determining the quantization step size and QP range for each slice type.
도 25에 도시된 바와 같이, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 상기 QP 범위 테이블에 기초하여, 슬라이스 타입에 대응하는 QP Range를 선택 적응적으로 조정할 수 있다.As illustrated in FIG. 25, the slice type based quantization parameter derivation unit 1323 may selectively adaptively adjust the QP Range corresponding to the slice type based on the QP range table.
이를 위한, 선택 적응적 QP 조정 정보는 별도의 플래그로서 헤더 정보에 지시되거나, 별도의 시그널링 정보를 통해 부호화 장치(100)로부터 복호화 장치(200)로 전달될 수 있다.For this, the selective adaptive QP adjustment information may be indicated in header information as a separate flag, or may be transmitted from the encoding device 100 to the decoding device 200 through separate signaling information.
예를 들어, QP 조정 플래그 또는 시그널링 정보가 0(False) 일 수 있으며, 이 경우에는 양자화부(130)가 고정 QP 범위(Fixed QP Range)에 따른 양자화 프로세스를 처리하는 바, 고정 Base QP를 기반으로 하는 픽쳐 및 슬라이스에 대한 적용 QP를 결정할 수 있다.For example, the QP adjustment flag or signaling information may be 0 (False), and in this case, the quantization unit 130 processes a quantization process according to a fixed QP range, based on a fixed base QP It is possible to determine the applied QP for the picture and slice.
또한, QP 조정 플래그 또는 시그널링 정보가 1(True) 인 경우, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, 테이블에 기초한 선택 적응적 QP 범위(Adaptive QP Range)를 결정하고, 이에 대응하는 Base QP를 결정하여, 각 슬라이스 및 픽쳐에 대응하는 QP 범위를 CTU 양자화 블록별로 선택 적응적으로 결정할 수 있다. In addition, when the QP adjustment flag or signaling information is 1 (True), the slice type-based quantization parameter derivation unit 1323 determines a selective adaptive QP range based on a table and determines a corresponding base QP. By determining, the QP range corresponding to each slice and picture may be selectively adaptively determined for each CTU quantization block.
보다 구체적으로, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 QP 값을 선택 적응적으로 연산하기 위해, 슬라이스 또는 픽쳐 타입에 대응하는 Minimum QP 및 Maximum QP를 결정할 수 있다. 그리고, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, 이후 획득되는 CTU 양자화 그룹 단위별 Offset 값과, 각 슬라이스별 결정되는 최소 Base QP 값에 기초하여, 각 CTU 양자화 그룹 단위별 세부 QP Value를 연산할 수 있다.More specifically, the slice type-based quantization parameter derivation unit 1323 may determine the minimum QP and the maximum QP corresponding to the slice or picture type in order to selectively adaptively calculate the QP value. Then, the slice type-based quantization parameter derivation unit 1323 calculates detailed QP values for each CTU quantization group unit based on the obtained CTU quantization group unit offset value and the minimum base QP value determined for each slice. You can.
한편, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, 상기 슬라이스가 속한 픽쳐의 시간적 레이어(Temporal Layer) 계층적인 QP 범위 조정을 수행할 수 있다.Meanwhile, the slice type-based quantization parameter derivation unit 1323 may perform a hierarchical QP range adjustment of a temporal layer of a picture to which the slice belongs.
도 25를 참조하면, 본 발명의 실시 예에 따른 슬라이스는 각 픽쳐의 시간적 레이어(Temporal Layer)에 대응하는 계층적 슬라이스들(B Slice0 ~ B Slice4)로 분류될 수 있다. 그리고, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 각 시간적 레이어에 대응하여 분류된 계층 정보에에 따라, 각각의 세부적인 QP Range를 조정할 수 있으며, 이에 따른 BASE QP 및 QP 값을 결정할 수 있다.Referring to FIG. 25, a slice according to an embodiment of the present invention may be classified into hierarchical slices (B Slice0 to B Slice4) corresponding to a temporal layer of each picture. In addition, the slice type-based quantization parameter derivation unit 1323 may adjust each detailed QP Range according to the classified layer information corresponding to each temporal layer, and may determine the BASE QP and QP values accordingly.
또한, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 슬라이스 타입 에 대응하는 영상의 특성 정보에 따라, 양자화 파라미터 값을 적응적이면서 효율적으로 결정할 수 있다.In addition, the slice type-based quantization parameter derivation unit 1323 may adaptively and efficiently determine a quantization parameter value according to characteristic information of an image corresponding to the slice type.
여기서, 특성 정보는 영상의 해상도 정보가 예시될 수 있다. 즉, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 슬라이스 타입 및 영상 해상도에 따라 양자화 파라미터의 범위, 스텝 사이즈 및 QP 값 중 적어도 하나를 적응적으로 결정할 수 있다. 이는 인지 품질 관점에서, 영상의 해상도(HD / FHD / 2K / 4K / 8K 등)에 따라 사람이 인지할 수 있는 영역이 다양하게 변함에 따라, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)가 특정 영상 해상도를 기준점으로 하여 QP 값을 조정할 수 있도록 하기 위함이다.Here, as the characteristic information, resolution information of an image may be illustrated. That is, the slice type-based quantization parameter derivation unit 1323 may adaptively determine at least one of the range, step size, and QP value of the quantization parameter according to the slice type and image resolution. From the perspective of cognitive quality, as a region that can be recognized by a person varies according to the resolution (HD / FHD / 2K / 4K / 8K, etc.) of the image, the slice type-based quantization parameter derivation unit 1323 determines the specific image resolution. This is to allow the QP value to be adjusted by using as a reference point.
해상도에 따라 적용 될 수 있도록 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 QP Resolution 연산을 정의할 수 있으며, 이는 임의의 해상도에 대응하는 QP 파라미터가 산출되는 연산을 포함할 수 있다. 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 QP 해상도 연산에 의해 산출된 해상도 기반 QP 파라미터에 따라 부호화 또는 복호화 대상 슬라이스의 QP를 선택 적응적으로 결정할 수 있다.The slice type-based quantization parameter derivation unit 1323 may define a QP Resolution operation so that it can be applied according to a resolution, which may include an operation in which QP parameters corresponding to an arbitrary resolution are calculated. The slice type-based quantization parameter derivation unit 1323 may selectively adaptively determine the QP of the slice to be encoded or decoded according to the resolution-based QP parameter calculated by the QP resolution operation.
본 발명의 또 다른 일 실시예로서, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, 슬라이스 타입에 대응하는 영상 특성 중 HDR 영상 또는 360 VR 영상이 존재하는 경우, 이에 대응하는 개별 QP value를 유도할 수 있다.As another embodiment of the present invention, the slice type based quantization parameter derivation unit 1323 may derive an individual QP value corresponding to an HDR image or a 360 VR image among image characteristics corresponding to the slice type. have.
슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, QP 결정 대상 블록이 HDR 영상의 블록인 경우, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는 Luminance range 가 크게 변하는 영상 영역의 블록에 대응하여, 상대적으로 높은 QP를 적용할 수 있다. 예를 들어, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, QP 결정 대상 블록에 대한 조도 적응적 디블록킹 필터를 위해 별도로 지정된 QP 오프셋 값을 헤더 정보로부터 획득하고, QP 결정 대상 블록이 HDR 적용 등에 의해 Luminance range 레벨이 사전 결정된 값보다 큰 경우, 상기 별도 지정된 QP 오프셋 값에 기초한 조도 적응적 디블록킹 필터링을 수행할 수 있다. 이에 따라, Luminance range 가 크게 변하는 영상 영역의 블록에 대한 적응적 디블록킹 필터링이 선택 적응적으로 수행되어, 주관적 화질을 향상시킬 수 있다.The slice type-based quantization parameter derivation unit 1323, when the block to be determined QP is a block of an HDR image, the slice type-based quantization parameter derivation unit 1323 corresponds to a block of an image region in which the luminance range is significantly changed, and a relatively high QP Can be applied. For example, the slice type-based quantization parameter derivation unit 1323 obtains a separately designated QP offset value for the illumination adaptive deblocking filter for the QP determination target block from header information, and the QP determination target block is applied by HDR or the like. When the luminance range level is greater than a predetermined value, illuminance adaptive deblocking filtering based on the separately designated QP offset value may be performed. Accordingly, adaptive deblocking filtering for a block of an image region having a large change in the luminance range is selectively adaptively performed, thereby improving subjective image quality.
또한, 슬라이스 타입 기반 양자화 파라미터 유도부(1323)는, QP 결정 대상 블록이가 가상 현실용 VR 360 영상의 블록인 경우, 그 영상의 영역 및 관심 영역(ROI)을 식별하고, 상기 식별된 관심 영역에 대응하는 블록에 상대적으로 높은 QP를 설정할 수도 있다.In addition, the slice type-based quantization parameter derivation unit 1323 identifies a region and a region of interest (ROI) of the image when the QP determination target block is a block of a VR 360 image for virtual reality, and the region of interest is identified in the identified region of interest. It is also possible to set a relatively high QP for the corresponding block.
한편, 컬러 샘플 기반 양자화 파라미터 유도부(1325)는 컬러 샘플에 따라, 선택 적응적 QP 값을 유도할 수 있다.Meanwhile, the color sample-based quantization parameter deriving unit 1325 may derive a selective adaptive QP value according to the color sample.
보다 구체적으로, 컬러 샘플 기반 양자화 파라미터 유도부(1325)는, 조도 (Luminance) 컬러 성분 샘플의 QP 값을 이용하여, 색차(Chroma) 컬러 성분 샘플의 QP 값을 산출할 수 있다.More specifically, the color sample-based quantization parameter derivation unit 1325 may calculate the QP value of a chroma color component sample using the QP value of the luminance color component sample.
또한, 컬러 샘플 기반 양자화 파라미터 유도부(1325)는 상기 조도 컬러 샘플의 QP 값을 기반으로 하는 채도 컬러 샘플의 QP값을 조건부로 결정할 수 있다. 그 결정 조건으로서, i) 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block Structure 가 구성된 경우, ii) 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block tree가 구성되어, 서로 다른 block partitioning tree를 갖는 경우, iii) 조도 컬러 샘플의 블록 분할 특성(분할 방향, 분할 깊이, 블록 크기 등)이 미리 결정된 값을 갖는 경우와 같은 여러 조건이 예시될 수 있다. 이에 따라, 컬러 샘플 기반 양자화 파라미터 유도부(1325)는 상기 i) 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block Structure 가 구성된 경우, ii) 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block tree가 구성되어, 서로 다른 block partitioning tree를 갖는 경우, iii) 조도 컬러 샘플의 블록 분할 특성(분할 방향, 분할 깊이, 블록 크기 등)이 미리 결정된 값을 갖는 경우와 같은 각 조건에 따라, 채도 컬러 샘플에 대한 QP 값 유도 여부와 QP 값 유도를 위한 양자화 오프셋 파라미터를 선택 적응적으로 결정할 수 있다. In addition, the color sample-based quantization parameter derivation unit 1325 may conditionally determine the QP value of the saturation color sample based on the QP value of the illuminance color sample. As the determination condition, i) when a separate block structure is formed between the illuminance sample and the color difference sample matching it, ii) a separate block tree is constructed between the illuminance sample and the color difference sample matching it, and has different block partitioning trees. In the case, iii) various conditions such as the case where the block division characteristics (division direction, division depth, block size, etc.) of the illuminance color sample have a predetermined value may be exemplified. Accordingly, the color sample-based quantization parameter derivation unit 1325 is configured when i) a separate block structure between an illuminance sample and a color difference sample matching it, ii) a separate block tree between an illuminance sample and a color difference sample matching it. Therefore, in case of having different block partitioning trees, iii) for each color condition of the saturation color sample, such as the case where the block partitioning characteristics (division direction, division depth, block size, etc.) of the illuminance color sample have a predetermined value. Whether to derive QP values and quantization offset parameters for deriving QP values may be selectively adaptively determined.
또한, 컬러 샘플 기반 양자화 파라미터 유도부(1325)는 조도 컬러 샘플의 블록 분할 특성(분할 방향, 분할 깊이, 블록 크기, 블록 트리 구조 등)에 따라, 채도 컬러 샘플의 QP 값 유도 함수를 상이하게 결정함으로써, 선택 적응적 QP 결정을 처리할 수 있다.예를 들어, 본 발명의 실시 예에 따른 적응적 QP 결정 프로세스는 아래와 같이 예시될 수 있다.In addition, the color sample-based quantization parameter derivation unit 1325 determines the QP value derivation function of the saturation color sample differently according to the block division characteristics (division direction, division depth, block size, block tree structure, etc.) of the illuminance color sample. , A selective adaptive QP decision can be processed. For example, the adaptive QP decision process according to an embodiment of the present invention can be illustrated as follows.
먼저, Chroma_QP = Luma_QP - Diff_Offset; 을 처리하고, Diff_Offset = min(MaxDiff_ChromaQP, LumaQP - Chroma_QP); 을 처리한다.First, Chroma_QP = Luma_QP-Diff_Offset; Diff_Offset = min (MaxDiff_ChromaQP, LumaQP-Chroma_QP); To deal with.
상기 프로세스를 참조하면, Luma QP로부터 별도로 정의된 Offset (Diff_Offset) 값을 이용하여 Chroma Sample에 적용되는 QP 파라미터가 결정될 수 있다. 여기서, 상기 Luma QP는 헤더 정보 및 블록 정보로부터 미리 산출된 초기 QP에 대응하는 차이값으로서, 헤더 정보 또는 블록 정보로부터 획득되는 delta QP로부터 연산될 수 있다. 따라서, 상기 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block Structure 또는 Block Tree가 듀얼로 구성된 경우, Luma QP는 조도에 대응하는 Block Structure 또는 Block Tree의 헤더 정보 또는 블록 정보로부터 획득될 수 있다.Referring to the above process, the QP parameter applied to the Chroma Sample can be determined using an offset (Diff_Offset) value defined separately from Luma QP. Here, the Luma QP is a difference value corresponding to an initial QP calculated in advance from header information and block information, and can be calculated from delta QP obtained from header information or block information. Accordingly, when a separate block structure or block tree between the illuminance sample and a color difference sample matching it is configured in dual, Luma QP may be obtained from header information or block information of a block structure or block tree corresponding to illuminance.
상기 Offset 은 부호화 장치(100)로부터 전송 되는 QP Offset (MaxDiff_ChromaQP)으로부터 유도될 수 있다. 또한, 상기 Offset 은 미리 유도된 LumaQP 와 ChromaQP와의 차이 값 중 작거나 또는 큰 값 일 수 있다. 여기서, 예를 들어 상기 QP Offset은 각 조건에 따라 부호화 장치(100)로부터 시그널링되는 헤더 정보 또는 코딩 유닛 또는 변환 유닛에 대응하는 블록 정보로서 전송될 수 있다. 특히 컬러 샘플 기반 양자화 파라미터 유도부(1325)는 상기 i) 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block Structure 가 구성된 경우, ii) 조도 샘플과 이에 매칭되는 색차 샘플 간 별도의 Block tree가 구성되어, 서로 다른 block partitioning tree를 갖는 DUAL Tree 케이스 등에 있어서, 색차 샘플 트리의 양자화 단위에 대응하는 QP를 LumaQP로부터 개별적으로 유도하기 위한 각 단위별 Chroma QP 파라미터로서의 QP Offset 값을 시그널링 정보 또는 복호화 대상 블록 정보로부터 획득할 수 있다.이에 따라, 컬러 샘플 기반 양자화 파라미터 유도부(1325)는, 상기 결정된 Chroma QP 파라미터를 이용하여 Luma QP로부터 색차 샘플의 QP를 유도할 수 있다.The offset may be derived from QP Offset (MaxDiff_ChromaQP) transmitted from the encoding device 100. In addition, the offset may be a smaller or larger value among the difference values between LumaQP and ChromaQP derived in advance. Here, for example, the QP offset may be transmitted as header information signaled from the encoding apparatus 100 according to each condition or block information corresponding to a coding unit or a transformation unit. In particular, the color sample-based quantization parameter derivation unit 1325 is composed of a separate block structure between the i) illuminance sample and the color difference sample matching it, ii) a separate block tree between the illuminance sample and the color difference sample matching it, In a DUAL Tree case or the like having a different block partitioning tree, a QP offset value as a Chroma QP parameter for each unit for individually deriving QPs corresponding to quantization units of a color difference sample tree from LumaQPs from signaling information or decoding target block information Accordingly, the color sample-based quantization parameter derivation unit 1325 may derive the QP of the color difference sample from the Luma QP using the determined Chroma QP parameter.
또한, 본 발명에 따른 일 실시예에 따른 컬러 샘플 기반 양자화 파라미터 유도부(1325)의 동작 여부 및 세부 파라미터는 별도 전송되는 플래그 또는 시그널링 정보를 통해 유도될 수 있다. 예를 들어 Chroma QP 파라미터 연산을 위한 QP Offset 정보는 PPS 또는 SPS와 같은 헤더 정보의 하이레벨 신택스로부터 유도되거나, 코딩 유닛, 변환 유닛 등의 블록 정보로부터 획득될 수 있다.또한, 상기 Chroma QP 파라미터 연산을 위한 QP Offset 정보는 양자화단위에 대응하는 리스트 형태로 구성될 수 있으며, 각 코딩 유닛 또는 변환 유닛에 대응하는 각각의 색차 샘플용 QP 값이, 미리 산출된 Luma QP 값과, 리스트에서 획득되는 QP Offset 정보에 기초하여 연산되어 결정될 수 있다. 여기서 상기 리스트는 전술한 바와 같이 PPS 또는 SPS와 같은 헤더 정보의 하이레벨 신택스로부터 유도되거나, 코딩 유닛, 변환 유닛 등의 블록 정보로부터 획득될 수 있다.Also, whether the color sample-based quantization parameter deriving unit 1325 operates and detailed parameters according to an embodiment of the present invention may be derived through separately transmitted flags or signaling information. For example, QP offset information for Chroma QP parameter calculation may be derived from high-level syntax of header information such as PPS or SPS, or may be obtained from block information such as a coding unit and a transformation unit. Also, the Chroma QP parameter calculation The QP offset information for can be configured in a list form corresponding to a quantization unit, and QP values for each color difference sample corresponding to each coding unit or transformation unit are pre-computed Luma QP values and QPs obtained from the list It can be calculated and determined based on the offset information. Here, the list may be derived from high level syntax of header information such as PPS or SPS as described above, or may be obtained from block information such as a coding unit and a transformation unit.
한편, 변환 계수 기반 양자화 파라미터 유도부(1327)는, CTU 양자화 단위 블록에 대응하여, 변환 계수 및 부호화 특성을 고려한 적응적 양자화 파라미터 결정 프로세스를 처리할 수 있다.Meanwhile, the transform coefficient-based quantization parameter derivation unit 1327 may process an adaptive quantization parameter determination process in consideration of transform coefficients and encoding characteristics in response to a CTU quantization unit block.
본 발명의 실시 예에 따르면, 변환 계수는 레벨링될 수 있으며, 양자화부(130)는 복수의 레벨별 양자화기(미도시)를 포함할 수 있다. 이러한 복수의 양자화기는 각 레벨에 매핑될 수 있고, 이에 따른 변환 레벨별 양자화 처리가 각각의 양자화기에서 수행될 수 있다. 각 양자화기별로 사전 정의된 스텝 사이즈 및 계수 레벨이 매핑될 수 있으며, 이에 따라 스칼라 기반의 스케일링된 양자화 처리가 변환 계수 레벨별로 처리될 수 있다.According to an embodiment of the present invention, the transform coefficient may be leveled, and the quantization unit 130 may include a plurality of quantizers for each level (not shown). Such a plurality of quantizers may be mapped to each level, and accordingly, quantization processing for each transform level may be performed in each quantizer. Pre-defined step sizes and coefficient levels for each quantizer may be mapped, and accordingly, a scalar-based scaled quantization process may be processed for each transform coefficient level.
특히, 이와 같은 레벨 기반의 복수 양자화기를 이용한 변환 계수의 양자화 처리를 수행하는 경우, 변환 계수 기반 양자화 파라미터 유도부(1327)는 각 변환 계수의 레벨, 부호화 특성 정보 및 영상 특성 정보 중 적어도 하나에 대응하는 선택 적응적 양자화 파라미터 유도를 처리할 수 있다.In particular, in the case of performing quantization processing of transform coefficients using the level-based multiple quantizer, the transform coefficient-based quantization parameter deriving unit 1327 corresponds to at least one of the level of each transform coefficient, encoding characteristic information, and image characteristic information. Selective adaptive quantization parameter derivation can be handled.
예를 들어, 부호화 특성 정보는 픽쳐의 공간적 계층(Temporal layer) 정보, 슬라이스 타입 정보, 향상 계층 또는 베이스 계층을 포함하는 부호화 계층 정보 등이 예시될 수 있다.For example, the encoding characteristic information may include spatial layer information of a picture, slice type information, encoding layer information including an enhancement layer or a base layer, and the like.
또한, 입력 영상의 특성 정보는 HDR 영상 정보, 360 VR 영상 정보, 부분 영역의 고화질을 요구하는 영상 정보 또는 영상 해상도 정보가 예시될 수 있다.In addition, as the characteristic information of the input image, HDR image information, 360 VR image information, image information requesting high image quality of a partial region, or image resolution information may be exemplified.
예를 들어, 변환 계수의 레벨 기반 양자화 처리를 제공하는 복수의 양자화기(QUANTIZER)는 2개 또는 3개가 예시될 수 있다.For example, two or three quantizers (QUANTIZER) that provide level-based quantization processing of transform coefficients may be exemplified.
2개로 구성된 양자화기의 경우, 베이스 양자화 파라미터를 처리하는 제1 양자화기(BaseQ) 및 향상된 양자화 파라미터를 처리하는 제2 양자화기(EnhancementQ) 로 구성될 수 있으며, 3개로 구성된 양자화기의 경우, 베이스(BASEQ)에 대응하는 제1 양자화기, 상향(HIGHQ)에 대응하는 제2 양자화기 및 하향(LOWQ)에 대응하는 제3 양자화기로 구성될 수 있다.In the case of a two-quantizer, the first quantizer (BaseQ) that processes the base quantization parameter and a second quantizer (EnhancementQ) that processes the enhanced quantization parameter, and in the case of a three-quantizer, the base It may be composed of a first quantizer corresponding to (BASEQ), a second quantizer corresponding to uplink (HIGHQ) and a third quantizer corresponding to downlink (LOWQ).
이러한 복수의 양자화기로 구성된 양자화부(130)의 처리가 수행되는 경우, 변환 계수 기반 양자화 파라미터 유도부(1327)는, 부호화 정보 및 영상 정보의 특성에 따라, 각 양자화기의 선택 정보, 양자화 스텝 사이즈 및 QP 범위를 결정할 수 있다.When the processing of the quantization unit 130 composed of a plurality of quantizers is performed, the transform coefficient-based quantization parameter derivation unit 1327 may select information of each quantizer, quantization step size, and size according to characteristics of encoding information and image information. The QP range can be determined.
예를 들어, 변환 계수 기반 양자화 파라미터 유도부(1327)는, HDR 영상의 경우, 상향 양자화기(HighQ) 및 베이스 양자화기(baseQ)만을 이용한 각각 별도의 양자화 스텝 사이즈와 범위를 결정할 수 있고, 이에 대응하는 QP를 유도할 수 있다.For example, in the case of an HDR image, the transform coefficient-based quantization parameter derivation unit 1327 may determine separate quantization step sizes and ranges using only an uplink quantizer (HighQ) and a base quantizer (baseQ), and correspond to the same. Can induce QP.
또한, 변환 계수 기반 양자화 파라미터 유도부(1327)는 일반 영상의 경우, 그 해상도 정보에 대응하는 베이스 양자화기(BaseQ) 또는 하향 양자화기(LowQ)를 선택하여, 이에 대응하는 QP 값이 유도되도록 처리할 수 있다.In addition, the transform coefficient-based quantization parameter derivation unit 1327 selects a base quantizer (BaseQ) or a down-quantizer (LowQ) corresponding to the resolution information in the case of a general image, and processes the QP value corresponding thereto to be derived. You can.
이와 같이, 부호화 정보 및 영상의 특성 정보에 따라, 양자화기가 선택될 수 있는 바, 각 양자화기를 이용한 양자화 처리는 이후의 그룹 단위 차분 양자화 파라미터 유도부(1330) 및 코딩 블록 단위 적응적 양자화 파라미터 적용부(1340)에 의해 세분화되어 처리될 수 있다.As described above, since a quantizer may be selected according to encoding information and characteristic information of an image, quantization processing using each quantizer includes a group-by-group difference quantization parameter derivation unit 1330 and a coding block unit adaptive quantization parameter application unit ( 1340).
특히, 복수 양자화기에 대응한 레벨 분류를 위하여, 양자화부(130)는 변환 블록에 대한 변환 계수 값에 기초하여, 레벨 분류 처리를 수행할 수 있다.Particularly, for level classification corresponding to a plurality of quantizers, the quantization unit 130 may perform level classification processing based on a transform coefficient value for a transform block.
그리고, 변환 계수 기반 양자화 파라미터 유도부(1327)는, 처리된 레벨 분류와, 영상 특성 정보 및 부호화 특성 정보에 기초하여, 양자화를 처리할 복수의 양자화기 중 적어도 하나를 결정할 수 있다. 예를 들어, 상기 부호화 특성 정보는 블록 구조 정보, 블록 분할 정보, 분할 깊이 정보, 분할 방향 정보 또는 색차 성분 정보 중 적어도 하나를 포함할 수 있다. 또한, 복수의 양자화기 중 적어도 하나는 전술한 2개 또는 3개로 구성된 양자화기 중 적어도 하나일 수 있다.The transform coefficient-based quantization parameter derivation unit 1327 may determine at least one of a plurality of quantizers to process quantization based on the processed level classification, image characteristic information, and encoding characteristic information. For example, the encoding characteristic information may include at least one of block structure information, block division information, division depth information, division direction information, or color difference component information. Further, at least one of the plurality of quantizers may be at least one of the above-described two or three quantizers.
그리고, 변환 계수 기반 양자화 파라미터 유도부(1327)는 각 양자화기의 구성 및 선택 정보에 따라, 서로 다른 양자화 Step size를 적용하여, QP 값이 선택 적응적으로 결정되도록 처리할 수 있다.Then, the transform coefficient-based quantization parameter derivation unit 1327 may process QP values to be selectively adaptively determined by applying different quantization step sizes according to configuration and selection information of each quantizer.
도 26은 이와 같이 처리된 양자화부(130)의 동작을 보다 구체적으로 도시한 도면이다.26 is a view showing in more detail the operation of the quantization unit 130 thus processed.
도 26을 참조하면, 먼저 양자화부(130)는, 초기 양자화 파라미터 유도부(1310)를 통해, 초기 양자화 파라미터 및 초기 양자화 파라미터 리스트를 유도한다(S2001).Referring to FIG. 26, first, the quantization unit 130 derives an initial quantization parameter and an initial quantization parameter list through the initial quantization parameter derivation unit 1310 (S2001).
그리고, 양자화부(130)는 특성 적응적 양자화 파라미터 결정부(1320)를 통해, 특성 적응적 양자화 파라미터를 결정한다(S2003).Then, the quantization unit 130 determines a characteristic adaptive quantization parameter through the characteristic adaptive quantization parameter determination unit 1320 (S2003).
여기서, 특성 적응적 양자화 파라미터 결정부(1320)는, 전술한 영상 케이스 기반 양자화 파라미터 유도부(1321), 슬라이스 타입 기반 양자화 파라미터 유도부(1323), 컬러 샘플 기반 양자화 파라미터 유도부(1325) 및 변환 계수 기반 양자화 파라미터 유도부(1327) 중 적어도 하나를 이용하여, 상기 초기 양자화 파라미터 리스트에 대응하는 양자화 파라미터를 CTU 양자화 단위 블록별로 선택 적응적으로 결정할 수 있다.Here, the characteristic adaptive quantization parameter determining unit 1320 includes the above-described image case-based quantization parameter derivation unit 1321, slice type-based quantization parameter derivation unit 1323, color sample-based quantization parameter derivation unit 1325, and transform coefficient-based quantization. A quantization parameter corresponding to the initial quantization parameter list may be selectively adaptively determined for each CTU quantization unit block by using at least one of the parameter derivation units 1327.
그리고, 양자화부(130)는 그룹 단위 차분 양자화 파라미터 유도부(1330)를 통해, 이후 양자화 처리를 수행하여 상기 리스트에 의해 구성 및 업데이트된 양자화 파라미터에 대응하여, 각 CTU 양자화 단위 블록별 차분 양자화 파라미터를 유도하고(S2005), 이에 따라 코딩 블록 단위의 적응적 양자화 파라미터를 적용하여(S2007), 블록 단위별 선택 적응적 양자화가 처리되도록 한다(S2009).Then, the quantization unit 130, through the group unit difference quantization parameter derivation unit 1330, performs quantization processing, and then corresponds to the quantization parameters configured and updated by the list, and sets the difference quantization parameters for each CTU quantization unit block. Derivation (S2005), and adaptive quantization parameters in units of coding blocks are applied accordingly (S2007), so that selective adaptive quantization for each block is processed (S2009).
이와 같이 설명된 양자화 프로세스는, 부호화 장치(100)에서 처리되는 것이 예시되나, 복호화 장치(200)에서도 역순으로의 처리가 가능하다. 즉, 역양자화부(220)는, 대상 블록의 양자화 그룹 단위 정보에 기초하여, 상기 대상 블록의 역양자화 처리를 위한 역양자화 파라미터를 선택 적응적으로 결정할 수 있는 것이며, 이에 따른 후속 처리는 위에서 설명한 바와 동일 또는 유사하게 처리된다.Although the quantization process described in this way is exemplified to be processed by the encoding device 100, the decoding device 200 can also process in the reverse order. That is, the inverse quantization unit 220 may selectively adaptively determine an inverse quantization parameter for inverse quantization processing of the target block, based on the quantization group unit information of the target block, and subsequent processing is described above. The same or similar treatment as the bar.
한편,도 27 내지 도 29는 본 발명의 실시 예에 따른 양자화부(130)의 동작을 위해 시그널링되는 하이레벨 신택스 정보를 예시한 도면들이다.Meanwhile, FIGS. 27 to 29 are diagrams illustrating high-level syntax information signaled for the operation of the quantization unit 130 according to an embodiment of the present invention.
도 27은 PPS 신택스를 도시한 것으로, 도 27을 참조하면, PPS를 통해 각 CTU 양자화 단위 블록별 QP를 적응적으로 결정하기 위한 차분 정보로서 DIFF_CU_QP_DELTA_DEPTH 정보와, 각 색차별 QP 오프셋 정보가 시그널링 되는 것이 예시될 수 있다.FIG. 27 illustrates PPS syntax. Referring to FIG. 27, DIFF_CU_QP_DELTA_DEPTH information and QP offset information for each color difference are signaled as differential information for adaptively determining QP for each CTU quantization unit block through PPS. Can be illustrated.
도 28은 PPS의 범위 확장 신택스를 도시한 것으로, 도 28을 참조하면, PPS의 범위 확장 신택스를 통해 적응적 양자화 그룹 단위 리스트 처리가 적용되는지 여부를 나타내는 Adaptive_Group_QP_list_flag가 시그널링될 수 있으며, 이에 대응하는 각 리스트의 오프셋 및 인덱스 정보와, 차분 색차 QP에 대응하는 오프셋 깊이 정보(DIFF_CU_CHROMA_QP_OFFSET_DEPTH)가 시그널링되는 것이 예시될 수 있다.FIG. 28 illustrates a range extension syntax of PPS. Referring to FIG. 28, Adaptive_Group_QP_list_flag indicating whether adaptive quantization group unit list processing is applied through the range extension syntax of PPS may be signaled, and each corresponding thereto It may be exemplified that offset and index information of the list and offset depth information (DIFF_CU_CHROMA_QP_OFFSET_DEPTH) corresponding to the differential color difference QP are signaled.
한편, 도 29는 본 발명의 실시 예에 따른 슬라이스 헤더 신택스를 도시한 것으로, 슬라이스 헤더에는 색차 QP 오프셋 정보와, 각 적응적 양자화 그룹 단위 리스트 처리를 위한 GROUP_QP_LIST[i]가 정의되고, 슬라이스 QP 값이 적응적으로 적용될 수 있는 것이 지시될 수 있다.다만, 이와 같은 신택스 정보는 본 발명의 실시 예를 위해 예시된 것으로, 그 표현 또는 용어 등은 변형 실시될 수 있음은 자명하다.Meanwhile, FIG. 29 illustrates slice header syntax according to an embodiment of the present invention. In the slice header, color difference QP offset information and GROUP_QP_LIST [i] for processing each adaptive quantization group unit list are defined, and the slice QP value It may be indicated that this can be applied adaptively. However, such syntax information is exemplified for an embodiment of the present invention, and it is obvious that the expressions or terms may be modified.
한편, 도 30 내지 도 33은 본 발명의 실시 예에 따른 픽쳐가 다수의 입력 영상 분할 단위로 분할된 경우의 QP 파라미터가 적응적으로 결정되는 케이스를 설명하기 위한 도면들이다.Meanwhile, FIGS. 30 to 33 are diagrams for explaining a case in which a QP parameter is adaptively determined when a picture according to an embodiment of the present invention is divided into a plurality of input image segmentation units.
도 30 및 31에 도시된 바와 같이, 본 발명의 실시 예에 따른 영상 분할 단위는 각각의 부호화 단위에 대응하여 결정될 수 있을 뿐만 아니라, 하나의 픽쳐를 세부 부호화 단위와는 별도로 분할하는 서브 픽쳐(Sub picture) 단위로도 결정될 수 있다. 서브 픽쳐는 전술한 바와 같이 VR 영상 등에 있어서 특정 시점에 대응하는 리젼(Region)에 대응될 수 있으며, 하나의 픽쳐는 복수의 서브 픽쳐들로 구성될 수 있다.As illustrated in FIGS. 30 and 31, the image division unit according to an embodiment of the present invention may not only be determined corresponding to each coding unit, but also a sub-picture (Sub) that divides one picture separately from the detailed coding unit (Sub picture) unit. As described above, the sub-picture may correspond to a region corresponding to a specific viewpoint in a VR image, etc., and one picture may be composed of a plurality of sub-pictures.
또한, 이러한 서브 픽쳐들에 대응하는 별도의 시그널링 정보가 부호화 장치(100)로부터 복호화 장치(200)로 전송될 수 있다. 도 30은 이러한 시그널링 정보로서 헤더 정보에 삽입되는 서브 픽쳐 시그널링 정보의 신택스 예시도이다.Also, separate signaling information corresponding to the sub-pictures may be transmitted from the encoding device 100 to the decoding device 200. 30 is an exemplary syntax diagram of subpicture signaling information inserted into header information as such signaling information.
도 30 및 도 31에 도시된 바와 같이, 본 발명의 실시 예에 따른 서브 픽쳐 시그널링 정보는 전체 서브픽쳐 개수 정보(Total_subpics_nums), 서브 픽쳐별 폭 정보(SubPic_Width), 서브 픽쳐별 높이 정보(SubPic_Height), 서브 픽쳐 수평 분할 정보(Subpic_Hor_split_flag) 및 서브 픽쳐 식별 정보(Subpic_ID) 중 적어도 하나를 포함할 수 있으며, 나아가 서브픽쳐의 픽쳐 플래그로서의 활용여부 정보와, 서브 픽쳐간 루프 필터링 허용여부 정보가 더 포함될 수 있다.30 and 31, sub-picture signaling information according to an embodiment of the present invention includes the total number of sub-pictures (Total_subpics_nums), sub-picture width information (SubPic_Width), and sub-picture height information (SubPic_Height), It may include at least one of sub-picture horizontal split information (Subpic_Hor_split_flag) and sub-picture identification information (Subpic_ID), and further, whether to use information as a picture flag of the sub-picture and whether to allow loop filtering between sub-pictures may be further included. .
예를 들어, 도 31에 도시된 바와 같이, 전체 픽쳐는 복수의 서브 픽쳐들로 구분될 수 있으며, 각 서브 픽쳐에 대응하는 서브 픽쳐 인덱스(SubPic[0][0] 내지 SubPic[2][2])에 의히 지시될 수 있다.For example, as illustrated in FIG. 31, the entire picture may be divided into a plurality of sub-pictures, and sub-picture indices (SubPic [0] [0] to SubPic [2] [2) corresponding to each sub-picture. ]).
또한, 각 서브 픽쳐들에는 서브 픽쳐 식별자(Subpicture ID, 0 내지 N)가 할당될 수 있다. 이에 따라, 시그널링 정보에는 각 서브 픽쳐 식별자 및 서브 픽쳐 인덱스에 대응하는 픽쳐 폭(width) 및 높이(height) 정보가 포함될 수 있다.Also, subpicture IDs (0 to N) may be assigned to each subpicture. Accordingly, the signaling information may include picture width and height information corresponding to each sub-picture identifier and sub-picture index.
또한, 서브 픽쳐 식별자는 SPS 또는 PPS 등과 같은 헤더 정보 또는 SEI 메시지에 포함될 수 있다. 서브 픽쳐 식별자는 Sequence 내 첫 부호화 픽쳐의 초기 서브 픽쳐 ID 정보를 포함할 수 있다. In addition, the sub picture identifier may be included in header information such as SPS or PPS or an SEI message. The sub picture ID may include initial sub picture ID information of the first coded picture in the sequence.
예를 들어, 복호화 장치(200)는 SEI 메시지를 통해 수신된 서브 픽쳐 ID 정보에 기초하여, 특정 픽쳐를 식별하고, 상기 특정 픽쳐 내 서브 픽쳐들의 ID를 식별 및 업데이트할 수 있다. 이에 따라, Sequence 내 서브 픽쳐 ID가 저장 및 업데이트 될 수 있다. 또한, 상기 SEI 메시지는 PPS 또는 슬라이스 헤더 등의 부호화 헤더 정보로 대체될 수 있다. 따라서, 복호화 장치(200)는 PPS 또는 슬라이스 헤더를 이용하여, 픽쳐 내 서브 픽쳐의 식별자 정보를 업데이트할 수 있다.For example, the decoding apparatus 200 may identify a specific picture and identify and update IDs of subpictures in the specific picture based on the subpicture ID information received through the SEI message. Accordingly, the subpicture ID in the sequence can be stored and updated. In addition, the SEI message may be replaced with encoded header information such as PPS or slice header. Accordingly, the decoding apparatus 200 may update the identifier information of the subpicture in the picture using the PPS or slice header.
또한, 서브 픽쳐 식별자는 가변적으로 변경될 수 있으며, 이 경우, 가변을 나타내기 위한 별도의 서브 픽쳐 Grid 정보, Index 정보 또는 Offset 정보 등이 서브 픽쳐 식별자 가변 정보로서 시그널링될 수 있다. 복호화 장치(200)는 시그널링된 서브 픽쳐 식별자 가변 정보에 기초하여, 픽쳐 내 서브 픽쳐들의 위치와 크기를 결정할 수 있다. 동일한 크기를 갖는 서브 픽쳐들에 대응하는 서브 픽쳐의 ID는 유동적으로 할당될 수 있으며, 픽쳐 시퀀스의 경과에 따라 업데이트될 수 있다.In addition, the sub-picture identifier may be variably changed. In this case, separate sub-picture Grid information, Index information, or Offset information for indicating the variable may be signaled as sub-picture identifier variable information. The decoding apparatus 200 may determine the location and size of the sub-pictures in the picture based on the signaled sub-picture identifier variable information. IDs of sub-pictures corresponding to sub-pictures having the same size may be flexibly allocated and updated according to the progress of a picture sequence.
또한, 서브 픽쳐가 분할된 경우, 이를 나타내는 서브 픽쳐 스플릿 플래그(Split Flag)가 지정되어 시그널링 정보에 포함될 수 있다. 그리고, 분할된 우측 경계 서브 픽쳐의 경우, 서브 픽쳐의 폭 정보와 높이 정보가 각각 지정되어, 시그널링 정보에 포함될 수 있다. In addition, when a sub-picture is divided, a sub-picture split flag indicating this may be designated and included in signaling information. In addition, in the case of the divided right boundary subpicture, width information and height information of the subpicture are respectively designated and may be included in signaling information.
이러한 서브 픽쳐 시그널링 정보는 SPS(Sequence Parameter set), PPS(Picture Parameter Set)와 같은 영상 비트스트림의 헤더 정보에 포함되어 전송될 수 있다.The sub-picture signaling information may be transmitted by being included in header information of a video bitstream such as Sequence Parameter Set (SPS) and Picture Parameter Set (PPS).
보다 구체적으로, 예를 들어 Total_subpics_nums는, SPS상 전송되는 서브 픽쳐 시그널링 정보일 수 있으며, 각 픽쳐 내에서 분할된 서브 픽쳐(또는, 하위 픽쳐)의 총 개수 정보를 나타낼 수 있다.More specifically, for example, Total_subpics_nums may be sub-picture signaling information transmitted on the SPS, and may indicate the total number of sub-pictures (or sub-pictures) divided within each picture.
또한, 예를 들어, Subpic_ID는, 각각의 서브픽쳐에 할당된 고유의 ID를 나타낼 수 있다.In addition, for example, Subpic_ID may indicate a unique ID assigned to each subpicture.
예를 들어, 서브 픽쳐에는 고유의 식별 정보(id) 가 할당 및 시그널링될 수 있으며, 기본적으로는 픽쳐의 Top-Left 부터 Right Bottom 까지 Z-Scan order로 서브 픽쳐 ID가 할당될 수 있다.For example, unique identification information (id) may be allocated and signaled to the sub-picture, and basically, a sub-picture ID may be allocated in Z-Scan order from the top-left to the right bottom of the picture.
서브 픽쳐 ID 를 할당하기 위해, 서브 픽쳐 식별 정보(Subpic_ID)가 리스트(List) 또는 테이블(Table)의 형태로 전송될 수 있다. 복호화 장치(200)는 전체 서브픽쳐 개수 정보에 기초한 인덱스를 설정하고, 미리 정의된 순서에 따라 순차적으로 서브 픽쳐의 ID를 상기 인덱스에 할당할 수 있다.In order to allocate a sub-picture ID, sub-picture identification information (Subpic_ID) may be transmitted in the form of a list or a table. The decoding apparatus 200 may set an index based on the total number of sub-pictures, and sequentially allocate IDs of sub-pictures to the index according to a predefined order.
상기 서브 픽쳐 ID 는 서브 픽쳐의 속성을 나타낼 수 있으며, 각 위치에 대응하는 Index 정보와는 달리, 서브 픽쳐에 대응하여 적용될 parameter set를 선택하는 식별 정보(ID)로도 사용될 수 있다.The sub-picture ID may indicate attributes of a sub-picture, and may be used as identification information (ID) for selecting a parameter set to be applied in response to a sub-picture, unlike index information corresponding to each position.
또한, 상기 서브 픽쳐가 1개 이상의 독립 슬라이스를 포함할 경우, 서브 픽쳐에 할당되는 서브 픽쳐 ID는 슬라이스 헤더의 슬라이스 ID와 매핑 또는 대응될 수 있다. 서브 픽쳐 ID에 대응하는 인덱스 또는 그리드 정보는 각각의 서브 픽쳐의 구조 및 크기 정보 등을 나타낼 수 있고, 슬라이스 복호화를 위한 고정적인 위치 정보로 사용될 수도 있다.Further, when the sub-picture includes one or more independent slices, the sub-picture ID allocated to the sub-picture may be mapped or corresponded to the slice ID of the slice header. The index or grid information corresponding to the sub picture ID may indicate the structure and size information of each sub picture, or may be used as fixed location information for slice decoding.
따라서, 복호화 장치(200)는 서브 픽쳐의 ID 정보를 이용하여, 다양한 부호화 정보 (참조 픽쳐 리스트 정보, 선택 적응적 QP 할당, NAL UNIT TYPE, SLICE TYPE)를 선택 적응적으로 유도 및 결정할 수 있다. Accordingly, the decoding apparatus 200 may selectively adaptively derive and determine various encoding information (reference picture list information, selective adaptive QP allocation, NAL UNIT TYPE, and SLICE TYPE) using ID information of the subpicture.
예를 들어, 복호화 장치(200)는 서브 픽쳐 ID 에 대응하는 QP 오프셋을 결정하거나, Scanning Order 를 변경하거나, 별도의 선택 적응적 파라미터 셋(Adaptive Parameter Set)을 참조하여, 각 서브 픽쳐별 Initial Parameter QP 값을 결정하는 데 서브 픽쳐 id 정보를 이용할 수 있다.For example, the decoding apparatus 200 determines the QP offset corresponding to the sub-picture ID, changes the Scanning Order, or refers to a separate optional adaptive parameter set to initialize parameters for each sub-picture. Subpicture id information may be used to determine the QP value.
이에 따라, 도 32에 도시된 바와 같이, 서브 픽쳐 ID에 대응하는 별도의 Parameter Set이 참조될수 있다. Parameter set은 Picture Parameter set 또는 별도의 선택 적응적 파라미터 세트가 예시될 수 있으며, 서브 픽쳐 id는 시퀀스 파라미터 세트에 포함되어, 각 다른 파라미터 세트에 매핑되도록 구성될 수 있다.Accordingly, as illustrated in FIG. 32, a separate parameter set corresponding to the sub picture ID may be referenced. The parameter set may be a picture parameter set or a separately selected adaptive parameter set, and the sub picture id may be configured to be included in the sequence parameter set and mapped to each other parameter set.
예를 들어, 복호화 장치(200)는, 서브 픽쳐 시그널링 정보로부터, Total_subpics_nums와 Subpic_Width 및 Subpic_Height 를 이용하여, 각 서브 픽쳐의 크기 및 구조 정보를 복호화할 수 있다.For example, the decoding apparatus 200 may decode the size and structure information of each subpicture using Total_subpics_nums and Subpic_Width and Subpic_Height from the subpicture signaling information.
또한, 예를 들어, 복호화 장치(200)는 기 복호화된 픽쳐의 폭(Width) 정보 및 높이(Height) 정보와 앞서 획득된 subpic_width, subpic_height를 이용하여, 서브 픽쳐의 구조 및 크기 정보를 결정할 수도 있다.In addition, for example, the decoding apparatus 200 may determine the structure and size information of the subpicture by using the width and height information of the pre-decoded picture and the subpic_width and subpic_height obtained previously. .
여기서, 복호화 장치(200)는 별도 연산을 통해, 픽쳐의 우측 경계(Right Boundary)에 위치한 서브 픽쳐의 크기 정보를 결정할 수 있다.Here, the decoding apparatus 200 may determine size information of a subpicture located in a right boundary of a picture through a separate operation.
또한, 복호화 장치(200)는 전체 픽쳐 폭(Picture width)을 서브 픽쳐의 폭(Subpic width)으로 나누기 또는 차분 연산을 수행하되, 일정 크기 이내의 나머지 값이 발생되는 경우 픽쳐의 오른쪽 경계에 위치한 서브 픽쳐의 폭(Subpicture_Width)은 상기 나머지 값으로부터 유도될 수 있다.In addition, the decoding apparatus 200 divides the entire picture width (Picture width) by the sub-picture width (Subpic width) or performs a difference operation, but when the remaining value within a certain size occurs, the sub located at the right boundary of the picture The width of the picture (Subpicture_Width) may be derived from the remaining values.
예를 들어, Picture width: 1920, Subpic width 896(128 CTU X 7) 인경우, SubPic[2][0] 의 width는 128로 유도될 수 있는 것이다. (1920 X ( 896 * 2 ))For example, if Picture width: 1920, Subpic width 896 (128 CTU X 7), the width of SubPic [2] [0] can be derived to 128. (1920 X (896 * 2))
한편, Subpic_Hor_split_flag는 현재 서브 픽쳐의 높이 또는 폭이 좌측상단(Left-Top) 의 서브 픽쳐보다 작은 경우 시그널링될 수 있으며, 분할 비율, 분할 방향 또는 분할 크기를 포함하는 분할 정보를 포함할 수 있다.Meanwhile, Subpic_Hor_split_flag may be signaled when the height or width of the current sub-picture is smaller than the sub-picture of the upper left (Left-Top), and may include segmentation information including a segmentation ratio, segmentation direction, or segmentation size.
예를 들어, 복호화 장치(200)는 Subpic_Hor_split_flag 가 획득된 서브 픽쳐는 좌측상단(Left-Top) 의 서브 픽쳐(Sub-Picture)에 대응하는 높이에 따라, 그 높이가 수평적으로 분할된 서브 픽쳐들로 현재 서브 픽쳐들을 구성할 수 있다. 이에 따라 분할된 서브 픽쳐 리스트가 시그널링 정보에 포함되어 전송될 수도 있으며, 예를 들어 서브 픽쳐별 인덱스 및 오프셋 정보에 따라 서브 픽쳐의 전체 분할 구조 정보가 유도될 수도 있다.For example, in the decoding apparatus 200, sub-pictures obtained by subpic_Hor_split_flag are sub-pictures whose height is horizontally divided according to a height corresponding to a sub-picture of a left-top. With the current sub-pictures can be configured. Accordingly, the divided subpicture list may be included in the signaling information and transmitted, for example, the entire substructure information of the subpicture may be derived according to index and offset information for each subpicture.
따라서, 복호화 장치(200)는 시그널링된 정보로부터 서브 픽쳐를 1차적으로 3x2의 분할 단위로 구성하더라도, 나머지 정보(총 서브 픽쳐 개수 정보, 분할 플래그 정보 등)을 이용하여, 더 정확한 인덱스별 서브 픽쳐의 크기 및 위치를 유도할 수 있다.Therefore, even if the sub picture is primarily configured as a 3x2 division unit from the signaled information, the decoding apparatus 200 uses the remaining information (total number of sub pictures, split flag information, etc.) to more accurate sub picture for each index. You can derive the size and position of the.
한편, 도 33은 본 발명의 실시 예에 따라 가변되는 서브 픽쳐 id의 변경 프로세스를 설명하기 위한 도면이다. 전술한 바와 같이, 각각의 서브 픽쳐에는 고유의 ID 가 할당될 수 있으며, 예를 들어 특정 Sequence 단위 내에서의 서브 픽쳐 ID 는 가변될 수 있다.Meanwhile, FIG. 33 is a diagram for explaining a process of changing a subpicture id that is variable according to an embodiment of the present invention. As described above, a unique ID may be assigned to each sub-picture, and for example, a sub-picture ID within a specific sequence unit may be variable.
즉, 서브 픽쳐에 대응하는 Subpic_ID는 별도의 시그널링 정보에 기초하여, 가변적으로 결정될 수 있다. 서브 픽쳐 식별 정보는 서브 픽쳐에 대한 QP 값 결정을 위해 참조할 파라미터 세트와 매핑될 수 있다. 이러한 서브 픽쳐 식별 정보의 가변에 따라, 각 서브 픽쳐별 QP 값 결정을 위해 참조할 파라미터 세트도 가변될 수 있다. 예를 들어, 복호화 장치(200)는 사용자가 VR 영상에서 바라볼 주요 시점 등이 변경되는 경우, 현재 서브 픽쳐 식별 정보를 주요 시점용 서브 픽쳐 식별 정보를 가변시킴으로써, QP 값 결정을 위해 참조할 파라미터 세트를 변경시킬 수 있다.That is, the Subpic_ID corresponding to the subpicture may be variably determined based on separate signaling information. The sub picture identification information may be mapped to a parameter set to be referenced in order to determine a QP value for the sub picture. According to the variation of the sub picture identification information, a parameter set to be referred to for determining the QP value for each sub picture may also be changed. For example, when the main view to be viewed by the user changes in the VR image, for example, the decoding apparatus 200 changes the current sub-picture identification information to sub-picture identification information for the main view, thereby referring to a parameter for reference to determine the QP value You can change the set.
상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The method according to the present invention described above is produced as a program to be executed on a computer and can be stored in a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, and magnetic tape. , Floppy disks, optical data storage devices, and the like, and also implemented in the form of a carrier wave (for example, transmission via the Internet).
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer-readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the technical field to which the present invention pertains.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by a person having ordinary knowledge in the course, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

Claims (14)

  1. 영상 처리 방법에 있어서,In the image processing method,
    영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree), 이진 트리(binary tree) 또는 삼진 트리(ternery tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 대상 블록을 결정하는 단계; 및The picture of the image is divided into a plurality of coding units, which are a basic unit in which inter prediction or intra prediction is performed, and the picture or the divided coding unit is a quad tree. ), Determining a target block for decoding a coding unit divided into a binary tree or a ternery tree structure; And
    상기 대상 블록이 포함된 코딩 트리 단위 기반 양자화 그룹 단위 정보에 기초하여, 상기 대상 블록의 양자화 처리를 위한 양자화 파라미터를 선택 적응적으로 결정하는 단계;를 포함하는And selectively adaptively determining a quantization parameter for quantization processing of the target block based on the coding tree unit-based quantization group unit information including the target block.
    영상 처리 방법.Image processing method.
  2. 제1항에 있어서,The method of claim 1,
    상기 결정하는 단계는,The determining step,
    상기 대상 블록의 특성에 따라, 상기 코딩 트리 단위 기반 상기 양자화 그룹 단위를 적응적으로 결정하는 단계를 포함하는And adaptively determining the quantization group unit based on the coding tree unit according to the characteristics of the target block.
    영상 처리 방법.Image processing method.
  3. 제2항에 있어서,According to claim 2,
    상기 결정하는 단계는, The determining step,
    상기 양자화 그룹 단위에 대응하는 델타 QP 인덱스 정보에 따라, 상기 코딩 트리 단위 기반 상기 양자화 그룹 단위들에 대응하는 초기 양자화 파라미터 리스트를 구성하는 단계를 포함하는And constructing an initial quantization parameter list corresponding to the quantization group units based on the coding tree unit, according to delta QP index information corresponding to the quantization group units.
    영상 처리 방법.Image processing method.
  4. 제1항에 있어서,The method of claim 1,
    상기 결정하는 단계는,The determining step,
    상기 영상의 특성 정보에 따라, 양자화 사이즈, 양자화 범위 및 양자화 파라미터 중 적어도 하나를 선택 적응적으로 결정하는 단계를 포함하는And selectively adaptively determining at least one of a quantization size, a quantization range, and a quantization parameter according to the characteristic information of the image.
    영상 처리 방법.Image processing method.
  5. 제4항에 있어서,According to claim 4,
    상기 적어도 하나를 선택 적응적으로 결정하는 단계는,The step of selectively adaptively determining the at least one,
    상기 영상으로부터 획득되는 영상 케이스 정보에 대응하여, 상기 양자화 파라미터를 선택 적응적으로 결정하는 단계를 포함하는And selectively adaptively determining the quantization parameter in response to image case information obtained from the image.
    영상 처리 방법.Image processing method.
  6. 제4항에 있어서,According to claim 4,
    상기 적어도 하나를 선택 적응적으로 결정하는 단계는,The step of selectively adaptively determining the at least one,
    상기 영상으로부터 획득되는 슬라이스 타입 정보에 대응하여, 상기 양자화 파라미터를 선택 적응적으로 결정하는 단계를 포함하는And selectively adaptively determining the quantization parameter in response to slice type information obtained from the image.
    영상 처리 방법.Image processing method.
  7. 제4항에 있어서,According to claim 4,
    상기 적어도 하나를 선택 적응적으로 결정하는 단계는,The step of selectively adaptively determining the at least one,
    상기 영상으로부터 획득되는 컬러 샘플 정보에 대응하여, 상기 양자화 파라미터를 선택 적응적으로 결정하는 단계를 포함하는And selectively adaptively determining the quantization parameter in response to color sample information obtained from the image.
    영상 처리 방법.Image processing method.
  8. 제7항에 있어서,The method of claim 7,
    상기 컬러 샘플 정보는, 조도(luma) 샘플의 양자화 파라미터로부터 상기 대상 블록의 색차(chroma) 샘플의 양자화 파라미터를 유도하기 위해, 별도로 시그널링되는 색차 양자화 오프셋 파라미터를 포함하는The color sample information includes a chrominance quantization offset parameter signaled separately to derive a quantization parameter of a chroma sample of the target block from a quantization parameter of a luma sample.
    영상 처리 방법.Image processing method.
  9. 제4항에 있어서,According to claim 4,
    상기 적어도 하나를 선택 적응적으로 결정하는 단계는,The step of selectively adaptively determining the at least one,
    상기 영상으로부터 획득되는 변환 계수의 레벨 정보에 대응하여, 상기 양자화 파라미터를 선택 적응적으로 결정하는 단계를 포함하는And selectively adaptively determining the quantization parameter in response to level information of a transform coefficient obtained from the image.
    영상 처리 방법.Image processing method.
  10. 제1항에 있어서,The method of claim 1,
    상기 결정된 양자화 파라미터를 이용하여, 상기 양자화 그룹 단위별 차분 양자화 파라미터를 유도하는 단계를 더 포함하고,And using the determined quantization parameter, deriving a differential quantization parameter for each quantization group unit,
    상기 양자화 그룹 단위는 상기 픽쳐의 분할 단위인 슬라이스, 타일, 브릭 또는 서브 픽쳐 단위중 적어도 하나에 대응되는The quantization group unit corresponds to at least one of a slice, tile, brick, or subpicture unit that is a division unit of the picture.
    영상 처리 방법.Image processing method.
  11. 제9항에 있어서,The method of claim 9,
    상기 유도된 차분 양자화 파라미터 및 초기 양자화 파라미터를 이용하여, 상기 양자화 그룹 단위 내 코딩 블록 단위의 양자화 파라미터를 산출하는 단계를 더 포함하는And calculating a quantization parameter of a coding block unit in the quantization group unit using the derived differential quantization parameter and initial quantization parameter.
    영상 처리 방법.Image processing method.
  12. 제10항에 있어서,The method of claim 10,
    상기 양자화 파라미터에 따라, 상기 코딩 블록 단위별 선택 적응적 양자화를 수행하는 단계를 더 포함하는And performing selective adaptive quantization for each coding block unit according to the quantization parameter.
    영상 처리 방법.Image processing method.
  13. 영상 부호화 장치에 있어서,In the video encoding apparatus,
    영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree), 이진 트리(binary tree) 또는 삼진 트리(ternery tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 대상 블록을 결정하는 블록 분할부; 및The picture of the image is divided into a plurality of coding units, which are a basic unit in which inter prediction or intra prediction is performed, and the picture or the divided coding unit is a quad tree. ), A block dividing unit for determining a target block for decoding a coding unit divided into a binary tree or a ternery tree structure; And
    상기 대상 블록이 포함된 코딩 트리 단위 기반 양자화 그룹 단위 정보에 기초하여, 상기 대상 블록의 양자화 처리를 위한 양자화 파라미터를 선택 적응적으로 결정하는 양자화부를 포함하는And a quantization unit selectively adaptively determining a quantization parameter for quantization processing of the target block, based on the coding tree unit-based quantization group unit information including the target block.
    영상 부호화 장치.Video encoding device.
  14. 영상 복호화 장치에 있어서,In the video decoding apparatus,
    영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree), 이진 트리(binary tree) 또는 삼진 트리(ternery tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 대상 블록을 결정하는 블록 분할부; 및The picture of the image is divided into a plurality of coding units, which are a basic unit in which inter prediction or intra prediction is performed, and the picture or the divided coding unit is a quad tree. ), A block dividing unit for determining a target block for decoding a coding unit divided into a binary tree or a ternery tree structure; And
    상기 대상 블록이 포함된 코딩 트리 단위 기반 양자화 그룹 단위 정보에 기초하여, 상기 대상 블록의 역양자화 처리를 위한 역양자화 파라미터를 선택 적응적으로 결정하는 역양자화부를 포함하는And an inverse quantization unit selectively adaptively determining an inverse quantization parameter for inverse quantization processing of the target block based on coding tree unit-based quantization group unit information including the target block.
    영상 복호화 장치.Video decoding device.
PCT/KR2019/011651 2018-09-07 2019-09-09 Method of decoding and encoding image for processing group unit quantization parameter WO2020050705A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0107200 2018-09-07
KR20180107200 2018-09-07

Publications (1)

Publication Number Publication Date
WO2020050705A1 true WO2020050705A1 (en) 2020-03-12

Family

ID=69723172

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/011651 WO2020050705A1 (en) 2018-09-07 2019-09-09 Method of decoding and encoding image for processing group unit quantization parameter

Country Status (1)

Country Link
WO (1) WO2020050705A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210337226A1 (en) * 2019-01-09 2021-10-28 Huawei Technologies Co., Ltd. Sub-picture Level Indicator Signaling In Video Coding
CN113766227A (en) * 2020-06-06 2021-12-07 华为技术有限公司 Quantization and inverse quantization method and apparatus for image encoding and decoding
US20220094909A1 (en) * 2019-01-02 2022-03-24 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
CN114697656A (en) * 2020-12-31 2022-07-01 浙江宇视科技有限公司 Encoding method, encoding device, electronic equipment and medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120106628A1 (en) * 2009-07-02 2012-05-03 Joel Sole Methods and apparatus for video encoding and decoding binary sets using adaptive tree selection
KR20140120253A (en) * 2011-12-15 2014-10-13 타지반 투 엘엘씨 Image coding method, image decoding method, image coding device, image decoding device, and image coding/decoding device
WO2016090568A1 (en) * 2014-12-10 2016-06-16 Mediatek Singapore Pte. Ltd. Binary tree block partitioning structure
KR20180033030A (en) * 2016-09-23 2018-04-02 세종대학교산학협력단 Method and apparatus for processing a video signal based on adaptive block patitioning
KR20180085526A (en) * 2017-01-19 2018-07-27 가온미디어 주식회사 A method for encoding and decoding video using a processing of an efficent transform

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120106628A1 (en) * 2009-07-02 2012-05-03 Joel Sole Methods and apparatus for video encoding and decoding binary sets using adaptive tree selection
KR20140120253A (en) * 2011-12-15 2014-10-13 타지반 투 엘엘씨 Image coding method, image decoding method, image coding device, image decoding device, and image coding/decoding device
WO2016090568A1 (en) * 2014-12-10 2016-06-16 Mediatek Singapore Pte. Ltd. Binary tree block partitioning structure
KR20180033030A (en) * 2016-09-23 2018-04-02 세종대학교산학협력단 Method and apparatus for processing a video signal based on adaptive block patitioning
KR20180085526A (en) * 2017-01-19 2018-07-27 가온미디어 주식회사 A method for encoding and decoding video using a processing of an efficent transform

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220094909A1 (en) * 2019-01-02 2022-03-24 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US11778171B2 (en) * 2019-01-02 2023-10-03 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US20210337226A1 (en) * 2019-01-09 2021-10-28 Huawei Technologies Co., Ltd. Sub-picture Level Indicator Signaling In Video Coding
US11949893B2 (en) * 2019-01-09 2024-04-02 Huawei Technologies Co., Ltd. Sub-picture level indicator signaling in video coding
CN113766227A (en) * 2020-06-06 2021-12-07 华为技术有限公司 Quantization and inverse quantization method and apparatus for image encoding and decoding
CN114697656A (en) * 2020-12-31 2022-07-01 浙江宇视科技有限公司 Encoding method, encoding device, electronic equipment and medium
CN114697656B (en) * 2020-12-31 2024-02-13 浙江宇视科技有限公司 Encoding method, encoding device, electronic equipment and medium

Similar Documents

Publication Publication Date Title
WO2019112394A1 (en) Method and apparatus for encoding and decoding using selective information sharing between channels
WO2018012886A1 (en) Image encoding/decoding method and recording medium therefor
WO2018030773A1 (en) Method and apparatus for image encoding/decoding
WO2018070809A1 (en) Image processing method, and image decoding and encoding method using same
WO2019022568A1 (en) Image processing method, and image encoding/decoding method and device which use same
WO2019172705A1 (en) Image encoding/decoding method and apparatus using sample filtering
WO2017204427A1 (en) Image processing method, and image encoding and decoding method using same
WO2018026148A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
WO2019083334A1 (en) Method and device for image encoding/decoding on basis of asymmetric sub-block
WO2018135885A1 (en) Image decoding and encoding method providing transformation processing
WO2020005035A1 (en) Image encoding/decoding method and apparatus for throughput enhancement, and recording medium storing bitstream
WO2020060184A1 (en) Image encoding/decoding method and apparatus, and recording medium storing bitstream
WO2019182292A1 (en) Method and apparatus for video signal processing
WO2012044104A2 (en) Video encoding method for encoding hierarchical-structure symbols and a device therefor, and video decoding method for decoding hierarchical-structure symbols and a device therefor
WO2020050705A1 (en) Method of decoding and encoding image for processing group unit quantization parameter
WO2019194653A1 (en) Image processing method for providing complex merge mode process of motion information, image decoding and encoding method using same, and apparatus thereof
WO2021015581A1 (en) Method, apparatus, and recording medium for encoding/decoding image by using geometric partitioning
WO2020004978A1 (en) Method and apparatus for processing video signal
WO2020050600A1 (en) Video encoding/decoding method and device, and recording medium for storing bitstream
WO2018101700A1 (en) Image encoding/decoding method and device, and recording medium having stored bitstream therein
WO2020141904A1 (en) Image signal encoding/decoding method and device for same
WO2019194647A1 (en) Filter information-based adaptive loop filtering method and image coding and decoding method using same
WO2020159199A1 (en) Image signal encoding/decoding method and device therefor
WO2020139006A2 (en) Method and apparatus for deriving intra-prediction mode
WO2020130714A1 (en) Video signal encoding/decoding method, and device therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19856711

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19856711

Country of ref document: EP

Kind code of ref document: A1