WO2020149620A1 - 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 - Google Patents

부호화 방법 및 그 장치, 복호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2020149620A1
WO2020149620A1 PCT/KR2020/000693 KR2020000693W WO2020149620A1 WO 2020149620 A1 WO2020149620 A1 WO 2020149620A1 KR 2020000693 W KR2020000693 W KR 2020000693W WO 2020149620 A1 WO2020149620 A1 WO 2020149620A1
Authority
WO
WIPO (PCT)
Prior art keywords
intra prediction
coding unit
current
sample
prediction mode
Prior art date
Application number
PCT/KR2020/000693
Other languages
English (en)
French (fr)
Inventor
최나래
박민수
박민우
템즈아니쉬
정승수
최기호
최웅일
표인지
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP20742059.7A priority Critical patent/EP3913915A4/en
Priority to CN202080021223.XA priority patent/CN113574872A/zh
Priority to KR1020217021687A priority patent/KR20210097803A/ko
Priority to BR112021013709-2A priority patent/BR112021013709A2/pt
Publication of WO2020149620A1 publication Critical patent/WO2020149620A1/ko
Priority to US17/375,769 priority patent/US11962800B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a video encoding method and a decoding method, and more particularly, to a video encoding method and a decoding method according to various intra encoding tools.
  • High-quality video requires a large amount of data when encoding.
  • the bandwidth allowed to deliver video data is limited, so that the data rate applied when transmitting video data may be limited. Therefore, for efficient video data transmission, a method of encoding and decoding video data with an increased compression rate while minimizing image quality degradation is required.
  • Video data can be compressed by removing spatial redundancy and temporal redundancy between pixels. Since it is common to have common characteristics between adjacent pixels, encoding information is transmitted in a data unit of pixels to remove redundancy between adjacent pixels.
  • the pixel values of the pixels included in the data unit are not directly transmitted, but a method necessary to obtain the pixel values is transmitted.
  • a prediction method for predicting a pixel value similar to the original value is determined for each data unit, and encoding information for the prediction method is transmitted from an encoder to a decoder. Also, since the predicted value is not exactly the same as the original value, residual data about the difference between the original value and the predicted value is transmitted from the encoder to the decoder.
  • a prediction method is determined in consideration of the size of encoding information and residual data.
  • data units divided in a picture have various sizes. As the size of the data units increases, it is highly likely that the accuracy of prediction decreases, but the encoding information decreases. Therefore, the size of the block is determined according to the characteristics of the picture.
  • the prediction methods include intra prediction and inter prediction.
  • Intra prediction is a method of predicting pixels of a block from neighboring pixels of the block.
  • Inter prediction is a method of predicting pixels by referring to pixels of another picture referenced by a picture including a block. Therefore, spatial redundancy is removed by intra prediction and temporal redundancy is removed by inter prediction.
  • the coding information applied to the block can also be predicted from other blocks to reduce the size of the coding information.
  • lossy compression may be performed by reducing residual data according to a transformation and quantization process.
  • a video encoding method according to various intra encoding tools is disclosed. Also disclosed is a video decoding method according to various intra coding tools.
  • a computer-readable recording medium recording a program for executing a video encoding method and a video decoding method according to an embodiment of the present invention in a computer is disclosed.
  • predicting the current block according to the intra prediction mode of the current block determining whether to apply position-dependent intra prediction filtering to the current block according to the intra prediction mode of the current block, and the current block
  • position-dependent intra prediction filtering is applied to, according to the intra prediction mode of the current block, at least one of an upper reference sample, a left reference sample, an upper weight, and a left weight for position-dependent intra prediction filtering of the current sample of the current block Determining one, and applying position-dependent intra prediction filtering according to at least one of the upper reference sample, the left reference sample, the upper weight, and the left weight to a current sample of the current block.
  • a video decoding method comprising determining an intra prediction mode of and predicting the plurality of partitions according to the intra prediction mode of the plurality of partitions.
  • a video decoding apparatus includes a memory that stores one or more instructions for implementing the video decoding method, and a processor that executes the one or more instructions.
  • a computer-readable recording medium in which a program including one or more instructions for implementing the video decoding method is recorded is provided.
  • predicting a current block according to each of a plurality of intra prediction modes determining whether to apply position-dependent intra prediction filtering to the current block according to each of the plurality of intra prediction modes, the position-dependent intra Intra prediction mode to which prediction filtering is applied, applying position-dependent intra prediction filtering to the current block, and according to prediction results according to each intra prediction mode to which the position-dependent intra prediction filtering is applied, intra of the current block
  • a video encoding method includes determining a prediction mode.
  • determining whether a current block predicted according to an intra prediction tool is divided into a plurality of partitions when the current block is divided into a plurality of partitions, determining a split mode of the current block, the According to a partitioning mode, dividing the current block into a plurality of partitions, determining an intra prediction mode of the plurality of partitions, and partitioning information indicating whether the current block is divided into a plurality of partitions, the current block
  • a video encoding method comprising: outputting a bitstream including split mode information indicating a split mode and intra prediction mode information indicating an intra prediction mode of the plurality of partitions.
  • a video encoding apparatus includes a memory that stores one or more instructions for implementing the video encoding method, and a processor that executes the one or more instructions.
  • a computer-readable recording medium in which a program including one or more instructions for implementing the video encoding method is recorded is provided.
  • FIG. 1A is a block diagram of an image encoding apparatus based on coding units having a tree structure according to an embodiment of the present invention.
  • FIG. 1B is a block diagram of a video decoding apparatus based on coding units having a tree structure, according to an embodiment.
  • FIG. 2 illustrates a process in which at least one coding unit is determined by dividing a current coding unit according to an embodiment.
  • FIG 3 illustrates a process in which at least one coding unit is determined by dividing a coding unit having a non-square shape according to an embodiment.
  • FIG. 4 illustrates a process in which a coding unit is split based on at least one of block type information and split type information according to an embodiment.
  • FIG. 5 illustrates a method of determining a predetermined coding unit among odd coding units according to an embodiment.
  • FIG. 6 illustrates an order in which a plurality of coding units are processed when a current coding unit is divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 7 illustrates a process in which the current coding unit is determined to be divided into an odd number of coding units when the coding units cannot be processed in a predetermined order according to an embodiment.
  • FIG 8 illustrates a process in which the first coding unit is divided and at least one coding unit is determined according to an embodiment.
  • FIG. 9 illustrates that when a second coding unit having a non-square shape determined by dividing a first coding unit satisfies a predetermined condition according to an embodiment, a form in which the second coding unit can be split is limited. .
  • FIG. 10 is a diagram illustrating a process in which a coding unit of a square shape is split when the split type information cannot be divided into 4 square coding units according to an embodiment.
  • FIG. 11 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units according to an embodiment.
  • FIG. 12 is a diagram illustrating a process in which a depth of a coding unit is determined as a shape and a size of a coding unit change when a coding unit is recursively divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 13 is a diagram for a depth and a coding index (part index, PID) that can be determined according to the type and size of coding units, according to an embodiment.
  • FIG. 14 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 15 illustrates a processing block serving as a criterion for determining a determination order of a reference coding unit included in a picture according to an embodiment.
  • 16 is a block diagram of a video decoding apparatus to which various intra prediction tools are applied.
  • FIG. 17 shows a position-dependent intra prediction filtering method according to a DC mode and a planner mode.
  • FIG. 18 shows a position-dependent intra prediction filtering method according to the left and right directional intra prediction mode.
  • FIG. 19 shows a position-dependent intra prediction filtering method according to a right-side directional intra prediction mode.
  • FIG. 20 shows partition division of a current luma block according to an intra sub-partition coding mode.
  • 21 illustrates an embodiment of a method of determining an intra prediction mode of a current chroma block from an intra prediction mode of partitions of a current luma block.
  • FIG. 22 is a flowchart according to an embodiment of a video decoding method to which position-dependent intra prediction filtering is applied.
  • FIG. 23 is a flowchart according to an embodiment of a video decoding method to which an intra sub-partition encoding mode is applied.
  • 24 is a block diagram of a video encoding apparatus to which various intra prediction tools are applied.
  • 25 is a flowchart according to an embodiment of a video encoding method to which position-dependent intra prediction filtering is applied.
  • 26 is a flowchart according to an embodiment of a video encoding method to which an intra sub-partition encoding mode is applied.
  • predicting the current block according to the intra prediction mode of the current block determining whether to apply position-dependent intra prediction filtering to the current block according to the intra prediction mode of the current block, and the current block
  • position-dependent intra prediction filtering is applied to, according to the intra prediction mode of the current block, at least one of an upper reference sample, a left reference sample, an upper weight, and a left weight for position-dependent intra prediction filtering of the current sample of the current block Determining one, and applying position-dependent intra prediction filtering according to at least one of the upper reference sample, the left reference sample, the upper weight, and the left weight to a current sample of the current block.
  • part refers to a hardware component such as software, FPGA, or ASIC, and “part” performs certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.
  • part refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables.
  • the functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • “Current block” means one of coding units, prediction units, and transformation units that are currently encoded or decoded.
  • sub-block means a data unit divided from “current block”.
  • “higher block” means a data unit including "current block”.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values in a spatial domain image and transform coefficients on a transform region may be samples.
  • a unit including at least one sample may be defined as a block.
  • FIG. 1A is a block diagram of an image encoding apparatus 100 based on coding units having a tree structure according to an embodiment of the present invention.
  • the image encoding apparatus 100 includes a maximum coding unit determination unit 110, a coding unit determination unit 120, and an output unit 130.
  • the largest coding unit determiner 110 divides a picture or a slice included in a picture into a plurality of largest coding units according to the size of the largest coding unit.
  • the maximum coding unit is a data unit of size 32x32, 64x64, 128x128, 256x256, etc., and may be a square data unit having a horizontal and vertical size of 2 squared.
  • the maximum coding unit determiner 110 may provide maximum coding unit size information indicating the size of the maximum coding unit to the output unit 130. Also, the output unit 130 may include maximum coding unit size information in the bitstream.
  • the coding unit determiner 120 determines the coding unit by dividing the largest coding unit.
  • the coding unit may be determined with a maximum size and depth. Depth may be defined as the number of times the coding unit is spatially divided from the largest coding unit. Each time the depth increases by 1, the coding unit is divided into two or more coding units. Therefore, as the depth increases, the size of coding units according to depths decreases.
  • Whether or not the coding unit is split is determined according to whether the splitting of the coding unit is efficient by rate-distortion optimization.
  • split information indicating whether the coding unit is split may be generated. The segmentation information may be expressed in the form of flags.
  • the coding unit can be divided in various ways. For example, a square coding unit may be divided into four square coding units of half width and height. The coding unit of a square may be divided into two rectangular coding units of half width. The coding unit of a square may be divided into two rectangular coding units of half height. The coding unit of a square may be divided into three coding units by dividing the width or height by 1:2:1.
  • the coding unit of a rectangle whose width is twice the height may be divided into two square coding units.
  • a coding unit of a rectangle whose width is twice the height may be divided into a coding unit of a rectangle whose two widths are four times the height.
  • the coding unit of a rectangle whose width is twice the height can be divided into two rectangular coding units and one square coding unit by dividing the width by 1:2:1.
  • a coding unit of a rectangle whose height is twice the width can be divided into two square coding units.
  • a coding unit of a rectangle whose height is 2 times the width may be divided into a coding unit of a rectangle whose 2 height is 4 times the width.
  • a coding unit of a rectangle whose height is twice the width can be divided into two rectangular coding units and one square coding unit by dividing the height by 1:2:1.
  • splitting method that can be used for a coding unit among splitting methods that can be used in the video encoding apparatus 100 may be determined for each picture. Therefore, it can be determined that only specific division methods are used for each picture. If the video encoding apparatus 100 uses only one splitting method, information on a splitting method that can be used for a coding unit is not separately determined.
  • split type information indicating a splitting method of the coding unit may be generated. If there is one splitting method that can be used in a picture belonging to a coding unit, splitting type information may not be generated. If the splitting method is adaptively determined to coding information around a coding unit, splitting type information may not be generated.
  • the maximum coding unit may be split up to the minimum coding unit according to the minimum coding unit size information.
  • the depth of the largest coding unit is the highest depth, and the minimum coding unit may be defined as the lowest depth. Accordingly, the coding unit of the upper depth may include a plurality of coding units of the lower depth.
  • the maximum size of the coding unit image data of the current picture is divided into the largest coding unit.
  • the maximum coding unit may include coding units that are divided according to depths. Since the largest coding unit is divided according to depths, image data of a spatial domain included in the largest coding unit may be hierarchically classified according to depths.
  • the coding unit determiner 120 compares coding efficiency when a coding unit is hierarchically divided and coding efficiency when a coding unit is not split. In addition, the coding unit determiner 120 determines whether to split the coding unit according to the comparison result. If it is determined that the splitting of the coding unit is more efficient, the coding unit determiner 120 hierarchically splits the coding unit. If it is determined that the coding unit is not efficient according to the comparison result, the coding unit is not split. Whether or not to split the coding unit may be determined independently of whether to split other adjacent coding units.
  • whether to split the coding unit may be determined from a coding unit having a large depth in an encoding process. For example, the coding efficiency of a coding unit of a maximum depth and a coding unit smaller than 1 by a maximum depth are compared, and each of the regions of the maximum coding unit compares coding units of a maximum depth and coding units smaller than 1 by a maximum depth. It is judged whether things are more efficiently coded. Then, according to the determination result, it is determined whether to divide the coding unit smaller than the maximum depth by 1 for each region of the maximum coding unit.
  • a combination of coding units having a depth of 2 smaller than the maximum depth and coding units having a depth of 1 smaller than the maximum depth selected based on the above determination result and coding units having the minimum depth is more efficient. It is judged whether it is encoded. The same determination process is sequentially performed on coding units having a small depth, and finally, the maximum coding unit and the maximum coding unit are hierarchically divided and the maximum coding unit according to which of the hierarchical structures generated is more efficiently coded. It is decided whether or not to divide.
  • Whether to split the coding unit may be determined from coding units having a small depth in the coding process. For example, the coding efficiency of a maximum coding unit and a coding unit having a depth of 1 greater than the maximum coding unit is compared, and more efficient coding of any of the coding units having a depth of 1 greater than the maximum coding unit and the maximum coding unit is more efficient. Is judged. If the coding efficiency of the largest coding unit is better, the largest coding unit is not split. If the coding efficiency of coding units having a depth greater than 1 is better than the maximum coding unit, the maximum coding unit is split, and the same comparison process is repeated for the split coding unit.
  • an algorithm for obtaining a hierarchical tree structure of the largest coding unit may be designed in various ways in consideration of encoding efficiency and computational amount.
  • the coding unit determiner 120 determines the most efficient prediction and transformation method for the coding unit in order to determine the efficiency of the coding units according to depths.
  • the coding unit may be divided into predetermined data units to determine the most efficient prediction and transformation method.
  • the data unit may have various forms depending on a method of dividing the coding unit.
  • a partitioning method of a coding unit for determining a data unit may be defined as a partition mode. For example, if the coding unit of size 2Nx2N (where N is a positive integer) is not split, the size of the prediction unit included in the coding unit is 2Nx2N.
  • the size of the prediction unit included in the coding unit may be 2NxN, Nx2N, NxN, etc. according to the partition mode.
  • the partition mode not only symmetric data units in which the height or width of the coding unit is divided at a symmetrical ratio, but also data units divided in an asymmetrical ratio such as 1:n or n:1, the diagonal direction It is possible to generate data units divided into data, data units divided into other geometric shapes, and data units of arbitrary shapes.
  • the coding unit may perform prediction and transformation based on a data unit included in the coding unit.
  • a data unit for prediction and a data unit for transformation may be separately determined.
  • a data unit for prediction may be defined as a prediction unit, and a data unit for transformation may be defined as a transformation unit.
  • the partition mode applied in the prediction unit and the partition mode applied in the transformation unit may be different, and prediction of the prediction unit and transformation of the transformation unit in the coding unit may be performed in parallel and independently.
  • the coding unit may be divided into one or more prediction units to determine an efficient prediction method. Similarly, the coding unit may be divided into one or more transform units to determine an efficient transform method.
  • the division of the prediction unit and the division of the transformation unit may be performed independently. However, when a reconstructed sample inside a coding unit is used for intra prediction, since a dependency relationship is formed between prediction units or transformation units included in the coding unit, splitting of the prediction unit and the transformation unit may affect each other.
  • the prediction unit included in the coding unit may be predicted by intra prediction or inter prediction.
  • Intra prediction is a method of predicting samples of a prediction unit using reference samples around the prediction unit.
  • Inter prediction is a method of predicting samples in a prediction unit by obtaining a reference sample from a reference picture referenced by the current picture.
  • the coding unit determiner 120 may select a most efficient intra prediction method by applying a plurality of intra prediction methods to the prediction unit for intra prediction.
  • Intra prediction methods include a DC mode, a Planar mode, a directional mode such as a vertical mode and a horizontal mode.
  • Intra-prediction may be performed for each prediction unit when a reconstructed sample around a coding unit is used as a reference sample.
  • a prediction order of the prediction unit may be dependent on a transformation order of the transformation unit. Accordingly, when a reconstructed sample inside a coding unit is used as a reference sample, only an intra prediction method for transform units corresponding to a prediction unit is determined for a prediction unit, and actual intra prediction can be performed for each transform unit.
  • the coding unit determiner 120 may select the most efficient inter prediction method by determining the optimal motion vector and reference picture.
  • the coding unit determiner 120 may determine a plurality of motion vector candidates from spatially and temporally neighboring coding units from the current coding unit for inter prediction, and may determine the most efficient motion vector as a motion vector.
  • a plurality of reference picture candidates may be determined from spatially and temporally neighboring coding units from the current coding unit, and the most efficient reference pictures may be determined.
  • the reference picture may be determined from among predetermined reference picture lists for the current picture.
  • the most efficient motion vector among a plurality of motion vector candidates may be determined as a motion vector predictor, and a motion vector predictor may be determined by correcting the motion vector predictor.
  • Inter prediction may be performed in parallel for each prediction unit inside the coding unit.
  • the coding unit determiner 120 may restore coding units by obtaining only information representing a motion vector and a reference picture according to a skip mode.
  • a skip mode all encoding information including a residual signal is omitted except for information indicating a motion vector and a reference picture. Since the residual signal is omitted, the skip mode can be used when the prediction accuracy is very high.
  • the partition mode used may be limited according to the prediction method for the prediction unit. For example, only intra-prediction partition mode for 2Nx2N and NxN-sized prediction units is applied, while inter-prediction partition mode for 2Nx2N, 2NxN, Nx2N, and NxN-sized prediction units may be applied. In addition, only a partition mode for a prediction unit having a size of 2Nx2N may be applied to the skip mode of inter prediction.
  • the partition mode allowed for each prediction method in the image encoding apparatus 100 may be changed according to encoding efficiency.
  • the image encoding apparatus 100 may perform transformation based on a coding unit or a transformation unit included in the coding unit.
  • the image encoding apparatus 100 may transform residual data, which is a difference value between an original value and a prediction value, for pixels included in a coding unit through a predetermined process.
  • the image encoding apparatus 100 may perform lossy compression on residual data through quantization and DCT/DST conversion.
  • the image encoding apparatus 100 may perform lossless compression on residual data without quantization.
  • the image encoding apparatus 100 may determine the most efficient transformation unit for quantization and transformation. In a similar manner to the coding unit according to the tree structure, the transformation unit in the coding unit is also recursively divided into smaller transformation units, and the residual data of the coding unit is partitioned according to the transformation unit according to the tree structure according to the transformation depth. Can be. In addition, the image encoding apparatus 100 may generate transform split information for the split of the coding unit and the transform unit according to the determined tree structure of the transform unit.
  • the video encoding apparatus 100 may set a transform depth indicating the number of splitting times until a height and a width of a coding unit are split to reach a transform unit. For example, if the size of the transformation unit of the current coding unit of size 2Nx2N is 2Nx2N, the transformation depth is 0, if the size of the transformation unit is NxN, the transformation depth is 1, and if the size of the transformation unit is N/2xN/2, the transformation depth is 2 Can. That is, a transformation unit according to a tree structure may be set according to a transformation depth.
  • the coding unit determiner 120 determines a most efficient prediction method for a current prediction unit among a plurality of intra prediction methods and inter prediction methods. In addition, the coding unit determiner 120 determines a prediction unit determination method according to coding efficiency according to a prediction result. Similarly, the coding unit determiner 120 determines a transformation unit determination method according to encoding efficiency according to a transformation result. The coding efficiency of the coding unit is finally determined according to the determination method of the most efficient prediction unit and transform unit. The coding unit determiner 120 determines a hierarchical structure of maximum coding units according to coding efficiency of coding units for each depth.
  • the coding unit determiner 120 may measure coding efficiency of coding units according to depths, prediction efficiency of prediction methods, and the like, using a rate-distortion optimization technique based on a Lagrangian multiplier. .
  • the coding unit determiner 120 may generate split information indicating whether a coding unit is split according to depths according to a determined hierarchical structure of the largest coding unit.
  • the coding unit determiner 120 may generate partition mode information for determination of a prediction unit and splitting of transformation unit for determination of a transformation unit, for a coding unit having been split.
  • the coding unit determination unit 120 may generate split type information indicating the splitting method together with the splitting information.
  • the coding unit determiner 120 may generate information about a prediction method and a transformation method used in the prediction unit and transformation unit.
  • the output unit 130 may output information generated by the maximum coding unit determiner 110 and the coding unit determiner 120 in the form of a bitstream according to the hierarchical structure of the maximum coding unit.
  • a method of determining a coding unit, a prediction unit, and a transformation unit according to a tree structure of a largest coding unit according to an embodiment will be described later in detail with reference to FIGS. 3 to 12.
  • FIG. 1B is a block diagram of an image decoding apparatus 150 based on coding units having a tree structure, according to an embodiment.
  • the image decoding apparatus 150 includes a receiving unit 160, an encoding information extraction unit 170, and a decoding unit 180.
  • the receiver 160 receives and parses the bitstream for the encoded video.
  • the encoding information extraction unit 170 extracts information necessary for decoding for each largest coding unit from the parsed bitstream and provides it to the decoding unit 180.
  • the encoding information extraction unit 170 may extract information on a maximum size of a coding unit of the current picture from a header, a sequence parameter set, or a picture parameter set for the current picture.
  • the encoding information extraction unit 170 extracts the final depth and split information for the coding units according to the tree structure for each largest coding unit from the parsed bitstream.
  • the extracted final depth and split information are output to the decoder 180.
  • the decoder 180 may divide the maximum coding unit according to the extracted final depth and split information to determine a tree structure of the maximum coding unit.
  • the segmentation information extracted by the encoding information extraction unit 170 is segmentation information for a tree structure determined by the image encoding apparatus 100 to generate a minimum encoding error. Therefore, the image decoding apparatus 150 may reconstruct the image by decoding data according to an encoding method that generates a minimum encoding error.
  • the encoding information extraction unit 170 may extract segmentation information for a data unit such as a prediction unit and a transformation unit included in the encoding unit. For example, the encoding information extraction unit 170 may extract information on the most efficient partition mode for the prediction unit. In addition, the encoding information extraction unit 170 may extract transform split information for the most efficient tree structure in the transform unit.
  • the encoding information extracting unit 170 may obtain information on the most efficient prediction method for prediction units split from the coding unit. In addition, the encoding information extracting unit 170 may obtain information on the most efficient transform method for transform units split from the coding unit.
  • the encoding information extraction unit 170 extracts information from the bitstream according to a method of configuring a bitstream in the output unit 130 of the image encoding apparatus 100.
  • the decoder 180 may divide the largest coding unit into coding units having the most efficient tree structure based on the split information. In addition, the decoder 180 may divide the coding unit into prediction units according to information about the partition mode. The decoder 180 may divide the coding unit into transform units according to transform split information.
  • the decoder 180 may predict a prediction unit according to information on a prediction method. Also, the decoder 180 may inverse quantize and inverse transform residual data corresponding to a difference between a pixel's original value and a predicted value according to information on a transformation unit's transformation method. Also, the decoder 180 may reconstruct pixels of the coding unit according to a prediction result of a prediction unit and a transformation result of a transformation unit.
  • FIG. 2 illustrates a process in which the image decoding apparatus 150 determines at least one coding unit by dividing a current coding unit according to an embodiment.
  • the image decoding apparatus 150 may determine the type of the coding unit using the block shape information, and determine the type of the coding unit split using the split shape information. That is, a method of dividing a coding unit indicated by split type information may be determined according to what block type the block type information used by the image decoding apparatus 150 represents.
  • the image decoding apparatus 150 may use block shape information indicating that the current coding unit is in a square shape. For example, the image decoding apparatus 150 may determine whether to divide the square coding unit according to the split type information, vertically, horizontally, or split into four coding units. Referring to FIG. 2, when the block shape information of the current coding unit 200 indicates a square shape, the decoder 180 has the same size as the current coding unit 200 according to the split shape information indicating that it is not split. The branch may determine the coding units 210b, 210c, 210d, or the like based on the split type information indicating the predetermined splitting method or not splitting the coding unit 210a.
  • the image decoding apparatus 150 determines two coding units 210b in which the current coding unit 200 is vertically divided, based on split type information indicating that it is vertically split, according to an embodiment Can.
  • the image decoding apparatus 150 may determine two coding units 210c in which the current coding unit 200 is split in the horizontal direction based on split type information indicating split in the horizontal direction.
  • the image decoding apparatus 150 may determine four coding units 210d that split the current coding unit 200 in the vertical and horizontal directions based on the split type information indicating that the splits are in the vertical and horizontal directions.
  • division form in which a square coding unit may be divided should not be interpreted as being limited to the above-described form, and various forms that can be represented by the division form information may be included. Predetermined division types in which a square coding unit is divided will be described in detail through various embodiments below.
  • FIG 3 illustrates a process in which the image decoding apparatus 150 determines at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 150 may use block shape information indicating that the current coding unit is a non-square shape.
  • the video decoding apparatus 150 may determine whether to divide the current coding unit of the non-square according to the split type information or not according to a predetermined method. Referring to FIG.
  • the video decoding apparatus 150 when the block form information of the current coding unit 300 or 350 represents a non-square form, the video decoding apparatus 150 according to the split form information indicating that it is not split, the current coding unit 300 Alternatively, the coding units 310 or 360 having the same size as 350 are not split, or the coding units 320a, 320b, 330a, 330b, 330c, and 370a split based on split type information indicating a predetermined splitting method, 370b, 380a, 380b, 380c).
  • the predetermined division method in which the non-square coding unit is divided will be described in detail through various embodiments below.
  • the image decoding apparatus 150 may determine a type in which a coding unit is split using split type information, and in this case, the split type information may determine the number of at least one coding unit generated by splitting the coding unit. Can be represented. Referring to FIG. 3, when the split type information indicates that the current coding unit 300 or 350 is split into two coding units, the image decoding apparatus 150 may use the current coding unit 300 or 350 based on the split type information. By splitting, two coding units 320a, 320b, or 370a, 370b included in the current coding unit may be determined.
  • the current decoding unit 300 or 350 in the non-square current may be divided by considering the position of the long side. For example, the image decoding apparatus 150 divides the current coding unit 300 or 350 in the direction of dividing the long side of the current coding unit 300 or 350 in consideration of the type of the current coding unit 300 or 350 A plurality of coding units can be determined.
  • the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 300 or 350. For example, when the split type information indicates that the current coding unit 300 or 350 is split into three coding units, the image decoding apparatus 150 sets the current coding unit 300 or 350 into three coding units 330a. , 330b, 330c, 380a, 380b, 380c). According to an embodiment, the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 300 or 350, and not all of the determined coding units may have the same size.
  • the size of a predetermined coding unit 330b or 380b among the determined odd number of coding units 330a, 330b, 330c, 380a, 380b, and 380c is different from other coding units 330a, 330c, 380a, and 380c.
  • the image decoding apparatus 150 may determine the odd number of coding units included in the current coding unit 300 or 350, and further The image decoding apparatus 150 may place a predetermined restriction on at least one coding unit among odd coding units generated by being split.
  • the image decoding apparatus 150 is a coding unit positioned in the center among three coding units 330a, 330b, 330c, 380a, 380b, and 380c generated by dividing the current coding unit 300 or 350
  • the decoding process for (330b, 380b) may be different from other coding units (330a, 330c, 380a, 380c).
  • the image decoding apparatus 150 restricts the coding units 330b and 380b located at the center from being split further, unlike other coding units 330a, 330c, 380a, and 380c, or only a predetermined number of times It can be restricted to split.
  • FIG. 4 illustrates a process in which the image decoding apparatus 150 divides a coding unit based on at least one of block type information and split type information according to an embodiment.
  • the image decoding apparatus 150 may determine that the first coding unit 400 having a square shape is divided into coding units or not based on at least one of block shape information and split shape information. According to an embodiment, when the split type information indicates that the first coding unit 400 is split in the horizontal direction, the image decoding apparatus 150 splits the first coding unit 400 in the horizontal direction, so that the second coding unit 410 can be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand before and after splitting between coding units. For example, when the first coding unit is split, the second coding unit may be determined, and when the second coding unit is split, the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used may be understood as following the characteristics described above.
  • the image decoding apparatus 150 may determine that the determined second coding unit 410 is divided into coding units or not based on at least one of block type information and split type information. Referring to FIG. 4, the video decoding apparatus 150 divides the first coding unit 400 based on at least one of block type information and split type information, and then determines a second coding unit 410 having a non-square shape. The second coding unit 410 may not be split or split into at least one third coding unit 420a, 420b, 420c, or 420d. The image decoding apparatus 150 may acquire at least one of block shape information and split shape information, and the image decoding apparatus 150 may obtain a first coding unit 400 based on at least one of the obtained block shape information and split shape information.
  • the second coding unit 410 may first code based on at least one of block type information and split type information.
  • the unit 400 may be divided according to the divided method.
  • the first coding unit 400 is divided into the second coding unit 410 based on at least one of block type information and split type information for the first coding unit 400
  • the second coding unit 400 may also be divided into third coding units (eg, 420a, 420b, 420c, and 420d) based on at least one of block type information and split type information for the second coding unit 410.
  • the coding unit may be recursively divided based on at least one of split type information and block type information related to each coding unit. Methods that can be used for recursive division of coding units will be described later through various embodiments.
  • the image decoding apparatus 150 divides each of the third coding units 420a, 420b, 420c, and 420d into coding units based on at least one of block type information and split type information, or second coding It may be determined that the unit 410 is not divided.
  • the image decoding apparatus 150 may divide the second coding unit 410 in a non-square form into odd numbered third coding units 420b, 420c, and 420d, according to an embodiment.
  • the video decoding apparatus 150 may place a predetermined restriction on a predetermined third coding unit among the odd number of third coding units 420b, 420c, and 420d.
  • the image decoding apparatus 150 is limited to no longer splitting or is divided into a settable number of times for the coding unit 420c located in the center among the odd number of third coding units 420b, 420c, and 420d. It can be limited to.
  • the image decoding apparatus 150 may include a coding unit located in the center among an odd number of third coding units 420b, 420c, and 420d included in the non-square second coding unit 410.
  • the coding unit 420c located in the middle is only simple embodiments and should not be interpreted as being limited to the above-described embodiments, and the coding unit 420c located in the middle is different coding units 420b and 420d. ) And should be interpreted as including various restrictions that can be decoded.
  • the image decoding apparatus 150 may obtain at least one of block shape information and split shape information used to split the current coding unit at a predetermined location in the current coding unit.
  • the image decoding apparatus 150 may select one coding unit.
  • Methods for selecting one of a plurality of coding units may be various, and descriptions of these methods will be described later through various embodiments.
  • the image decoding apparatus 150 may divide the current coding unit into a plurality of coding units, and determine a coding unit at a predetermined location.
  • FIG. 5 illustrates a method for the image decoding apparatus 150 to determine a coding unit of a predetermined position among odd coding units, according to an embodiment.
  • the image decoding apparatus 150 may use information indicating the location of each of the odd number of coding units to determine a coding unit located in the middle of the odd number of coding units. Referring to FIG. 5, the image decoding apparatus 150 may determine the odd number of coding units 520a, 520b, and 520c by dividing the current coding unit 500. The image decoding apparatus 150 may determine the middle coding unit 520b using information about the positions of the odd number of coding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 determines the position of the coding units 520a, 520b, and 520c based on information indicating the location of a predetermined sample included in the coding units 520a, 520b, and 520c.
  • the coding unit 520b located at may be determined.
  • the video decoding apparatus 150 may use the coding units 520a, 520b, and 520c based on information indicating the positions of the samples 530a, 530b, and 530c at the upper left of the coding units 520a, 520b, and 520c. By determining the position, the coding unit 520b positioned at the center can be determined.
  • information indicating the positions of the upper left samples 530a, 530b, and 530c included in the coding units 520a, 520b, and 520c are located in the picture of the coding units 520a, 520b, and 520c. Or, it may include information about coordinates. According to an embodiment, information indicating the positions of the upper left samples 530a, 530b, and 530c included in each of the coding units 520a, 520b, and 520c is the coding units 520a, 520b included in the current coding unit 500. , 520c), and the width or height may correspond to information indicating a difference between coordinates in a picture of coding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 directly uses information about the position or coordinates in the picture of the coding units 520a, 520b, and 520c, or receives information about the width or height of the coding unit corresponding to a difference value between coordinates. By using it, the coding unit 520b located at the center can be determined.
  • the information indicating the position of the sample 530a in the upper left of the upper coding unit 520a may indicate (xa, ya) coordinates
  • the sample 530b in the upper left of the middle coding unit 520b Information indicating the location of) may indicate (xb, yb) coordinates
  • information indicating the location of the sample 530c at the upper left of the lower coding unit 520c may indicate (xc, yc) coordinates.
  • the image decoding apparatus 150 may determine the middle coding unit 520b using coordinates of samples 530a, 530b, and 530c at the upper left included in the coding units 520a, 520b, and 520c, respectively.
  • the coding unit 520b includes (xb, yb) which is the coordinates of the sample 530b located in the center. It may be determined that the current coding unit 500 is split and the coding unit located in the center among the determined coding units 520a, 520b, and 520c. However, the coordinates representing the positions of the upper left samples 530a, 530b, and 530c may represent coordinates representing the absolute position in the picture, and further, the positions of the upper left samples 530a of the upper coding unit 520a may be determined.
  • (dxb, dyb) coordinates which are information indicating the relative position of the sample 530b at the upper left of the middle coding unit 520b, and the relative position of the sample 530c at the upper left of the lower coding unit 520c.
  • Information (dxc, dyc) coordinates can also be used.
  • a method for determining a coding unit at a predetermined location by using coordinates of a corresponding sample as information indicating a location of a sample included in a coding unit should not be interpreted as limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample It should be interpreted as a method.
  • the image decoding apparatus 150 may divide the current coding unit 500 into a plurality of coding units 520a, 520b, and 520c, and a predetermined reference among coding units 520a, 520b, and 520c According to the coding unit can be selected. For example, the image decoding apparatus 150 may select coding units 520b having different sizes among coding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 may include (xa, ya) coordinates, which is information indicating the location of the sample 530a at the upper left of the upper coding unit 520a, and a sample at the upper left of the middle coding unit 520b. Coding units 520a by using (xb, yb) coordinates that indicate the location of (530b) and (xc, yc) coordinates that indicate the location of the sample 530c at the upper left of the lower coding unit 520c, 520b, 520c) each width or height can be determined.
  • the image decoding apparatus 150 uses coding units 520a, 520b, and 520c using coordinates (xa, ya), (xb, yb), and (xc, yc) indicating the positions of the coding units 520a, 520b, and 520c. ) Each size can be determined.
  • the image decoding apparatus 150 may determine the width of the upper coding unit 520a as xb-xa and the height as yb-ya. According to an embodiment, the image decoding apparatus 150 may determine the width of the middle coding unit 520b as xc-xb and the height as yc-yb. According to an embodiment, the image decoding apparatus 150 may determine the width or height of the lower coding unit using the width or height of the current coding unit and the width and height of the upper coding unit 520a and the middle coding unit 520b. . The video decoding apparatus 150 may determine coding units having different sizes from other coding units based on the width and height of the determined coding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 may determine a coding unit 520b having a size different from that of the upper coding unit 520a and the lower coding unit 520c as a coding unit of a predetermined position.
  • the above-described image decoding apparatus 150 determines an encoding unit at a predetermined location using a size of a coding unit determined based on sample coordinates in the process of determining a coding unit having a different size from other coding units. Since it is merely a method, various processes of determining a coding unit at a predetermined location by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the location of the sample considered in order to determine the location of the coding unit should not be interpreted as being limited to the upper left, and it can be interpreted that information about the location of any sample included in the coding unit can be used.
  • the image decoding apparatus 150 may select a coding unit at a predetermined position among odd coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit is a non-square shape having a width greater than a height, the image decoding apparatus 150 may determine a coding unit at a predetermined position according to a horizontal direction. That is, the image decoding apparatus 150 may determine one of the coding units having different positions in the horizontal direction and place restrictions on the coding unit. If the current coding unit is a non-square shape having a height higher than a width, the image decoding apparatus 150 may determine a coding unit at a predetermined position according to a vertical direction. That is, the image decoding apparatus 150 may determine one of the coding units having different positions in the vertical direction and place restrictions on the corresponding coding unit.
  • the image decoding apparatus 150 may use information indicating the location of each of the even numbered coding units to determine a coding unit of a predetermined position among the even numbered coding units.
  • the image decoding apparatus 150 may determine an even number of coding units by dividing the current coding unit and determine a coding unit at a predetermined location using information on the positions of the even number of coding units. A detailed process for this may be omitted because it may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a center position) among the odd number of coding units described above with reference to FIG. 5.
  • a predetermined coding unit for a predetermined position in a splitting process is determined in order to determine a coding unit at a predetermined position among a plurality of coding units.
  • the image decoding apparatus 150 may block information and split form stored in a sample included in the middle coding unit in a splitting process in order to determine a coding unit positioned in the center among coding units in which a plurality of current coding units are split. At least one of the information can be used.
  • the image decoding apparatus 150 may divide the current coding unit 500 into a plurality of coding units 520a, 520b, and 520c based on at least one of block type information and split type information, Among the plurality of coding units 520a, 520b, and 520c, a coding unit 520b positioned at the center may be determined. Furthermore, the image decoding apparatus 150 may determine a coding unit 520b positioned in the center in consideration of a position at least one of block type information and split type information is acquired.
  • At least one of block type information and split type information of the current coding unit 500 may be obtained from a sample 540 located in the center of the current coding unit 500, and the block type information and the split type information
  • the coding unit 520b including the sample 540 is a coding unit positioned in the center.
  • the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information. Can.
  • predetermined information for identifying a coding unit at a predetermined location may be obtained from a predetermined sample included in a coding unit to be determined.
  • the video decoding apparatus 150 may include a coding unit (eg, divided into a plurality of units) at a predetermined position among a plurality of coding units 520a, 520b, and 520c determined by dividing the current coding unit 500.
  • Block type information obtained from a sample at a predetermined position in the current coding unit 500 (for example, a sample located in the middle of the current coding unit 500) to determine a coding unit positioned in the middle among coding units, and At least one of split type information may be used. .
  • the video decoding apparatus 150 may determine the sample at the predetermined position in consideration of the block block form of the current coding unit 500, and the video decoding apparatus 150 may determine that the current coding unit 500 is divided.
  • a coding unit 520b including a sample in which predetermined information (for example, at least one of block type information and split type information) can be obtained is determined to determine Certain limits may be placed. Referring to FIG.
  • the image decoding apparatus 150 may determine a sample 540 located in the center of the current coding unit 500 as a sample from which predetermined information can be obtained, and the image decoding apparatus 150, a coding unit 520b in which the sample 540 is included may have a predetermined restriction in the decoding process.
  • the location of a sample from which predetermined information can be obtained should not be interpreted as being limited to the above-described location, but can be interpreted as samples at any location included in the coding unit 520b to be determined in order to place a limit.
  • a location of a sample from which predetermined information can be obtained may be determined according to the type of the current coding unit 500.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and may determine a location of a sample from which predetermined information can be obtained according to the shape.
  • the image decoding apparatus 150 is located on a boundary that divides at least one of the width and height of the current coding unit in half by using at least one of information about the width and height of the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the video decoding apparatus 150 may specify one of the samples adjacent to a boundary dividing the long side of the current coding unit in half. It can be determined as a sample from which information can be obtained.
  • the image decoding apparatus 150 may determine at least one of block type information and split type information in order to determine a coding unit at a predetermined position among a plurality of coding units. You can use one.
  • the image decoding apparatus 150 may obtain at least one of block shape information and split shape information from a sample at a predetermined location included in the coding unit, and the video decoding apparatus 150 may split the current coding unit.
  • the generated coding units may be split using at least one of split type information and block shape information obtained from samples at a predetermined location included in each of the plurality of coding units.
  • the coding unit may be recursively divided by using at least one of block shape information and split shape information obtained from a sample at a predetermined location included in each coding unit.
  • the recursive splitting process of the coding unit has been described with reference to FIG. 4, so a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine at least one coding unit by dividing the current coding unit, and the order in which the at least one coding unit is decoded may be determined in a predetermined block (eg, the current coding unit). ).
  • FIG. 6 illustrates an order in which a plurality of coding units are processed when the image decoding apparatus 150 determines a plurality of coding units by dividing a current coding unit according to an embodiment.
  • the image decoding apparatus 150 determines the second coding units 610a and 610b by dividing the first coding unit 600 in the vertical direction according to the block shape information and the split shape information, or the first coding unit.
  • the second coding units 650a, 650b, 650c, and 650d are determined by dividing the 600 in the horizontal direction to determine the second coding units 630a and 630b, or by dividing the first coding unit 600 in the vertical and horizontal directions. Can decide.
  • the image decoding apparatus 150 may determine an order to process the second coding units 610a and 610b determined by dividing the first coding unit 600 in the vertical direction in the horizontal direction 610c. .
  • the image decoding apparatus 150 may determine the processing order of the second coding units 630a and 630b determined by dividing the first coding unit 600 in the horizontal direction in the vertical direction 630c.
  • the second coding units 650a, 650b, 650c, and 650d determined by dividing the first coding unit 600 in the vertical direction and the horizontal direction are processed.
  • the coding units positioned in the next row may be determined according to a predetermined order (for example, a raster scan order or a z scan order 650e).
  • the image decoding apparatus 150 may recursively divide coding units. Referring to FIG. 6, the image decoding apparatus 150 may determine a plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d by dividing the first coding unit 600, Each of the determined plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be recursively divided.
  • the method of dividing the plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be a method corresponding to a method of dividing the first coding unit 600. Accordingly, the plurality of coding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be independently divided into a plurality of coding units. Referring to FIG. 6, the image decoding apparatus 150 may divide the first coding unit 600 in the vertical direction to determine the second coding units 610a and 610b, and further, the second coding units 610a and 610b, respectively. You can decide to split independently or not.
  • the image decoding apparatus 150 may split the second coding unit 610a on the left side into the third coding units 620a and 620b by splitting it horizontally, and the second coding unit 610b on the right side. ) May or may not divide.
  • a processing order of coding units may be determined based on a splitting process of coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 150 may independently determine the order in which the third coding units 620a and 620b determined by dividing the second coding unit 610a on the left are processed independently from the second coding unit 610b on the right. Since the second coding unit 610a on the left side is split in the horizontal direction, and the third coding units 620a and 620b are determined, the third coding units 620a and 620b may be processed in the vertical direction 620c.
  • the order in which the second coding unit 610a on the left and the second coding unit 610b on the right are processed corresponds to the horizontal direction 610c
  • the right coding unit 610b may be processed. Since the above-described content is for explaining a process in which a processing order is determined according to coding units before division, each coding unit should not be interpreted to be limited to the above-described embodiment. It should be interpreted as being used in a variety of ways that can be processed independently in sequence.
  • FIG. 7 illustrates a process in which the video decoding apparatus 150 determines that the current coding unit is divided into an odd number of coding units when the coding units cannot be processed in a predetermined order according to an embodiment.
  • the image decoding apparatus 150 may determine that the current coding unit is split into an odd number of coding units based on the obtained block shape information and split shape information.
  • the first coding unit 700 in a square shape may be divided into second coding units 710a and 710b in a non-square shape, and the second coding units 710a and 710b may be independently selected from each other. It can be divided into three coding units (720a, 720b, 720c, 720d, 720e).
  • the image decoding apparatus 150 may determine a plurality of third coding units 720a and 720b by dividing the left coding unit 710a among the second coding units in a horizontal direction, and the right coding unit 710b ) May be divided into an odd number of third coding units 720c, 720d, and 720e.
  • the image decoding apparatus 150 determines whether third coding units 720a, 720b, 720c, 720d, and 720e can be processed in a predetermined order, and determines whether odd numbered coding units exist. Can decide. Referring to FIG. 7, the image decoding apparatus 150 may recursively divide the first coding unit 700 to determine third coding units 720a, 720b, 720c, 720d, and 720e.
  • the image decoding apparatus 150 based on at least one of the block type information and the split type information, the first coding unit 700, the second coding units 710a, 710b, or the third coding units 720a, 720b, 720c, 720d, 720e) may be determined whether or not to be divided into odd number of coding units. For example, among the second coding units 710a and 710b, a coding unit positioned on the right side may be divided into an odd number of third coding units 720c, 720d, and 720e.
  • the order in which the plurality of coding units included in the first coding unit 700 is processed may be a predetermined order (for example, a z-scan order 730), and the image decoding apparatus ( 150) may determine whether the third coding unit 720c, 720d, or 720e determined by dividing the right second coding unit 710b into odd numbers satisfies a condition that can be processed according to the predetermined order.
  • a predetermined order for example, a z-scan order 730
  • the image decoding apparatus ( 150) may determine whether the third coding unit 720c, 720d, or 720e determined by dividing the right second coding unit 710b into odd numbers satisfies a condition that can be processed according to the predetermined order.
  • the image decoding apparatus 150 satisfies a condition that the third coding units 720a, 720b, 720c, 720d, and 720e included in the first coding unit 700 may be processed according to a predetermined order. Whether or not the conditions are divided in half by at least one of the width and height of the second coding units 710a and 710b according to the boundary of the third coding units 720a, 720b, 720c, 720d, and 720e.
  • the conditions are divided in half by at least one of the width and height of the second coding units 710a and 710b according to the boundary of the third coding units 720a, 720b, 720c, 720d, and 720e.
  • the third coding units 720a and 720b determined by dividing the height of the left second coding unit 710a in a non-square shape in half satisfy the condition, but the right second coding unit 710b is 3 Since the boundaries of the third coding units 720c, 720d, and 720e determined by dividing into two coding units do not divide the width or height of the right second coding unit 710b in half, the third coding units 720c, 720d, 720e) may be determined as not satisfying the condition, and the video decoding apparatus 150 determines that the scan sequence is disconnected in the case of dissatisfaction with the condition, and based on the determination result, the right second coding unit 710b is It can be determined to be divided into an odd number of coding units.
  • a predetermined restriction may be placed on a coding unit at a predetermined position among split coding units, and various restrictions may be applied to the content or the predetermined location. Since it has been described through examples, detailed description will be omitted.
  • the image decoding apparatus 150 may split the first coding unit 800 based on at least one of block shape information and split shape information acquired through the receiver 160.
  • the first coding unit 800 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 150 may include the first coding unit.
  • the 800 may be divided into a plurality of non-square coding units.
  • the image decoding apparatus 150 may include a square type first coding unit 800 ) May be divided into second coding units 810a, 810b, and 810c determined by splitting in the vertical direction as odd coding units or second coding units 820a, 820b, and 820c determined by splitting in the horizontal direction.
  • the image decoding apparatus 150 may include conditions in which second coding units 810a, 810b, 810c, 820a, 820b, and 820c included in the first coding unit 800 may be processed according to a predetermined order. It may be determined whether or not, and the condition is divided into at least one of the width and height of the first coding unit 800 according to the boundary of the second coding unit (810a, 810b, 810c, 820a, 820b, 820c) Whether it is related. Referring to FIG. 8, the boundary between the second coding units 810a, 810b, and 810c determined by dividing the square first coding unit 800 in the vertical direction divides the width of the first coding unit 800 in half.
  • the first coding unit 800 does not satisfy a condition that can be processed according to a predetermined order. Also, since the boundaries of the second coding units 820a, 820b, and 820c determined by dividing the square first coding unit 800 in the horizontal direction do not divide the width of the first coding unit 800 in half. It may be determined that one coding unit 800 does not satisfy a condition that can be processed according to a predetermined order.
  • the image decoding apparatus 150 may determine that the dissatisfaction of the condition is a disconnection of the scan order, and determine that the first coding unit 800 is divided into an odd number of coding units based on the determination result.
  • a predetermined restriction may be placed on a coding unit at a predetermined position among split coding units, and various restrictions may be applied to the content or the predetermined location. Since it has been described through examples, detailed description will be omitted.
  • the image decoding apparatus 150 may determine various types of coding units by dividing the first coding unit.
  • the image decoding apparatus 150 may divide the first coding unit 800 in a square shape and the first coding unit 830 or 850 in a non-square shape into various coding units. .
  • FIG 9 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by dividing the first coding unit 900 according to an embodiment satisfies a predetermined condition. It shows that the possible forms are limited.
  • the image decoding apparatus 150 may perform a non-square-type first coding unit 900 based on at least one of block-type information and split-type information obtained through the receiver 160. It can be determined to be divided into two coding units 910a, 910b, 920a, and 920b. The second coding units 910a, 910b, 920a, and 920b may be divided independently. Accordingly, the image decoding apparatus 150 determines whether to divide or not divide into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 910a, 910b, 920a, and 920b. Can.
  • the image decoding apparatus 150 may divide the left second coding unit 910a of the non-square shape determined by dividing the first coding unit 900 in the vertical direction in the horizontal direction, and then divide the third coding unit ( 912a, 912b).
  • the image decoding apparatus 150 may have the right second coding unit 910b in the same horizontal direction as the left second coding unit 910a is split. It can be limited so that it cannot be divided into. If the right second coding unit 910b is split in the same direction and the third coding units 914a and 914b are determined, the left second coding unit 910a and the right second coding unit 910b are respectively in the horizontal direction.
  • the third coding units 912a, 912b, 914a, and 914b may be determined by being independently divided. However, this means that the video decoding apparatus 150 divides the first coding unit 900 into four square-type second coding units 930a, 930b, 930c, and 930d based on at least one of block type information and split type information. This is the same result as the one done, which can be inefficient in terms of image decoding.
  • the image decoding apparatus 150 may divide the second coding unit 920a or 920b of the non-square shape determined by dividing the first coding unit 330 in the horizontal direction in the vertical direction, and thereby the third coding unit. (922a, 922b, 924a, 924b) can be determined.
  • the video decoding apparatus 150 divides one of the second coding units (for example, the upper second coding unit 920a) in the vertical direction, another second coding unit (for example, lower level) according to the above-described reason
  • the coding unit 920b) may restrict the upper second coding unit 920a from being split in the same vertical direction as the split direction.
  • FIG. 10 is a diagram illustrating a process in which the image decoding apparatus 150 divides a square-type coding unit when the split-type information cannot be divided into four square-type coding units according to an embodiment.
  • the image decoding apparatus 150 splits the first coding unit 1000 based on at least one of block type information and split type information to obtain second coding units 1010a, 1010b, 1020a, and 1020b. Can decide.
  • the split type information may include information on various types in which coding units can be split, but information on various types may not include information for splitting into four coding units in a square shape.
  • the image decoding apparatus 150 does not divide the first coding unit 1000 in a square shape into four second coding units 1030a, 1030b, 1030c, and 1030d in a square shape.
  • the image decoding apparatus 150 may determine a second coding unit (1010a, 1010b, 1020a, 1020b, etc.) in a non-square shape.
  • the image decoding apparatus 150 may independently divide the second coding units (1010a, 1010b, 1020a, 1020b, etc.) in a non-square shape.
  • Each of the second coding units (1010a, 1010b, 1020a, 1020b, etc.) may be divided in a predetermined order through a recursive method, which is based on at least one of block type information and split type information. ) May be a partitioning method corresponding to the partitioning method.
  • the image decoding apparatus 150 may determine the third coding units 1012a and 1012b in a square shape by dividing the second coding unit 1010a on the left side in the horizontal direction, and the right second coding unit 1010b.
  • the third coding units 1014a and 1014b in a square shape may be determined by being split in a horizontal direction.
  • the image decoding apparatus 150 may determine the third coding units 1016a, 1016b, 1016c, and 1016d in a square shape by dividing both the left second coding unit 1010a and the right second coding unit 1010b in the horizontal direction. have.
  • the coding unit may be determined in the same form as the first coding unit 1000 is divided into four square second coding units 1030a, 1030b, 1030c, and 1030d.
  • the image decoding apparatus 150 may determine the third coding units 1022a and 1022b in a square shape by dividing the upper second coding unit 1020a in the vertical direction, and the lower second coding unit 1020b. ) Is divided in the vertical direction to determine the third coding units (1024a, 1024b) in a square shape. Furthermore, the image decoding apparatus 150 may determine the third coding units 1022a, 1022b, 1024a, and 1024b in a square shape by dividing both the upper second coding unit 1020a and the lower second coding unit 1020b in the vertical direction. have. In this case, the coding unit may be determined in the same form as the first coding unit 1000 is divided into four square second coding units 1030a, 1030b, 1030c, and 1030d.
  • FIG. 11 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units according to an embodiment.
  • the image decoding apparatus 150 may split the first coding unit 1100 based on the block shape information and the split shape information.
  • the image decoding apparatus 150 may include the first coding unit 1100.
  • the second coding unit eg, 1110a, 1110b, 1120a, 1120b, 1130a, 1130b, 1130c, 1130d, etc.
  • the second coding units 1110a, 1110b, 1120a, and 1120b in a non-square shape determined by dividing the first coding unit 1100 in only a horizontal direction or a vertical direction include block type information and split type information for each It can be divided independently on the basis of.
  • the video decoding apparatus 150 divides the second coding units 1110a and 1110b generated by dividing the first coding unit 1100 in the vertical direction, respectively, into third coding units 1116a and 1116b, respectively.
  • the image decoding apparatus 150 may process coding units according to a predetermined order. Characteristics of the processing of the coding unit according to a predetermined order have been described above with reference to FIG. 6, so a detailed description thereof will be omitted. Referring to FIG. 11, the image decoding apparatus 150 divides the first coding unit 1100 in a square shape, and thus the third coding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d in four square shapes ).
  • the image decoding apparatus 150 may process the processing order of the third coding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d according to the form in which the first coding unit 1100 is divided. Can decide.
  • the image decoding apparatus 150 may divide the second coding units 1110a and 1110b generated by being split in the vertical direction in the horizontal direction, respectively, and determine the third coding units 1116a, 1116b, 1116c, and 1116d.
  • the video decoding apparatus 150 may first process the third coding units 1116a and 1116b included in the left second coding unit 1110a in the vertical direction, and then include the right second coding unit 1110b.
  • the third coding units 1116a, 1116b, 1116c, and 1116d may be processed according to a sequence 1117 of processing the third coding units 1116c and 1116d in the vertical direction.
  • the image decoding apparatus 150 determines the third coding units 1126a, 1126b, 1126c, and 1126d by dividing the second coding units 1120a and 1120b generated by being split in the horizontal direction in the vertical direction, respectively.
  • the video decoding apparatus 150 may first process the third coding units 1126a and 1126b included in the upper second coding unit 1120a in the horizontal direction, and then include the third coding units 1120b in the lower second coding unit 1120b.
  • the third coding units 1126a, 1126b, 1126c, and 1126d may be processed according to the order 1127 of processing the third coding units 1126c and 1126d in the horizontal direction.
  • the second coding units 1110a, 1110b, 1120a, and 1120b are each divided to determine a third coding unit (1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d) in a square shape. have.
  • the second coding units 1110a and 1110b determined by splitting in the vertical direction and the second coding units 1120a and 1120b determined by splitting in the horizontal direction are split in different forms, but the third coding units 1116a determined later.
  • 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d results in the first coding unit 1100 being divided into coding units having the same type.
  • the image decoding apparatus 150 divides the coding units recursively through different processes based on at least one of block type information and split type information, so as to determine coding units of the same type as a result, a plurality of determined in the same type
  • the coding units may be processed in different orders.
  • FIG. 12 is a diagram illustrating a process in which a depth of a coding unit is determined as a shape and a size of a coding unit change when a coding unit is recursively divided and a plurality of coding units are determined according to an embodiment.
  • the image decoding apparatus 150 may determine the depth of the coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before being split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 150 may be configured to have a square shape based on block shape information indicating that it is a square shape (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 1200 may be divided to determine the second coding unit 1202, the third coding unit 1204, and the like of the lower depth. If the size of the first coding unit 1200 in the square form is 2Nx2N, the second coding unit 1202 determined by dividing the width and height of the first coding unit 1200 by 1/2 times may have a size of NxN. have.
  • the third coding unit 1204 determined by dividing the width and height of the second coding unit 1202 by 1/2 size may have a size of N/2xN/2.
  • the width and height of the third coding unit 1204 correspond to 1/2 of the first coding unit 1200.
  • the depth of the first coding unit 1200 is D
  • the depth of the second coding unit 1202 that is 1/2 times the width and height of the first coding unit 1200 may be D+1
  • the depth of the third coding unit 1204 that is 1/2 times the width and height of 1200 may be D+2.
  • block shape information indicating a non-square shape eg, block shape information is '1: NS_VER' in which a height is longer than a width, or'N_square' in which a width is longer than a height
  • the video decoding apparatus 150 splits the first coding unit 1210 or 1220 in a non-square form, and then the second coding unit 1212 or 1222 of a lower depth,
  • the third coding unit 1214 or 1224 may be determined.
  • the image decoding apparatus 150 may determine a second coding unit (eg, 1202, 1212, 1222, etc.) by dividing at least one of a width and a height of the first coding unit 1210 of Nx2N size. That is, the image decoding apparatus 150 may divide the first coding unit 1210 in a horizontal direction to determine a second coding unit 1202 having an NxN size or a second coding unit 1222 having an NxN/2 size, The second coding unit 1212 having an N/2 ⁇ N size may be determined by dividing it in a horizontal direction and a vertical direction.
  • a second coding unit eg, 1202, 1212, 1222, etc.
  • the image decoding apparatus 150 determines a second coding unit (eg, 1202, 1212, 1222, etc.) by dividing at least one of a width and a height of the 2NxN-sized first coding unit 1220. It might be. That is, the image decoding apparatus 150 may divide the first coding unit 1220 in the vertical direction to determine the second coding unit 1202 having an NxN size or a second coding unit 1212 having an N/2xN size, The second coding unit 1222 having an NxN/2 size may be determined by dividing it in a horizontal direction and a vertical direction.
  • a second coding unit eg, 1202, 1212, 1222, etc.
  • the image decoding apparatus 150 determines a third coding unit (eg, 1204, 1214, 1224, etc.) by dividing at least one of the width and height of the NxN-sized second coding unit 1202. It might be. That is, the image decoding apparatus 150 divides the second coding unit 1202 in a vertical direction and a horizontal direction to determine a third coding unit 1204 having an N/2xN/2 size, or an N/2xN/2 sized coding unit 1204.
  • the third coding unit 1214 may be determined, or the third coding unit 1224 having an N/2 ⁇ N/2 size may be determined.
  • the image decoding apparatus 150 may divide at least one of a width and a height of the second coding unit 1212 having an N/2xN size, such as a third coding unit (eg, 1204, 1214, 1224, etc.) You can also decide That is, the image decoding apparatus 150 divides the second coding unit 1212 in the horizontal direction, thereby generating a third coding unit 1204 having an N/2xN/2 size or a third coding unit 1224 having an N/2xN/2 size. ) Or split in a vertical direction and a horizontal direction to determine a third coding unit 1214 having an N/2xN/2 size.
  • a third coding unit eg, 1204, 1214, 1224, etc.
  • the image decoding apparatus 150 may divide at least one of a width and a height of the second coding unit 1214 having an NxN/2 size, and thus a third coding unit (eg, 1204, 1214, 1224, etc.) You can also decide That is, the image decoding apparatus 150 divides the second coding unit 1212 in the vertical direction, and thus a third coding unit 1204 having an N/2xN/2 size or a third coding unit 1214 having an N/2xN/2 size. ) Or split in the vertical direction and the horizontal direction to determine the third coding unit 1224 having an N/2 ⁇ N/2 size.
  • a third coding unit eg, 1204, 1214, 1224, etc.
  • the image decoding apparatus 150 may divide a coding unit (eg, 1200, 1202, 1204) in a square shape in a horizontal direction or a vertical direction.
  • a coding unit eg, 1200, 1202, 1204
  • the first coding unit 1210 having a size of 2Nx2N may be determined by dividing the first coding unit 1200 having a size of 2Nx2N in the vertical direction, or the first coding unit 1210 having a size of 2NxN by splitting in the horizontal direction.
  • the depth of the coding unit determined by dividing the first coding unit 1200, 1202 or 1204 having a size of 2Nx2N in the horizontal direction or the vertical direction May be the same as the depth of the first coding unit 1200, 1202, or 1204.
  • the width and height of the third coding unit 1214 or 1224 may correspond to 1/2 times the first coding unit 1210 or 1220.
  • the depth of the first coding unit 1210 or 1220 is D
  • the depth of the second coding unit 1212 or 1214 that is 1/2 times the width and height of the first coding unit 1210 or 1220 may be D+1.
  • the depth of the third coding unit 1214 or 1224 that is 1/2 times the width and height of the first coding unit 1210 or 1220 may be D+2.
  • FIG. 13 is a diagram for a depth and a coding index (part index, PID) that can be determined according to the type and size of coding units, according to an embodiment.
  • the image decoding apparatus 150 may determine a second coding unit of various types by dividing the first coding unit 1300 in a square shape. Referring to FIG. 13, the image decoding apparatus 150 divides the first coding unit 1300 into at least one of a vertical direction and a horizontal direction according to the split type information, and then the second coding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d). That is, the image decoding apparatus 150 may determine the second coding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d based on split type information for the first coding unit 1300.
  • the second coding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d which are determined according to split type information for the first coding unit 1300 in the square form, have a long side length. Depth may be determined on the basis of. For example, since the length of one side of the first coding unit 1300 in the square shape and the length of the long side of the second coding unit 1302a, 1302b, 1304a, and 1304b in the non-square shape are the same, the first coding unit ( 1300) and the non-square form of the second coding units 1302a, 1302b, 1304a, and 1304b may be considered to have the same depth as D.
  • the video decoding apparatus 150 divides the first coding unit 1300 into four square-type second coding units 1306a, 1306b, 1306c, and 1306d based on the split-type information
  • the square-type first Since the length of one side of the two coding units 1306a, 1306b, 1306c, and 1306d is 1/2 times the length of one side of the first coding unit 1300, the depth of the second coding unit 1306a, 1306b, 1306c, 1306d May be a depth of D+1 that is one depth lower than D that is the depth of the first coding unit 1300.
  • the image decoding apparatus 150 divides the first coding unit 1310 in a form having a height greater than a width in a horizontal direction according to the splitting type information, thereby providing a plurality of second coding units 1312a, 1312b, 1314a, 1314b, 1314c). According to an embodiment of the present disclosure, the image decoding apparatus 150 divides the first coding unit 1320 having a width longer than a height in a vertical direction according to the split type information, thereby providing a plurality of second coding units 1322a, 1322b, 1324a, 1324b, 1324c).
  • the second coding units 1312a, 1312b, 1314a, 1314b, 1316a, 1316b, 1316c, and 1316d determined according to split type information for the first coding unit 1310 or 1320 having a non-square shape are Depth may be determined based on the length of the long side.
  • the length of one side of the second coding units 1312a and 1312b in the square shape is 1/2 times the length of one side of the first coding unit 1310 in the non-square shape having a height greater than the width, so that the square
  • the depth of the second coding units 1302a, 1302b, 1304a, and 1304b in the form is D+1, which is a depth lower than a depth D of the first coding unit 1310 in the non-square form.
  • the image decoding apparatus 150 may divide the first coding unit 1310 in a non-square shape into odd numbered second coding units 1314a, 1314b, and 1314c based on the split type information.
  • the odd number of second coding units 1314a, 1314b, and 1314c may include non-square second coding units 1314a and 1314c and square second coding units 1314b.
  • the length of the long side of the second coding unit 1314a, 1314c in the non-square shape and the length of one side of the second coding unit 1314b in the square shape are 1/ of the length of one side of the first coding unit 1310.
  • the depth of the second coding units 1314a, 1314b, and 1314c may be a depth of D+1 that is one depth lower than D, which is the depth of the first coding unit 1310.
  • the image decoding apparatus 150 is a method corresponding to the above method for determining the depth of coding units associated with the first coding unit 1310, and is associated with the first coding unit 1320 in a non-square shape having a width greater than a height. The depth of coding units may be determined.
  • the image decoding apparatus 150 determines an index (PID) for distinguishing the divided coding units. If the odd numbered coding units are not the same size, the size ratio between the coding units is determined. The index can be determined based on this. Referring to FIG. 13, among the coding units 1314a, 1314b, and 1314c, which are divided into odd numbers, the coding unit 1314b located in the center has the same width as other coding units 1314a and 1314c but different heights. It may be twice the height of the fields 1314a, 1314c. That is, in this case, the coding unit 1314b positioned at the center may include two of other coding units 1314a and 1314c.
  • PID index
  • the coding unit 1314c positioned at the next order may be 3 with an index of 2 increased. That is, there may be discontinuity in the value of the index.
  • the image decoding apparatus 150 may determine whether odd numbered coding units are not the same size based on whether there is a discontinuity in an index for distinguishing between the split coding units.
  • the image decoding apparatus 150 may determine whether it is divided into a specific splitting type based on a value of an index for distinguishing a plurality of coding units determined by being split from the current coding unit. Referring to FIG. 13, the image decoding apparatus 150 determines an even number of coding units 1312a and 1312b by dividing a rectangular first coding unit 1310 whose height is longer than a width or an odd number of coding units 1314a and 1314b. , 1314c). The image decoding apparatus 150 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample at a predetermined position of each coding unit (eg, an upper left sample).
  • the image decoding apparatus 150 may determine an encoding unit at a predetermined location among the determined encoding units by using an index for classifying coding units.
  • the image decoding apparatus 150 may display the first coding unit 1310. It can be divided into three coding units 1314a, 1314b, and 1314c.
  • the video decoding apparatus 150 may allocate an index for each of the three coding units 1314a, 1314b, and 1314c.
  • the image decoding apparatus 150 may compare an index for each coding unit to determine a middle coding unit among coding units divided into odd numbers.
  • the image decoding apparatus 150 encodes a coding unit 1314b having an index corresponding to a middle value among indexes based on an index of coding units, and encoding the center position of the coding units determined by splitting the first coding unit 1310. It can be determined as a unit. According to an embodiment, the image decoding apparatus 150 may determine an index based on a size ratio between coding units when the coding units are not the same size as each other in determining an index for dividing the divided coding units. . Referring to FIG. 13, the coding unit 1314b generated by dividing the first coding unit 1310 is of coding units 1314a and 1314c having the same width but different heights from other coding units 1314a and 1314c. It can be twice the height.
  • the image decoding apparatus 150 may determine that the image decoding apparatus 150 is divided into a plurality of coding units including coding units having different sizes from other coding units.
  • the image decoding apparatus 150 has a different coding unit and a different size from the coding units at a predetermined position (for example, the middle coding unit) among the odd number of coding units. Can split the current coding unit.
  • the image decoding apparatus 150 may determine a coding unit having a different size using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit at a predetermined position to be determined is specific to explain one embodiment, and should not be interpreted as being limited thereto, and the position and size of various indexes and coding units can be used. Should be interpreted.
  • the image decoding apparatus 150 may use a predetermined data unit in which recursive division of the coding unit starts.
  • FIG. 14 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • a predetermined data unit may be defined as a data unit in which the coding unit starts to be recursively divided using at least one of block type information and split type information. That is, it may correspond to a coding unit of a highest depth used in a process in which a plurality of coding units for splitting a current picture are determined.
  • the predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of MxN.
  • M and N may be the same as each other, or may be integers represented by a power of two. That is, the reference data unit may represent a square or non-square shape, and may be divided into an integer number of coding units.
  • the image decoding apparatus 150 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 150 may divide a plurality of reference data units that split the current picture using split information for each reference data unit. The division process of the reference data unit may correspond to a division process using a quad-tree structure.
  • the image decoding apparatus 150 may determine in advance the minimum size that the reference data unit included in the current picture can have. Accordingly, the image decoding apparatus 150 may determine the reference data units of various sizes having a size equal to or greater than the minimum size, and use at least one coding unit using block type information and split type information based on the determined reference data unit. Can decide.
  • the image decoding apparatus 150 may use a reference coding unit 1400 in a square shape or may use a reference coding unit 1402 in a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, sequences, pictures, slices, slice segments (eg, sequences) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiver 160 of the image decoding apparatus 150 may obtain at least one of information on a type of a reference coding unit and information on a size of a reference coding unit from a bitstream for each of the various data units. .
  • the process of determining at least one coding unit included in the square type reference coding unit 1400 is described through a process in which the current coding unit 300 of FIG. 10 is divided, and the non-square type reference coding unit 1400
  • the process of determining at least one coding unit included in) has been described through a process in which the current coding unit 1100 or 1150 of FIG. 11 is divided, so a detailed description thereof will be omitted.
  • the image decoding apparatus 150 indexes to identify the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some predetermined data units based on predetermined conditions Can be used. That is, the receiving unit 160 is a predetermined condition (for example, a data unit having a size equal to or less than a slice) among the various data units (eg, sequence, picture, slice, slice segment, maximum coding unit, etc.) from the bitstream. As a data unit that satisfies, for each slice, slice segment, and maximum coding unit, only an index for identifying the size and shape of the reference coding unit may be obtained.
  • a predetermined condition for example, a data unit having a size equal to or less than a slice
  • the various data units eg, sequence, picture, slice, slice segment, maximum coding unit, etc.
  • the image decoding apparatus 150 may determine the size and shape of a reference data unit for each data unit that satisfies the predetermined condition by using an index.
  • the information on the type of the reference coding unit and the information on the size of the reference coding unit are obtained and used from the bitstream for each data unit of a relatively small size, the utilization efficiency of the bitstream may not be good, so the type of the reference coding unit Instead of directly acquiring information about the size of the information and the size of the reference coding unit, the index can be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 150 selects at least one of the size and shape of the predetermined reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the basis of index acquisition. Can decide.
  • the image decoding apparatus 150 may use at least one reference coding unit included in one largest coding unit. That is, the largest coding unit for splitting an image may include at least one reference coding unit, and a coding unit may be determined through a recursive splitting process of each reference coding unit. According to an embodiment, at least one of the width and height of the maximum coding unit may correspond to an integer multiple of the width and height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the largest coding unit n times according to a quad tree structure.
  • the image decoding apparatus 150 may determine the reference coding unit by dividing the largest coding unit n times according to a quad tree structure, and the reference coding unit according to various embodiments at least one of block type information and split type information It can be divided based on.
  • FIG. 15 illustrates a processing block serving as a reference for determining a determination order of a reference coding unit included in the picture 1500 according to an embodiment.
  • the image decoding apparatus 150 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit that splits an image, and at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of the at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit can be determined, and the reference coding unit determination order determined in each processing block May be different for each processing block.
  • Decision order of the reference coding unit determined for each processing block includes raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan ( It may be one of various sequences, such as a horizontal scan and a vertical scan, but the order that can be determined should not be interpreted as being limited to the scan sequences.
  • the image decoding apparatus 150 may obtain information about the size of the processing block to determine the size of at least one processing block included in the image.
  • the image decoding apparatus 150 may obtain information on the size of the processing block from the bitstream and determine the size of at least one processing block included in the image.
  • the size of the processing block may be a predetermined size of a data unit indicated by information about the size of the processing block.
  • the receiver 160 of the image decoding apparatus 150 may obtain information about the size of a processing block from a bitstream for each specific data unit.
  • information on the size of a processing block may be obtained from a bitstream in units of data such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 160 may acquire information on the size of a processing block from a bitstream for each of the data units, and the image decoding apparatus 150 may divide a picture using information about the size of the obtained processing block.
  • the size of one processing block may be determined, and the size of such a processing block may be an integer multiple of a reference coding unit.
  • the image decoding apparatus 150 may determine the sizes of the processing blocks 1502 and 1512 included in the picture 1500. For example, the image decoding apparatus 150 may determine the size of the processing block based on information about the size of the processing block obtained from the bitstream. Referring to FIG. 15, the image decoding apparatus 150 sets the horizontal size of the processing blocks 1502 and 1512 to four times the horizontal size of the reference coding unit and the vertical size to four times the vertical size of the reference coding unit, according to an embodiment. Can decide. The image decoding apparatus 150 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 150 may determine each of the processing blocks 1502 and 1512 included in the picture 1500 based on the size of the processing block, and include the processing blocks 1502 and 1512 The determination order of the at least one reference coding unit may be determined. According to an embodiment, the determination of the reference coding unit may include determining the size of the reference coding unit.
  • the image decoding apparatus 150 may obtain information on a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order information Accordingly, an order in which at least one reference coding unit is determined may be determined.
  • the information about the decision order may be defined in the order or direction in which the reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 150 may obtain information on a determination order of a reference coding unit for each specific data unit from a bitstream.
  • the receiving unit 160 may obtain information on a decision order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information on the decision order of the reference coding unit indicates the reference coding unit decision order in the processing block, information on the decision order can be obtained for each specific data unit including an integer number of processing blocks.
  • the video decoding apparatus 150 may determine at least one reference coding unit based on the order determined according to an embodiment.
  • the receiver 160 may obtain information on a reference coding unit determination order as information related to processing blocks 1502 and 1512 from a bitstream, and the image decoding apparatus 150 may perform the processing block ( 1502, 1512) may determine an order of determining at least one reference coding unit, and may determine at least one reference coding unit included in the picture 1500 according to a decision order of coding units.
  • the image decoding apparatus 150 may determine a determination order 1504 and 1514 of at least one reference coding unit associated with each processing block 1502 and 1512. For example, when information on the decision order of the reference coding unit is obtained for each processing block, the reference coding unit decision order associated with each of the processing blocks 1502 and 1512 may be different for each processing block.
  • the reference coding unit determination order 1504 associated with the processing block 1502 is a raster scan order
  • the reference coding units included in the processing block 1502 may be determined according to the raster scan order.
  • the reference coding unit determination order 1514 associated with another processing block 1512 is in the reverse order of the raster scan order
  • the reference coding unit included in the processing block 1512 may be determined according to the reverse order of the raster scan order.
  • FIGS. 1 to 15 a method of dividing an image into largest coding units and splitting the largest coding unit into coding units having a hierarchical tree structure has been described.
  • 16 to 26 illustrate embodiments of a video encoding and decoding method according to various intra encoding tools.
  • Position-dependent intra-prediction filtering is an encoding tool that performs prediction value correction of a sample of a current block predicted according to an intra prediction mode according to reference samples adaptively determined for a sample position and weights for the reference samples. to be. According to the position-dependent intra-prediction filtering, reference samples adjacent to the current block are reflected in the predicted value of the sample of the current block, thereby improving prediction accuracy according to the intra-prediction.
  • 16 is a block diagram of a video decoding apparatus 1600 to which various intra coding tools are applied.
  • the video decoding apparatus 1600 may include a processor 1610 and a memory 1620.
  • the processor 1610 may overall control the video decoding apparatus 1600.
  • the processor 1610 may execute one or more programs stored in the memory 1620.
  • the memory 1620 may store various data, programs, or applications for driving and controlling the video decoding apparatus 1600.
  • the program stored in the memory 1620 may include one or more instructions.
  • the program (one or more instructions) or application stored in the memory 1620 may be executed by the processor 1610.
  • the video decoding apparatus 1600 may perform position-dependent intra prediction filtering on the predicted sample of the current block according to the intra prediction mode of the current block.
  • the current block may be predicted by the processor 1610 according to the intra prediction mode of the current block.
  • the processor 1610 may determine whether to apply position-dependent intra prediction filtering to the current block according to the intra prediction mode of the current block.
  • the processor 1610 may determine to apply position-dependent intra prediction filtering to the current block.
  • the predetermined intra prediction mode is a predetermined intra prediction mode
  • DC mode planner mode
  • vertical mode horizontal mode
  • left-right directional intra prediction mode right-side directional intra prediction mode, and the like.
  • the lower left directional intra prediction mode is an intra prediction mode that refers to a sample located in a lower left direction from a current sample.
  • the left-right directional intra prediction mode may include a left-left diagonal mode and an intra-prediction mode between a horizontal mode and a left-left diagonal mode. For example, when the index of the horizontal mode is 18 and the index of the lower left diagonal mode is 2, the left lower directional intra prediction mode may include an intra prediction mode having an index of 2 to 17.
  • the right-side directional intra prediction mode is an intra prediction mode that refers to a sample located in the right-side direction from the current sample.
  • the right-side directional intra-prediction mode may include a right-side diagonal mode and an intra-prediction mode between a vertical mode and a right-side diagonal mode. For example, if the index of the vertical mode is 50 and the index of the upper right diagonal mode is 66, the upper right directional intra prediction mode may include an intra prediction mode having an index of 51 to 66.
  • the predetermined intra prediction mode can be easily changed by a person skilled in the art.
  • parameters for position-dependent intra prediction filtering of the current sample of the current block are determined according to the intra prediction mode of the current block.
  • the parameter may include at least one of an upper reference sample, a left reference sample, an upper weight, and a left weight.
  • the method of determining the upper reference sample, the left reference sample, the upper weight, and the left weight for position-dependent intra prediction filtering may differ depending on the intra prediction mode of the current block.
  • the upper reference sample, the left reference sample, the upper weight, and the left weight may be determined as follows.
  • the upper reference sample may be determined according to the reference sample located in the upward direction of the current sample.
  • the left reference sample may be determined as a reference sample located in the left direction of the current sample.
  • the upper weight may be determined according to a vertical distance between the current sample and the upper sample of the current block.
  • the left weight may be determined according to the horizontal distance between the current sample and the left sample of the current block.
  • the upper weight when the intra prediction mode of the current block is the DC mode or the planner mode, the upper weight may be set to decrease as the vertical distance between the current sample and the upper sample of the current block increases. Further, the left weight may be set to decrease as the horizontal distance between the current sample and the left sample of the current block increases.
  • the amount of decrease in the upper weight according to an increase in the vertical distance between the current sample and the upper sample of the current block may be determined according to the size of the current block. For example, the larger the size of the current block, the smaller the amount of reduction of the upper weight may be.
  • the amount of reduction in the left weight according to an increase in the horizontal distance between the current sample and the left sample of the current block may be determined according to the size of the current block. For example, the larger the size of the current block, the smaller the amount of decrease in the left weight may be.
  • the left reference sample and/or the left weight of the current sample may be determined as 0 or not. Therefore, the left reference sample of the current sample is not used for position-dependent intra prediction filtering.
  • an upper reference sample of the current sample may be determined according to a reference sample located in an upward direction of the current sample. Then, the sample value of the upper reference sample is adjusted by summing the predicted value of the current sample and subtracting the sample value of the upper left adjacent sample of the current block. The sample value of the adjusted upper reference sample is used for position dependent intra prediction filtering.
  • the upper weight of the current sample may be determined according to a vertical distance between the current sample and the upper sample of the current block.
  • the upper weight may be set to decrease as the vertical distance between the current sample and the upper sample of the current block increases.
  • an amount of decrease in the upper weight may be determined according to the size of the current block. For example, the larger the size of the current block, the smaller the amount of reduction of the upper weight may be.
  • the upper reference sample and/or the upper weight of the current sample may be determined as 0 or not. Therefore, the upper reference sample of the current sample is not used for position-dependent intra prediction filtering.
  • the left reference sample of the current sample may be determined according to the reference sample located in the left direction of the current sample. Then, the sample value of the left reference sample is adjusted by summing the predicted value of the current sample and subtracting the sample value of the upper left adjacent sample of the current block. The adjusted sample value of the left reference sample is used for position dependent intra prediction filtering.
  • the left weight of the current sample may be determined according to the horizontal distance between the current sample and the left sample of the current block.
  • the left weight may be set to decrease as the horizontal distance between the current sample and the left sample of the current block increases.
  • the amount of reduction in the left weight according to the increase in the horizontal distance between the current sample and the left sample of the current block may be determined according to the size of the current block. For example, the larger the size of the current block, the smaller the amount of decrease in the left weight may be.
  • the left reference sample and the left weight of the current sample may be determined as 0 or may not be determined.
  • the upper weight may be determined according to a vertical distance between the current sample and the current block.
  • the upper reference sample of the current sample may be determined according to the upper reference position in the opposite direction of the prediction direction of the lower left directional intra prediction mode from the current sample.
  • a sample of the upper reference position is determined as the upper reference sample.
  • the sample closest to the upper reference position may be determined as the upper reference sample.
  • the sample located on the left side of the upper reference position may be determined as the upper reference sample.
  • the sample located on the right side of the upper reference position may be determined as the upper reference sample.
  • the sample located on the left side of the upper reference position and the sample interpolated according to the sample on the right side may be determined as the upper reference sample.
  • the upper reference sample and the upper weight of the current sample may or may not be determined.
  • the left weight may be determined according to the horizontal distance between the current sample and the left side of the current block.
  • the left reference sample of the current sample may be determined according to a left reference position in a direction opposite to the prediction direction of the right-side directional intra prediction mode from the current sample.
  • a sample of the left reference position is determined as a left reference sample.
  • the sample closest to the left reference position may be determined as the left reference sample.
  • a sample located above the left reference position may be determined as a left reference sample.
  • a sample located below the left reference position may be determined as a left reference sample.
  • the sample interpolated according to the sample located at the upper side and the sample located at the lower side of the left reference position may be determined as the left reference sample.
  • position-dependent intra prediction filtering may be applied to samples whose distance from the upper side of the current block is smaller than a predetermined threshold. Therefore, position-dependent intra prediction filtering may be applied to samples close to the upper side of the current block. And, position-dependent intra prediction filtering may not be applied to samples far away from the upper side of the current block.
  • the upper weight may be determined as 0 when the distance between the current sample and the upper side of the current block is greater than or equal to a threshold.
  • the left weight may be determined as 0 when the distance between the current sample and the left side of the current block is greater than or equal to a threshold.
  • the threshold value may be determined according to the size of the current block.
  • position-dependent intra prediction filtering is applied to the current sample of the current block according to at least one of an upper reference sample, a left reference sample, an upper weight, and a left weight. For example, according to a weighted average value of the current sample, the upper reference sample, and the left reference sample, a position-dependent intra-prediction filtered current sample may be determined.
  • the weights of the upper reference sample and the left reference sample applied to the acquisition of the weighted average value may be upper weight and left weight, respectively, or may be determined according to upper weight and left weight.
  • the weight of the current sample is determined according to the upper weight and the left weight. For example, the weight of the current sample may be determined by subtracting the upper weight and the left weight from a predetermined value. At this time, the predetermined value may be determined according to the size of the current block or a predetermined scaling or shift value.
  • the video decoding apparatus 1600 may predict a current luma block according to an intra sub-partition coding mode.
  • partition information indicating whether the current luma block predicted according to the intra prediction tool is divided into a plurality of partitions is obtained from the bitstream.
  • the current luma block is a plurality of Divided into partitions.
  • the split mode information may indicate whether a split direction of a current luma block is a vertical or horizontal direction.
  • the partition mode information may indicate the number of a plurality of partitions partitioned from the current luma block.
  • the split mode information may indicate both the split direction of the current luma block and the number of partitions.
  • the processor 1610 determines the intra prediction mode of the plurality of partitions according to the intra prediction mode information obtained from the bitstream.
  • the intra prediction mode indicated by the intra prediction mode information may be equally applied to all partitions.
  • the intra prediction mode information may indicate a main directional intra prediction mode.
  • the primary directional intra prediction mode may be applied to one of the plurality of partitions.
  • At least one adjacent directional intra prediction mode adjacent to the main directional intra prediction mode may be additionally determined. For example, when the current luma block is divided into two partitions, one adjacent directional intra prediction mode may be determined. In addition, an adjacent directional intra prediction mode may be allocated to a partition other than the partition to which the main directional intra prediction mode is applied. For another example, when the current luma block is divided into four partitions, three adjacent directional intra prediction modes may be determined. In addition, three adjacent directional intra prediction modes may be allocated to the remaining three partitions, except for the partition to which the main directional intra prediction mode is applied.
  • one or more adjacent directional intra prediction modes may be determined to have a predetermined index difference between the main directional intra prediction mode and the index.
  • the index of the intra prediction mode is an identification number sequentially assigned according to the prediction direction of the intra prediction mode. For example, the prediction direction of the intra prediction mode at index 10 and the intra prediction mode at index 11 are adjacent to each other.
  • one adjacent directional intra prediction mode having an index difference of +1 or ⁇ 1 between the adjacent directional intra prediction mode and the main directional intra prediction mode may be determined. If three adjacent directional intra prediction modes are determined, three adjacent directionalities having an index difference of +1, +2, +3 or -1, -2, -3 between the adjacent directional intra prediction mode and the main directional intra prediction mode The intra prediction mode can be determined. The index difference between the adjacent directional intra prediction mode and the main directional intra prediction mode can be easily changed by a person skilled in the art. Therefore, a plurality of intra prediction modes having consecutive indexes can be derived from the intra prediction mode information. In addition, the intra prediction mode information may be set to indicate an intra prediction mode in a predetermined order among a plurality of intra prediction modes in which the indexes are continuous.
  • the main directional intra prediction mode and one adjacent directional intra prediction mode may be determined.
  • the prediction value of the sample of the partition may be determined as a weighted average value of the prediction value according to the primary directional intra prediction mode and the prediction value according to the adjacent directional intra prediction mode.
  • the weight used for the determination of the weighted average value may be determined according to the position of the partition in the current luma block.
  • the weight of the prediction value according to the main directional intra prediction mode is large, the weight of the prediction value according to the adjacent directional intra prediction mode is set small, and in the current luma block
  • a weight of a prediction value according to a primary directional intra prediction mode may be small, and a weight of a prediction value according to a neighboring directional intra prediction mode may be largely set.
  • the weight of the prediction value according to the primary directional intra prediction mode is large, and the weight of the prediction value according to the adjacent directional intra prediction mode is set to a small size for a partition that is uppermost in the current luma block, and in the current luma block For the lowermost partition, the weight of the prediction value according to the primary directional intra prediction mode may be small, and the weight of the prediction value according to the adjacent directional intra prediction mode may be large.
  • the weight of the predicted value can be easily changed by a person skilled in the art according to an embodiment.
  • the intra prediction mode of the partition may be determined as the DC mode or the planner mode according to the position of the partition in the current luma block. Can.
  • MPM (Most Probable Mode) may be determined according to the shape of the partition.
  • MPM currently represents an intra prediction mode that is likely to be applied to a luma block. For example, if the width of the partitions of the current luma block is greater than the height, an intra prediction mode with horizontal directionality may be preferentially assigned to the MPM. And, if the height of the partitions of the current luma block is greater than the width, an intra prediction mode with vertical directionality may be preferentially assigned to the MPM. And, if the height and width of the partitions of the current luma block are the same, a non-directional mode such as a planner mode may be preferentially assigned to the MPM.
  • intra prediction mode identity information indicating whether intra prediction modes of a plurality of partitions are all the same may be obtained from a bitstream. If the intra prediction mode information indicates that the intra prediction modes of a plurality of partitions are all the same, the intra prediction mode indicated by the intra prediction mode information is applied to all partitions equally. Conversely, if the intra prediction mode information indicates that the intra prediction modes of the plurality of partitions are not all the same, the main directional intra prediction mode determined from the intra prediction mode information and one or more adjacent directional intra prediction modes are allocated for each partition.
  • the primary directional intra prediction mode and one adjacent directional intra prediction mode are determined, and the predicted value of the partition sample can be determined as a weighted average value of the predicted value according to the primary directional intra prediction mode and the predicted value according to the adjacent directional intra prediction mode. have.
  • intra prediction mode identity information may be obtained for a current luma block.
  • the intra prediction mode identity information may be obtained for a higher data unit of the current luma block. For example, it may be obtained for a largest coding unit, slice segment, slice, picture, sequence, or video including the current luma block.
  • the processor 1610 predicts the plurality of partitions according to the intra prediction mode of the plurality of partitions.
  • the linear model (LM) chroma mode may not be applied to the current chroma block corresponding to the current luma block.
  • LM chroma mode is an intra prediction tool that derives a luma-chroma linear model from adjacent luma samples of the current luma block and adjacent chroma samples of the current luma block, and predicts the current chroma block from the current luma block according to the luma-chroma linear model. to be.
  • adjacent luma samples and adjacent chroma samples referenced by the LM chroma mode may be determined according to the division direction of the current luma block. For example, when the current luma block is divided in the horizontal direction, adjacent luma samples may be set to be located only on the left side of the current luma block. Alternatively, when the current luma block is divided in the vertical direction, adjacent luma samples may be set to be positioned only above the current luma block.
  • the current chroma block corresponding to the current luma block may also be divided into partitions according to partition information and partition mode information of the current luma block.
  • the intra prediction mode of the partition of the current chroma block may be determined according to the intra prediction mode of the partition of the current luma block.
  • the DM mode represents an intra prediction mode of the current luma block corresponding to the current chroma block.
  • the video decoding apparatus 1600 may determine whether to divide the block according to a restriction condition for block division.
  • inter mode when the size of the current luma block is 8x8 and the current luma block is quad-divided, inter mode may not be allowed for lower luma blocks divided from the current luma block. Instead, only the intra mode may be applied to the lower luma blocks.
  • the quad division means a method of dividing a block once into a vertical direction and once in a horizontal direction in order to divide a block into sub-blocks having the same size.
  • the current luma block size of the above condition may be set to be larger than 8x8.
  • inter mode when the current luma block has a width of 64 and the current luma block is divided, inter mode may not be allowed for lower luma blocks divided from the current luma block. Instead, only the intra mode may be applied to the lower luma blocks.
  • the width of the current luma block of the above condition may be set to be greater than 64.
  • an intra prediction mode of a chroma block of 4x4 size may be derived from an intra prediction mode of 4 lower luma blocks of 4x4 size.
  • an intra prediction mode of a 4x4 size chroma block may be determined as one of four intra prediction modes of 4x4 size lower luma blocks.
  • the intra prediction mode of a 4x4 sized chroma block may be determined according to an average of prediction directions of intra prediction modes of 4 4x4 sized lower luma blocks.
  • all 4x4 sized blocks may be set to be predicted according to a CPR (Current Picture Referencing) prediction mode.
  • the CPR prediction mode is a prediction mode that searches a reference block of a current block from a current picture and predicts the current block according to the reference block.
  • blocks of 4xn or nx4 size may be set to be predicted according to the CPR prediction mode (n is a natural number of 8 or more). The size of a block to which only the CPR prediction mode is applied can be easily changed by a person skilled in the art.
  • only certain intra prediction modes may be allowed for blocks smaller than a specific size.
  • only DC mode, planner mode, vertical mode, and horizontal mode may be allowed for a 4x4 block.
  • only DC mode, planner mode, vertical mode, and horizontal mode may be allowed for blocks of size 4xn or nx4 (n is a natural number of 8 or more).
  • certain intra prediction modes may be allowed in blocks of 4x4, 4xn, and nx4 size by a person skilled in the art.
  • the predetermined intra prediction mode may include an intra prediction mode that refers to only one sample adjacent to a block.
  • the predetermined intra prediction mode may include an intra prediction mode that refers to an average value of two samples adjacent to a block.
  • an intra prediction mode may not be limited for a 4x4 luma block. Instead, an intra prediction mode allowed for a 2 ⁇ 2 chroma block corresponding to a 4 ⁇ 4 luma block may be limited.
  • the video decoding apparatus 1600 may transform residual information of the current block according to a multiple transform selection mode (MTS mode). According to the multiple conversion selection mode, two or more conversion modes may be applied to conversion of residual information.
  • MTS mode multiple transform selection mode
  • multiple transform selection mode information indicating whether a multiple transform selection mode is applied to a block to which an intra prediction mode is applied may be obtained by the processor 1610. Also, by the processor 1610, information about a multiple transform selection mode indicating whether a multiple transform selection mode is applied to a block to which an intra prediction mode is applied may be obtained.
  • transformation mode identity information indicating whether different transformation modes are applied to a plurality of partitions of the block may be obtained.
  • a combination of DCT-7 and DCT-8 in the current block may be applied to the transformation of the current block.
  • the transformation according to DCT-7 may be applied in the vertical direction, and the transformation according to DCT-8 may be applied in the horizontal direction.
  • the transformation according to DCT-7 can be applied in the horizontal direction, and the transformation according to DCT-8 can be applied in the vertical direction.
  • only DCT-2 can be applied to the conversion of the current block.
  • the multiple conversion selection mode is applied to the current block according to the multiple conversion selection mode information, if the current block is a non-square block having a width or height of 4, the combination of DCT-2 and DCT-7 is used to convert the current block. Can be applied.
  • 17 to 19 illustrate a method for filtering location-dependent intra prediction according to an intra prediction mode.
  • FIG. 17 shows a position-dependent intra prediction filtering method according to a DC mode and a planner mode.
  • the upper reference sample, the left reference sample, the upper weight, and the left weight may be determined as follows.
  • the upper reference sample 1720 may be determined according to a reference sample located in an upward direction of the current sample 1710.
  • the left reference sample 1722 may be determined as a reference sample located in the left direction of the current sample 1710.
  • the upper weight may be determined according to a vertical distance between the current sample 1710 and the upper sample 1730 of the current block 1700.
  • the left weight may be determined according to a horizontal distance between the current sample 1710 and the left sample 1732 of the current block 1700.
  • the upper weight may be set to decrease as the vertical distance between the current sample 1710 and the upper sample 1730 of the current block 1700 increases.
  • the left weight may be set to decrease as the horizontal distance between the current sample 1710 and the left sample 1732 of the current block 1700 increases.
  • the current sample 1710 is adjusted according to the upper reference sample 1720 and the left reference sample 1722.
  • the value of the new current sample 1710 according to position-dependent intra prediction filtering is determined as a weighted average value of the current sample 1710, the upper reference sample 1720, and the left reference sample 1722 before filtering. Therefore, the higher the upper and left weights for the upper reference sample 1720 and the left reference sample 1722, the greater the degree of adjustment of the prediction value of the current sample 1710 by position-dependent intra prediction filtering.
  • the prediction values of the left or upper samples close to the reference samples can be greatly changed according to the position-dependent intra prediction filtering.
  • the prediction values of the far right or lower samples from the reference samples may hardly be changed by position-dependent intra prediction filtering.
  • the lower left directional intra prediction mode is an intra prediction mode in which adjacent samples of the current block located in the lower left direction are referenced from the current sample.
  • the left reference sample and the left weight of the current sample 1810 may be determined to be 0. That is, in position-dependent intra prediction filtering, the left reference sample may not be referenced.
  • the upper weight may be determined according to a vertical distance between the current sample 1810 and the upper side of the current block 1800.
  • the upper reference sample of the current sample 1810 may be determined according to the upper reference position 1840 in the opposite direction to the prediction direction of the lower left directional intra prediction mode from the current sample 1810.
  • the upper reference position 1840 is an integer, the sample located at the upper reference position 1840 is determined as the upper reference sample. However, according to FIG. 18, if the upper reference position 1840 is located between the first reference sample 1830 and the second reference sample 1832. Therefore, the upper reference sample may be determined based on the first reference sample 1830 and the second reference sample 1832.
  • the sample closest to the upper reference position 1840 may be determined as the upper reference sample. Accordingly, the second reference sample 1832 close to the upper reference position 1840 may be determined as the upper reference sample.
  • a sample located on the left side of the upper reference position 1840 may be determined as an upper reference sample. Therefore, the first reference sample 1830 on the left side of the upper reference position 1840 may be determined as the upper reference sample.
  • a sample located on the right side of the upper reference position 1840 may be determined as an upper reference sample. Accordingly, the second reference sample 1832 on the right side of the upper reference position 1840 may be determined as the upper reference sample.
  • the sample located on the left side of the upper reference position 1840 and the sample interpolated according to the sample on the right side may be determined as the upper reference sample.
  • an interpolated sample may be determined as an upper reference sample based on the first reference sample 1830, the second reference sample 1822, and the upper reference position 1840.
  • the weighted average value of the second reference sample 1832 of the first reference sample 1830 may be determined as an upper reference sample.
  • a weight required for the calculation of the weighted average value may be determined according to the upper reference position 1840.
  • the weight of the first reference sample 1830 is set to be greater than the weight of the second reference sample 1822.
  • the weight of the second reference sample 1832 is set to be greater than the weight of the first reference sample 1830.
  • position-dependent intra-prediction filtering may be applied to samples whose distance from the upper side of the current block 1800 is smaller than a predetermined threshold. For example, when the predetermined threshold is 3, when the distance between the current sample 1810 and the current block 1800 is 4, the upper weight may be set to 0. Therefore, only the samples close to the upper side of the current block 1800, position-dependent intra prediction filtering may be applied.
  • the right-side directional intra-prediction mode is an intra prediction mode in which adjacent samples of the current block located in the right-side direction from the current sample are referenced.
  • the upper reference sample and the upper weight of the current sample 1910 may be determined to be 0. That is, in position-dependent intra prediction filtering, the upper reference sample is not referenced.
  • the left weight may be determined according to the horizontal distance between the current sample 1910 and the left side of the current block 1900.
  • the left reference sample of the current sample 1910 may be determined according to the left reference position 1940 in a direction opposite to the prediction direction of the right-side directional intra prediction mode from the current sample 1910.
  • the sample located at the left reference position 1940 is determined as the left reference sample. However, according to FIG. 19, if the left reference position 1940 is located between the third reference sample 1930 and the fourth reference sample 1932. Therefore, the upper reference sample may be determined based on the third reference sample 1930 and the fourth reference sample 1932.
  • the sample closest to the left reference position 1940 may be determined as the left reference sample. Accordingly, the fourth reference sample 1932 close to the left reference position 1940 may be determined as the left reference sample.
  • a sample located above the left reference position 1940 may be determined as a left reference sample. Therefore, the third reference sample 1930 above the left reference position 1940 may be determined as the left reference sample.
  • a sample located below the left reference position 1940 may be determined as a left reference sample. Accordingly, the fourth reference sample 1932 under the left reference position 1940 may be determined as the left reference sample.
  • an interpolated sample may be determined as a left reference sample according to a sample located at an upper side of a left reference position 1940 and a sample located at a lower side. Accordingly, a sample interpolated based on the third reference sample 1930, the fourth reference sample 1932, and the left reference position 1940 may be determined as the left reference sample. Specifically, the weighted average value of the fourth reference sample 1932 of the third reference sample 1930 may be determined as the left reference sample. In addition, a weight required for calculating the weighted average value may be determined according to the left reference position 1940. When the left reference position 1940 is close to the third reference sample 1930, the weight of the third reference sample 1930 is set to be greater than the weight of the fourth reference sample 1932. Conversely, when the left reference position 1940 is close to the fourth reference sample 1932, the weight of the fourth reference sample 1932 is set to be greater than the weight of the third reference sample 1930.
  • position-dependent intra prediction filtering may be applied to samples whose distance from the left side of the current block 1900 is smaller than a predetermined threshold. For example, when the predetermined threshold is 3, when the distance between the current sample 1910 and the left side of the current block 1900 is 4, the upper weight may be set to 0. Therefore, only the samples close to the left side of the current block 1900, position-dependent intra prediction filtering may be applied.
  • FIG. 20 illustrates partitioning of a current luma block 2000 according to an intra sub-partition coding mode.
  • the current luma block 2000 is divided.
  • the current luma block 2000 is divided into a plurality of partitions.
  • the split mode information may indicate whether a current dividing direction of the luma block 2000 is a vertical or horizontal direction.
  • the partition mode information may indicate the number of a plurality of partitions partitioned from the current luma block 2000.
  • the current luma block 2000 may be divided in a horizontal direction.
  • the current luma block 2000 is divided into four partitions (2012, 2014, 2016, 2018) whose height is 1/4 of the current luma block 2000.
  • the current luma block 2000 may be divided into two partitions whose height is 1/2 of the current luma block 2000.
  • the current luma block 2000 may be divided into eight partitions having a height of 1/8 of the current luma block 2000.
  • the number of partitions currently partitioned from the luma block 2000 may be determined to be 8 or more.
  • the current luma block 2000 may be divided in a vertical direction. According to FIG. 20, the current luma block 2000 is divided into four partitions 2022, 2024, 2026, and 2028 whose width is 1/4 of the current luma block 2000. Unlike FIG. 20, the current luma block 2000 may be divided into two partitions whose width is 1/2 of the current luma block 2000. Also, the current luma block 2000 may be divided into eight partitions having a width of 1/8 of the current luma block 2000. In addition, the number of partitions currently partitioned from the luma block 2000 may be determined to be 8 or more.
  • the current luma block 2000 may be divided once in the horizontal direction and the vertical direction. According to FIG. 20, the current luma block 2000 is divided into four partitions 2032, 2034, 2036, and 2038, which are 1/2 of the current luma block 2000, respectively.
  • the intra prediction mode indicated by the intra prediction mode information may be equally applied to all partitions of the current luma block 2000.
  • the intra prediction mode information may indicate a main directional intra prediction mode.
  • the primary directional intra prediction mode may be applied to one of the plurality of partitions.
  • one or more adjacent directional intra prediction modes determined from the main directional intra prediction mode may be applied to the remaining partitions.
  • the main directional intra prediction mode may be applied to one of the four partitions (2012, 2014, 2016, 2018).
  • one or more adjacent directional intra prediction modes adjacent to the main directional intra prediction mode may be applied to the remaining partitions.
  • the main directional intra prediction mode is the intra prediction mode of index 33
  • the three adjacent directional intra prediction modes may be determined as intra prediction modes of indexes 32, 34, and 35, respectively.
  • intra prediction modes of indexes 32-35 can be applied to four partitions (2012, 2014, 2016, 2018). Therefore, the intra prediction mode of index 32 is in partition 2012, the intra prediction mode of index 33 is in partition 2014, the intra prediction mode of index 34 is in partition 2016, and the intra prediction mode of index 35 Can be applied to the partition 2018.
  • the main directional intra prediction mode is an intra prediction mode of index 33
  • three adjacent directional intra prediction modes may be determined as intra prediction modes of indexes 32, 31, and 30, respectively.
  • intra prediction modes of indexes 30-33 can be applied to four partitions (2012, 2014, 2016, 2018). Therefore, the intra prediction mode of index 33 is in partition 2012, the intra prediction mode of index 32 is in partition 2014, the intra prediction mode of index 31 is in partition 2016, and the intra prediction mode of index 30 Can be applied to the partition 2018.
  • the primary directional intra prediction mode may be applied to one of the four partitions 2022, 2024, 2026, and 2028.
  • one or more adjacent directional intra prediction modes adjacent to the main directional intra prediction mode may be applied to the remaining partitions.
  • the main directional intra prediction mode is the intra prediction mode of index 33
  • the three adjacent directional intra prediction modes may be determined as the intra prediction mode of indexes 31, 32, and 34, respectively.
  • intra prediction modes of indexes 31-34 may be applied to four partitions 2022, 2024, 2026, and 2028. Therefore, the intra prediction mode of index 31 is in partition 2022, the intra prediction mode of index 32 is in partition 2024, the intra prediction mode of index 33 is in partition 2026, and the intra prediction mode of index 34 Can be applied to the partition 2028.
  • the main directional intra prediction mode is an intra prediction mode of index 33
  • three adjacent directional intra prediction modes may be determined as intra prediction modes of indexes 34, 35, and 36, respectively.
  • the intra prediction modes of indexes 33-36 can be applied to four partitions 2022, 2024, 2026, and 2028. Therefore, the intra prediction mode of the 33rd index is in the partition 2022, the intra prediction mode of the 34th index is in the partition 2024, the intra prediction mode of the 35th index is in the partition 2026, and the intra prediction mode of the 36th index. Can be applied to the partition 2028.
  • the primary directional intra prediction mode may be applied to one of the four partitions 2032, 2034, 2036, and 2038.
  • one or more adjacent directional intra prediction modes adjacent to the main directional intra prediction mode may be applied to the remaining partitions.
  • the main directional intra prediction mode is the intra prediction mode of index 40
  • the three adjacent directional intra prediction modes may be determined as the intra prediction mode of indexes 41, 42, and 43, respectively.
  • intra prediction modes of indexes 40-43 may be applied to four partitions 2032, 2034, 2036, and 2038. Therefore, the intra prediction mode of index 40 is in partition 2032, the intra prediction mode of index 41 is in partition 2034, the intra prediction mode of index 42 is in partition 2036, and the intra prediction mode of index 33 Can be applied to the partition 2038.
  • the intra prediction mode of index 41 may be applied to partition 2036 and the intra prediction mode of index 42 may be applied to partition 2034.
  • intra prediction modes of consecutive indexes for a plurality of partitions may be determined from intra prediction mode information in various ways.
  • the method of determining the adjacent directional intra prediction mode from the main directional intra prediction mode can be easily changed by those skilled in the art.
  • continuous intra prediction modes may be applied to a plurality of partitions in order according to spatial location.
  • the main directional intra prediction mode and one adjacent directional intra prediction mode may be determined from the intra prediction mode information.
  • the prediction value of the sample of the partition may be determined as a weighted average value of the prediction value according to the primary directional intra prediction mode and the prediction value according to the adjacent directional intra prediction mode.
  • the weight used to determine the weighted average value may be determined according to the position of the partition in the current luma block.
  • the weight of the prediction value according to the primary directional intra prediction mode and the weight of the prediction value according to the adjacent directional intra prediction mode are set differently for each partition.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode to the prediction value according to the adjacent directional intra prediction mode may be set to 1:0 for the partition 2012.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode and the weight of the prediction value according to the adjacent directional intra prediction mode may be set to 3/4:1/4 for the partition 2014.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode to the partition 2016 can be set to 1/2:1/2.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode to the partition 2018 can be set to 1/4:3/4.
  • each partition is predicted according to the weight for each partition.
  • the weight of the prediction value according to the primary directional intra prediction mode and the weight of the prediction value according to the adjacent directional intra prediction mode are set differently for each partition.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode to the partition 2022 may be set to 1:0.
  • a ratio of the weight of the prediction value according to the primary directional intra prediction mode to the partition 2024 and the weight of the prediction value according to the adjacent directional intra prediction mode may be set to 3/4:1/4.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode to the partition 2026 may be set to 1/2:1/2.
  • the ratio of the weight of the prediction value according to the primary directional intra prediction mode to the partition 2028 and the weight of the prediction value according to the adjacent directional intra prediction mode may be set to 1/4:3/4.
  • each partition is predicted according to the weight for each partition.
  • the ratio of weights applied to the partitions can be easily changed by those skilled in the art.
  • the weight ratio applied to the partition may be set to be determined according to the spatial location of the plurality of partitions.
  • the MPM may be determined according to the shape of the partition.
  • the width of the partition may be greater than the height. Accordingly, an intra prediction mode having horizontal directionality may be preferentially assigned to the MPM of the current luma block 2000.
  • the height of the partition may be larger than the width. Accordingly, an intra prediction mode having vertical directionality may be preferentially assigned to the MPM of the current luma block 2000.
  • 21 illustrates an embodiment of a method of determining an intra prediction mode of a current chroma block 2120 from an intra prediction mode of partitions 2102, 2104, 2106, and 2108 of the current luma block 2110.
  • 21 shows an image in 4:2:0 color format.
  • the square in FIG. 21 represents the luma sample, and the circle represents the chroma sample.
  • the current chroma block when the size of the current luma block 2110 is smaller than a predetermined size, the current chroma block even when the current luma block 2110 is divided into a plurality of partitions 2102, 2104, 2106, 2108 2120, unlike the current luma block 2110, may not be divided.
  • various embodiments are provided for deriving the intra prediction mode of the current chroma block 2120 from a plurality of partitions 2102, 2104, 2106, 2108 of the current luma block 2110.
  • the LM chroma mode of the current chroma block 2120 corresponding to the current luma block 2110 May not apply.
  • the intra prediction mode of the current chroma block 2110 is the intra of the partitions 2102, 2104, 2106, 2108 of the current luma block 2110 It may be determined according to the prediction mode.
  • the intra prediction mode of the current chroma block 2110 may be determined as an intra prediction mode of one of the partitions 2102, 2104, 2106, 2108.
  • the intra prediction mode of the current chroma block 2110 may be determined according to the intra prediction mode of two or more of the partitions 2102, 2104, 2106, and 2108.
  • the intra prediction mode of the current chroma block 2110 may be determined according to the average direction of four prediction directions of the four intra prediction modes of the partitions 2102, 2104, 2106, 2108.
  • FIG. 22 is a flowchart according to an embodiment of a video decoding method 2200 to which position-dependent intra prediction filtering is applied.
  • step 2202 according to the intra prediction mode of the current block, the current block is predicted.
  • step 2204 whether to apply position-dependent intra prediction filtering to the current block is determined according to the intra prediction mode of the current block.
  • the intra prediction mode of the current block when the intra prediction mode of the current block is a predetermined intra prediction mode, it may be determined to apply position-dependent intra prediction filtering to the current block.
  • the predetermined intra prediction mode may include a DC mode, a planner mode, a vertical mode, a horizontal mode, a left lower diagonal mode, a right upper diagonal mode, and the like.
  • step 2206 when position-dependent intra-prediction filtering is applied to the current block, according to the intra-prediction mode of the current block, an upper reference sample, a left reference sample, an upper weight for position-dependent intra prediction filtering of the current sample of the current block, and At least one of the left weights is determined.
  • the left reference sample and the left weight of the current sample are not determined, and the upper reference sample of the current sample is the left-left directional intra from the current sample. It is determined according to the upper reference position in the direction opposite to the prediction direction of the prediction mode. For example, the sample closest to the upper reference position may be determined as the upper reference sample. Also, the upper weight may be determined according to the distance between the current sample and the upper side of the current block. The upper weight may be determined as 0 when the distance between the current sample and the upper side of the current block is greater than or equal to a predetermined threshold.
  • the intra prediction mode of the current block is the upper right directional intra prediction mode
  • the upper reference sample and the upper weight of the current sample are not determined
  • the left reference sample of the current sample is the upper right directional intra from the current sample. It may be determined according to a left reference position in a direction opposite to the prediction direction of the prediction mode. For example, the sample closest to the left reference position may be determined as the left reference sample.
  • the left weight may be determined according to the distance between the current sample and the left side of the current block. The left weight may be determined as 0 when the distance between the current sample and the left side of the current block is greater than or equal to a predetermined threshold.
  • predetermined threshold values for the upper weight and the left weight may be determined according to the size of the current block.
  • step 2208 position dependent intra prediction filtering is applied to the current sample of the current block according to at least one of an upper reference sample, a left reference sample, an upper weight, and a left weight.
  • a position-dependent intra prediction filtered current sample may be determined according to a weighted average value of the current sample, the upper reference sample, and the left reference sample.
  • the weights of the upper reference sample and the left reference sample applied to the acquisition of the weighted average value are determined according to the upper weight and the left weight, respectively, and the weight of the current sample can be determined according to the upper weight and the left weight.
  • the function of the video decoding apparatus 1600 to which the position-dependent intra prediction filtering described in FIG. 16 is applied may be applied to the video decoding method 2200.
  • each step of the video decoding method 2200 may be performed by the processor 1602 of the video decoding apparatus 1600.
  • FIG. 23 is a flowchart according to an embodiment of a video decoding method 2300 to which an intra sub-partition encoding mode is applied.
  • step 2302 split information indicating whether a current block predicted according to an intra prediction tool is divided into a plurality of partitions is obtained from the bitstream.
  • step 2304 if the partitioning information indicates that the current block is divided into a plurality of partitions, the current block is divided into a plurality of partitions according to the partitioning mode information indicating the partitioning mode of the current block obtained from the bitstream.
  • the split mode information may indicate whether the split direction of the current block is vertical or horizontal.
  • the partition mode information may indicate the number of a plurality of partitions.
  • step 2306 intra prediction modes of a plurality of partitions are determined according to the intra prediction mode information obtained from the bitstream.
  • one or more adjacent directional intra prediction modes adjacent to the main directional intra prediction mode may be determined.
  • the intra prediction mode of one of the plurality of partitions may be determined as the primary directional intra prediction mode, and the intra prediction mode of the other one or more partitions may be determined as one or more adjacent directional intra prediction modes.
  • step 2308 a plurality of partitions are predicted according to the intra prediction mode of the plurality of partitions.
  • the function of the video decoding apparatus 1600 to which the intra sub-partition coding mode described in FIG. 16 is applied may be applied to the video decoding method 2300.
  • each step of the video decoding method 2300 may be performed by the processor 1602 of the video decoding apparatus 1600.
  • FIG. 24 shows a block diagram of a video encoding apparatus 2400 to which various intra encoding tools are applied.
  • the video encoding apparatus 2400 may include a processor 2410 and a memory 2420.
  • the processor 2410 may overall control the video encoding apparatus 2400.
  • the processor 2410 may execute one or more programs stored in the memory 2420.
  • the memory 2420 may store various data, programs, or applications for driving and controlling the video encoding apparatus 2400.
  • the program stored in the memory 2420 may include one or more instructions.
  • the program (one or more instructions) or application stored in the memory 2420 may be executed by the processor 2410.
  • the processor 2410 may perform position-dependent intra prediction filtering on intra predicted blocks.
  • the current block is predicted by the processor 2410 according to each of the plurality of intra prediction modes.
  • the processor 2410 determines whether position-dependent intra prediction filtering is applied to the current block according to each of the plurality of intra prediction modes. For example, position-dependent intra-prediction filtering may be applied to a prediction block of a current block for a left-left directional intra prediction mode, a right-side directional intra prediction mode, a DC mode, and a planner mode.
  • the processor 2410 applies position dependent intra prediction filtering to the current block. Accordingly, position-dependent intra-prediction filtering may be applied to each of the prediction blocks according to the left directional intra prediction mode, the right directional intra prediction mode, the DC mode, and the planar mode.
  • the processor 2410 determines the intra prediction mode of the current block according to the prediction result according to each intra prediction mode, to which position-dependent intra prediction filtering is applied. For example, prediction accuracy of the left and right directional intra prediction modes is calculated according to the prediction result of the left and right directional intra prediction modes to which position-dependent intra prediction filtering is applied. Similarly, for the right directional intra prediction mode, DC mode, and planner mode, prediction accuracy of the right directional intra prediction mode, DC mode, and planner mode is calculated according to prediction blocks to which position-dependent intra prediction filtering is applied. The prediction accuracy of the remaining intra prediction modes is calculated according to prediction blocks to which position-dependent intra prediction filtering is not applied. In addition, the intra prediction mode having the highest prediction accuracy may be determined as the intra prediction mode of the current block.
  • partitioning of a current block to which an intra prediction mode is applied may be performed by the processor 2410.
  • the processor 2410 determines whether the current block predicted according to the intra prediction tool is divided into a plurality of partitions. In addition, when the current block is divided into a plurality of partitions by the processor 2410, a partition mode of the current block is determined. Whether or not the current block is divided is determined according to a comparison result of encoding efficiency when division is not performed and encoding efficiency when division is performed. In addition, the split mode of the current block is determined according to coding efficiency of the current block of the plurality of split modes.
  • the current block is divided into a plurality of partitions by the processor 2410. Then, the intra prediction mode of the plurality of partitions is determined by the processor 2410. The intra prediction mode having the highest prediction accuracy for a plurality of partitions is set as the intra prediction mode of the current block.
  • the processor 2410 includes partition information indicating whether the current block is divided into a plurality of partitions, partition mode information indicating a partition mode of the current block, and intra prediction mode information indicating an intra prediction mode of the plurality of partitions.
  • the bitstream is output.
  • the position-dependent intra prediction filtering mode and the intra sub-partition encoding mode of the video encoding apparatus 2400 of FIG. 24 may be set to be the same as the position-dependent intra prediction filtering mode and the intra sub-partition encoding mode of the video decoding apparatus 1600 of FIG. 16. Can. Therefore, the position-dependent intra prediction filtering mode and the intra sub-partition coding mode of FIG. 24 may have characteristics of the position-dependent intra prediction filtering mode and the intra sub-partition coding mode of FIG. 16. Also, the video encoding apparatus 2400 of FIG. 24 may perform a function of an encoding stage corresponding to a function of the decoding stage performed by the video decoding apparatus 1600 of FIG. 16.
  • 25 is a flowchart according to an embodiment of a video encoding method 2500 to which position-dependent intra prediction filtering is applied.
  • step 2502 according to each of the plurality of intra prediction modes, the current block is predicted.
  • step 2504 whether to apply position-dependent intra prediction filtering to the current block is determined according to each of the plurality of intra prediction modes.
  • step 2506 for the intra prediction mode to which position-dependent intra prediction filtering is applied, position-dependent intra prediction filtering is applied to the current block.
  • step 2508 the intra prediction mode of the current block is determined according to the prediction result according to each intra prediction mode, to which position-dependent intra prediction filtering is applied.
  • the function of the video encoding apparatus 2400 according to the position-dependent intra prediction filtering mode described in FIG. 25 may be applied to the video encoding method 2500 according to the position-dependent intra prediction filtering mode.
  • each step of the video encoding method 2500 may be performed by the processor 2402 of the video encoding apparatus 2400.
  • 26 is a flowchart according to an embodiment of a video encoding method 2600 to which an intra sub-partition encoding mode is applied.
  • step 2602 it is determined whether the current block predicted according to the intra prediction tool is divided into a plurality of partitions.
  • step 2604 when the current block is divided into a plurality of partitions, a partition mode of the current block is determined.
  • step 2606 according to the partitioning mode, the current block is divided into a plurality of partitions.
  • step 2608 intra prediction modes of a plurality of partitions are determined.
  • the function of the video encoding apparatus 2400 according to the intra sub-partition encoding mode described in FIG. 26 may be applied to the video encoding method 2600 according to the intra sub-partition encoding mode.
  • each step of the video encoding method 2600 may be performed by the processor 2402 of the video encoding apparatus 2400.
  • image data in a spatial domain is encoded for each coding unit having a tree structure, and decoding is performed for each largest coding unit according to a video decoding technique based on coding units having a tree structure.
  • the image data of the spatial domain is reconstructed, so that a video that is a picture and a picture sequence can be reconstructed.
  • the reconstructed video can be played by a playback device, stored on a storage medium, or transmitted over a network.
  • the above-described embodiments of the present invention can be written in a program executable on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

Abstract

현재 블록의 인트라 예측 모드에 따라 현재 블록을 예측하는 단계, 현재 블록의 인트라 예측 모드에 따라 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계, 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 현재 블록의 인트라 예측 모드에 따라, 현재 블록의 현재 샘플의 위치 종속 인트라 예측 필터링을 위한 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나를 결정하는 단계, 및 현재 블록의 현재 샘플에, 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나에 따라, 위치 종속 인트라 예측 필터링을 적용하는 단계를 포함하는 비디오 복호화 방법이 제공된다.

Description

부호화 방법 및 그 장치, 복호화 방법 및 그 장치
본 발명은 비디오의 부호화 방법 및 복호화 방법에 대한 것으로, 보다 구체적으로는 다양한 인트라 부호화 툴에 따른 비디오의 부호화 방법 및 복호화 방법에 관한 것이다.
높은 화질의 비디오는 부호화시 많은 양의 데이터가 요구된다. 그러나 비디오 데이터를 전달하기 위하여 허용되는 대역폭은 한정되어 있어, 비디오 데이터 전송시 적용되는 데이터 레이트가 제한될 수 있다. 그러므로 효율적인 비디오 데이터의 전송을 위하여, 화질의 열화를 최소화하면서 압축률을 증가시킨 비디오 데이터의 부호화 및 복호화 방법이 필요하다.
비디오 데이터는 픽셀들 간의 공간적 중복성 및 시간적 중복성을 제거함으로써 압축될 수 있다. 인접한 픽셀들 간에 공통된 특징을 가지는 것이 일반적이기 때문에, 인접한 픽셀들 간의 중복성을 제거하기 위하여 픽셀들로 이루어진 데이터 단위로 부호화 정보가 전송된다.
데이터 단위에 포함된 픽셀들의 픽셀 값은 직접 전송되지 않고, 픽셀 값을 획득하기 위해 필요한 방법이 전송된다. 픽셀 값을 원본 값과 유사하게 예측하는 예측 방법이 데이터 단위마다 결정되며, 예측 방법에 대한 부호화 정보가 부호화기에서 복호화기로 전송된다. 또한 예측 값이 원본 값과 완전히 동일하지 않으므로, 원본 값과 예측 값의 차이에 대한 레지듀얼 데이터가 부호화기에서 복호화기로 전송된다.
예측이 정확해질수록 예측 방법을 특정하는데 필요한 부호화 정보가 증가되지만, 레지듀얼 데이터의 크기가 감소하게 된다. 따라서 부호화 정보와 레지듀얼 데이터의 크기를 고려하여 예측 방법이 결정된다. 특히, 픽처에서 분할된 데이터 단위는 다양1한 크기를 가지는데, 데이터 단위의 크기가 클수록 예측의 정확도가 감소할 가능성이 높은 대신, 부호화 정보가 감소하게 된다. 따라서 픽처의 특성에 맞게 블록의 크기가 결정된다.
또한 예측 방법에는 인트라 예측과 인터 예측이 있다. 인트라 예측은 블록의 주변 픽셀들로부터 블록의 픽셀들을 예측하는 방법이다. 인터 예측은 블록이 포함된 픽처가 참조하는 다른 픽처의 픽셀을 참조하여 픽셀들을 예측하는 방법이다. 따라서 인트라 예측에 의하여 공간적 중복성이 제거되고, 인터 예측에 의하여 시간적 중복성이 제거된다.
예측 방법의 수가 증가할수록 예측 방법을 나타내기 위한 부호화 정보의 양은 증가한다. 따라서 블록에 적용되는 부호화 정보 역시 다른 블록으로부터 예측하여 부호화 정보의 크기를 줄일 수 있다.
인간의 시각이 인지하지 못하는 한도에서 비디오 데이터의 손실이 허용되는 바, 레지듀얼 데이터를 변환 및 양자화 과정에 따라 손실 압축(lossy compression)하여 레지듀얼 데이터의 양을 감소시킬 수 있다.
다양한 인트라 부호화 툴에 따른 비디오 부호화 방법이 개시된다. 또한 다양한 인트라 부호화 툴에 따른 비디오 복호화 방법이 개시된다. 더불어 본 발명의 일 실시 예에 따른 비디오 부호화 방법 및 비디오 복호화 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 개시된다.
본 개시에서, 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록을 예측하는 단계, 상기 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계, 상기 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 상기 현재 블록의 인트라 예측 모드에 따라, 상기 현재 블록의 현재 샘플의 위치 종속 인트라 예측 필터링을 위한 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나를 결정하는 단계, 및 상기 현재 블록의 현재 샘플에, 상기 상측 참조 샘플, 상기 좌측 참조 샘플, 상기 상측 가중치, 및 상기 좌측 가중치 중 적어도 하나에 따라, 위치 종속 인트라 예측 필터링을 적용하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
본 개시에서, 비트스트림으로부터, 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보를 획득하는 단계, 상기 분할 정보가 현재 블록이 복수의 파티션으로 분할됨을 나타낼 경우, 상기 비트스트림으로부터 획득된 상기 현재 블록의 분할 모드를 나타내는 분할 모드 정보에 따라, 상기 현재 블록을 복수의 파티션으로 분할하는 단계, 상기 비트스트림으로부터 획득된 상기 인트라 예측 모드 정보에 따라, 상기 복수의 파티션의 인트라 예측 모드를 결정하는 단계, 및 상기 복수의 파티션의 인트라 예측 모드에 따라, 상기 복수의 파티션을 예측하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
본 개시에서, 상기 비디오 복호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하는 비디오 복호화 장치가 제공된다. 또한, 상기 비디오 복호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 포함하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공된다.
본 개시에서, 복수의 인트라 예측 모드 각각에 따라 현재 블록을 예측하는 단계, 상기 복수의 인트라 예측 모드 각각에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계, 상기 위치 종속 인트라 예측 필터링이 적용되는 인트라 예측 모드에 대하여, 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용하는 단계, 상기 위치 종속 인트라 예측 필터링이 적용된, 각 인트라 예측 모드에 따른 예측 결과에 따라, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계를 포함하는 비디오 부호화 방법이 제공된다.
본 개시에서, 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부가 결정하는 단계, 상기 현재 블록이 복수의 파티션으로 분할될 경우, 상기 현재 블록의 분할 모드를 결정하는 단계, 상기 분할 모드에 따라, 상기 현재 블록을 복수의 파티션으로 분할하는 단계, 상기 복수의 파티션의 인트라 예측 모드를 결정하는 단계, 및 상기 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보, 상기 현재 블록의 분할 모드를 나타내는 분할 모드 정보, 및 상기 복수의 파티션의 인트라 예측 모드를 나타내는 인트라 예측 모드 정보를 포함하는 비트스트림을 출력하는 단계를 포함하는 비디오 부호화 방법이 제공된다.
본 개시에서, 상기 비디오 부호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하는 비디오 부호화 장치가 제공된다. 또한, 상기 비디오 부호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 포함하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 제공된다.
본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
본 개시에서 설명된 다양한 인트라 예측 모드에 따라, 비디오 부호화 효율이 향상될 수 있다. 이하, 발명의 효과에 대한 자세한 설명은 본 명세서 및 도면에 의하여 제공된다.
도 1A은 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치의 블록도를 도시한다.
도 1B는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 비디오 복호화 장치의 블록도를 도시한다.
도 2는 일 실시예에 따라 현재 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 3은 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 4는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 5는 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 6은 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 7은 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 8은 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 9는 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 11은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 14는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 16은 다양한 인트라 예측 툴이 적용되는 비디오 복호화 장치의 블록도를 도시한다.
도 17은 DC 모드 및 플래너 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다.
도 18은 좌하측 방향성 인트라 예측 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다.
도 19는 우상측 방향성 인트라 예측 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다.
도 20은 인트라 서브 파티션 부호화 모드(intra sub-partition coding mode) 에 따른 현재 루마 블록의 파티션 분할을 나타낸다.
도 21은 현재 루마 블록의 파티션들의 인트라 예측 모드로부터 현재 크로마 블록의 인트라 예측 모드를 결정하는 방법의 실시 예를 설명한다.
도 22은 위치 종속 인트라 예측 필터링이 적용되는 비디오 복호화 방법의 일 실시 예에 따른 순서도이다.
도 23는 인트라 서브 파티션 부호화 모드가 적용되는 비디오 복호화 방법의 일 실시 예에 따른 순서도이다.
도 24은 다양한 인트라 예측 툴이 적용되는 비디오 부호화 장치의 블록도를 도시한다.
도 25은 위치 종속 인트라 예측 필터링이 적용되는 비디오 부호화 방법의 일 실시 예에 따른 순서도이다.
도 26는 인트라 서브 파티션 부호화 모드가 적용되는 비디오 부호화 방법의 일 실시 예에 따른 순서도이다.
본 개시에서, 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록을 예측하는 단계, 상기 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계, 상기 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 상기 현재 블록의 인트라 예측 모드에 따라, 상기 현재 블록의 현재 샘플의 위치 종속 인트라 예측 필터링을 위한 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나를 결정하는 단계, 및 상기 현재 블록의 현재 샘플에, 상기 상측 참조 샘플, 상기 좌측 참조 샘플, 상기 상측 가중치, 및 상기 좌측 가중치 중 적어도 하나에 따라, 위치 종속 인트라 예측 필터링을 적용하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
"현재 블록"은 현재 부호화 또는 복호화되는 부호화 단위, 예측 단위 및 변환 단위 중 하나를 의미한다. 또한 "하위 블록"은 "현재 블록"으로부터 분할된 데이터 단위를 의미한다. 그리고 "상위 블록"은 "현재 블록"을 포함하는 데이터 단위를 의미한다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1A는 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치(100)의 블록도를 도시한다.
영상 부호화 장치(100)는 최대 부호화 단위 결정부(110), 부호화 단위 결정부(120) 및 출력부(130)를 포함한다.
최대 부호화 단위 결정부(110)는 최대 부호화 단위의 크기에 따라 픽처 또는 픽처에 포함된 슬라이스를 복수의 최대 부호화 단위로 분할한다. 최대 부호화 단위는 크기 32x32, 64x64, 128x128, 256x256 등의 데이터 단위로, 가로 및 세로 크기가 2의 자승인 정사각형의 데이터 단위일 수 있다. 최대 부호화 단위 결정부(110)는 최대 부호화 단위의 크기를 나타내는 최대 부호화 단위 크기 정보를 출력부(130)에 제공할 수 있다. 그리고 출력부(130)는 최대 부호화 단위 크기 정보를 비트스트림에 포함시킬 수 있다.
부호화 단위 결정부(120)는 최대 부호화 단위를 분할하여 부호화 단위를 결정한다. 부호화 단위는 최대 크기 및 심도로 결정될 수 있다. 심도란 최대 부호화 단위로부터 부호화 단위가 공간적으로 분할된 횟수로 정의될 수 있다. 심도가 1 증가할 때마다, 부호화 단위는 2개 이상의 부호화 단위로 분할된다. 따라서 심도가 증가할수록 심도별 부호화 단위의 크기는 감소한다. 부호화 단위의 분할 여부는 율-왜곡 최적화(Rate-Distortion Optimization)에 의하여 부호화 단위의 분할이 효율적인지 여부에 따라 결정된다. 그리고 부호화 단위가 분할되었는지 여부를 나타내는 분할 정보가 생성될 수 있다. 분할 정보는 플래그의 형태로 표현될 수 있다.
부호화 단위는 다양한 방법으로 분할될 수 있다. 예를 들어, 정사각형의 부호화 단위는 너비와 높이가 절반인 4개의 정사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 높이가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비 또는 높이를 1:2:1로 분할함으로써 세 개의 부호화 단위로 분할될 수 있다.
너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 너비가 높이의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 너비를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
마찬가지로, 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 또한 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 높이가 너비의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 마찬가지로 높이가 너비의 2배인 직사각형의 부호화 단위는 높이를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
영상 부호화 장치(100)에서 2개 이상의 분할 방법이 사용가능한 경우, 영상 부호화 장치(100)에서 사용가능한 분할 방법 중 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 픽처마다 결정될 수 있다. 따라서 픽처마다 특정한 분할 방법들만이 사용되도록 결정될 수 있다. 만약 영상 부호화 장치(100)가 하나의 분할 방법만을 사용할 경우, 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 별도로 결정되지 않는다.
부호화 단위의 분할 정보가 부호화 단위가 분할됨을 나타낼 때, 부호화 단위의 분할 방법을 나타내는 분할 형태 정보가 생성될 수 있다. 만약 부호화 단위사 속한 픽처에서 사용될 수 있는 분할 방법이 하나인 경우, 분할 형태 정보는 생성되지 않을 수 있다. 만약 분할 방법이 부호화 단위 주변의 부호화 정보에 적응적으로 결정될 경우, 분할 형태 정보는 생성되지 않을 수 있다.
최대 부호화 단위는 최소 부호화 단위 크기 정보에 따라 최소 부호화 단위까지 분할될 수 있다. 최대 부호화 단위의 심도가 최상위 심도이며 최소 부호화 단위가 최하위 심도로 정의될 수 있다. 따라서 상위 심도의 부호화 단위는 복수 개의 하위 심도의 부호화 단위를 포함할 수 있다.
전술한 바와 같이 부호화 단위의 최대 크기에 따라, 현재 픽처의 영상 데이터는 최대 부호화 단위로 분할된다. 그리고 최대 부호화 단위는 심도별로 분할되는 부호화 단위들을 포함할 수 있다. 최대 부호화 단위는 심도별로 분할되므로, 최대 부호화 단위에 포함된 공간 영역(spatial domain)의 영상 데이터가 심도에 따라 계층적으로 분류될 수 있다.
최대 부호화 단위를 계층적으로 분할할 수 있는 최대 횟수를 제한하는 최대 심도 또는 부호화 단위의 최소 크기가 미리 설정되어 있을 수 있다.
부호화 단위 결정부(120)는 부호화 단위를 계층적으로 분할하였을 때의 부호화 효율과 부호화 단위를 분할하지 않았을 때의 부호화 효율을 비교한다. 그리고 부호화 단위 결정부(120)는 비교 결과에 따라 부호화 단위를 분할할지 여부를 결정한다. 만약 부호화 단위의 분할이 더 효율적이라고 결정된 경우, 부호화 단위 결정부(120)는 부호화 단위를 계층적으로 분할한다. 만약 비교 결과에 따라 부호화 단위를 분할하지 않는 것이 효율적이라고 결정된 경우, 부호화 단위를 분할하지 않는다. 부호화 단위의 분할 여부는 인접한 다른 부호화 단위의 분할 여부에 독립적으로 결정될 수 있다.
일 실시예에 의하면, 부호화 단위의 분할 여부는 부호화 과정에서 심도가 큰 부호화 단위부터 결정될 수 있다. 예를 들어, 최대 심도의 부호화 단위와 최대 심도보다 1만큼 작은 부호화 단위의 부호화 효율이 비교되어, 최대 부호화 단위의 각 영역마다 최대 심도의 부호화 단위들과 최대 심도보다 1만큼 작은 부호화 단위들 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 그리고 판단 결과에 따라 최대 부호화 단위의 각 영역마다 최대 심도보다 1만큼 작은 부호화 단위의 분할 여부가 결정된다. 그 후 최대 부호화 단위의 각 영역마다 최대 심도보다 2만큼 작은 부호화 단위들과 위의 판단 결과에 기초하여 선택된 최대 심도보다 1만큼 작은 부호화 단위들과 최소 심도의 부호화 단위들의 조합 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 동일한 판단 과정이 심도가 작은 부호화 단위들에 대하여 순차적으로 수행되어, 최종적으로 최대 부호화 단위와 최대 부호화 단위가 계층적으로 분할되어 생성된 계층 구조 중 어느 것이 더 효율적으로 부호화되는지 여부에 따라 최대 부호화 단위의 분할 여부가 결정된다.
부호화 단위의 분할 여부는 부호화 과정에서 심도가 작은 부호화 단위부터 결정될 수 있다. 예를 들어, 최대 부호화 단위와 최대 부호화 단위보다 1만큼 심도가 큰 부호화 단위의 부호화 효율이 비교되어, 최대 부호화 단위와 최대 부호호 단위보다 1만큼 심도가 큰 부호화 단위들 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 만약 최대 부호화 단위의 부호화 효율이 더 좋을 경우, 최대 부호화 단위는 분할되지 않는다. 만약 최대 부호화 단위보다 1만큼 심도가 큰 부호화 단위들의 부호화 효율이 더 좋을 경우, 최대 부호화 단위는 분할되고, 분할된 부호화 단위에 대하여 동일한 비교 과정이 반복된다.
심도가 큰 부호화 단위부터 부호화 효율을 검토할 경우, 연산량이 많으나 부호화 효율이 높은 트리 구조를 획득할 수 있다. 반대로 심도가 작은 부호화 단위부터 부호화 효율을 검토할 경우, 연산량이 적으나 부호화 효율이 낮은 트리 구조를 획득할 수 있다. 따라서 부호화 효율과 연산량을 고려하여 최대 부호화 단위의 계층적 트리 구조를 획득하기 위한 알고리즘이 다양한 방법으로 설계될 수 있다.
부호화 단위 결정부(120)는 심도별 부호화 단위의 효율성을 판단하기 위하여, 부호화 단위에 가장 효율적인 예측 및 변환 방법을 결정한다. 부호화 단위는 가장 효율적인 예측 및 변환 방법을 결정하기 위하여 소정의 데이터 단위들로 분할될 수 있다. 데이터 단위는 부호화 단위의 분할 방법에 따라 다양한 형태를 가질 수 있다. 데이터 단위를 결정하기 위한 부호화 단위의 분할 방법은 파티션 모드라고 정의될 수 있다. 예를 들어, 크기 2Nx2N(단, N은 양의 정수)의 부호화 단위가 분할되지 않는 경우, 부호화 단위에 포함된 예측 단위의 크기는 2Nx2N이 된다. 크기 2Nx2N의 부호화 단위가 분할될 경우, 부호화 단위에 포함된 예측 단위의 크기는 파티션 모드에 따라 2NxN, Nx2N, NxN 등이 될 수 있다. 일 실시예에 따른 파티션 모드는 부호화 단위의 높이 또는 너비가 대칭적 비율로 분할된 대칭적 데이터 단위들뿐만 아니라, 1:n 또는 n:1과 같이 비대칭적 비율로 분할된 데이터 단위들, 사선 방향으로 분할된 데이터 단위들, 기타 기하학적인 형태로 분할된 데이터 단위들, 임의적 형태의 데이터 단위들을 생성할 수 있다.
부호화 단위는 부호화 단위에 포함된 데이터 단위를 기준으로 예측 및 변환이 수행될 수 있다. 그러나 실시 예에 따라 예측을 위한 데이터 단위와 변환을 위한 데이터 단위가 별도로 결정될 수 있다. 예측을 위한 데이터 단위는 예측 단위로, 변환을 위한 데이터 단위는 변환 단위로 정의될 수 있다. 예측 단위에서 적용되는 파티션 모드와 변환 단위에서 적용되는 파티션 모드는 서로 다를 수 있으며, 부호화 단위에서 예측 단위의 예측과 변환 단위의 변환은 병렬적, 독립적으로 수행될 수 있다.
부호화 단위는 효율적인 예측 방법을 결정하기 위하여 한 개 이상의 예측 단위로 분할될 수 있다. 마찬가지로 부호화 단위는 효율적인 변환 방법을 결정하기 위하여 한 개 이상의 변환 단위로 분할 될 수 있다. 예측 단위의 분할과 변환 단위의 분할은 독립적으로 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 인트라 예측에 사용되는 경우, 부호화 단위에 포함된 예측 단위들 또는 변환 단위들 간에 종속적 관계가 형성되므로 예측 단위와 변환 단위의 분할이 서로 영향을 미칠 수 있다.
부호화 단위에 포함된 예측 단위는 인트라 예측 또는 인터 예측에 의하여 예측될 수 있다. 인트라 예측은 예측 단위 주변의 참조 샘플들을 이용하여 예측 단위의 샘플들을 예측하는 방법이다. 인터 예측은 현재 픽처가 참조하는 참조 픽처로부터 참조 샘플을 획득하여 예측 단위의 샘플들을 예측하는 방법이다.
부호화 단위 결정부(120)는 인트라 예측을 위하여 복수의 인트라 예측 방법을 예측 단위에 적용하여, 가장 효율적인 인트라 예측 방법을 선택할 수 있다. 인트라 예측 방법에는 DC 모드, 플래너(Planar) 모드, 수직 모드 및 수평 모드와 같은 방향성(directional) 모드 등이 포함된다.
인트라 예측은 부호화 단위 주변의 복원 샘플을 참조 샘플로 사용하는 경우 예측 단위마다 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 부호화 단위 내부의 참조 샘플의 복원이 예측보다 우선되어야 하므로, 변환 단위의 변환 순서에 예측 단위의 예측 순서가 종속될 수 있다. 따라서 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 예측 단위에 대하여 예측 단위에 대응되는 변환 단위들에 대한 인트라 예측 방법만이 결정되고, 실질적인 인트라 예측은 변환 단위마다 수행될 수 있다.
부호화 단위 결정부(120)는 최적의 움직임 벡터 및 참조 픽처를 결정함으로써 가장 효율적인 인터 예측 방법을 선택할 수 있다. 부호화 단위 결정부(120)는 인터 예측을 위하여 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 움직임 벡터 후보를 결정하고, 그 중 가장 효율적인 움직임 벡터를 움직임 벡터로 결정할 수 있다. 마찬가지로 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 참조 픽처 후보를 결정하고, 그 중 가장 효율적인 참조 픽처를 결정할 수 있다. 실시 예에 따라 참조 픽처는 현재 픽처에 대하여 미리 결정된 참조 픽처 리스트들 중에서 결정될 수 있다. 실시 예에 따라 예측의 정확성을 위하여 복수의 움직임 벡터 후보 중 가장 효율적인 움직임 벡터를 움직임 벡터 예측자로 결정하고, 움직임 벡터 예측자를 보정하여 움직임 벡터를 결정할 수 있다. 인터 예측은 부호화 단위 내부의 예측 단위별마다 병렬적으로 수행될 수 있다.
부호화 단위 결정부(120)는 스킵 모드에 따라 움직임 벡터 및 참조 픽처를 나타내는 정보만을 획득하여 부호화 단위를 복원할 수 있다. 스킵 모드에 의하면 움직임 벡터 및 참조 픽처를 나타내는 정보를 제외하고 잔차 신호를 포함한 모든 부호화 정보가 생략된다. 잔차 신호가 생략되므로 예측의 정확성이 매우 높은 경우에 스킵 모드가 사용될 수 있다.
예측 단위에 대한 예측 방법에 따라 사용되는 파티션 모드가 제한될 수 있다. 예를 들어 인트라 예측에는 2Nx2N, NxN 크기의 예측 단위에 대한 파티션 모드만이 적용되는 반면, 인터 예측에는 2Nx2N, 2NxN, Nx2N, NxN크기의 예측 단위에 대한 파티션 모드가 적용될 수 있다. 또한, 인터 예측의 스킵 모드에는 2Nx2N 크기의 예측 단위에 대한 파티션 모드만이 적용될 수 있다. 영상 부호화 장치(100)에서 각 예측 방법에 대하여 허용되는 파티션 모드는 부호화 효율에 따라 변경될 수 있다.
영상 부호화 장치(100)는 부호화 단위 또는 부호화 단위에 포함된 변환 단위를 기준으로 변환을 수행할 수 있다. 영상 부호화 장치(100)는 부호화 단위에 포함된 픽셀들에 대한 원본 값과 예측 값의 차이 값인 레지듀얼 데이터를 소정의 과정을 거쳐 변환시킬 수 있다. 예를 들어, 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 및 DCT/DST 변환을 통해 손실 압축을 할 수 있다. 또는 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 없이 무손실 압축을 할 수 있다.
영상 부호화 장치(100)는 양자화 및 변환에 가장 효율적인 변환 단위를 결정할 수 있다. 트리 구조에 따른 부호화 단위와 유사한 방식으로, 부호화 단위 내의 변환 단위도 재귀적으로 더 작은 크기의 변환 단위로 분할되면서, 부호화 단위의 레지듀얼 데이터가 변환 심도에 따라 트리 구조에 따른 변환 단위에 따라 구획될 수 있다. 그리고 영상 부호화 장치(100)는 결정된 변환 단위의 트리 구조에 따라 부호화 단위 및 변환 단위의 분할에 대한 변환 분할 정보를 생성할 수 있다.
영상 부호화 장치(100)는 부호화 단위의 높이 및 너비가 분할하여 변환 단위에 이르기까지의 분할 횟수를 나타내는 변환 심도가 설정될 수 있다. 예를 들어, 크기 2Nx2N의 현재 부호화 단위의 변환 단위의 크기가 2Nx2N이라면 변환 심도 0, 변환 단위의 크기가 NxN이라면 변환 심도 1, 변환 단위의 크기가 N/2xN/2이라면 변환 심도 2로 설정될 수 있다. 즉, 변환 심도에 따라 트리 구조에 따른 변환 단위가 설정될 수 있다.
결론적으로, 부호화 단위 결정부(120)는 복수의 인트라 예측 방법 및 인터 예측 방법 중 현재 예측 단위에 가장 효율적인 예측 방법을 결정한다. 그리고 부호화 단위 결정부(120)는 예측 결과에 따른 부호화 효율에 따라 예측 단위 결정 방식을 판단한다. 마찬가지로 부호화 단위 결정부(120)는 변환 결과에 따른 부호화 효율에 따라 변환 단위 결정 방식을 판단한다. 가장 효율적인 예측 단위와 변환 단위의 결정 방식에 따라 최종적으로 부호화 단위의 부호화 효율이 결정된다. 부호화 단위 결정부(120)는 각 심도별 부호화 단위의 부호화 효율에 따라 최대 부호화 단위의 계층 구조를 확정한다.
부호화 단위 결정부(120)는 심도별 부호화 단위의 부호화 효율성, 예측 방법들의 예측 효율성 등을 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용하여 측정할 수 있다.
부호화 단위 결정부(120)는 결정된 최대 부호화 단위의 계층 구조에 따라 부호화 단위의 심도별 분할 여부를 나타내는 분할 정보를 생성할 수 있다. 그리고 부호화 단위 결정부(120)는 분할이 완료된 부호화 단위에 대하여 예측 단위의 결정을 위한 파티션 모드 정보 및 변환 단위의 결정을 위한 변환 단위 분할 정보를 생성할 수 있다. 또한 부호화 단위 결정부(120)는 부호화 단위의 분할 방법이 2개 이상인 경우, 분할 방법을 나타내는 분할 형태 정보를 분할 정보와 함께 생성할 수 있다. 그리고 부호화 단위 결정부(120)는 예측 단위 및 변환 단위에 사용된 예측 방법 및 변환 방법에 관한 정보를 생성할 수 있다.
출력부(130)는 최대 부호화 단위의 계층 구조에 따라 최대 부호화 단위 결정부(110) 및 부호화 단위 결정부(120)가 생성한 정보들을 비트스트림의 형태로 출력할 수 있다.
일 실시예에 따른 최대 부호화 단위의 트리 구조에 따른 부호화 단위, 예측 단위 및 변환 단위의 결정 방식에 대해서는, 도 3 내지 12를 참조하여 상세히 후술한다.
도 1B는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 복호화 장치(150)의 블록도를 도시한다.
영상 복호화 장치(150)는 수신부(160), 부호화 정보 추출부(170) 및 복호화부(180)를 포함한다.
일 실시예에 따른 영상 복호화 장치(150)의 복호화 동작을 위한 부호화 단위, 심도, 예측 단위, 변환 단위, 각종 분할 정보 등 각종 용어의 정의는, 도 1A 및 영상 부호화 장치(100)를 참조하여 전술한 바와 동일하다. 또한 영상 복호화 장치(150)의 목적이 영상 데이터의 복원인 바, 영상 부호화 장치(100)에서 사용된 다양한 부호화 방법들이 영상 복호화 장치(150)에 적용될 수 있다.
수신부(160)는 부호화된 비디오에 대한 비트스트림을 수신하여 파싱한다. 부호화 정보 추출부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 복호화에 필요한 정보들을 추출하여 복호화부(180)에 제공한다. 부호화 정보 추출부(170)는 현재 픽처에 대한 헤더, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트로부터 현재 픽처의 부호화 단위의 최대 크기에 관한 정보를 추출할 수 있다.
또한, 부호화 정보 추출부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 트리 구조에 따른 부호화 단위들에 대한 최종 심도 및 분할정보를 추출한다. 추출된 최종 심도 및 분할정보는 복호화부(180)로 출력된다. 복호화부(180)는 최대 부호화 단위를 추출된 최종 심도 및 분할정보에 따라 분할하여 최대 부호화 단위의 트리 구조를 결정할 수 있다.
부호화 정보 추출부(170)가 추출한 분할정보는, 영상 부호화 장치(100)에 의하여, 최소 부호화 오차를 발생시키는 것으로 결정된 트리 구조에 대한 분할정보다. 따라서, 영상 복호화 장치(150)는 최소 부호화 오차를 발생시키는 부호화 방식에 따라 데이터를 복호화하여 영상을 복원할 수 있다.
부호화 정보 추출부(170)는 부호화 단위에 포함된 예측 단위 및 변환 단위와 같은 데이터 단위에 대한 분할 정보를 추출할 수 있다. 예를 들어, 부호화 정보 추출부(170)는 예측 단위에 대한 가장 효율적인 파티션 모드에 관한 정보를 추출할 수 있다. 그리고 부호화 정보 추출부(170)는 변환 단위에 있어서 가장 효율적인 트리 구조에 대한 변환 분할 정보를 추출할 수 있다.
또한 부호화 정보 추출부(170)는 부호화 단위로부터 분할된 예측 단위들에 대하여 가장 효율적인 예측 방법에 대한 정보를 획득할 수 있다. 그리고 부호화 정보 추출부(170)는 부호화 단위로부터 분할된 변환 단위들에 대하여 가장 효율적인 변환 방법에 대한 정보를 획득할 수 있다.
부호화 정보 추출부(170)는 영상 부호화 장치(100)의 출력부(130)에서 비트스트림을 구성하는 방식에 따라 비트스트림으로부터 정보를 추출한다.
복호화부(180)는 분할정보에 기초하여 최대 부호화 단위를 가장 효율적인 트리구조를 가진 부호화 단위들로 분할할 수 있다. 그리고 복호화부(180)는 파티션 모드에 관한 정보에 따라 부호화 단위를 예측 단위로 분할할 수 있다. 복호화부(180)는 변환 분할 정보에 따라 부호화 단위를 변환 단위로 분할할 수 있다.
복호화부(180)는 예측 단위를 예측 방법에 대한 정보에 따라 예측할 수 있다. 그리고 복호화부(180)는 변환 단위를 변환 방법에 대한 정보에 따라 픽셀의 원본 값과 예측 값의 차이에 해당하는 레지듀얼 데이터를 역양자화 및 역변환할 수 있다. 또한 복호화부(180)는 예측 단위의 예측 결과와 변환 단위의 변환 결과에 따라 부호화 단위의 픽셀들을 복원할 수 있다.
도 2는 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(150)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(150)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 2를 참조하면, 현재 부호화 단위(200)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(180)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(200)와 동일한 크기를 가지는 부호화 단위(210a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(210b, 210c, 210d 등)를 결정할 수 있다.
도 2를 참조하면 영상 복호화 장치(150)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수직방향으로 분할한 두개의 부호화 단위(210b)를 결정할 수 있다. 영상 복호화 장치(150)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수평방향으로 분할한 두개의 부호화 단위(210c)를 결정할 수 있다. 영상 복호화 장치(150)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(210d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 3은 일 실시예에 따라 영상 복호화 장치(150)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(150)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300 또는 350)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(150)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(300 또는 350)와 동일한 크기를 가지는 부호화 단위(310 또는 360)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(320a, 320b, 330a, 330b, 330c, 370a, 370b, 380a, 380b, 380c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 3을 참조하면 분할 형태 정보가 두개의 부호화 단위로 현재 부호화 단위(300 또는 350)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 분할 형태 정보에 기초하여 현재 부호화 단위(300 또는 350)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(320a, 320b, 또는 370a, 370b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(300 또는 350)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(300 또는 350)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)의 형태를 고려하여 현재 부호화 단위(300 또는 350)의 긴 변을 분할하는 방향으로 현재 부호화 단위(300 또는 350)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(300 또는 350)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)를 3개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c) 중 소정의 부호화 단위(330b 또는 380b)의 크기는 다른 부호화 단위(330a, 330c, 380a, 380c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(300 또는 350)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있다.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(150)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 3을 참조하면 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)가 분할되어 생성된 3개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c)들 중 중앙에 위치하는 부호화 단위(330b, 380b)에 대한 복호화 과정을 다른 부호화 단위(330a, 330c, 380a, 380c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(150)는 중앙에 위치하는 부호화 단위(330b, 380b)에 대하여는 다른 부호화 단위(330a, 330c, 380a, 380c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 4는 일 실시예에 따라 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(400)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(400)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(400)를 수평 방향으로 분할하여 제2 부호화 단위(410)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 결정된 제2 부호화 단위(410)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 4를 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(410)를 적어도 하나의 제3 부호화 단위(420a, 420b, 420c, 420d 등)로 분할하거나 제2 부호화 단위(410)를 분할하지 않을 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(150)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 410)를 분할할 수 있으며, 제2 부호화 단위(410)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(400)가 제1 부호화 단위(400)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(410)로 분할된 경우, 제2 부호화 단위(410) 역시 제2 부호화 단위(410)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 420a, 420b, 420c, 420d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(420a, 420b, 420c, 420d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(410)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(150)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(410)를 홀수개의 제3 부호화 단위(420b, 420c, 420d)로 분할할 수 있다. 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(420b, 420c, 420d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(420b, 420c, 420d) 중 가운데에 위치하는 부호화 단위(420c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 4를 참조하면, 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(410)에 포함되는 홀수개의 제3 부호화 단위(420b, 420c, 420d)들 중 가운데에 위치하는 부호화 단위(420c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(410)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(420c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(420c)가 다른 부호화 단위(420b, 420d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
도 5은 일 실시예에 따라 영상 복호화 장치(150)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 5을 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(500)를 분할하여 홀수개의 부호화 단위들(520a, 520b, 520c)을 결정할 수 있다. 영상 복호화 장치(150)는 홀수개의 부호화 단위들(520a, 520b, 520c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(520b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(150)는 부호화 단위들(520a, 520b, 520c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(520a, 520b, 520c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(150)는 부호화 단위들(520a, 520b, 520c)의 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보에 기초하여 부호화 단위(520a, 520b, 520c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보는 부호화 단위(520a, 520b, 520c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보는 현재 부호화 단위(500)에 포함되는 부호화단위(520a, 520b, 520c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(520a, 520b, 520c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 좌표를 이용하여 가운데 부호화 단위(520b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(530a, 530b, 530c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(530b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(520b)를 현재 부호화 단위(500)가 분할되어 결정된 부호화 단위(520a, 520b, 520c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 기준으로, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(500)를 복수개의 부호화 단위(520a, 520b, 520c)로 분할할 수 있고, 부호화 단위(520a, 520b, 520c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c) 중 크기가 다른 부호화 단위(520b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(520a, 520b, 520c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(520a, 520b, 520c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 상단 부호화 단위(520a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 가운데 부호화 단위(520b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(520a) 및 가운데 부호화 단위(520b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(150)는 결정된 부호화 단위(520a, 520b, 520c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 상단 부호화 단위(520a) 및 하단 부호화 단위(520c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(520b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(150)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 5에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(150)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다.
도 5을 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(500)를 복수개의 부호화 단위들(520a, 520b, 520c)로 분할할 수 있으며, 복수개의 부호화 단위들(520a, 520b, 520c) 중 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 즉, 현재 부호화 단위(500)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(500)의 가운데에 위치하는 샘플(540)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(500)가 복수개의 부호화 단위들(520a, 520b, 520c)로 분할된 경우 상기 샘플(540)을 포함하는 부호화 단위(520b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(500)가 분할되어 결정된 복수개의 부호화 단위들(520a, 520b, 520c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(500) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(500)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(150)는 현재 부호화 단위(500)의 블록 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위(500)가 분할되어 결정되는 복수개의 부호화 단위(520a, 520b, 520c)들 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(520b)를 결정하여 소정의 제한을 둘 수 있다. 도 5을 참조하면 일 실시예에 따라 영상 복호화 장치(150)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(500)의 가운데에 위치하는 샘플(540)을 결정할 수 있고, 영상 복호화 장치(150)는 이러한 샘플(540)이 포함되는 부호화 단위(520b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(520b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(500)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 4를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(600)를 수직 방향으로 분할하여 제2 부호화 단위(610a, 610b)를 결정하거나 제1 부호화 단위(600)를 수평 방향으로 분할하여 제2 부호화 단위(630a, 630b)를 결정하거나 제1 부호화 단위(600)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(650a, 650b, 650c, 650d)를 결정할 수 있다.
도 6을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(610a, 610b)를 수평 방향(610c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(630a, 630b)의 처리 순서를 수직 방향(630c)으로 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(650a, 650b, 650c, 650d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(650e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 6을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(600)를 분할하여 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)을 분할하는 방법은 제1 부호화 단위(600)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 6을 참조하면 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향으로 분할하여 제2 부호화 단위(610a, 610b)를 결정할 수 있고, 나아가 제2 부호화 단위(610a, 610b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(610a)를 수평 방향으로 분할하여 제3 부호화 단위(620a, 620b)로 분할할 수 있고, 우측의 제2 부호화 단위(610b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(610a)가 분할되어 결정된 제3 부호화 단위(620a, 620b)가 처리되는 순서를 우측의 제2 부호화 단위(610b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(610a)가 수평 방향으로 분할되어 제3 부호화 단위(620a, 620b)가 결정되었으므로 제3 부호화 단위(620a, 620b)는 수직 방향(620c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(610a) 및 우측의 제2 부호화 단위(610b)가 처리되는 순서는 수평 방향(610c)에 해당하므로, 좌측의 제2 부호화 단위(610a)에 포함되는 제3 부호화 단위(620a, 620b)가 수직 방향(620c)으로 처리된 후에 우측 부호화 단위(610b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 7는 일 실시예에 따라 영상 복호화 장치(150)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 7를 참조하면 정사각형 형태의 제1 부호화 단위(700)가 비-정사각형 형태의 제2 부호화 단위(710a, 710b)로 분할될 수 있고, 제2 부호화 단위(710a, 710b)는 각각 독립적으로 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제2 부호화 단위 중 좌측 부호화 단위(710a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(720a, 720b)를 결정할 수 있고, 우측 부호화 단위(710b)는 홀수개의 제3 부호화 단위(720c, 720d, 720e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제3 부호화 단위들(720a, 720b, 720c, 720d, 720e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 7을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(700)를 재귀적으로 분할하여 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)를 결정할 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(700), 제2 부호화 단위(710a, 710b) 또는 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(710a, 710b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(720c, 720d, 720e)로 분할될 수 있다. 제1 부호화 단위(700)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(730))가 될 수 있고, 영상 복호화 장치(150)는 우측 제2 부호화 단위(710b)가 홀수개로 분할되어 결정된 제3 부호화 단위(720c, 720d, 720e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(700)에 포함되는 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)의 경계에 따라 제2 부호화 단위(710a, 710b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(710a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(720a, 720b)는 조건을 만족하지만, 우측 제2 부호화 단위(710b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(720c, 720d, 720e)들의 경계가 우측 제2 부호화 단위(710b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(720c, 720d, 720e)는 조건을 만족하지 못하는 것으로 결정될 수 있고, 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(710b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 8은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(800)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. 일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(800)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(800)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 8을 참조하면, 블록 형태 정보가 제1 부호화 단위(800)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(800)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(800)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(800)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(810a, 810b, 810c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(820a, 820b, 820c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(800)에 포함되는 제2 부호화 단위(810a, 810b, 810c, 820a, 820b, 820c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(810a, 810b, 810c, 820a, 820b, 820c)의 경계에 따라 제1 부호화 단위(800)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 8을 참조하면 정사각형 형태의 제1 부호화 단위(800)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(810a, 810b, 810c)들의 경계가 제1 부호화 단위(800)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(800)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(800)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(820a, 820b, 820c)들의 경계가 제1 부호화 단위(800)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(800)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(800)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(150)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 8을 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(800), 비-정사각형 형태의 제1 부호화 단위(830 또는 850)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 9은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(900)를 비-정사각형 형태의 제2 부호화 단위(910a, 910b, 920a, 920b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(910a, 910b, 920a, 920b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(150)는 제2 부호화 단위(910a, 910b, 920a, 920b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(910a)를 수평 방향으로 분할하여 제3 부호화 단위(912a, 912b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 좌측 제2 부호화 단위(910a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(910b)는 좌측 제2 부호화 단위(910a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(910b)가 동일한 방향으로 분할되어 제3 부호화 단위(914a, 914b)가 결정된 경우, 좌측 제2 부호화 단위(910a) 및 우측 제2 부호화 단위(910b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(912a, 912b, 914a, 914b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(900)를 4개의 정사각형 형태의 제2 부호화 단위(930a, 930b, 930c, 930d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 제1 부호화 단위(330)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(920a 또는 920b)를 수직 방향으로 분할하여 제3 부호화 단위(922a, 922b, 924a, 924b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(920a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(920b))는 상단 제2 부호화 단위(920a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(150)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 분할하여 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1012a, 1012b)를 결정할 수 있고, 우측 제2 부호화 단위(1010b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1014a, 1014b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1016a, 1016b, 1016c, 1016d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1000)가 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(150)는 상단 제2 부호화 단위(1020a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1022a, 1022b)를 결정할 수 있고, 하단 제2 부호화 단위(1020b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1024a, 1024b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 상단 제2 부호화 단위(1020a) 및 하단 제2 부호화 단위(1020b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1000)가 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 11는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1100)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1100)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(예를 들면, 1110a, 1110b, 1120a, 1120b, 1130a, 1130b, 1130c, 1130d 등)를 결정할 수 있다. 도 11을 참조하면 제1 부호화 단위1100)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(150)는 제1 부호화 단위(1100)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1110a, 1110b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수 있고, 제1 부호화 단위(1100)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1120a, 1120b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 결정할 수 있다. 이러한 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)의 분할 과정은 도 9와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 6과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 11을 참조하면 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1100)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(1100)가 분할되는 형태에 따라 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1110a, 1110b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수 있고, 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1110a)에 포함되는 제3 부호화 단위(1116a, 1116b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1110b)에 포함되는 제3 부호화 단위(1116c, 1116d)를 수직 방향으로 처리하는 순서(1117)에 따라 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1120a, 1120b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 결정할 수 있고, 영상 복호화 장치(150)는 상단 제2 부호화 단위(1120a)에 포함되는 제3 부호화 단위(1126a, 1126b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1120b)에 포함되는 제3 부호화 단위(1126c, 1126d)를 수평 방향으로 처리하는 순서(1127)에 따라 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 처리할 수 있다.
도 11을 참조하면, 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1110a, 1110b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1120a, 1120b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1100)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 12를 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(150)는 정사각형 형태인 제1 부호화 단위(1200)를 분할하여 하위 심도의 제2 부호화 단위(1202), 제3 부호화 단위(1204) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1200)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1200)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1202)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1202)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1204)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1204)의 너비 및 높이는 제1 부호화 단위(1200)의 1/2배에 해당한다. 제1 부호화 단위(1200)의 심도가 D인 경우 제1 부호화 단위(1200)의 너비 및 높이의 1/2배인 제2 부호화 단위(1202)의 심도는 D+1일 수 있고, 제1 부호화 단위(1200)의 너비 및 높이의 1/2배인 제3 부호화 단위(1204)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(150)는 비-정사각형 형태인 제1 부호화 단위(1210 또는 1220)를 분할하여 하위 심도의 제2 부호화 단위(1212 또는 1222), 제3 부호화 단위(1214 또는 1224) 등을 결정할 수 있다.
영상 복호화 장치(150)는 Nx2N 크기의 제1 부호화 단위(1210)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1202, 1212, 1222 등)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1210)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1202) 또는 NxN/2 크기의 제2 부호화 단위(1222)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1212)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 2NxN 크기의 제1 부호화 단위(1220) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1202, 1212, 1222 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1220)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1202) 또는 N/2xN 크기의 제2 부호화 단위(1212)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1222)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN 크기의 제2 부호화 단위(1202) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1202)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1224)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 N/2xN 크기의 제2 부호화 단위(1212)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1212)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204) 또는 N/2xN/2 크기의 제3 부호화 단위(1224)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN/2 크기의 제2 부호화 단위(1214)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1212)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204) 또는 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2크기의 제3 부호화 단위(1224)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 부호화 단위(예를 들면, 1200, 1202, 1204)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1200)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1210)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1220)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1200, 1202 또는 1204)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1200, 1202 또는 1204)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1214 또는 1224)의 너비 및 높이는 제1 부호화 단위(1210 또는 1220)의 1/2배에 해당할 수 있다. 제1 부호화 단위(1210 또는 1220)의 심도가 D인 경우 제1 부호화 단위(1210 또는 1220)의 너비 및 높이의 1/2배인 제2 부호화 단위(1212 또는 1214)의 심도는 D+1일 수 있고, 제1 부호화 단위(1210 또는 1220)의 너비 및 높이의 1/2배인 제3 부호화 단위(1214 또는 1224)의 심도는 D+2일 수 있다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1300)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 13을 참조하면, 영상 복호화 장치(150)는 분할 형태 정보에 따라 제1 부호화 단위(1300)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1300)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1300)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1300)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1300)와 비-정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 제1 부호화 단위(1300)를 4개의 정사각형 형태의 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)의 한 변의 길이는 제1 부호화 단위(1300)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)의 심도는 제1 부호화 단위(1300)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1310)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1312a, 1312b, 1314a, 1314b, 1314c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1320)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1322a, 1322b, 1324a, 1324b, 1324c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1310 또는 1320)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1312a, 1312b, 1314a, 1314b, 1316a, 1316b, 1316c, 1316d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1312a, 1312b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1310)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1310)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1310)를 홀수개의 제2 부호화 단위(1314a, 1314b, 1314c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1314a, 1314b, 1314c)는 비-정사각형 형태의 제2 부호화 단위(1314a, 1314c) 및 정사각형 형태의 제2 부호화 단위(1314b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1314a, 1314c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1314b)의 한 변의 길이는 제1 부호화 단위(1310)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1314a, 1314b, 1314c)의 심도는 제1 부호화 단위(1310)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(1310)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1320)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 13을 참조하면, 홀수개로 분할된 부호화 단위들(1314a, 1314b, 1314c) 중 가운데에 위치하는 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1314a, 1314c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1314b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1314c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 13을 참조하면 영상 복호화 장치(150)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1310)를 분할하여 짝수개의 부호화 단위(1312a, 1312b)를 결정하거나 홀수개의 부호화 단위(1314a, 1314b, 1314c)를 결정할 수 있다. 영상 복호화 장치(150)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1310)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(1310)를 3개의 부호화 단위(1314a, 1314b, 1314c)로 분할할 수 있다. 영상 복호화 장치(150)는 3개의 부호화 단위(1314a, 1314b, 1314c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(150)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(150)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1314b)를, 제1 부호화 단위(1310)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 13을 참조하면, 제1 부호화 단위(1310)가 분할되어 생성된 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1314a, 1314c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1314b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1314c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(150)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(150)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 14는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(150)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 14를 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 기준 부호화 단위(1400)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1402)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1400)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 10의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1400)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 11의 현재 부호화 단위(1100 또는 1150)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(160)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(150)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(150)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(150)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 15는 일 실시예에 따라 픽쳐(1500)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(160)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(150)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 픽쳐(1500)에 포함되는 프로세싱 블록(1502, 1512)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(150)는 일 실시예에 따라 프로세싱 블록(1502, 1512)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(150)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 프로세싱 블록의 크기에 기초하여 픽쳐(1500)에 포함되는 각각의 프로세싱 블록(1502, 1512)을 결정할 수 있고, 프로세싱 블록(1502, 1512)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(160)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(150)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(160)는 비트스트림으로부터 프로세싱 블록(1502, 1512)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(150)는 상기 프로세싱 블록(1502, 1512)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1500)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(150)는 각각의 프로세싱 블록(1502, 1512)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1504, 1514)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1502, 1512)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1502)과 관련된 기준 부호화 단위 결정 순서(1504)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1502)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1512)과 관련된 기준 부호화 단위 결정 순서(1514)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1512)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다. 도1 내지 도 15에서는 영상을 최대 부호화 단위로 분할하고, 최대 부호화 단위를 계층적 트리 구조의 부호화 단위들로 분할하는 방법이 설명되었다. 도 16 내지 도 26에서는 다양한 인트라 부호화 툴에 따른 비디오 부호화 및 복호화 방법의 실시 예들이 설명된다.
위치 종속 인트라 예측 필터링은, 샘플의 위치에 적응적으로 결정된 참조 샘플들과 상기 참조 샘플들에 대한 가중치들에 따라, 인트라 예측 모드에 따라 예측된 현재 블록의 샘플의 예측 값 수정을 수행하는 부호화 툴이다. 위치 종속 인트라 예측 필터링에 따라, 현재 블록의 샘플의 예측 값에 현재 블록에 인접한 참조 샘플들이 반영됨으로써, 인트라 예측에 따른 예측 정확도가 향상될 수 있다.
도 16은 다양한 인트라 부호화 툴이 적용되는 비디오 복호화 장치(1600)의 블록도를 도시한다.
도 16을 참조하면, 일 실시예에 따른 비디오 복호화 장치(1600)는 프로세서(1610) 및 메모리(1620)를 포함할 수 있다.
일 실시예에 따른 프로세서(1610)는 비디오 복호화 장치(1600)를 전반적으로 제어할 수 있다. 일 실시예에 따른 프로세서(1610)는 메모리(1620)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다.
일 실시예에 따른 메모리(1620)는 비디오 복호화 장치(1600)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(1620)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(1620)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(1610)에 의해 실행될 수 있다.
비디오 복호화 장치(1600)는, 현재 블록의 인트라 예측 모드에 따라, 현재 블록의 예측된 샘플을 위치 종속 인트라 예측 필터링할 수 있다.
프로세서(1610)에 의하여, 현재 블록의 인트라 예측 모드에 따라 현재 블록이 예측될 수 있다.
프로세서(1610)에 의하여, 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부가 결정될 수 있다.
일 실시 예에 따르면, 프로세서(1610)에 의하여, 현재 블록의 인트라 예측 모드가 소정의 인트라 예측 모드일 때, 현재 블록에 위치 종속 인트라 예측 필터링을 적용하도록 결정될 수 있다. 상기 소정의 인트라 예측 모드는
DC 모드, 플래너 모드, 수직 모드, 수평 모드, 좌하측 방향성 인트라 예측 모드, 우상측 방향성 인트라 예측 모드 등을 포함할 수 있다.
좌하측 방향성 인트라 예측 모드는 현재 샘플로부터 좌하측 방향에 위치한 샘플을 참조하는 인트라 예측 모드이다. 좌하측 방향성 인트라 예측 모드는 좌하측 대각선 모드 및 수평 모드와 좌하측 대각선 모드의 사이에 있는 인트라 예측 모드를 포함할 수 있다. 예를 들어, 수평 모드의 인덱스가 18이고, 좌하측 대각선 모드의 인덱스가 2일 경우, 좌하측 방향성 인트라 예측 모드는 인덱스가 2 내지 17 인 인트라 예측 모드를 포함할 수 있다.
또한 우상측 방향성 인트라 예측 모드는 현재 샘플로부터 우상측 방향에 위치한 샘플을 참조하는 인트라 예측 모드이다. 우상측 방향성 인트라 예측 모드는 우상측 대각선 모드 및 수직 모드와 우상측 대각선 모드의 사이에 있는 인트라 예측 모드를 포함할 수 있다. 예를 들어, 수직 모드의 인덱스가 50이고, 우상측 대각선 모드의 인덱스가 66 경우, 우상측 방향성 인트라 예측 모드는 인덱스가 51 내지 66 인 인트라 예측 모드를 포함할 수 있다. 상기 소정의 인트라 예측 모드는, 통상의 기술자에 의하여 용이하게 변경될 수 있다.
프로세서(1610)에 의하여, 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 현재 블록의 인트라 예측 모드에 따라, 현재 블록의 현재 샘플의 위치 종속 인트라 예측 필터링을 위한 파라미터가 결정된다. 상기 파라미터는 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나를 포함할 수 있다.
위치 종속 인트라 예측 필터링을 위한 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치의 결정 방법은 현재 블록의 인트라 예측 모드에 따라 다를 수 있다
일 실시 예에 따르면, 프로세서(1610)에 의하여, 현재 블록의 인트라 예측 모드가 DC 모드 또는 플래너 모드일 경우, 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치는 다음과 같이 결정될 수 있다. 우선, 상측 참조 샘플은 현재 샘플의 상측 방향에 위치한 참조 샘플에 따라 결정될 수 있다. 그리고 좌측 참조 샘플은 현재 샘플의 좌측 방향에 위치한 참조 샘플로 결정될 수 있다. 상측 가중치는 현재 샘플과 현재 블록의 상측 샘플과의 수직 거리에 따라 결정될 수 있다. 그리고 좌측 가중치는 현재 샘플과 현재 블록의 좌측 샘플과의 수평 거리에 따라 결정될 수 있다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 DC 모드 또는 플래너 모드일 경우, 상측 가중치는, 현재 샘플과 현재 블록의 상측 샘플과의 수직 거리가 증가함에 따라, 감소되도록 설정될 수 있다. 그리고, 좌측 가중치는, 현재 샘플과 현재 블록의 좌측 샘플과의 수평 거리가 증가함에 따라, 감소되도록 설정될 수 있다.
일 실시 예에 따르면, 현재 샘플과 현재 블록의 상측 샘플 간의 수직 거리 증가에 따른, 상측 가중치의 감소량은 현재 블록의 크기에 따라 결정될 수 있다. 예를 들어, 현재 블록의 크기가 클수록, 상기 상측 가중치의 감소량은 작아질 수 있다.
마찬가지로, 현재 샘플과 현재 블록의 좌측 샘플과의 수평 거리 증가에 따른, 좌측 가중치의 감소량은 현재 블록의 크기에 따라 결정될 수 있다. 예를 들어, 현재 블록의 크기가 클수록, 상기 좌측 가중치의 감소량은 작아질 수 있다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 수평 모드일 경우, 현재 샘플의 좌측 참조 샘플 및/또는 좌측 가중치는 0으로 결정되거나, 결정되지 않을 수 있다. 따라서 현재 샘플의 좌측 참조 샘플은 위치 종속 인트라 예측 필터링에 이용되지 않는다.
그리고 현재 샘플의 상측 참조 샘플은 현재 샘플의 상측 방향에 위치한 참조 샘플에 따라 결정될 수 있다. 그리고 상기 상측 참조 샘플의 샘플 값은, 상기 현재 샘플의 예측 값을 합산하고, 상기 현재 블록의 좌상측 인접 샘플의 샘플 값을 제함으로써, 조정된다. 상기 조정된 상측 참조 샘플의 샘플 값이 위치 종속 인트라 예측 필터링에 이용된다.
또한 현재 샘플의 상측 가중치는 현재 샘플과 현재 블록의 상측 샘플과의 수직 거리에 따라 결정될 수 있다. 상측 가중치는, 현재 샘플과 현재 블록의 상측 샘플과의 수직 거리가 증가함에 따라, 감소되도록 설정될 수 있다. 그리고 현재 샘플과 현재 블록의 상측 샘플 간의 수직 거리 증가에 따른, 상측 가중치의 감소량은 현재 블록의 크기에 따라 결정될 수 있다. 예를 들어, 현재 블록의 크기가 클수록, 상기 상측 가중치의 감소량은 작아질 수 있다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 수직 모드일 경우, 현재 샘플의 상측 참조 샘플 및/또는 상측 가중치는 0으로 결정되거나, 결정되지 않을 수 있다. 따라서 현재 샘플의 상측 참조 샘플은 위치 종속 인트라 예측 필터링에 이용되지 않는다.
그리고 현재 샘플의 좌측 참조 샘플은 현재 샘플의 좌측 방향에 위치한 참조 샘플에 따라 결정될 수 있다. 그리고 상기 좌측 참조 샘플의 샘플 값은, 상기 현재 샘플의 예측 값을 합산하고, 상기 현재 블록의 좌상측 인접 샘플의 샘플 값을 제함으로써, 조정된다. 상기 조정된 좌측 참조 샘플의 샘플 값이 위치 종속 인트라 예측 필터링에 이용된다.
또한 현재 샘플의 좌측 가중치는 현재 샘플과 현재 블록의 좌측 샘플과의 수평 거리에 따라 결정될 수 있다. 좌측 가중치는, 현재 샘플과 현재 블록의 좌측 샘플과의 수평 거리가 증가함에 따라, 감소되도록 설정될 수 있다. 그리고 현재 샘플과 현재 블록의 좌측 샘플 간의 수평 거리 증가에 따른, 좌측 가중치의 감소량은 현재 블록의 크기에 따라 결정될 수 있다. 예를 들어, 현재 블록의 크기가 클수록, 상기 좌측 가중치의 감소량은 작아질 수 있다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드일 때, 현재 샘플의 좌측 참조 샘플 및 좌측 가중치는 0으로 결정되거나, 결정되지 않을 수 있다. 그리고 상측 가중치는 현재 샘플과 현재 블록의 상측의 수직 거리에 따라 결정될 수 있다. 현재 샘플의 상측 참조 샘플은 현재 샘플로부터 좌하측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 상측 참조 위치에 따라 결정될 수 있다.
일 실시 예에 따르면, 만약 상측 참조 위치가 정수(integer)일 경우, 상측 참조 위치의 샘플이 상측 참조 샘플로 결정된다. 그러나 만약 상측 참조 위치가 분수(fraction)일 경우, 상측 참조 위치에서 가장 가까운 샘플이 상측 참조 샘플로 결정될 수 있다. 또는 상측 참조 위치의 좌측에 위치한 샘플이 상측 참조 샘플로 결정될 수 있다. 또는 상측 참조 위치의 우측에 위치한 샘플이 상측 참조 샘플로 결정될 수 있다. 또는 상측 참조 위치의 좌측에 위치한 샘플과 우측에 위치한 샘플에 따라 보간된 샘플이 상측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드일 때, 현재 샘플의 상측 참조 샘플 및 상측 가중치는 0으로 결정되거나, 결정되지 않을 수 있다. 그리고 좌측 가중치는 현재 샘플과 현재 블록의 좌측의 수평 거리에 따라 결정될 수 있다. 현재 샘플의 좌측 참조 샘플은 현재 샘플로부터 우상측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 좌측 참조 위치에 따라 결정될 수 있다.
일 실시 예에 따르면, 만약 좌측 참조 위치가 정수(integer)일 경우, 좌측 참조 위치의 샘플이 좌측 참조 샘플로 결정된다. 그러나 만약 좌측 참조 위치가 분수(fraction)일 경우, 좌측 참조 위치에서 가장 가까운 샘플이 좌측 참조 샘플로 결정될 수 있다. 또는 좌측 참조 위치의 상측에 위치한 샘플이 좌측 참조 샘플로 결정될 수 있다. 또는 좌측 참조 위치의 하측에 위치한 샘플이 좌측 참조 샘플로 결정될 수 있다. 또는 좌측 참조 위치의 상측에 위치한 샘플과 하측에 위치한 샘플에 따라 보간된 샘플이 좌측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 현재 블록의 상측과의 거리가 소정의 임계값보다 작은 샘플들에 대하여 위치 종속 인트라 예측 필터링이 적용될 수 있다. 따라서, 현재 블록의 상측과 가까운 샘플들에 대하여 위치 종속 인트라 예측 필터링이 적용될 수 있다. 그리고, 현재 블록의 상측에 대하여 모두 멀리 떨어진 샘플들에 대하여 위치 종속 인트라 예측 필터링이 적용되지 않을 수 있다.
예를 들어, 현재 블록의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드일 때, 상측 가중치는 현재 샘플과 현재 블록의 상측의 거리가 임계 값 이상일 때 0으로 결정될 수 있다. 또한 현재 블록의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드일 때, 좌측 가중치는 현재 샘플과 현재 블록의 좌측면의 거리가 임계 값 이상일 때 0으로 결정될 수 있다. 상기 임계 값은 현재 블록의 크기에 따라 결정될 수 있다.
프로세서(1610)에 의하여, 현재 블록의 현재 샘플에, 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나에 따라, 위치 종속 인트라 예측 필터링이 적용된다. 예를 들어, 현재 샘플, 상측 참조 샘플, 및 좌측 참조 샘플의 가중 평균 값에 따라, 위치 종속 인트라 예측 필터링된 현재 샘플이 결정될 수 있다. 상기 가중 평균 값의 획득에 적용되는 상측 참조 샘플, 및 좌측 참조 샘플의 가중치는 각각 상측 가중치 및 좌측 가중치이거나, 상측 가중치 및 좌측 가중치에 따라 결정될 수 있다. 그리고 현재 샘플의 가중치는 상측 가중치 및 좌측 가중치에 따라 결정된다. 예를 들어, 현재 샘플의 가중치는 소정의 값에 상측 가중치와 좌측 가중치를 뺀 값으로부터 결정될 수 있다. 이 때, 소정의 값은 현재 블록의 크기 또는 미리 정해진 스케일링 또는 쉬프트 값에 따라 결정될 수 있다.
비디오 복호화 장치(1600)는, 인트라 서브 파티션 부호화 모드(intra sub-partition coding mode) 에 따라 현재 루마 블록을 예측할 수 있다.
프로세서(1610)에 의하여, 비트스트림으로부터, 인트라 예측 툴에 따라 예측되는 현재 루마 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보가 획득된다.
프로세서(1610)에 의하여, 분할 정보가 현재 루마 블록이 복수의 파티션으로 분할됨을 나타낼 경우, 비트스트림으로부터 획득된 상기 현재 루마 블록의 분할 모드를 나타내는 분할 모드 정보에 따라, 상기 현재 루마 블록은 복수의 파티션으로 분할된다. 상기 분할 모드 정보는 현재 루마 블록의 분할 방향이 수직 또는 수평 방향인지 나타낼 수 있다. 또한, 상기 분할 모드 정보는 현재 루마 블록으로부터 분할된 복수의 파티션의 개수를 나타낼 수 있다. 상기 분할 모드 정보는 현재 루마 블록의 분할 방향과 파티션의 개수를 모두 나타낼 수 있다.
프로세서(1610)에 의하여, 비트스트림으로부터 획득된 상기 인트라 예측 모드 정보에 따라, 복수의 파티션의 인트라 예측 모드가 결정된다.
일 실시 예에 따르면, 모든 파티션에 대하여 동일하게 인트라 예측 모드 정보가 나타내는 인트라 예측 모드가 적용될 수 있다.
일 실시 예에 따르면, 인트라 예측 모드 정보는 주 방향성 인트라 예측 모드 (main directional intra prediction mode)를 나타낼 수 있다. 복수의 파티션 중 하나의 파티션에 주 방향성 인트라 예측 모드가 적용될 수 있다.
상기 주 방향성 인트라 예측 모드에 인접한 하나 이상의 인접 방향성 인트라 예측 모드 (adjacent directional intra prediction mode)가 추가적으로 결정될 수 있다. 예를 들어, 현재 루마 블록이 2개의 파티션으로 분할될 경우, 1개의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 그리고 주 방향성 인트라 예측 모드가 적용되는 파티션이 아닌 다른 파티션에 인접 방향성 인트라 예측 모드가 할당될 수 있다. 다른 예를 들어, 현재 루마 블록이 4개의 파티션으로 분할될 경우, 3개의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 그리고 주 방향성 인트라 예측 모드가 적용되는 파티션을 제외한 나머지 3개의 파티션에 각각 3개의 인접 방향성 인트라 예측 모드가 할당될 수 있다.
일 실시 예에 따르면, 하나 이상의 인접 방향성 인트라 예측 모드는 주 방향성 인트라 예측 모드와 인덱스 차이가 소정의 값을 가지도록 결정될 수 있다. 인트라 예측 모드의 인덱스는 인트라 예측 모드의 예측 방향에 따라 순차적으로 부여된 식별 번호이다. 예를 들어, 10번 인덱스의 인트라 예측 모드와 11번 인덱스의 인트라 예측 모드의 예측 방향은 서로 인접한다.
만약 하나의 인접 방향성 인트라 예측 모드가 결정될 경우, 상기 인접 방향성 인트라 예측 모드와 주 방향성 인트라 예측 모드의 인덱스 차이가 +1또는 -1인 하나의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 만약 3개의 인접 방향성 인트라 예측 모드가 결정될 경우, 상기 인접 방향성 인트라 예측 모드와 주 방향성 인트라 예측 모드의 인덱스 차이가 +1, +2, +3 또는 -1, -2, -3인 3개의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 상기 인접 방향성 인트라 예측 모드와 주 방향성 인트라 예측 모드의 인덱스 차이는 통상의 기술자에 의하여 용이하게 변경될 수 있다. 따라서 인트라 예측 모드 정보로부터 인덱스가 연속한 복수의 인트라 예측 모드가 도출될 수 있다. 그리고 인트라 예측 모드 정보는 상기 인덱스가 연속한 복수의 인트라 예측 모드 중 소정의 순서의 인트라 예측 모드를 나타내도록 설정될 수 있다.
일 실시 예에 따르면, 주 방향성 인트라 예측 모드와 하나의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 그리고 파티션의 샘플의 예측 값은 주 방향성 인트라 예측 모드에 따른 예측 값과 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중 평균값으로 결정될 수 있다. 상기 가중 평균 값의 결정에 이용되는 가중치는 현재 루마 블록 내에서 파티션의 위치에 따라 결정될 수 있다.
예를 들어, 현재 루마 블록에서 가장 좌측에 있는 파티션에 대하여, 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 크고, 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 작게 설정되고, 현재 루마 블록에서 가장 우측에 있는 파티션에 대하여, 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 작고, 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 크게 설정될 수 있다. 또 다른 예로, 현재 루마 블록에서 가장 상측에 있는 파티션에 대하여, 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 크고, 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 작게 설정되고, 현재 루마 블록에서 가장 하측에 있는 파티션에 대하여, 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 작고, 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치는 크게 설정될 수 있다. 현재 루마 블록의 분할 방향 및 파티션의 개수에 따라. 예측 값의 가중치는 실시 예에 따라 통상의 기술자에 의하여 용이하게 변경될 수 있다.
일 실시 예에 따르면, 인트라 예측 모드 정보가 DC 모드 및 플래너 모드와 같은 비방향성 인트라 예측 모드를 나타낸 경우, 파티션의 인트라 예측 모드는 현재 루마 블록 내 파티션의 위치에 따라, DC 모드 또는 플래너 모드로 결정될 수 있다.
일 실시 예에 따르면, MPM(Most Probable Mode)은 파티션의 형태에 따라 결정될 수 있다. MPM은 현재 루마 블록에 적용될 가능성이 높은 인트라 예측 모드를 나타낸다. 예를 들면, 현재 루마 블록의 파티션들의 너비가 높이보다 클 경우, 수평 방향성을 가진 인트라 예측 모드가 MPM에 우선적으로 할당될 수 있다. 그리고 현재 루마 블록의 파티션들의 높이가 너비보다 클 경우, 수직 방향성을 가진 인트라 예측 모드가 MPM에 우선적으로 할당될 수 있다. 그리고 현재 루마 블록의 파티션들의 높이와 너비가 같은 경우, 플래너 모드와 같은 비 방향성 모드가 MPM에 우선적으로 할당될 수 있다.
일 실시 예에 따르면, 복수의 파티션의 인트라 예측 모드가 모두 동일한지 여부를 나타내는 인트라 예측 모드 동일성 정보가 비트스트림으로부터 획득될 수 있다. 인트라 예측 모드 정보가 복수의 파티션의 인트라 예측 모드가 모두 동일함을 나타내면, 모든 파티션에 대하여 동일하게 인트라 예측 모드 정보가 나타내는 인트라 예측 모드가 적용된다. 반대로, 인트라 예측 모드 정보가 복수의 파티션의 인트라 예측 모드가 모두 동일하지 않음을 나타내면, 인트라 예측 모드 정보로부터 결정된 주 방향성 인트라 예측 모드와 하나 이상의 인접 방향성 인트라 예측 모드가 파티션 각각에 대하여 할당된다. 또는 주 방향성 인트라 예측 모드와 하나의 인접 방향성 인트라 예측 모드가 결정되고, 파티션의 샘플의 예측 값은 주 방향성 인트라 예측 모드에 따른 예측 값과 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중 평균값으로 결정될 수 있다.
일 실시 예에 따르면, 인트라 예측 모드 동일성 정보는 현재 루마 블록에 대하여 획득될 수 있다. 또는 인트라 예측 모드 동일성 정보는 현재 루마 블록의 상위 데이터 단위에 대하여 획득될 수 있다. 예를 들어, 현재 루마 블록을 포함하는 최대 부호화 단위, 슬라이스 세그먼트, 슬라이스, 픽처, 시퀀스, 또는 비디오에 대하여 획득될 수 있다.
프로세서(1610)에 의하여, 복수의 파티션의 인트라 예측 모드에 따라, 복수의 파티션이 예측된다.
일 실시 예에 따르면, 현재 루마 블록이 복수의 파티션으로 분할될 경우, 현재 루마 블록에 대응되는 현재 크로마 블록에 LM(Linear Model) 크로마 모드가 적용되지 않을 수 있다. LM 크로마 모드는 현재 루마 블록의 인접 루마 샘플과 현재 크로마 블록의 인접 크로마 샘플로부터 루마-크로마 선형 모델을 도출하고, 상기 루마-크로마 선형 모델에 따라 현재 루마 블록으로부터 현재 크로마 블록을 예측하는 인트라 예측 툴이다.
일 실시 예에 따르면, 현재 루마 블록이 복수의 파티션으로 분할될 경우, 현재 루마 블록의 분할 방향에 따라, LM 크로마 모드가 참조하는 인접 루마 샘플과 인접 크로마 샘플이 결정될 수 있다. 예를 들어, 현재 루마 블록이 수평 방향으로 분할되는 경우, 인접 루마 샘플은 현재 루마 블록의 좌측에만 위치하도록 설정될 수 있다. 또는 현재 루마 블록이 수직 방향으로 분할되는 경우, 인접 루마 샘플은 현재 루마 블록의 상측에만 위치하도록 설정될 수 있다.
일 실시 예에 따르면, 현재 루마 블록에 대응되는 현재 크로마 블록도 현재 루마 블록의 분할 정보 및 분할 모드 정보 등에 따라 파티션으로 분할될 수 있다. 그리고 현재 크로마 블록에 DM 모드가 적용될 경우, 현재 크로마 블록의 파티션의 인트라 예측 모드는 현재 루마 블록의 파티션의 인트라 예측 모드에 따라 결정될 수 있다. DM 모드는 현재 크로마 블록에 대응되는 현재 루마 블록의 인트라 예측 모드를 나타낸다.
비디오 복호화 장치(1600)는, 블록 분할에 대한 제한 조건에 따라 블록의 분할 여부를 결정할 수 있다.
일 실시 예에 따르면, 현재 루마 블록의 크기가 8x8이고, 현재 루마 블록이 쿼드 분할될 경우, 현재 루마 블록으로부터 분할된 하위 루마 블록들에 대하여 인터 모드가 허용되지 않을 수 있다. 대신 상기 하위 루마 블록들에 대하여 인트라 모드만 적용될 수 잇다. 상기 쿼드 분할이란, 블록을 4개의 크기가 동일한 하위 블록으로 분할하기 위하여, 수직 방향으로 한 번, 수평 방향으로 한 번 분할하는 방법을 의미한다. 상기 조건의 현재 루마 블록의 크기는 8x8보다 크도록 설정될 수 있다.
일 실시 예에 따르면, 현재 루마 블록의 넓이가 64이고, 현재 루마 블록이 분할될 경우, 현재 루마 블록으로부터 분할된 하위 루마 블록들에 대하여 인터 모드가 허용되지 않을 수 있다. 대신 상기 하위 루마 블록들에 대하여 인트라 모드만 적용될 수 있다. 상기 조건의 현재 루마 블록의 넓이는 64보다 크도록 설정될 수 있다.
일 실시 예에 따르면, 현재 루마 블록의 크기가 8x8인 경우, 컬러 포맷이 4:2:0인 영상에서 현재 루마 블록에 대응되는 4x4 크기의 현재 크로마 블록에 대한 분할은 허용되지 않도록 설정될 수 있다. 만약 크기가 8x8인 현재 루마 블록이 쿼드 분할될 경우, 4개의 4x4 크기의 하위 루마 블록들의 인트라 예측 모드로부터 4x4 크기의 크로마 블록의 인트라 예측 모드가 도출될 수 있다. 예를 들어, 4x4 크기의 크로마 블록의 인트라 예측 모드는 4개의 4x4 크기의 하위 루마 블록들의 인트라 예측 모드들 중 하나로 결정될 수 있다. 또는 4x4 크기의 크로마 블록의 인트라 예측 모드는 4개의 4x4 크기의 하위 루마 블록들의 인트라 예측 모드들의 예측 방향들의 평균에 따라 결정될 수 있다.
일 실시 예에 따르면, 만약 현재 슬라이스가 인트라 예측만 허용되는 I 슬라이스인 경우, 모든 4x4 크기의 블록들은 CPR (Current Picture Referencing) 예측 모드에 따라 예측되도록 설정될 수 있다. CPR 예측 모드는 현재 픽처로부터 현재 블록의 참조 블록을 검색하고, 참조 블록에 따라 현재 블록을 예측하는 예측 모드이다. 실시 예에 따라, 4xn 또는 nx4 크기의 블록들도 CPR 예측 모드에 따라 예측되도록 설정될 수 있다 (n은 8이상의 자연수). 통상의 기술자에 의하여 CPR 예측 모드만 적용되는 블록의 크기는 용이하게 변경될 수 있다.
일 실시 예에 따르면, 특정 크기보다 작은 블록들에 소정의 인트라 예측 모드만 허용될 수 있다. 예를 들어, 4x4 크기의 블록에 대하여 DC 모드, 플래너 모드, 수직 모드, 및 수평 모드만이 허용될 수 있다. 또한 실시 예에 따라, 4xn 또는 nx4 크기의 블록들에도 DC 모드, 플래너 모드, 수직 모드, 및 수평 모드만이 허용될 수 있다 (n은 8이상의 자연수). 통상의 기술자에 의하여, DC 모드, 플래너 모드, 수직 모드, 및 수평 모드만 적용되는 블록의 크기는 용이하게 변경될 수 있다.
일 실시 예에 따르면, 통상의 기술자에 의하여, DC 모드, 플래너 모드, 수직 모드, 및 수평 모드 외에 추가적으로 소정의 인트라 예측 모드들이 4x4, 4xn 및 nx4 크기의 블록에 허용될 수 있다. 예를 들어, 상기 소정의 인트라 예측 모드는 블록에 인접한 하나의 샘플만 참조하는 인트라 예측 모드를 포함할 수 있다. 또한 상기 소정의 인트라 예측 모드는 블록에 인접한 두 샘플의 평균 값을 참조하는 인트라 예측 모드를 포함할 수 있다.
일 실시 예에 따르면, 컬러 포맷이 4:2:0인 영상에서, 4x4 크기의 루마 블록에 대하여 인트라 예측 모드의 제한이 없을 수 있다. 대신 4x4 크기의 루마 블록에 대응되는 2x2 크기의 크로마 블록에 대하여 허용되는 인트라 예측 모드가 제한될 수 있다.
비디오 복호화 장치(1600)는, 다중 변환 선택 모드(multiple transform selection mode, MTS mode)에 따라 현재 블록의 레지듀얼 정보를 변환할 수 있다. 다중 변환 선택 모드에 따르면, 2개 이상의 변환 모드가 레지듀얼 정보의 변환에 적용될 수 있다.
일 실시 예에 따르면, 프로세서(1610)에 의하여, 인트라 예측 모드가 적용되는 블록에 대하여, 다중 변환 선택 모드의 적용 여부를 나타내는 다중 변환 선택 모드 정보가 획득될 수 있다. 또한, 프로세서(1610)에 의하여, 인트라 예측 모드가 적용되는 블록에 대하여, 다중 변환 선택 모드의 적용 여부를 나타내는 다중 변환 선택 모드 정보가 획득될 수 있다.
또한 인터 예측 모드가 적용되는 블록에 대하여, 블록의 복수의 파티션들에 대하여 각각 다른 변환 모드가 적용되는지 나타내는 변환 모드 동일성 정보가 획득될 수 있다.
다중 변환 선택 모드 정보에 따라 다중 변환 선택 모드가 현재 블록에 적용되면, 현재 블록에 DCT-7과 DCT-8의 조합이 현재 블록의 변환에 적용될 수 있다. 또는 DCT-7에 따른 변환은 수직 방향으로, DCT-8에 따른 변환은 수평 방향으로 적용될 수 있다. 반대로 DCT-7에 따른 변환은 수평 방향으로, DCT-8에 따른 변환은 수직 방향으로 적용될 수 있다. 그리고 다중 변환 선택 모드 정보에 따라 다중 변환 선택 모드가 현재 블록에 적용되지 않으면 DCT-2만 현재 블록의 변환에 적용될 수 있다. 다중 변환 선택 모드 정보에 따라 다중 변환 선택 모드가 현재 블록에 적용되면, 현재 블록이 너비 혹은 높이의 길이가 4인 비정사각형 블록인 경우, DCT-2와 DCT-7의 조합이 현재 블록의 변환에 적용될 수 있다.
도 17 내지 도 19는 인트라 예측 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다.
도 17은 DC 모드 및 플래너 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다.
현재 블록(1700)의 위치 종속 인트라 예측 필터링을 위하여, 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치는 다음과 같이 결정될 수 있다. 상측 참조 샘플(1720)은 현재 샘플(1710)의 상측 방향에 위치한 참조 샘플에 따라 결정될 수 있다. 그리고 좌측 참조 샘플(1722)은 현재 샘플(1710)의 좌측 방향에 위치한 참조 샘플로 결정될 수 있다. 상측 가중치는 현재 샘플(1710)과 현재 블록(1700)의 상측 샘플(1730)과의 수직 거리에 따라 결정될 수 있다. 그리고 좌측 가중치는 현재 샘플(1710)과 현재 블록(1700)의 좌측 샘플(1732)과의 수평 거리에 따라 결정될 수 있다.
일 실시 예에 따르면, 상측 가중치는, 현재 샘플(1710)과 현재 블록(1700)의 상측 샘플(1730)과의 수직 거리가 증가함에 따라, 감소되도록 설정될 수 있다. 그리고, 좌측 가중치는, 현재 샘플(1710)과 현재 블록(1700)의 좌측 샘플(1732)과의 수평 거리가 증가함에 따라, 감소되도록 설정될 수 있다.
위치 종속 인트라 예측 필터링에 따라, 현재 샘플(1710)은 상측 참조 샘플(1720)과 좌측 참조 샘플(1722)에 따라 조정된다. 예를 들어, 위치 종속 인트라 예측 필터링에 따른 새로운 현재 샘플(1710)의 값은 필터링 전 현재 샘플(1710), 상측 참조 샘플(1720) 및 좌측 참조 샘플(1722)의 가중 평균 값으로 결정된다. 그러므로 상측 참조 샘플(1720) 및 좌측 참조 샘플(1722)에 대한 상측 가중치 및 좌측 가중치가 클수록, 위치 종속 인트라 예측 필터링에 의하여 현재 샘플(1710)의 예측 값의 조정의 정도가 커진다.
그러므로 현재 샘플(1710)이 현재 블록(1700)의 좌측 또는 상측에 가까울수록, 위치 종속 인트라 예측 필터링에 따른 현재 샘플(1710)의 예측 값의 조정의 정도가 커진다. 반대로 현재 샘플(1710)이 현재 블록(1700)의 우측 또는 하측에 가까울수록, 위치 종속 인트라 예측 필터링에 따른 현재 샘플(1710)의 예측 값의 조정의 정도가 작아진다.
즉, 참조 샘플들과 가까운 좌측 또는 상측의 샘플들의 예측 값이 위치 종속 인트라 예측 필터링에 따라 크게 변경될 수 있다. 반대로 참조 샘플들과 먼 우측 또는 하측의 샘플들의 예측 값은 위치 종속 인트라 예측 필터링에 의하여 거의 변경되지 않을 수 있다.
도 18은 좌하측 방향성 인트라 예측 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다. 좌하측 방향성 인트라 예측 모드는 현재 샘플로부터 좌하측 방향에 위치한 현재 블록의 인접 샘플이 참조되는 인트라 예측 모드이다.
현재 블록(1800)의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드일 때, 현재 샘플(1810)의 좌측 참조 샘플 및 좌측 가중치는 0으로 결정될 수 있다. 즉, 위치 종속 인트라 예측 필터링에 있어서, 좌측 참조 샘플은 참조되지 않을 수 있다.
상측 가중치는 현재 샘플(1810)과 현재 블록(1800)의 상측면의 수직 거리에 따라 결정될 수 있다. 현재 샘플(1810)의 상측 참조 샘플은 현재 샘플(1810)로부터 좌하측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 상측 참조 위치(1840)에 따라 결정될 수 있다.
만약 상측 참조 위치(1840)가 정수일 경우, 상측 참조 위치(1840)에 위치한 샘플이 상측 참조 샘플로 결정된다. 그러나 도 18에 의하면, 만약 상측 참조 위치(1840)가 제1 참조 샘플(1830)과 제2 참조 샘플(1832)의 중간에 위치한다. 그러므로 상측 참조 샘플은 제1 참조 샘플(1830) 및 제2 참조 샘플(1832)에 기초하여 결정될 수 있다.
일 실시 예에 따르면, 상측 참조 위치(1840)에서 가장 가까운 샘플이 상측 참조 샘플로 결정될 수 있다. 따라서 상측 참조 위치(1840)에서 가까운 제2 참조 샘플(1832)이 상측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 상측 참조 위치(1840)의 좌측에 위치한 샘플이 상측 참조 샘플로 결정될 수 있다. 따라서 상측 참조 위치(1840)의 좌측의 제1 참조 샘플(1830)이 상측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 상측 참조 위치(1840)의 우측에 위치한 샘플이 상측 참조 샘플로 결정될 수 있다. 따라서 상측 참조 위치(1840)의 우측의 제2 참조 샘플(1832)이 상측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 상측 참조 위치(1840)의 좌측에 위치한 샘플과 우측에 위치한 샘플에 따라 보간된 샘플이 상측 참조 샘플로 결정될 수 있다. 따라서 제1 참조 샘플(1830), 제2 참조 샘플(1832), 및 상측 참조 위치(1840)에 기초하여 보간된 샘플이 상측 참조 샘플로 결정될 수 있다. 구체적으로, 제1 참조 샘플(1830)의 제2 참조 샘플(1832)의 가중 평균 값이 상측 참조 샘플로 결정될 수 있다. 그리고 상기 가중 평균 값의 계산에 필요한 가중치는 상측 참조 위치(1840)에 따라 결정될 수 있다. 상측 참조 위치(1840)가 제1 참조 샘플(1830)에 가까울 경우, 제1 참조 샘플(1830)의 가중치가 제2 참조 샘플(1832)의 가중치보다 크도록 설정된다. 반대로, 상측 참조 위치(1840)가 제2 참조 샘플(1832)에 가까울 경우, 제2 참조 샘플(1832)의 가중치가 제1 참조 샘플(1830)의 가중치보다 크도록 설정된다.
일 실시 예에 따르면, 현재 블록(1800)의 상측과의 거리가 소정의 임계값보다 작은 샘플들에 대하여 위치 종속 인트라 예측 필터링이 적용될 수 있다. 예를 들어, 상기 소정의 임계 값이 3인 경우, 현재 샘플(1810)과 현재 블록(1800)의 상측의 거리가 4일 때, 상측 가중치는 0으로 설정될 수 있다. 따라서, 현재 블록(1800)의 상측에 가까운 샘플들에 대하여만, 위치 종속 인트라 예측 필터링이 적용될 수 있다.
도 19는 우상측 방향성 인트라 예측 모드에 따른 위치 종속 인트라 예측 필터링 방법을 나타낸다. 우상측 방향성 인트라 예측 모드는 현재 샘플로부터 우상측 방향에 위치한 현재 블록의 인접 샘플이 참조되는 인트라 예측 모드이다.
현재 블록(1900)의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드일 때, 현재 샘플(1910)의 상측 참조 샘플 및 상측 가중치는 0으로 결정될 수 있다. 즉, 위치 종속 인트라 예측 필터링에 있어서, 상측 참조 샘플은 참조되지 않는다.
좌측 가중치는 현재 샘플(1910)과 현재 블록(1900)의 좌측면의 수평 거리에 따라 결정될 수 있다. 현재 샘플(1910)의 좌측 참조 샘플은 현재 샘플(1910)로부터 우상측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 좌측 참조 위치(1940)에 따라 결정될 수 있다.
만약 좌측 참조 위치(1940)가 정수일 경우, 좌측 참조 위치(1940)에 위치한 샘플이 좌측 참조 샘플로 결정된다. 그러나 도 19에 의하면, 만약 좌측 참조 위치(1940)가 제3 참조 샘플(1930)과 제4 참조 샘플(1932)의 중간에 위치한다. 그러므로 상측 참조 샘플은 제3 참조 샘플(1930) 및 제4 참조 샘플(1932)에 기초하여 결정될 수 있다.
일 실시 예에 따르면, 좌측 참조 위치(1940)에서 가장 가까운 샘플이 좌측 참조 샘플로 결정될 수 있다. 따라서 좌측 참조 위치(1940)에서 가까운 제4 참조 샘플(1932)이 좌측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 좌측 참조 위치(1940)의 상측에 위치한 샘플이 좌측 참조 샘플로 결정될 수 있다. 따라서 좌측 참조 위치(1940)의 상측의 제3 참조 샘플(1930)이 좌측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 좌측 참조 위치(1940)의 하측에 위치한 샘플이 좌측 참조 샘플로 결정될 수 있다. 따라서 좌측 참조 위치(1940)의 하측의 제4 참조 샘플(1932)이 좌측 참조 샘플로 결정될 수 있다.
일 실시 예에 따르면, 좌측 참조 위치(1940)의 상측에 위치한 샘플과 하측에 위치한 샘플에 따라 보간된 샘플이 좌측 참조 샘플로 결정될 수 있다. 따라서 제3 참조 샘플(1930), 제4 참조 샘플(1932), 및 좌측 참조 위치(1940)에 기초하여 보간된 샘플이 좌측 참조 샘플로 결정될 수 있다. 구체적으로, 제3 참조 샘플(1930)의 제4 참조 샘플(1932)의 가중 평균 값이 좌측 참조 샘플로 결정될 수 있다. 그리고 상기 가중 평균 값의 계산에 필요한 가중치는 좌측 참조 위치(1940)에 따라 결정될 수 있다. 좌측 참조 위치(1940)가 제3 참조 샘플(1930)에 가까울 경우, 제3 참조 샘플(1930)의 가중치가 제4 참조 샘플(1932)의 가중치보다 크도록 설정된다. 반대로, 좌측 참조 위치(1940)가 제4 참조 샘플(1932)에 가까울 경우, 제4 참조 샘플(1932)의 가중치가 제3 참조 샘플(1930)의 가중치보다 크도록 설정된다.
일 실시 예에 따르면, 현재 블록(1900)의 좌측과의 거리가 소정의 임계값보다 작은 샘플들에 대하여 위치 종속 인트라 예측 필터링이 적용될 수 있다. 예를 들어, 상기 소정의 임계 값이 3인 경우, 현재 샘플(1910)과 현재 블록(1900)의 좌측의 거리가 4일 때, 상측 가중치는 0으로 설정될 수 있다. 따라서, 현재 블록(1900)의 좌측에 가까운 샘플들에 대하여만, 위치 종속 인트라 예측 필터링이 적용될 수 있다.
도 20은 인트라 서브 파티션 부호화 모드(intra sub-partition coding mode) 에 따른 현재 루마 블록(2000)의 파티션 분할을 나타낸다.
분할 정보가 현재 루마 블록(2000)이 복수의 파티션으로 분할됨을 나타낼 경우, 현재 루마 블록(2000)은 분할된다. 그리고 분할 모드 정보에 따라, 상기 현재 루마 블록(2000)은 복수의 파티션으로 분할된다. 분할 모드 정보는, 현재 루마 블록(2000)의 분할 방향이 수직 또는 수평 방향인지 나타낼 수 있다. 또한, 분할 모드 정보는 현재 루마 블록(2000)으로부터 분할된 복수의 파티션의 개수를 나타낼 수 있다. 이하, 분할 모드 정보에 따른 현재 루마 블록(2000)의 분할 방법이 설명된다.
예를 들어, 현재 루마 블록(2000)은 수평 방향으로 분할될 수 있다. 도 20에 따르면, 현재 루마 블록(2000)은 높이가 현재 루마 블록(2000)의 1/4인 4개의 파티션(2012,2014,2016,2018)으로 분할된다. 도 20과 달리, 현재 루마 블록(2000)은 높이가 현재 루마 블록(2000)의 1/2인 2개의 파티션으로 분할될 수 있다. 또한 현재 루마 블록(2000)은 높이가 현재 루마 블록(2000)의 1/8인 8개의 파티션으로 분할될 수 있다. 또한 현재 루마 블록(2000)으로부터 분할되는 파티션의 개수는 8개 이상으로 결정될 수 있다.
또한, 현재 루마 블록(2000)은 수직 방향으로 분할될 수 있다. 도 20에 따르면, 현재 루마 블록(2000)은 너비가 현재 루마 블록(2000)의 1/4인 4개의 파티션(2022,2024,2026,2028)으로 분할된다. 도 20과 달리, 현재 루마 블록(2000)은 너비가 현재 루마 블록(2000)의 1/2인 2개의 파티션으로 분할될 수 있다. 또한 현재 루마 블록(2000)은 너비가 현재 루마 블록(2000)의 1/8인 8개의 파티션으로 분할될 수 있다. 또한 현재 루마 블록(2000)으로부터 분할되는 파티션의 개수는 8개 이상으로 결정될 수 있다.
또한, 현재 루마 블록(2000)은 수평 방향 및 수직 방향으로 한 번씩 분할될 수 있다. 도 20에 따르면, 현재 루마 블록(2000)은 너비와 높이가 각각 현재 루마 블록(2000)의 1/2인 4개의 파티션(2032,2034,2036,2038)으로 분할된다.
일 실시 예에 따르면, 현재 루마 블록(2000)의 모든 파티션에 대하여 동일하게 인트라 예측 모드 정보가 나타내는 인트라 예측 모드가 적용될 수 있다.
일 실시 예에 따르면, 인트라 예측 모드 정보는 주 방향성 인트라 예측 모드를 나타낼 수 있다. 그리고 복수의 파티션 중 하나의 파티션에 주 방향성 인트라 예측 모드가 적용될 수 있다. 그리고 주 방향성 인트라 예측 모드로부터 결정된 하나 이상의 인접 방향성 인트라 예측 모드가 나머지 파티션에 적용될 수 있다.
예를 들어, 현재 루마 블록(2000)이 수평 방향으로 분할된 경우, 4개의 파티션(2012,2014,2016,2018) 중 하나에 대하여 주 방향성 인트라 예측 모드가 적용될 수 있다. 그리고 나머지 파티션들에 대하여 주 방향성 인트라 예측 모드에 인접한 하나 이상의 인접 방향성 인트라 예측 모드가 적용될 수 있다.
구체적으로, 주 방향성 인트라 예측 모드가 33번 인덱스의 인트라 예측 모드일 때, 3개의 인접 방향성 인트라 예측 모드들은 각각 32, 34, 35번 인덱스의 인트라 예측 모드로 결정될 수 있다. 그리고 32-35번 인덱스의 인트라 예측 모드들은 4개의 파티션(2012,2014,2016,2018)에 적용될 수 있다. 따라서 32번 인덱스의 인트라 예측 모드는 파티션(2012)에, 33번 인덱스의 인트라 예측 모드는 파티션(2014)에, 34번 인덱스의 인트라 예측 모드는 파티션(2016)에, 35번 인덱스의 인트라 예측 모드는 파티션(2018)에 적용될 수 있다.
다른 실시예에 따르면, 주 방향성 인트라 예측 모드가 33번 인덱스의 인트라 예측 모드일 때, 3개의 인접 방향성 인트라 예측 모드들은 각각 32, 31, 30번 인덱스의 인트라 예측 모드로 결정될 수 있다. 그리고 30-33번 인덱스의 인트라 예측 모드들은 4개의 파티션(2012,2014,2016,2018)에 적용될 수 있다. 따라서 33번 인덱스의 인트라 예측 모드는 파티션(2012)에, 32번 인덱스의 인트라 예측 모드는 파티션(2014)에, 31번 인덱스의 인트라 예측 모드는 파티션(2016)에, 30번 인덱스의 인트라 예측 모드는 파티션(2018)에 적용될 수 있다.
마찬가지로, 현재 루마 블록(2000)이 수직 방향으로 분할된 경우, 4개의 파티션(2022,2024,2026,2028) 중 하나에 대하여 주 방향성 인트라 예측 모드가 적용될 수 있다. 그리고 나머지 파티션들에 대하여 주 방향성 인트라 예측 모드에 인접한 하나 이상의 인접 방향성 인트라 예측 모드가 적용될 수 있다.
구체적으로, 주 방향성 인트라 예측 모드가 33번 인덱스의 인트라 예측 모드일 때, 3개의 인접 방향성 인트라 예측 모드들은 각각 31, 32, 34번 인덱스의 인트라 예측 모드로 결정될 수 있다. 그리고 31-34번 인덱스의 인트라 예측 모드들은 4개의 파티션(2022,2024,2026,2028)에 적용될 수 있다. 따라서 31번 인덱스의 인트라 예측 모드는 파티션(2022)에, 32번 인덱스의 인트라 예측 모드는 파티션(2024)에, 33번 인덱스의 인트라 예측 모드는 파티션(2026)에, 34번 인덱스의 인트라 예측 모드는 파티션(2028)에 적용될 수 있다.
다른 실시예에 따르면, 주 방향성 인트라 예측 모드가 33번 인덱스의 인트라 예측 모드일 때, 3개의 인접 방향성 인트라 예측 모드들은 각각 34, 35, 36번 인덱스의 인트라 예측 모드로 결정될 수 있다. 그리고 33-36번 인덱스의 인트라 예측 모드들은 4개의 파티션(2022,2024,2026,2028)에 적용될 수 있다. 따라서 33번 인덱스의 인트라 예측 모드는 파티션(2022)에, 34번 인덱스의 인트라 예측 모드는 파티션(2024)에, 35번 인덱스의 인트라 예측 모드는 파티션(2026)에, 36번 인덱스의 인트라 예측 모드는 파티션(2028)에 적용될 수 있다.
또한 마찬가지로, 현재 루마 블록(2000)이 수평 방향 및 수직 방향으로 한 번씩 분할된 경우, 4개의 파티션(2032,2034,2036,2038) 중 하나에 대하여 주 방향성 인트라 예측 모드가 적용될 수 있다. 그리고 나머지 파티션들에 대하여 주 방향성 인트라 예측 모드에 인접한 하나 이상의 인접 방향성 인트라 예측 모드가 적용될 수 있다.
구체적으로, 주 방향성 인트라 예측 모드가 40번 인덱스의 인트라 예측 모드일 때, 3개의 인접 방향성 인트라 예측 모드들은 각각 41, 42, 43번 인덱스의 인트라 예측 모드로 결정될 수 있다. 그리고 40-43번 인덱스의 인트라 예측 모드들은 4개의 파티션(2032,2034,2036,2038)에 적용될 수 있다. 따라서 40번 인덱스의 인트라 예측 모드는 파티션(2032)에, 41번 인덱스의 인트라 예측 모드는 파티션(2034)에, 42번 인덱스의 인트라 예측 모드는 파티션(2036)에, 33번 인덱스의 인트라 예측 모드는 파티션(2038)에 적용될 수 있다. 또는 앞선 예시를 변형하여, 41번 인덱스의 인트라 예측 모드는 파티션(2036)에, 42번 인덱스의 인트라 예측 모드는 파티션(2034)에 적용될 수 있다.
상기 예는 예시에 불과하며, 다양한 방법으로 인트라 예측 모드 정보로부터 복수의 파티션들에 대한 연속한 인덱스의 인트라 예측 모드들이 결정될 수 있다. 주 방향성 인트라 예측 모드로부터 인접 방향성 인트라 예측 모드를 결정하는 방법은 통상의 기술자에게 있어서 용이하게 변경될 수 있다. 그리고 연속한 인트라 예측 모드들은 복수의 파티션들에 공간적 위치에 따라 순서대로 적용될 수 있다.
일 실시 예에 따르면, 인트라 예측 모드 정보로부터 주 방향성 인트라 예측 모드와 하나의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 그리고 파티션의 샘플의 예측 값은 주 방향성 인트라 예측 모드에 따른 예측 값과 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중 평균값으로 결정될 수 있다. 가중 평균 값의 결정에 이용되는 가중치는 현재 루마 블록 내에서 파티션의 위치에 따라 결정될 수 있다.
예를 들어, 현재 루마 블록(2000)이 수평 방향으로 분할된 경우, 4개의 파티션(2012,2014,2016,2018) 각각에 대하여 주 방향성 인트라 예측 모드에 따른 예측과 인접 방향성 인트라 예측 모드에 따른 예측이 모두 수행될 수 있다. 그리고 각 파티션들마다 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치가 다르게 설정된다. 예를 들어, 파티션 (2012)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 1:0으로 설정될 수 있다. 그리고 파티션 (2014)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 3/4:1/4으로 설정될 수 있다. 그리고 파티션 (2016)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 1/2:1/2로 설정될 수 있다. 그리고 파티션 (2018)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 1/4:3/4로 설정될 수 있다. 그리고 파티션 별 가중치에 따라 각 파티션이 예측된다.
또 다른 예로, 현재 루마 블록(2000)이 수직 방향으로 분할된 경우, 4개의 파티션(2022,2024,2026,2028) 각각에 대하여 주 방향성 인트라 예측 모드에 따른 예측과 인접 방향성 인트라 예측 모드에 따른 예측이 모두 수행될 수 있다. 그리고 각 파티션들마다 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치가 다르게 설정된다. 예를 들어, 파티션 (2022)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 1:0으로 설정될 수 있다. 그리고 파티션 (2024)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 3/4:1/4으로 설정될 수 있다. 그리고 파티션 (2026)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 1/2:1/2로 설정될 수 있다. 그리고 파티션 (2028)에 대하여 주 방향성 인트라 예측 모드에 따른 예측 값의 가중치와 인접 방향성 인트라 예측 모드에 따른 예측 값의 가중치의 비가 1/4:3/4로 설정될 수 있다. 그리고 파티션 별 가중치에 따라 각 파티션이 예측된다.
상기 예는 예시에 불과하며, 파티션에 적용되는 가중치의 비는 통상의 기술자에 의하여 용이하게 변경될 수 있다. 그리고 파티션에 적용되는 가중치의 비는 복수의 파티션들에 공간적 위치에 따라 결정되도록 설정될 수 있다.
일 실시 예에 따르면, MPM은 파티션의 형태에 따라 결정될 수 있다.
예를 들어, 현재 루마 블록(2000)이 수평 방향으로 분할된 경우, 파티션의 너비가 높이보다 클 수 있다. 따라서, 수평 방향성을 가진 인트라 예측 모드가 현재 루마 블록(2000)의 MPM에 우선적으로 할당될 수 있다. 또한 현재 루마 블록(2000)이 수직 방향으로 분할된 경우, 파티션의 높이가 너비보다 클 수 있다. 따라서, 수직 방향성을 가진 인트라 예측 모드가 현재 루마 블록(2000)의 MPM에 우선적으로 할당될 수 있다.
도 21은 현재 루마 블록(2110)의 파티션들(2102, 2104, 2106, 2108)의 인트라 예측 모드로부터 현재 크로마 블록(2120)의 인트라 예측 모드를 결정하는 방법의 실시 예를 설명한다. 도 21은 4:2:0 컬러 포맷의 이미지를 나타낸다. 도 21의 사각형은 루마 샘플을 나타내고, 원은 크로마 샘플을 나타낸다.
일 실시 예에 따르면, 현재 루마 블록(2110)의 크기가 소정의 크기보다 작을 때, 현재 루마 블록(2110)이 복수의 파티션들(2102, 2104, 2106, 2108)로 분할될 경우에도 현재 크로마 블록(2120)은 현재 루마 블록(2110)과 달리 분할되지 않을 수 있다. 이 경우, 현재 크로마 블록(2120)의 인트라 예측 모드를 현재 루마 블록(2110)의 복수의 파티션들(2102, 2104, 2106, 2108)으로부터 도출하는 다양한 실시 예가 제공된다.
일 실시 예에 따르면, 현재 루마 블록(2110)이 복수의 파티션들(2102, 2104, 2106, 2108)로 분할될 경우, 현재 루마 블록(2110)에 대응되는 현재 크로마 블록(2120)에 LM크로마 모드가 적용되지 않을 수 있다.
일 실시 예에 따르면, 현재 크로마 블록(2120)에 DM 모드가 적용될 경우, 현재 크로마 블록(2110) 의 인트라 예측 모드는 현재 루마 블록(2110)의 파티션들(2102, 2104, 2106, 2108)의 인트라 예측 모드에 따라 결정될 수 있다. 예를 들어, 현재 크로마 블록(2110) 의 인트라 예측 모드는 파티션들(2102, 2104, 2106, 2108) 중 하나의 인트라 예측 모드로 결정될 수 있다. 또는 현재 크로마 블록(2110)의 인트라 예측 모드는 파티션들(2102, 2104, 2106, 2108) 중 2개 이상의 파티션의 인트라 예측 모드에 따라 결정될 수 있다. 예를 들어, 현재 크로마 블록(2110)의 인트라 예측 모드는 파티션들(2102, 2104, 2106, 2108)의 4개의 인트라 예측 모드들의 4개의 예측 방향의 평균 방향에 따라 결정될 수 있다.
도 22은 위치 종속 인트라 예측 필터링이 적용되는 비디오 복호화 방법(2200)의 일 실시 예에 따른 순서도이다.
단계 2202에서, 현재 블록의 인트라 예측 모드에 따라, 현재 블록이 예측된다.
단계 2204에서, 현재 블록의 인트라 예측 모드에 따라, 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부가 결정된다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 소정의 인트라 예측 모드일 때, 현재 블록에 위치 종속 인트라 예측 필터링을 적용하도록 결정될 수 있다. 상기 소정의 인트라 예측 모드는 DC 모드, 플래너 모드, 수직 모드, 수평 모드, 좌하측 대각선 모드, 우상측 대각선 모드 등을 포함할 수 있다.
단계 2206에서, 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 현재 블록의 인트라 예측 모드에 따라, 현재 블록의 현재 샘플의 위치 종속 인트라 예측 필터링을 위한 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나가 결정된다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드일 때, 현재 샘플의 좌측 참조 샘플 및 좌측 가중치는 결정되지 않고, 현재 샘플의 상측 참조 샘플은 현재 샘플로부터 좌하측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 상측 참조 위치에 따라 결정된다. 예를 들어, 상측 참조 위치에서 가장 가까운 샘플이 상측 참조 샘플로 결정될 수 있다. 또한 상측 가중치는 현재 샘플과 현재 블록의 상측면의 거리에 따라 결정될 수 있다. 상측 가중치는 현재 샘플과 현재 블록의 상측면의 거리가 소정의 임계 값 이상일 때 0으로 결정될 수 있다.
일 실시 예에 따르면, 현재 블록의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드일 때, 현재 샘플의 상측 참조 샘플 및 상측 가중치는 결정되지 않고, 현재 샘플의 좌측 참조 샘플은 현재 샘플로부터 우상측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 좌측 참조 위치에 따라 결정될 수 있다. 예를 들어, 좌측 참조 위치에서 가장 가까운 샘플이 좌측 참조 샘플로 결정될 수 있다. 또한 좌측 가중치는 상기 현재 샘플과 상기 현재 블록의 좌측면의 거리에 따라 결정될 수 있다. 좌측 가중치는 현재 샘플과 현재 블록의 좌측면의 거리가 소정의 임계 값 이상일 때 0으로 결정될 수 있다.
일 실시 예에 따르면, 상측 가중치 및 좌측 가중치에 대한 소정의 임계 값은 현재 블록의 크기에 따라 결정될 수 있다.
단계 2208에서, 현재 블록의 현재 샘플에, 상측 참조 샘플, 좌측 참조 샘플, 상측 가중치, 및 좌측 가중치 중 적어도 하나에 따라, 위치 종속 인트라 예측 필터링이 적용된다.
일 실시 예에 따르면, 현재 샘플, 상측 참조 샘플, 및 좌측 참조 샘플의 가중 평균 값에 따라, 위치 종속 인트라 예측 필터링된 현재 샘플이 결정될 수 있다. 그리고 가중 평균 값의 획득에 적용되는 상측 참조 샘플, 및 좌측 참조 샘플의 가중치는 각각 상측 가중치 및 좌측 가중치에 따라 결정되고, 현재 샘플의 가중치는 상측 가중치 및 좌측 가중치에 따라 결정될 수 있다.
도 16에서 설명된 위치 종속 인트라 예측 필터링이 적용되는 비디오 복호화 장치(1600)의 기능이 비디오 복호화 방법(2200)에 적용될 수 있다. 그리고 비디오 복호화 방법(2200)의 각 단계는 비디오 복호화 장치(1600)의 프로세서(1602)에 의하여 수행될 수 있다.
도 23는 인트라 서브 파티션 부호화 모드가 적용되는 비디오 복호화 방법(2300)의 일 실시 예에 따른 순서도이다.
단계 2302에서, 비트스트림으로부터, 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보가 획득된다.
단계 2304에서, 분할 정보가 현재 블록이 복수의 파티션으로 분할됨을 나타낼 경우, 비트스트림으로부터 획득된 현재 블록의 분할 모드를 나타내는 분할 모드 정보에 따라, 현재 블록은 복수의 파티션으로 분할된다. 분할 모드 정보는, 현재 블록의 분할 방향이 수직 또는 수평 방향인지 나타낼 수 있다. 또한 분할 모드 정보는, 복수의 파티션의 개수를 나타낼 수 있다.
단계 2306에서, 비트스트림으로부터 획득된 인트라 예측 모드 정보에 따라, 복수의 파티션의 인트라 예측 모드가 결정된다.
일 실시 예에 따르면, 인트라 예측 모드 정보가 나타내는 주 방향성 인트라 예측 모드와 함께, 상기 주 방향성 인트라 예측 모드에 인접한 하나 이상의 인접 방향성 인트라 예측 모드가 결정될 수 있다. 그리고 복수의 파티션 중 하나의 파티션의 인트라 예측 모드가 주 방향성 인트라 예측 모드로 결정되고, 다른 하나 이상의 파티션의 인트라 예측 모드가 하나 이상의 인접 방향성 인트라 예측 모드로 결정될 수 있다.
단계 2308에서, 복수의 파티션의 인트라 예측 모드에 따라, 복수의 파티션이 예측된다.
도 16에서 설명된 인트라 서브 파티션 부호화 모드가 적용되는 비디오 복호화 장치(1600)의 기능이 비디오 복호화 방법(2300)에 적용될 수 있다. 그리고 비디오 복호화 방법(2300)의 각 단계는 비디오 복호화 장치(1600)의 프로세서(1602)에 의하여 수행될 수 있다.
도 24은 다양한 인트라 부호화 툴이 적용되는 비디오 부호화 장치(2400)의 블록도를 도시한다.
도 24를 참조하면, 일 실시예에 따른 비디오 부호화 장치(2400)는 프로세서(2410) 및 메모리(2420)를 포함할 수 있다.
일 실시예에 따른 프로세서(2410)는 비디오 부호화 장치(2400)를 전반적으로 제어할 수 있다. 일 실시예에 따른 프로세서(2410)는 메모리(2420)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다.
일 실시예에 따른 메모리(2420)는 비디오 부호화 장치(2400)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(2420)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(2420)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(2410)에 의해 실행될 수 있다.
프로세서(2410)에 의하여, 인트라 예측된 블록에 대한 위치 종속 인트라 예측 필터링이 수행될 수 있다.
우선, 프로세서(2410)에 의하여, 복수의 인트라 예측 모드 각각에 따라 현재 블록이 예측된다. 그리고 프로세서(2410)에 의하여, 복수의 인트라 예측 모드 각각에 따라 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부가 결정된다. 예를 들어, 좌하측 방향성 인트라 예측 모드, 우상측 방향성 인트라 예측 모드, DC 모드, 플래너 모드에 대한 현재 블록의 예측 블록에 대하여, 위치 종속 인트라 예측 필터링이 적용될 수 있다.
프로세서(2410)에 의하여, 위치 종속 인트라 예측 필터링이 적용되는 인트라 예측 모드에 대하여, 현재 블록에 위치 종속 인트라 예측 필터링이 적용된다. 따라서 좌하측 방향성 인트라 예측 모드, 우상측 방향성 인트라 예측 모드, DC 모드 및 플래너 모드에 따른 예측 블록들 각각에 대하여 위치 종속 인트라 예측 필터링이 적용될 수 있다.
프로세서(2410)에 의하여, 위치 종속 인트라 예측 필터링이 적용된, 각 인트라 예측 모드에 따른 예측 결과에 따라, 현재 블록의 인트라 예측 모드가 결정된다. 예를 들어, 위치 종속 인트라 예측 필터링이 적용된 좌하측 방향성 인트라 예측 모드의 예측 결과에 따라, 좌하측 방향성 인트라 예측 모드의 예측 정확도가 계산된다. 마찬가지로, 우상측 방향성 인트라 예측 모드, DC 모드 및 플래너 모드에 대하여도, 위치 종속 인트라 예측 필터링이 적용된 예측 블록들에 따라 우상측 방향성 인트라 예측 모드, DC 모드 및 플래너 모드의 예측 정확도가 계산된다. 나머지 인트라 예측 모드의 예측 정확도는 위치 종속 인트라 예측 필터링이 적용되지 않은 예측 블록들에 따라 예측 정확도가 계산된다. 그리고 예측 정확도가 가장 높은 인트라 예측 모드가 현재 블록의 인트라 예측 모드로 결정될 수 있다.
프로세서(2410)에 의하여, 인트라 서브 파티션 부호화 모드에 따라, 인트라 예측 모드가 적용되는 현재 블록에 대한 파티셔닝이 수행될 수 있다.
프로세서(2410)에 의하여, 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부가 결정된다. 그리고 프로세서(2410)에 의하여, 현재 블록이 복수의 파티션으로 분할될 경우, 현재 블록의 분할 모드가 결정된다. 현재 블록의 분할 여부는, 분할이 수행되지 않을 경우의 부호화 효율과 분할이 수행될 경우의 부호화 효율의 비교 결과에 따라 결정된다. 그리고 현재 블록의 분할 모드는, 복수의 분할 모드들의 현재 블록에 대한 부호화 효율에 따라 결정된다.
프로세서(2410)에 의하여, 분할 모드에 따라, 현재 블록이 복수의 파티션으로 분할된다. 그리고 프로세서(2410)에 의하여, 복수의 파티션의 인트라 예측 모드가 결정된다. 복수의 파티션에 대한 예측 정확도가 가장 높은 인트라 예측 모드가 현재 블록의 인트라 예측 모드로 설정된다.
프로세서(2410)에 의하여, 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보, 현재 블록의 분할 모드를 나타내는 분할 모드 정보, 및 복수의 파티션의 인트라 예측 모드를 나타내는 인트라 예측 모드 정보를 포함하는 비트스트림이 출력된다.
도 24의 비디오 부호화 장치(2400)의 위치 종속 인트라 예측 필터링 모드 및 인트라 서브 파티션 부호화 모드는 도 16의 비디오 복호화 장치(1600)의 위치 종속 인트라 예측 필터링 모드 및 인트라 서브 파티션 부호화 모드와 동일하게 설정될 수 있다. 따라서, 도 24의 위치 종속 인트라 예측 필터링 모드 및 인트라 서브 파티션 부호화 모드는 도 16의 위치 종속 인트라 예측 필터링 모드 및 인트라 서브 파티션 부호화 모드의 특징을 가질 수 있다. 또한 도 24의 비디오 부호화 장치(2400)는 도 16의 비디오 복호화 장치(1600)에서 수행되는 복호화단의 기능에 대응되는 부호화단의 기능을 수행할 수 있다.
도 25은 위치 종속 인트라 예측 필터링이 적용되는 비디오 부호화 방법(2500)의 일 실시 예에 따른 순서도이다.
단계 2502에서, 복수의 인트라 예측 모드 각각에 따라, 현재 블록이 예측된다.
단계 2504에서, 복수의 인트라 예측 모드 각각에 따라, 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부가 결정된다.
단계 2506에서, 위치 종속 인트라 예측 필터링이 적용되는 인트라 예측 모드에 대하여, 현재 블록에 위치 종속 인트라 예측 필터링이 적용된다.
단계 2508에서, 위치 종속 인트라 예측 필터링이 적용된, 각 인트라 예측 모드에 따른 예측 결과에 따라, 현재 블록의 인트라 예측 모드가 결정된다.
도 25에서 설명된 위치 종속 인트라 예측 필터링 모드에 따른 비디오 부호화 장치(2400)의 기능이 위치 종속 인트라 예측 필터링 모드에 따른 비디오 부호화 방법(2500)에 적용될 수 있다. 그리고 비디오 부호화 방법(2500)의 각 단계는 비디오 부호화 장치(2400)의 프로세서(2402)에 의하여 수행될 수 있다.
도 26는 인트라 서브 파티션 부호화 모드가 적용되는 비디오 부호화 방법(2600)의 일 실시 예에 따른 순서도이다.
단계 2602에서, 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부가 결정된다.
단계 2604에서, 현재 블록이 복수의 파티션으로 분할될 경우, 현재 블록의 분할 모드가 결정된다.
단계 2606에서, 분할 모드에 따라, 현재 블록이 복수의 파티션으로 분할된다.
단계 2608에서, 복수의 파티션의 인트라 예측 모드가 결정된다.
단계 2610에서, 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보, 현재 블록의 분할 모드를 나타내는 분할 모드 정보, 및 복수의 파티션의 인트라 예측 모드를 나타내는 인트라 예측 모드 정보를 포함하는 비트스트림이 출력된다.
도 26에서 설명된 인트라 서브 파티션 부호화 모드에 따른 비디오 부호화 장치(2400)의 기능이 인트라 서브 파티션 부호화 모드에 따른 비디오 부호화 방법(2600)에 적용될 수 있다. 그리고 비디오 부호화 방법(2600)의 각 단계는 비디오 부호화 장치(2400)의 프로세서(2402)에 의하여 수행될 수 있다.
도 1 내지 26을 참조하여 전술된 비디오 부호화 기법에 따라, 트리 구조의 부호화 단위들마다 공간영역의 영상 데이터가 부호화되며, 트리 구조의 부호화 단위들에 기초한 비디오 복호화 기법에 따라 최대 부호화 단위마다 복호화가 수행되면서 공간 영역의 영상 데이터가 복원되어, 픽처 및 픽처 시퀀스인 비디오가 복원될 수 있다. 복원된 비디오는 재생 장치에 의해 재생되거나, 저장 매체에 저장되거나, 네트워크를 통해 전송될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
본 발명은 특정한 최상의 실시 예와 관련하여 설명되었지만, 이외에 본 발명에 대체, 변형 및 수정이 적용된 발명들은 전술한 설명에 비추어 당업자에게 명백할 것이다. 즉, 청구범위는 이러한 모든 대체, 변형 및 수정된 발명을 포함하도록 해석한다. 그러므로 이 명세서 및 도면에서 설명한 모든 내용은 예시적이고 비제한적인 의미로 해석해야 한다.

Claims (13)

  1. 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록을 예측하는 단계;
    상기 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계;
    상기 현재 블록의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드이고, 상기 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 현재 샘플로부터 상기 좌하측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 상측 참조 위치에서 가장 가까운 샘플에 따라 상기 현재 샘플의 상측 참조 샘플을 결정하고, 상기 현재 샘플과 상기 현재 블록의 상측면의 거리에 따라 상측 가중치를 결정하고, 상기 상측 참조 샘플, 및 상기 상측 가중치에 따라 상기 현재 블록의 현재 샘플에 위치 종속 인트라 예측 필터링을 적용하는 단계; 및
    상기 현재 블록의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드이고, 상기 현재 블록에 위치 종속 인트라 예측 필터링이 적용될 때, 상기 현재 샘플로부터 상기 우상측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 좌측 참조 위치에서 가장 가까운 샘플에 따라 상기 현재 샘플의 좌측 참조 샘플을 결정하고, 상기 현재 샘플과 상기 현재 블록의 좌측면의 거리에 따라 좌측 가중치를 결정하고, 상기 좌측 참조 샘플, 및 상기 좌측 가중치에 따라 상기 현재 블록의 현재 샘플에 위치 종속 인트라 예측 필터링을 적용하는 단계를 포함하는 비디오 복호화 방법.
  2. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계는,
    상기 현재 블록의 인트라 예측 모드가 소정의 인트라 예측 모드일 때, 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용하도록 결정하는 것을 특징으로 하고,
    상기 소정의 인트라 예측 모드는 DC 모드, 플래너 모드, 수직 모드, 수평 모드, 좌하측 대각선 모드, 우상측 대각선 모드, 수평 모드와 좌하측 대각선 모드의 사이에 있는 인트라 예측 모드, 수직 모드와 우상측 대각선 모드의 사이에 있는 인트라 예측 모드를 포함하는 비디오 복호화 방법.
  3. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드일 때, 상기 상측 가중치는 상기 현재 샘플과 상기 현재 블록의 상측면의 거리가 임계 값 이상일 때 0으로 결정되고,
    상기 현재 블록의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드일 때, 상기 좌측 가중치는 상기 현재 샘플과 상기 현재 블록의 좌측면의 거리가 상기 임계 값 이상일 때 0으로 결정되며,
    상기 임계 값은 상기 현재 블록의 크기에 따라 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제1항에 있어서,
    상기 현재 블록의 현재 샘플에, 상기 상측 참조 샘플, 상기 좌측 참조 샘플, 상기 상측 가중치, 및 상기 좌측 가중치 중 적어도 하나에 따라, 위치 종속 인트라 예측 필터링을 적용하는 단계는,
    상기 현재 샘플, 상기 상측 참조 샘플, 및 상기 좌측 참조 샘플의 가중 평균 값에 따라, 위치 종속 인트라 예측 필터링된 현재 샘플을 결정하는 것을 특징으로 하고,
    상기 가중 평균 값의 획득에 적용되는 상기 상측 참조 샘플, 및 상기 좌측 참조 샘플의 가중치는 각각 상기 상측 가중치 및 상기 좌측 가중치에 따라 결정되고, 상기 현재 샘플의 가중치는 상기 상측 가중치 및 상기 좌측 가중치에 따라 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  5. 제1항의 비디오 복호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하는 비디오 복호화 장치.
  6. 비트스트림으로부터, 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보를 획득하는 단계;
    상기 분할 정보가 현재 블록이 복수의 파티션으로 분할됨을 나타낼 경우, 상기 비트스트림으로부터 획득된 상기 현재 블록의 분할 모드를 나타내는 분할 모드 정보에 따라, 상기 현재 블록을 복수의 파티션으로 분할하는 단계;
    상기 비트스트림으로부터 획득된 인트라 예측 모드 정보에 따라, 상기 복수의 파티션의 인트라 예측 모드를 결정하는 단계; 및
    상기 복수의 파티션의 인트라 예측 모드에 따라, 상기 복수의 파티션을 예측하는 단계를 포함하는 비디오 복호화 방법.
  7. 제6항에 있어서,
    상기 분할 모드 정보는,
    상기 현재 블록의 분할 방향이 수직 또는 수평 방향인지 나타내고, 상기 복수의 파티션의 개수를 나타내는 것을 특징으로 하는 비디오 복호화 방법.
  8. 제6항에 있어서,
    복수의 파티션의 인트라 예측 모드를 결정하는 단계는,
    상기 인트라 예측 모드 정보가 나타내는 주 방향성 인트라 예측 모드 (main directional intra prediction mode)와 함께, 상기 주 방향성 인트라 예측 모드에 인접한 하나 이상의 인접 방향성 인트라 예측 모드 (adjacent directional intra prediction mode)를 결정하는 단계; 및
    상기 복수의 파티션 중 하나의 파티션의 인트라 예측 모드를 상기 주 방향성 인트라 예측 모드로 결정하고, 다른 하나 이상의 파티션의 인트라 예측 모드를 하나 이상의 인접 방향성 인트라 예측 모드로 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  9. 제6항의 비디오 복호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하는 비디오 복호화 장치.
  10. 복수의 인트라 예측 모드 각각에 따라 현재 블록을 예측하는 단계;
    상기 복수의 인트라 예측 모드 각각에 따라 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용할지 여부를 결정하는 단계;
    상기 위치 종속 인트라 예측 필터링이 적용되는 인트라 예측 모드에 대하여, 상기 현재 블록에 위치 종속 인트라 예측 필터링을 적용하는 단계;
    상기 위치 종속 인트라 예측 필터링이 적용된, 각 인트라 예측 모드에 따른 예측 결과에 따라, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계를 포함하고,
    상기 현재 블록의 인트라 예측 모드가 좌하측 방향성 인트라 예측 모드일 때, 현재 샘플로부터 상기 좌하측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 상측 참조 위치에서 가장 가까운 샘플에 따라 상기 현재 샘플의 상측 참조 샘플이 결정되고, 상기 현재 샘플과 상기 현재 블록의 상측면의 거리에 따라 상측 가중치가 결정되고, 상기 상측 참조 샘플, 및 상기 상측 가중치에 따라 상기 현재 블록의 현재 샘플에 위치 종속 인트라 예측 필터링이 적용되고,
    상기 현재 블록의 인트라 예측 모드가 우상측 방향성 인트라 예측 모드일 때, 상기 현재 샘플로부터 상기 우상측 방향성 인트라 예측 모드의 예측 방향의 반대 방향의 좌측 참조 위치에서 가장 가까운 샘플에 따라 상기 현재 샘플의 좌측 참조 샘플이 결정되고, 상기 현재 샘플과 상기 현재 블록의 좌측면의 거리에 따라 좌측 가중치가 결정되고, 상기 좌측 참조 샘플, 및 상기 좌측 가중치에 따라 상기 현재 블록의 현재 샘플에 위치 종속 인트라 예측 필터링이 적용되는 것을 특징으로 하는 비디오 부호화 방법.
  11. 제10항의 비디오 부호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하는 비디오 부호화 장치.
  12. 인트라 예측 툴에 따라 예측되는 현재 블록이 복수의 파티션으로 분할되는지 여부가 결정하는 단계;
    상기 현재 블록이 복수의 파티션으로 분할될 경우, 상기 현재 블록의 분할 모드를 결정하는 단계;
    상기 분할 모드에 따라, 상기 현재 블록을 복수의 파티션으로 분할하는 단계;
    상기 복수의 파티션의 인트라 예측 모드를 결정하는 단계; 및
    상기 현재 블록이 복수의 파티션으로 분할되는지 여부를 나타내는 분할 정보, 상기 현재 블록의 분할 모드를 나타내는 분할 모드 정보, 및 상기 복수의 파티션의 인트라 예측 모드를 나타내는 인트라 예측 모드 정보를 포함하는 비트스트림을 출력하는 단계를 포함하는 비디오 부호화 방법.
  13. 제12항의 비디오 부호화 방법을 구현하기 위한 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하는 비디오 부호화 장치.
PCT/KR2020/000693 2019-01-14 2020-01-14 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 WO2020149620A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20742059.7A EP3913915A4 (en) 2019-01-14 2020-01-14 CODING METHOD AND DEVICE ASSOCIATED, AND DECODED METHOD AND DEVICE ASSOCIATED
CN202080021223.XA CN113574872A (zh) 2019-01-14 2020-01-14 编码方法及其装置以及解码方法及其装置
KR1020217021687A KR20210097803A (ko) 2019-01-14 2020-01-14 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
BR112021013709-2A BR112021013709A2 (pt) 2019-01-14 2020-01-14 Método de decodificação de vídeo, aparelho de decodificação de vídeo, método de codificação de vídeo, e aparelho de codificação de vídeo
US17/375,769 US11962800B2 (en) 2019-01-14 2021-07-14 Encoding method and device thereof, and decoding method and device thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962792288P 2019-01-14 2019-01-14
US62/792,288 2019-01-14
US201962811665P 2019-02-28 2019-02-28
US62/811,665 2019-02-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/375,769 Continuation US11962800B2 (en) 2019-01-14 2021-07-14 Encoding method and device thereof, and decoding method and device thereof

Publications (1)

Publication Number Publication Date
WO2020149620A1 true WO2020149620A1 (ko) 2020-07-23

Family

ID=71613970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/000693 WO2020149620A1 (ko) 2019-01-14 2020-01-14 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Country Status (6)

Country Link
US (1) US11962800B2 (ko)
EP (1) EP3913915A4 (ko)
KR (1) KR20210097803A (ko)
CN (1) CN113574872A (ko)
BR (1) BR112021013709A2 (ko)
WO (1) WO2020149620A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022389A1 (ko) * 2021-08-19 2023-02-23 현대자동차주식회사 직사각형이 아닌 블록 분할 구조를 이용하는 비디오 코딩방법 및 장치
WO2024080706A1 (ko) * 2022-10-10 2024-04-18 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170128389A (ko) * 2015-03-13 2017-11-22 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
KR20180037599A (ko) * 2016-10-04 2018-04-12 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR20180107097A (ko) * 2016-02-16 2018-10-01 삼성전자주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
WO2018231488A1 (en) * 2017-06-15 2018-12-20 Qualcomm Incorporated Intra filtering applied together with transform processing in video coding
WO2018236051A1 (ko) * 2017-06-21 2018-12-27 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
CN117255194A (zh) 2016-09-30 2023-12-19 罗斯德尔动力有限责任公司 图像处理方法及其装置
GB2573443B (en) * 2016-12-28 2020-04-01 Arris Entpr Llc Adaptive unequal weight planar prediction
EP3759928A1 (en) * 2018-02-26 2021-01-06 InterDigital VC Holdings, Inc. Gradient based boundary filtering in intra prediction
US11190764B2 (en) * 2018-07-06 2021-11-30 Qualcomm Incorporated Merged mode dependent intra smoothing (MDIS) and intra interpolation filter switching with position dependent intra prediction combination (PDPC)
US11057622B2 (en) * 2018-12-13 2021-07-06 Qualcomm Incorporated Position dependent intra prediction combination with non-square block diagonals
CA3122769A1 (en) * 2018-12-21 2020-06-25 Huawei Technologies Co., Ltd. Method and apparatus of mode- and size-dependent block-level restrictions
CN113196748B (zh) * 2018-12-31 2022-12-30 华为技术有限公司 帧内预测方法及相关装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170128389A (ko) * 2015-03-13 2017-11-22 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
KR20180107097A (ko) * 2016-02-16 2018-10-01 삼성전자주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
KR20180037599A (ko) * 2016-10-04 2018-04-12 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2018231488A1 (en) * 2017-06-15 2018-12-20 Qualcomm Incorporated Intra filtering applied together with transform processing in video coding
WO2018236051A1 (ko) * 2017-06-21 2018-12-27 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3913915A4 *

Also Published As

Publication number Publication date
US11962800B2 (en) 2024-04-16
EP3913915A1 (en) 2021-11-24
BR112021013709A2 (pt) 2021-09-21
US20210344954A1 (en) 2021-11-04
EP3913915A4 (en) 2022-12-07
KR20210097803A (ko) 2021-08-09
CN113574872A (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
WO2019168244A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018084523A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019216716A2 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018070809A1 (ko) 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법
WO2018026219A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017018664A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020040626A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017204427A1 (ko) 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법
WO2020130745A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2012005520A2 (en) Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
WO2017209394A1 (en) Methods and apparatuses for encoding and decoding video according to coding order
WO2019199127A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018124627A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2011068360A2 (ko) 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
WO2018047995A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019066174A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020050685A1 (ko) 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2011096741A2 (en) Method and apparatus for encoding video based on scanning order of hierarchical data units, and method and apparatus for decoding video based on scanning order of hierarchical data units
WO2017090967A1 (ko) 부호화 순서 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020027551A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020040619A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019194653A1 (ko) 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
WO2019017673A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020055169A1 (ko) 인터 예측을 이용한 영상 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20742059

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217021687

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112021013709

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2020742059

Country of ref document: EP

Effective date: 20210816

ENP Entry into the national phase

Ref document number: 112021013709

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20210712