WO2018012808A1 - 크로마 인트라 예측 방법 및 그 장치 - Google Patents

크로마 인트라 예측 방법 및 그 장치 Download PDF

Info

Publication number
WO2018012808A1
WO2018012808A1 PCT/KR2017/007289 KR2017007289W WO2018012808A1 WO 2018012808 A1 WO2018012808 A1 WO 2018012808A1 KR 2017007289 W KR2017007289 W KR 2017007289W WO 2018012808 A1 WO2018012808 A1 WO 2018012808A1
Authority
WO
WIPO (PCT)
Prior art keywords
chroma
luma
coding unit
current
block
Prior art date
Application number
PCT/KR2017/007289
Other languages
English (en)
French (fr)
Inventor
알쉰알렉산더
알쉬나엘레나
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020187034611A priority Critical patent/KR20180135075A/ko
Priority to US16/317,862 priority patent/US11277604B2/en
Publication of WO2018012808A1 publication Critical patent/WO2018012808A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Definitions

  • the present invention relates to an intra prediction method and apparatus for encoding and decoding video, and more particularly, to a method and apparatus for performing chroma intra prediction according to statistical data of decoded blocks.
  • High quality video requires a large amount of data during encoding.
  • the bandwidth allowed for delivering video data is limited, so that the data rate applied when transmitting video data may be limited. Therefore, in order to efficiently transmit video data, there is a need for a method of encoding and decoding video data having increased compression ratio while minimizing degradation of image quality.
  • Video data can be compressed by removing spatial redundancy and temporal redundancy between pixels. Since it is common to have a common feature among adjacent pixels, encoding information is transmitted in a data unit composed of pixels to remove redundancy between adjacent pixels.
  • the pixel values of the pixels included in the data unit are not transmitted directly, but a method necessary for obtaining the pixel value is transmitted.
  • a prediction method for predicting the pixel value similar to the original value is determined for each data unit, and encoding information about the prediction method is transmitted from the encoder to the decoder. Also, since the predicted value is not exactly the same as the original value, residual data about the difference between the original value and the predicted value is transmitted from the encoder to the decoder.
  • the prediction method is determined in consideration of the size of the encoding information and the residual data.
  • a data unit divided in a picture has various sizes. As the size of the data unit is larger, the accuracy of prediction is more likely to decrease, but encoding information is reduced. Therefore, the size of the block is determined according to the characteristics of the picture.
  • Prediction methods also include intra prediction and inter prediction.
  • Intra prediction is a method of predicting pixels of a block from neighboring pixels of the block.
  • Inter prediction is a method of predicting pixels by referring to pixels of another picture referred to by a picture including a block. Therefore, spatial redundancy is removed by intra prediction and temporal redundancy is removed by inter prediction.
  • the encoded information applied to the block may also be predicted from another block to reduce the size of the encoded information.
  • the residual data may be lossy compressed according to a transformation and quantization process to reduce the amount of residual data.
  • a picture may be classified into a luma picture and one of two chroma pictures according to color components.
  • the luma picture contains samples representing the luminance component.
  • the chroma picture includes samples representing the color difference component.
  • the data unit of the chroma picture may be determined based on the same prediction method as the prediction method of the data unit of the luma picture.
  • a chroma intra mode is disclosed that predicts chroma samples of the current block according to statistical data of blocks decoded before the current block.
  • an intra prediction apparatus for performing the chroma intra prediction method is disclosed.
  • a computer-readable recording medium recording a program for executing the chroma intra prediction method in a computer is disclosed.
  • a video decoding method includes determining a prediction value of a sample, and decoding the current chroma block based on the prediction value of the chroma sample.
  • a correlation information obtaining unit obtaining correlation information between the luma value and the chroma value from the MPC mode reference region of the current chroma block, and the current from luma samples of the current luma block corresponding to the current chroma block according to the correlation information.
  • a video decoding apparatus including a chroma sample prediction unit for determining a prediction value of a chroma sample of a chroma block, and a decoder for decoding the current chroma block based on the prediction value of the chroma sample.
  • a video encoding method includes determining a prediction value of a sample, and determining an intra mode of the current chroma block among intra modes including an MPC mode according to a prediction result of the chroma sample.
  • a correlation information obtaining unit obtaining correlation information between the luma value and the chroma value from the MPC mode reference region of the current chroma block, and the current from luma samples of the current luma block corresponding to the current chroma block according to the correlation information.
  • a video encoding apparatus comprising a chroma sample prediction unit determining a prediction value of a chroma sample of a chroma block, and an encoding unit determining an intra mode of the current chroma block among intra modes including an MPC mode according to a prediction result of the chroma sample.
  • FIG. 1A is a block diagram of an image encoding apparatus based on coding units having a tree structure, according to an embodiment of the present invention.
  • FIG. 1B is a block diagram of a video decoding apparatus based on coding units having a tree structure, according to an embodiment.
  • FIG. 2A is a block diagram of an image encoder 200 based on coding units, according to various embodiments.
  • 2B is a block diagram of an image decoder 250 based on coding units, according to various embodiments.
  • FIG. 3 is a diagram illustrating a process of determining at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • FIG. 4 illustrates a process of splitting a coding unit based on at least one of block shape information and split shape information, according to an embodiment.
  • FIG. 5 illustrates a method of determining a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 6 illustrates an order in which a plurality of coding units are processed when a current coding unit is divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 7 illustrates a process of determining that a current coding unit is divided into odd coding units when the coding units cannot be processed in a predetermined order, according to an embodiment.
  • FIG. 8 is a diagram illustrating a process of determining at least one coding unit by dividing a first coding unit according to an embodiment.
  • FIG. 9 illustrates that a form in which a second coding unit may be split is limited when a second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 10 illustrates a process of splitting a coding unit having a square form when splitting form information cannot be divided into four square coding units according to an embodiment.
  • FIG. 11 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • FIG. 12 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 13 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • FIG. 14 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 15 illustrates a processing block serving as a reference for determining a determination order of reference coding units included in a picture, according to an embodiment.
  • FIG. 16 illustrates a video decoding apparatus 1600 according to an embodiment of determining an encoding order of blocks.
  • FIG. 17 shows a video decoding apparatus for performing chroma intra prediction.
  • FIG. 19 shows an embodiment of a luma-chroma two-dimensional histogram.
  • FIG. 20 illustrates a method of matching a luma sample and a chroma sample according to a color format.
  • 21A and 21B illustrate a method of predicting a current chroma block by analyzing an MPC mode reference region.
  • 22A and 22B show luma-chromatic two-dimensional histograms obtained by analyzing the MPC mode reference region of FIGS. 21A and 21B.
  • 23A and 23B show prediction results of a current chroma block according to a luma-chroma two-dimensional histogram of FIGS. 22A and 22B.
  • FIG. 24 shows a table for describing intra mode information indicating a prediction mode of a current chroma block.
  • Figure 25 shows the order of decoding the current luma block and the current chroma block.
  • 26 shows a smoothing process of prediction values of a current chroma block.
  • FIG. 27 shows a flowchart of a method of decoding a current chroma block according to the MPC mode.
  • FIG. 28 illustrates a video encoding apparatus for performing chroma intra prediction.
  • 29 shows a flowchart of a method of encoding a current chroma block according to the MPC mode.
  • a video decoding method includes determining a prediction value of a sample, and decoding the current chroma block based on the prediction value of the chroma sample.
  • a video encoding method includes determining a prediction value of a sample, and determining an intra mode of the current chroma block among intra modes including an MPC mode according to a prediction result of the chroma sample.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • “Current block” means one of coding units, prediction units, and transformation units that are currently encoded or decoded.
  • a “lower block” means a data unit divided from a “current block”.
  • “upper block” means a data unit including the "current block”.
  • sample is data to be assigned to the sampling position of the video image to be processed.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • FIG. 1A is a block diagram of an image encoding apparatus 100 based on coding units having a tree structure, according to an embodiment of the present invention.
  • the image encoding apparatus 100 includes an encoder 110 and an output unit 120.
  • the encoder 110 may encode an image according to a plurality of encoding methods.
  • the encoder 110 may select the most efficient encoding method by comparing encoding results of a plurality of encoding methods. Which encoding method is most efficient may be determined according to Rate-Distortion Optimization. For example, when the encoding method A and the encoding method B are incompatible with each other, the encoding unit 110 may encode an image according to a more efficient encoding method among the encoding method A and the encoding method B according to the rate-distortion optimization.
  • the encoder 110 divides a picture or a slice included in the picture into a plurality of maximum coding units according to the size of the maximum coding unit.
  • the maximum coding unit is a data unit having a size of 32x32, 64x64, 128x128, 256x256, and the like, and may be a square data unit having a square of two horizontal and vertical sizes.
  • the encoder 110 may provide the output unit 120 with maximum coding unit size information indicating the size of the maximum coding unit.
  • the output unit 120 may include the maximum coding unit size information in the bitstream.
  • the encoder 110 determines the coding unit by dividing the maximum coding unit. Coding units may be determined to have a maximum size and depth. The depth may be defined as the number of times a coding unit is spatially divided from the largest coding unit. Each time the depth is increased by 1, the coding unit is divided into two or more coding units. Therefore, as the depth increases, the size of the coding unit for each depth decreases. Whether the coding unit is split or not is determined depending on whether the coding unit is efficient by rate-distortion optimization. In addition, split information indicating whether a coding unit is split may be generated. The partitioning information may be expressed in the form of a flag.
  • Coding units may be divided in various ways. For example, a square coding unit may be divided into four square coding units each having a half width and a height. The square coding unit may be divided into two rectangular coding units having a half width. Also, a square coding unit may be divided into two rectangular coding units having a height of half. The coding unit of the square may be divided into three coding units by dividing the width or height into 1: 2: 1.
  • a rectangular coding unit having a width twice the height may be divided into two square coding units.
  • a coding unit of a rectangle having a width twice the height may be split into coding units of a rectangle having two widths four times the height.
  • a rectangular coding unit having a width twice the height may be divided into two rectangular coding units and one square coding unit by dividing the width by 1: 2: 1.
  • a rectangular coding unit having a height twice the width may be divided into two square coding units.
  • a rectangular coding unit having a height twice the width may be divided into a rectangular coding unit having two heights four times the width.
  • a rectangular coding unit having a height twice the width may be divided into two rectangular coding units and one square coding unit by dividing the height into 1: 2: 1.
  • information on a division method that may be used for a coding unit among the division methods available in the image encoding apparatus 100 may be determined for each picture. Thus, it may be determined that only specific segmentation methods are used per picture. If the image encoding apparatus 100 uses only one division method, information on a division method that may be used for the coding unit is not separately determined.
  • split shape information indicating a splitting method of the coding unit may be generated. If there is only one division method that can be used in a picture belonging to a coding unit company, division type information may not be generated. If the division method is adaptively determined based on the encoding information around the coding unit, the division type information may not be generated.
  • the maximum coding unit may be split up to the minimum coding unit according to the minimum coding unit size information.
  • the depth of the largest coding unit may be the highest depth, and the minimum coding unit may be defined as the lowest depth. Therefore, the coding unit of the higher depth may include coding units of the plurality of lower depths.
  • the maximum coding unit may include coding units divided by depths. Since the maximum coding unit is divided according to depths, image data of a spatial domain included in the maximum coding unit may be hierarchically classified according to depths.
  • a maximum depth or a minimum size of a coding unit that limits the maximum number of times that the maximum coding unit may be hierarchically divided may be preset.
  • the encoder 110 compares the coding efficiency when the coding unit is hierarchically divided from the coding efficiency when the coding unit is not divided. The encoder 110 determines whether to split the coding unit according to the comparison result. If it is determined that the division of the coding unit is more efficient, the encoder 110 hierarchically divides the coding unit. If it is determined that it is efficient not to divide the coding unit according to the comparison result, the coding unit is not divided. Whether to split the coding unit may be determined independently of whether to split another adjacent coding unit.
  • whether to split the coding unit may be determined from a coding unit having a large depth in the encoding process. For example, the coding efficiency of the coding unit of the maximum depth and the coding unit smaller by 1 than the maximum depth are compared, so that each of the regions of the maximum coding unit includes any of the coding units of the maximum depth and the coding units smaller than the maximum depth by 1. It is determined whether the encoding is more efficient. According to the determination result, it is determined whether or not to split the coding unit smaller than the maximum depth by 1 for each region of the maximum coding unit.
  • Whether to split the coding unit may be determined from a coding unit having a small depth in the encoding process. For example, the coding efficiency of the largest coding unit and a coding unit having a depth of one larger than the maximum coding unit is compared, so that any one of the largest coding unit and the coding units having a depth of one larger than the maximum code unit is more efficiently encoded. Is determined. If the coding efficiency of the maximum coding unit is better, the maximum coding unit is not divided. If the coding efficiency of coding units having a depth of 1 is greater than that of the maximum coding unit, the maximum coding unit is split, and the same comparison process is repeated for the split coding unit.
  • an algorithm for obtaining a hierarchical tree structure of the largest coding unit may be designed in various ways in consideration of coding efficiency and calculation amount.
  • the encoder 110 determines the most efficient prediction and transformation method for the coding unit in order to determine the efficiency of the coding unit for each depth.
  • the coding unit may be divided into predetermined data units to determine the most efficient prediction and transformation method.
  • the data unit may have various forms according to the division method of the coding unit.
  • a splitting method of coding units for determining a data unit may be defined as a partition mode. For example, when a coding unit of size 2Nx2N (where N is a positive integer) is not divided, the size of the prediction unit included in the coding unit is 2Nx2N. When the coding unit having the size 2Nx2N is split, the size of the prediction unit included in the coding unit may be 2NxN, Nx2N, NxN, etc.
  • Partition mode is not only the symmetric data units in which the height or width of the coding unit is divided by the symmetric ratio, but also the data units divided by the asymmetric ratio such as 1: n or n: 1, diagonal direction It is possible to generate data units divided into data units, data units divided into other geometric shapes, and data units of arbitrary shape.
  • the coding unit may perform prediction and transformation based on the data unit included in the coding unit.
  • a data unit for prediction and a data unit for conversion may be separately determined.
  • the data unit for prediction may be defined as a prediction unit
  • the data unit for transformation may be defined as a transformation unit.
  • the partition mode applied to the prediction unit and the partition mode applied to the transformation unit may be different from each other.
  • the prediction of the prediction unit and the transformation of the transformation unit in the coding unit may be performed in parallel and independently.
  • the coding unit may be divided into one or more prediction units in order to determine an efficient prediction method.
  • a coding unit may be divided into one or more transformation units in order to determine an efficient transformation method. Splitting of the prediction unit and splitting of the transform unit may be performed independently. However, when the reconstructed sample inside the coding unit is used for intra prediction, a dependent relationship is formed between the prediction units or the transformation units included in the coding unit, and thus the division of the prediction unit and the transformation unit may affect each other.
  • the prediction unit included in the coding unit may be predicted by intra prediction or inter prediction.
  • Intra prediction is a method of predicting samples of a prediction unit using reference samples around the prediction unit.
  • Inter prediction is a method of predicting samples of a prediction unit by obtaining a reference sample from a reference picture referenced by the current picture.
  • the encoder 110 may select the most efficient intra prediction method by applying a plurality of intra prediction methods to the prediction unit for intra prediction.
  • Intra prediction methods include a directional mode such as a DC mode, a planar mode, a vertical mode, and a horizontal mode.
  • Intra prediction may be performed for each prediction unit when reconstructed samples around the coding unit are used as reference samples.
  • the prediction order of the prediction unit may depend on the conversion order of the transform unit. Therefore, when a reconstructed sample inside a coding unit is used as a reference sample, only an intra prediction method for transform units corresponding to the prediction unit is determined for the prediction unit, and substantial intra prediction may be performed for each transform unit.
  • the encoder 110 may select the most efficient inter prediction method by determining an optimal motion vector and a reference picture.
  • the encoder 110 may determine a plurality of motion vector candidates from neighboring coding units spatially and temporally from the current coding unit for inter prediction, and determine the most efficient motion vector among them as a motion vector.
  • a plurality of reference picture candidates may be determined from spatially and temporally neighboring coding units from the current coding unit, and among them, the most efficient reference picture may be determined.
  • the reference picture may be determined from among reference picture lists predetermined for the current picture.
  • the most efficient motion vector among a plurality of motion vector candidates may be determined as a predictive motion vector, and the motion vector may be determined by correcting the predicted motion vector.
  • Inter prediction may be performed in parallel for each prediction unit in the coding unit.
  • the encoder 110 may reconstruct a coding unit by obtaining only information representing a motion vector and a reference picture according to a skip mode.
  • a skip mode all encoding information including the residual signal is omitted except for information representing a motion vector and a reference picture. Since the residual signal is omitted, the skip mode can be used when the prediction accuracy is very high.
  • the partition mode used may be limited according to the prediction method for the prediction unit. For example, only the partition mode for prediction units of 2Nx2N and NxN sizes is applied to intra prediction, while the partition mode for prediction units of 2Nx2N, 2NxN, Nx2N, and NxN sizes may be applied to inter prediction. In addition, only a partition mode for a prediction unit having a size of 2N ⁇ 2N may be applied to a skip mode of inter prediction.
  • the partition mode allowed for each prediction method in the image encoding apparatus 100 may be changed according to encoding efficiency.
  • the image encoding apparatus 100 may perform transformation based on a coding unit or a transformation unit included in the coding unit.
  • the image encoding apparatus 100 may convert residual data, which is a difference value between an original value and a prediction value, of pixels included in a coding unit, through a predetermined process.
  • the image encoding apparatus 100 may perform lossy compression on the residual data through quantization and DCT / DST conversion.
  • the image encoding apparatus 100 may perform lossless compression on the residual data without quantization.
  • the image encoding apparatus 100 may determine a transformation unit that is most efficient for quantization and transformation. In a manner similar to the coding unit according to the tree structure, the transformation unit in the coding unit is also recursively divided into smaller transformation units, and the residual data of the coding unit is partitioned according to the transformation unit according to the tree structure according to the transformation depth. Can be.
  • the image encoding apparatus 100 may generate transform split information about the split of the coding unit and the transform unit according to the determined tree structure of the transform unit.
  • the image encoding apparatus 100 may set a transformation depth indicating the number of divisions until the height and width of the coding unit are divided to reach the transformation unit. For example, if the size of the transform unit of the current coding unit of size 2Nx2N is 2Nx2N, the transform depth is 0, the transform depth 1 if the size of the transform unit is NxN, and the transform depth 2 if the size of the transform unit is N / 2xN / 2 Can be. That is, a transformation unit having a tree structure may be set according to the transformation depth.
  • the encoder 110 determines the most efficient prediction method for the current prediction unit among the plurality of intra prediction methods and the inter prediction methods.
  • the encoder 110 determines a prediction unit determination method according to the coding efficiency according to the prediction result.
  • the encoder 110 determines a transform unit determination method according to the encoding efficiency according to the transform result.
  • the coding efficiency of the coding unit is finally determined according to the most efficient prediction unit and the method of determining the transformation unit.
  • the encoder 110 determines the hierarchical structure of the maximum coding unit according to the coding efficiency of the coding unit for each depth.
  • the encoder 110 may measure a coding efficiency of coding units according to depths, prediction efficiency of prediction methods, and the like using a Lagrangian Multiplier-based rate-distortion optimization technique.
  • the encoder 110 may generate split information indicating whether to split the coding units according to depths according to the determined hierarchical structure of the largest coding unit.
  • the encoder 110 may generate partition mode information for determining a prediction unit and transform unit split information for determining a transform unit, for the split coding unit.
  • the encoding unit 110 may generate split type information indicating the division method together with the division information.
  • the encoder 110 may generate information about a prediction method and a transformation method used in the prediction unit and the transformation unit.
  • the outputter 120 may output the information generated by the encoder 110 in the form of a bitstream according to the hierarchical structure of the largest coding unit.
  • a method of determining a coding unit, a prediction unit, and a transformation unit according to a tree structure of a maximum coding unit according to an embodiment will be described later in detail with reference to FIGS. 3 to 12.
  • FIG. 1B is a block diagram of an image decoding apparatus 150 based on coding units having a tree structure, according to an exemplary embodiment.
  • the image decoding apparatus 150 includes a receiver 160 and a decoder 170.
  • the receiver 160 receives and parses a bitstream of an encoded video.
  • the decoder 170 extracts information necessary for decoding for each largest coding unit from the parsed bitstream.
  • the decoder 170 may extract information about a maximum size of a coding unit of the current picture from a header, a sequence parameter set, or a picture parameter set for the current picture.
  • the decoder 170 extracts final depth and split information of the coding units having a tree structure for each maximum coding unit from the parsed bitstream.
  • the decoder 170 may determine a tree structure of the maximum coding unit by dividing the maximum coding unit according to the extracted final depth and the split information.
  • the split information extracted by the decoder 170 is split information about a tree structure determined by the video encoding apparatus 100 to generate a minimum encoding error. Therefore, the image decoding apparatus 150 may reconstruct the image by decoding the data according to an encoding method that generates a minimum encoding error.
  • the decoder 170 may extract split information about a data unit such as a prediction unit and a transformation unit included in the coding unit. For example, the decoder 170 may extract information about the most efficient partition mode for the prediction unit. In addition, the decoder 170 may extract transform partition information on a tree structure that is most efficient in a transform unit.
  • the decoder 170 may obtain information about the most efficient prediction method with respect to the prediction units split from the coding unit. In addition, the decoder 170 may obtain information about a most efficient transformation method for the transformation units split from the coding unit.
  • the decoder 170 extracts information from the bitstream according to a method of configuring the bitstream in the output unit 120 of the image encoding apparatus 100.
  • the decoder 170 may divide the largest coding unit into coding units having the most efficient tree structure based on the split information.
  • the decoder 170 may divide the coding unit into prediction units according to the information about the partition mode.
  • the decoder 170 may divide a coding unit into transformation units according to the transformation division information.
  • the decoder 170 may predict the prediction unit according to the information on the prediction method.
  • the decoder 170 may inversely quantize and inversely transform residual data corresponding to a difference between an original value and a prediction value of a pixel according to information on a method of transforming a transform unit.
  • the decoder 170 may reconstruct the pixels of the coding unit according to the prediction result of the prediction unit and the transformation result of the transformation unit.
  • FIG. 2A is a block diagram of an image encoder 200 based on coding units, according to various embodiments.
  • the image encoder 200 includes operations performed by the encoder 110 of the video encoding apparatus 100 to encode image data. That is, the intra prediction unit 204 performs intra prediction on the coding unit of the intra mode among the current frames 202, and the inter prediction unit 206 performs the current frame 202 and the reference frame 226 of the inter mode. Inter prediction is performed.
  • the prediction error data determined according to the prediction by the intra predictor 204 or the inter predictor 206 is output as a quantized transform coefficient through the transform unit 210 and the quantization unit 212.
  • the quantized transform coefficients are restored to the prediction error data of the spatial domain through the inverse quantizer 218 and the inverse transformer 220, and the decoded prediction error data of the reconstructed spatial domain is deblocked 222 and the offset adjuster 224.
  • the reference frame 226 is generated by combining the post-processed prediction error data with the prediction data of the intra prediction unit 204 or the inter prediction unit 206.
  • the quantized transform coefficients may be output to the bitstream 216 via the entropy encoder 214.
  • the inverse transform unit 220, the deblocking unit 222, and the offset adjuster 224 are performed on each of coding units having a tree structure of an image.
  • the intra prediction unit 204 and the inter prediction unit 206 determine a partition and a prediction mode of each coding unit among coding units having a tree structure in consideration of the maximum size and the maximum depth of the current maximum coding unit.
  • the transformer 210 determines a size of a transform unit in each coding unit among coding units having a tree structure.
  • 2B is a block diagram of an image decoder 250 based on coding units, according to various embodiments.
  • the bitstream 252 is parsed through the parser 254 to encode encoded image data and encoding information necessary for decoding.
  • the encoded image data is output as inverse quantized data through the entropy decoding unit 256 and the inverse quantization unit 258, and the prediction error data of the spatial domain is restored through the inverse transformation unit 260.
  • the intra prediction unit 262 performs intra prediction on the coding unit of the intra mode, and the inter prediction unit 264 uses the reference frame 270 to apply to the coding unit of the inter mode. Perform inter prediction on the
  • the predicted data predicted by the intra predictor 262 and the inter predictor 264 are post-processed through the deblocking unit 266 and the offset compensator 268.
  • the reconstructed frame 272 may be generated by combining the post-processed prediction data and the prediction error data.
  • step-by-step operations after the parser 254 of the image decoder 250 may be performed.
  • the deblocking unit 266 and the offset compensator 268 are performed on each of coding units having a tree structure of an image.
  • the intra predictor 262 and the inter predictor 264 determine a partition and a prediction mode for each coding unit having a tree structure, and the inverse transformer 260 determines the size of a transform unit for each coding unit.
  • FIG 3 illustrates a process of determining, by the image decoding apparatus 150, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the image decoding apparatus 150 may determine a shape of a coding unit by using block shape information, and may determine which type of coding unit is divided by using split shape information. That is, the method of dividing the coding unit indicated by the segmentation form information may be determined according to which block form the block form information used by the image decoding apparatus 150 represents.
  • the image decoding apparatus 150 may use block shape information indicating that the current coding unit is square. For example, the image decoding apparatus 150 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split type information. Referring to FIG. 3, when the block shape information of the current coding unit 300 indicates a square shape, the decoder 170 may have the same size as the current coding unit 300 according to the split shape information indicating that the block shape information is not divided. The splitting unit 210a may not split the coding unit 210a, or may be determined based on split type information indicating a predetermined division method.
  • the image decoding apparatus 150 determines two coding units 310b that split the current coding unit 300 in the vertical direction based on split type information indicating that the image is split in the vertical direction. Can be.
  • the image decoding apparatus 150 may determine two coding units 310c that divide the current coding unit 300 in the horizontal direction, based on the split type information indicating the split in the horizontal direction.
  • the image decoding apparatus 150 may determine four coding units 310d that divide the current coding unit 300 in the vertical direction and the horizontal direction based on the split type information indicating that the image decoding apparatus 150 is split in the vertical direction and the horizontal direction.
  • the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG. 4 illustrates a process of determining, by the image decoding apparatus 150, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 150 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 150 may determine whether to divide the current coding unit of the non-square according to the segmentation type information or to split it by a predetermined method. Referring to FIG. 4, when the block shape information of the current coding unit 400 or 450 indicates a non-square shape, the image decoding apparatus 150 may not divide the current coding unit 400 according to the split shape information indicating that the shape is not divided.
  • coding units 410a, 420b, 430a, 430b, 430c, 470a which do not divide coding units 410 or 460 having the same size as 450, or are divided based on division type information indicating a predetermined division method.
  • 470b, 480a, 480b, and 480c can be determined.
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 150 may determine a shape in which a coding unit is divided using split shape information.
  • the split shape information may include the number of at least one coding unit generated by splitting the coding unit. Can be represented.
  • the image decoding apparatus 150 may determine the current coding unit 400 or 450 based on the split shape information. By splitting, two coding units 420a, 420b, or 470a, 470b included in the current coding unit may be determined.
  • the image decoding apparatus 150 when the image decoding apparatus 150 divides the current coding unit 400 or 450 having the non-square shape based on the split shape information, the image coding apparatus 150 of the non-square current coding unit 400 or 450 has the same shape.
  • the current coding unit may be split in consideration of the position of the long side. For example, the image decoding apparatus 150 divides the current coding unit 400 or 450 in a direction of dividing a long side of the current coding unit 400 or 450 in consideration of the shape of the current coding unit 400 or 450. To determine a plurality of coding units.
  • the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 400 or 450. For example, when the split type information indicates that the current coding unit 400 or 450 is divided into three coding units, the image decoding apparatus 150 may divide the current coding unit 400 or 450 into three coding units 430a. , 430b, 430c, 480a, 480b, and 480c. According to an embodiment, the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 400 or 450, and not all sizes of the determined coding units may be the same.
  • the size of a predetermined coding unit 430b or 480b among the determined odd coding units 430a, 430b, 430c, 480a, 480b, and 480c is different from other coding units 430a, 430c, 480a, and 480c. May have That is, the coding unit that may be determined by dividing the current coding unit 400 or 450 may have a plurality of types of sizes.
  • the image decoding apparatus 150 may determine an odd number of coding units included in the current coding unit 400 or 450.
  • the image decoding apparatus 150 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing.
  • the image decoding apparatus 150 may include a coding unit positioned at the center of three coding units 430a, 430b, 430c, 480a, 480b, and 480c generated by dividing a current coding unit 400 or 450.
  • the decoding process for 430b and 480b may be different from other coding units 430a, 430c, 480a and 480c.
  • the image decoding apparatus 150 restricts the coding units 430b and 480b located in the center from being no longer divided, or only by a predetermined number of times. You can limit it to split.
  • FIG. 5 illustrates a process of splitting a coding unit by the image decoding apparatus 150 based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the image decoding apparatus 150 may determine to divide or not divide the first coding unit 500 having a square shape into coding units based on at least one of block shape information and split shape information.
  • the image decoding apparatus 150 splits the first coding unit 500 in the horizontal direction to divide the second coding unit. 510 may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units.
  • the first coding unit is split, the second coding unit may be determined.
  • the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 150 may determine to divide or not split the determined second coding unit 510 into coding units based on at least one of block shape information and split shape information. Referring to FIG. 5, the image decoding apparatus 150 may determine a second coding unit 510 having a non-square shape determined by dividing the first coding unit 500 based on at least one of block shape information and split shape information. It may be split into at least one third coding unit 520a, 520b, 520c, 520d, or the like, or may not split the second coding unit 510.
  • the image decoding apparatus 150 may obtain at least one of the block shape information and the split shape information, and the image decoding device 150 may determine the first coding unit 500 based on at least one of the obtained block shape information and the split shape information.
  • the unit 500 may be divided according to the divided manner. According to an embodiment, when the first coding unit 500 is divided into the second coding unit 510 based on at least one of the block shape information and the split shape information for the first coding unit 500, the second coding unit 500 may be divided into the second coding unit 500.
  • the coding unit 510 may also be divided into third coding units (eg, 520a, 520b, 520c, 520d, etc.) based on at least one of block shape information and split shape information of the second coding unit 510. have. That is, the coding unit may be recursively divided based on at least one of the partition shape information and the block shape information associated with each coding unit. A method that can be used for recursive division of coding units will be described later through various embodiments.
  • third coding units eg, 520a, 520b, 520c, 520d, etc.
  • the image decoding apparatus 150 divides each of the third coding units 520a, 520b, 520c, 520d, etc. into coding units based on at least one of block shape information and split shape information, or performs second encoding. It may be determined that the unit 510 is not divided.
  • the image decoding apparatus 150 may split the second coding unit 510 having a non-square shape into an odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 150 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 150 should be limited to the number of coding units 520c positioned in the middle of the odd number of third coding units 520b, 520c, and 520d, which are no longer divided or set by the number of times that can be set. It can be limited to.
  • the image decoding apparatus 150 may include a coding unit positioned at the center among odd-numbered third coding units 520b, 520c, and 520d included in the second coding unit 510 having a non-square shape.
  • 520c is no longer divided, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to the divided form of the second coding unit 510), or predetermined.
  • n times only n> 0
  • the above limitation on the coding unit 520c located in the center is merely a mere embodiment and thus should not be construed as being limited to the above-described embodiments, and the coding unit 520c located in the center may be different from other coding units 520b and 520d. ), It should be interpreted as including various restrictions that can be decoded.
  • FIG. 6 illustrates a method for the image decoding apparatus 150 to determine a coding unit of a predetermined position among odd-numbered coding units according to an embodiment.
  • the image decoding apparatus 150 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 6, the image decoding apparatus 150 may determine an odd number of coding units 620a, 620b, and 620c by dividing the current coding unit 600. The image decoding apparatus 150 may determine the central coding unit 620b by using information about the positions of the odd number of coding units 620a, 620b, and 620c.
  • the image decoding apparatus 150 determines the positions of the coding units 620a, 620b, and 620c based on the information indicating the positions of the predetermined samples included in the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned at may be determined.
  • the image decoding apparatus 150 may determine the coding units 620a, 620b, and 620c based on the information indicating the positions of the samples 630a, 630b, and 630c in the upper left of the coding units 620a, 620b, and 620c. By determining the position, the coding unit 620b positioned in the center may be determined.
  • the information indicating the positions of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be located in the pictures of the coding units 620a, 620b, and 620c, respectively. Or it may include information about the coordinates. According to an embodiment, the information indicating the positions of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be included in the current coding unit 600.
  • 620c may include information indicating width or height, and the width or height may correspond to information indicating a difference between coordinates in a picture of the coding units 620a, 620b, and 620c. That is, the image decoding apparatus 150 may directly use information about the position or coordinates in the pictures of the coding units 620a, 620b, and 620c or may obtain information about the width or height of the coding unit corresponding to the difference between the coordinates. By using this, the coding unit 620b positioned in the center can be determined.
  • the information indicating the position of the sample 630a at the upper left of the upper coding unit 620a may indicate (xa, ya) coordinates, and the sample 630b at the upper left of the middle coding unit 620b.
  • the information indicating the position of) may indicate the (xb, yb) coordinates, and the information indicating the position of the sample 630c on the upper left of the lower coding unit 620c may indicate the (xc, yc) coordinates.
  • the image decoding apparatus 150 may determine the center coding unit 620b using the coordinates of the samples 630a, 630b, and 630c in the upper left included in the coding units 620a, 620b, and 620c, respectively.
  • the coordinates indicating the positions of the samples 630a, 630b, and 630c in the upper left corner may indicate coordinates representing the absolute positions in the picture, and further, the positions of the samples 630a in the upper left corner of the upper coding unit 620a.
  • the (dxb, dyb) coordinate which is the information indicating the relative position of the upper left sample 630b of the middle coding unit 620b, and the relative position of the upper left sample 630c of the lower coding unit 620c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample are available. It should be interpreted in a way.
  • the image decoding apparatus 150 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and may determine a predetermined reference among the coding units 620a, 620b, and 620c. According to the coding unit can be selected. For example, the image decoding apparatus 150 may select coding units 620b having different sizes from among coding units 620a, 620b, and 620c.
  • the image decoding apparatus 150 may include (xa, ya) coordinates, which are information indicating the position of the sample 630a on the upper left side of the upper coding unit 620a, and the sample on the upper left side of the center coding unit 620b.
  • the coding unit 620a using the (xb, yb) coordinates indicating the position of 630b and the (xc, yc) coordinates indicating the position of the sample 630c on the upper left side of the lower coding unit 620c.
  • 620b, 620c may determine the width or height of each.
  • the image decoding apparatus 150 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 620a, 620b, and 620c. ) Each size can be determined.
  • the image decoding apparatus 150 may determine the width of the upper coding unit 620a as xb-xa and the height as yb-ya. According to an embodiment, the image decoding apparatus 150 may determine the width of the central coding unit 620b as xc-xb and the height as yc-yb. According to an embodiment, the image decoding apparatus 150 may determine the width or height of the lower coding unit using the width or height of the current coding unit, the width and height of the upper coding unit 620a, and the middle coding unit 620b. .
  • the image decoding apparatus 150 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 620a, 620b, and 620c. Referring to FIG. 6, the image decoding apparatus 150 may determine a coding unit 620b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 620a and the lower coding unit 620c. However, in the above-described process of determining, by the image decoding apparatus 150, a coding unit having a size different from another coding unit, the coding unit at a predetermined position is determined using the size of the coding unit determined based on the sample coordinates. In this regard, various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 150 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 150 may determine the coding unit at a predetermined position in the horizontal direction. That is, the image decoding apparatus 150 may determine one of the coding units having different positions in the horizontal direction and place a restriction on the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 150 may determine the coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 150 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
  • the image decoding apparatus 150 may use information indicating the positions of each of the even coding units in order to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 150 may determine an even number of coding units by dividing a current coding unit and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a middle position) among the odd number of coding units described above with reference to FIG. 6.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 150 may determine the block shape information and the split shape stored in the sample included in the middle coding unit in the splitting process in order to determine a coding unit located in the middle among the coding units in which the current coding unit is divided into a plurality. At least one of the information may be used.
  • the image decoding apparatus 150 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c based on at least one of block shape information and split shape information.
  • a coding unit 620b positioned in the middle of the plurality of coding units 620a, 620b, and 620c may be determined.
  • the image decoding apparatus 150 may determine a coding unit 620b positioned in the center in consideration of a position where at least one of the block shape information and the split shape information is obtained. That is, at least one of the block shape information and the split shape information of the current coding unit 600 may be obtained from a sample 640 located in the center of the current coding unit 600.
  • the block shape information and the split shape information may be obtained.
  • the coding unit 620b including the sample 640 is a coding unit positioned at the center. You can decide.
  • the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information, and various types of information may be used in the process of determining the coding unit located in the center. Can be.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 150 may divide a current coding unit 600 into a plurality of coding units (eg, divided into a plurality of coding units 620a, 620b, and 620c) determined by splitting the current coding unit 600.
  • Block shape information obtained from a sample at a predetermined position for example, a sample located in the center of the current coding unit 600
  • At least one of the partition type information may be used. .
  • the image decoding apparatus 150 may determine a sample of the predetermined position in consideration of the block block form of the current coding unit 600, and the image decoding apparatus 150 may determine that the current coding unit 600 is divided and determined.
  • a coding unit 620b including a sample from which predetermined information (for example, at least one of block shape information and split shape information) may be obtained may be determined.
  • predetermined information for example, at least one of block shape information and split shape information
  • the image decoding apparatus 150 may determine a sample 640 positioned in the center of the current coding unit 600 as a sample from which predetermined information may be obtained.
  • the 150 may set a predetermined limit in decoding the coding unit 620b including the sample 640.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 620b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 600.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 150 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of the information on the width and the height on the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 150 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 150 when the image decoding apparatus 150 divides the current coding unit into a plurality of coding units, at least one of the block shape information and the split shape information may be used to determine a coding unit of a predetermined position among the plurality of coding units. You can use one.
  • the image decoding apparatus 150 may obtain at least one of block shape information and split shape information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 150 may divide the current coding unit.
  • the generated plurality of coding units may be divided using at least one of split shape information and block shape information obtained from a sample of a predetermined position included in each of the plurality of coding units.
  • the coding unit may be recursively split using at least one of block shape information and split shape information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 4, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine the at least one coding unit by dividing the current coding unit, and determine the order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when the image decoding apparatus 150 determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 150 determines the second coding units 710a and 710b by dividing the first coding unit 700 in the vertical direction according to the block shape information and the split shape information.
  • the second coding unit 750a, 750b, 750c, or 750d is determined by dividing the 700 in the horizontal direction to determine the second coding units 730a and 730b, or by splitting the first coding unit 700 in the vertical and horizontal directions. Can be determined.
  • the image decoding apparatus 150 may determine an order such that the second coding units 710a and 710b determined by dividing the first coding unit 700 in the vertical direction are processed in the horizontal direction 710c. .
  • the image decoding apparatus 150 may determine the processing order of the second coding units 730a and 730b determined by dividing the first coding unit 700 in the horizontal direction, in the vertical direction 730c.
  • the image decoding apparatus 150 processes the coding units for positioning the second coding units 750a, 750b, 750c, and 750d in one row.
  • the coding units located in the next row may be determined according to a predetermined order (for example, raster scan order or z scan order 750e).
  • the image decoding apparatus 150 may recursively split coding units. Referring to FIG. 7, the image decoding apparatus 150 may determine a plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d by dividing the first coding unit 700. Each of the plurality of determined coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be recursively divided.
  • the method of splitting the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be a method corresponding to the method of splitting the first coding unit 700. Accordingly, the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be independently divided into a plurality of coding units. Referring to FIG. 7, the image decoding apparatus 150 may determine the second coding units 710a and 710b by dividing the first coding unit 700 in the vertical direction, and further, respectively, the second coding units 710a and 710b. It can be decided to split independently or not.
  • the image decoding apparatus 150 may divide the second coding unit 710a on the left side into horizontal units to split the second coding unit 710a into third coding units 720a and 720b, and the second coding unit 710b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 150 may independently determine the order in which the third coding units 720a and 720b determined by splitting the second coding unit 710a on the left side from the second coding unit 710b on the right side. Since the second coding unit 710a on the left is divided in the horizontal direction to determine the third coding units 720a and 720b, the third coding units 720a and 720b may be processed in the vertical direction 720c.
  • the right coding unit 710b may be processed.
  • FIG. 8 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 150 may not process the coding units in a predetermined order, according to an exemplary embodiment.
  • the image decoding apparatus 150 may determine that the current coding unit is divided into odd coding units based on the obtained block shape information and the split shape information.
  • a first coding unit 800 having a square shape may be divided into second coding units 810a and 810b having a non-square shape, and the second coding units 810a and 810b may be independently formed. It may be divided into three coding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 150 may determine a plurality of third coding units 820a and 820b by dividing the left coding unit 810a in the horizontal direction among the second coding units, and may include the right coding unit 810b. ) May be divided into odd third coding units 820c, 820d, and 820e.
  • the image decoding apparatus 150 determines whether the third coding units 820a, 820b, 820c, 820d, and 820e may be processed in a predetermined order to determine whether there are oddly divided coding units. You can decide. Referring to FIG. 8, the image decoding apparatus 150 may determine third coding units 820a, 820b, 820c, 820d, and 820e by recursively dividing the first coding unit 800.
  • the image decoding apparatus 150 may include a first coding unit 800, a second coding unit 810a, 810b, or a third coding unit 820a, 820b, 820c, based on at least one of block shape information and split shape information.
  • a coding unit positioned on the right side of the second coding units 810a and 810b may be divided into odd third coding units 820c, 820d, and 820e.
  • the order in which the plurality of coding units included in the first coding unit 800 is processed may be a predetermined order (for example, a z-scan order 830).
  • 150 may determine whether the third coding unit 820c, 820d, or 820e determined by splitting the right second coding unit 810b into an odd number satisfies a condition that may be processed according to the predetermined order.
  • the image decoding apparatus 150 satisfies a condition that the third coding units 820a, 820b, 820c, 820d, and 820e included in the first coding unit 800 may be processed in a predetermined order. And whether the at least one of the width and the height of the second coding unit 810a, 810b is divided in half according to the boundary of the third coding unit 820a, 820b, 820c, 820d, or 820e.
  • the third coding units 820a and 820b which are determined by dividing the height of the left second coding unit 810a in the non-square form in half, satisfy the condition, but the right second coding unit 810b is set to 3.
  • the third coding units 820c, 820d, and 820e determined by dividing into two coding units does not divide the width or height of the right second coding unit 810b in half
  • the third coding units 820c, 820d, 820e may be determined to not satisfy the condition, and the image decoding apparatus 150 determines that the scan sequence is disconnected in the case of dissatisfaction with the condition, and based on the determination result, the right second coding unit 810b It may be determined to be divided into an odd number of coding units.
  • the image decoding apparatus 150 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may divide the first coding unit 900 based on at least one of the block shape information and the split shape information acquired through the receiver 160.
  • the first coding unit 900 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 150 may include the first coding unit.
  • the image decoding apparatus 150 may form a square first coding unit 900.
  • second coding units 910a, 910b, and 910c which are determined by being split in the vertical direction, as odd coding units, or second coding units 920a, 920b, and 920c, which are determined by splitting in the horizontal direction.
  • the image decoding apparatus 150 may process the second coding units 910a, 910b, 910c, 920a, 920b, and 920c included in the first coding unit 900 in a predetermined order.
  • the condition is whether the at least one of the width and height of the first coding unit 900 is divided in half according to the boundary of the second coding unit (910a, 910b, 910c, 920a, 920b, 920c). It is related to whether or not. Referring to FIG. 9, the boundary between the second coding units 910a, 910b, and 910c, which is determined by dividing the first coding unit 900 having a square shape in the vertical direction, divides the width of the first coding unit 900 in half.
  • the first coding unit 900 may be determined to not satisfy a condition that may be processed in a predetermined order. Also, since the boundary between the second coding units 920a, 920b, and 920c, which is determined by dividing the first coding unit 900 having a square shape in the horizontal direction, does not divide the width of the first coding unit 900 in half, The one coding unit 900 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 150 may determine that the scan order is disconnected, and determine that the first coding unit 900 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 150 when the image decoding apparatus 150 is divided into an odd number of coding units, the image decoding apparatus 150 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 150 may split a first coding unit 900 having a square shape and a first coding unit 930 or 950 having a non-square shape into various coding units. .
  • FIG. 10 illustrates that a second coding unit is split when a second coding unit having a non-square shape determined by splitting the first coding unit 1000 is satisfied by the image decoding apparatus 150 according to an embodiment. It shows that the form that can be limited.
  • the image decoding apparatus 150 may set the first coding unit 1000 having a square shape into a non-square shape based on at least one of block shape information and segmentation shape information acquired through the receiver 160. It may be determined by dividing into two coding units 1010a, 1010b, 1020a, and 1020b. The second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the image decoding apparatus 150 determines whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information associated with each of the second coding units 1010a, 1010b, 1020a, and 1020b. Can be.
  • the image decoding apparatus 150 divides the left second coding unit 1010a having a non-square shape in a horizontal direction by dividing the first coding unit 1000 in a vertical direction to form a third coding unit ( 1012a, 1012b) can be determined.
  • the right second coding unit 1010b may have the same horizontal direction as the direction in which the left second coding unit 1010a is divided. It can be limited to not be divided into.
  • the left second coding unit 1010a and the right second coding unit 1010b are each horizontally.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined.
  • the image decoding apparatus 150 divides the first coding unit 1000 into four square second coding units 1030a, 1030b, 1030c, and 1030d based on at least one of the block shape information and the split shape information. This is the same result as the above, which may be inefficient in terms of image decoding.
  • the image decoding apparatus 150 divides the second coding unit 1020a or 1020b of the non-square shape, determined by dividing the first coding unit 330 in the horizontal direction, in the vertical direction, and then third coding unit. 1022a, 1022b, 1024a, and 1024b can be determined.
  • the image decoding apparatus 150 divides one of the second coding units (for example, the upper second coding unit 1020a) in the vertical direction
  • another image coding unit for example, the lower end
  • the coding unit 1020b may restrict the upper second coding unit 1020a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 150 when the split shape information cannot be divided into four square coding units.
  • the image decoding apparatus 150 divides the first coding unit 1100 based on at least one of the block shape information and the split shape information to divide the second coding units 1110a, 1110b, 1120a, 1120b, and the like. You can decide.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the image decoding apparatus 150 may not divide the first coding unit 1100 having a square shape into four second coding units 1130a, 1130b, 1130c, and 1130d having a square shape.
  • the image decoding apparatus 150 may determine second non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like based on the segmentation information.
  • the image decoding apparatus 150 may independently split the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, and the like may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information 1100. ) May be a division method corresponding to the division method.
  • the image decoding apparatus 150 may determine the third coding units 1112a and 1112b having a square shape by dividing the left second coding unit 1110a in the horizontal direction, and the right second coding unit 1110b may The third coding units 1114a and 1114b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 150 may divide the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction to determine the third coding units 1116a, 1116b, 1116c, and 1116d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 150 may determine the third coding units 1122a and 1122b having a square shape by dividing the upper second coding unit 1120a in the vertical direction, and the lower second coding unit 1120b. ) May be divided in the vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the image decoding apparatus 150 may divide the upper second coding unit 1120a and the lower second coding unit 1120b in the vertical direction to determine the third coding units 1122a, 1122b, 1124a, and 1124b having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the image decoding apparatus 150 may divide the first coding unit 1200 based on the block shape information and the split shape information.
  • the image decoding apparatus 150 may determine the first coding unit 1200.
  • a second coding unit eg, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d, etc.
  • non-square second coding units 1210a, 1210b, 1220a, and 1220b which are determined by dividing the first coding unit 1200 in only the horizontal direction or the vertical direction, respectively, may include block shape information and split shape information for each. It can be divided independently based on.
  • the image decoding apparatus 150 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction in the horizontal direction, respectively, to generate the third coding units 1216a and 1216b, 1216c and 1216d, and the second coding units 1220a and 1220b generated by dividing the first coding unit 1200 in the horizontal direction are divided in the horizontal direction, respectively, and the third coding units 1226a, 1226b and 1226c. 1226d). Since the splitting process of the second coding units 1210a, 1210b, 1220a, and 1220b has been described above with reference to FIG. 10, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 6, and thus detailed descriptions thereof will be omitted. Referring to FIG. 12, the image decoding apparatus 150 splits a first coding unit 1200 having a square shape to form three square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. ) Can be determined.
  • the image decoding apparatus 150 may process a sequence of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to a form in which the first coding unit 1200 is divided. You can decide.
  • the image decoding apparatus 150 determines the third coding units 1216a, 1216b, 1216c, and 1216d by dividing the second coding units 1210a and 1210b generated by dividing in the vertical direction in the horizontal direction, respectively.
  • the image decoding apparatus 150 may first process the third coding units 1216a and 1216b included in the left second coding unit 1210a in the vertical direction, and then include the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the third coding units 1216c and 1216d in the vertical direction.
  • the image decoding apparatus 150 determines the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by dividing in the horizontal direction in the vertical direction.
  • the image decoding apparatus 150 may first process the third coding units 1226a and 1226b included in the upper second coding unit 1220a in the horizontal direction, and then include the lower second coding unit 1220b.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the third coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b may be divided, respectively, and square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may be determined. have.
  • the second coding units 1210a and 1210b that are determined by being split in the vertical direction and the second coding units 1220a and 1220b that are determined by being split in the horizontal direction are divided into different forms, but are determined afterwards.
  • 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may result in the first coding unit 1200 being split into coding units having the same shape.
  • the image decoding apparatus 150 may recursively divide the coding units through different processes based on at least one of the block shape information and the split shape information, thereby determining the coding units having the same shape. Coding units may be processed in different orders.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the image decoding apparatus 150 may determine the depth of the coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 150 may have a square shape based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 1300 may be divided to determine a second coding unit 1302, a third coding unit 1304, or the like of a lower depth.
  • the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/21 times may have a size of NxN. have.
  • the third coding unit 1304 determined by dividing the width and the height of the second coding unit 1302 into half the size may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 1304 correspond to 1/22 times the first coding unit 1300.
  • the depth of the first coding unit 1300 is D
  • the depth of the second coding unit 1302 which is 1/21 times the width and the height of the first coding unit 1300 may be D + 1
  • the depth of the third coding unit 1304, which is 1/22 times the width and the height of 1300 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ')
  • the image decoding apparatus 150 divides the first coding unit 1310 or 1320 having a non-square shape to form a second coding unit 1312 or 1322 of a lower depth
  • the third coding unit 1314 or 1324 may be determined.
  • the image decoding apparatus 150 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 1310. That is, the image decoding apparatus 150 may divide the first coding unit 1310 in the horizontal direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1322 having an NxN / 2 size.
  • the second coding unit 1312 having the size of N / 2 ⁇ N may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 150 determines a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the 2N ⁇ N first coding unit 1320. It may be. That is, the image decoding apparatus 150 may determine the second coding unit 1302 having an NxN size or the second coding unit 1312 having an N / 2xN size by dividing the first coding unit 1320 in the vertical direction.
  • the second coding unit 1322 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 150 determines at least one of a width and a height of the NxN-sized second coding unit 1302 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). It may be. That is, the image decoding apparatus 150 determines the third coding unit 1304 having the size of N / 2xN / 2 by dividing the second coding unit 1302 in the vertical direction and the horizontal direction, or the N / 2xN / 2 size The three coding units 1314 or the third coding unit 1324 having a size of N / 2 ⁇ N / 2 may be determined.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 150 divides at least one of the width and the height of the N / 2xN sized second coding unit 1312 to form a third coding unit (eg, 1304, 1314, 1324, etc.). May be determined. That is, the image decoding apparatus 150 divides the second coding unit 1312 in the horizontal direction, so that the third coding unit 1304 having the size of N / 2xN / 2 or the third coding unit 1324 having the size of N / 2xN / 2 is provided. ) May be determined or divided into vertical and horizontal directions to determine a third coding unit 1314 having a size of N / 2 ⁇ N / 2.
  • the image decoding apparatus 150 divides at least one of a width and a height of the NxN / 2 sized second coding unit 1314 to form a third coding unit (eg, 1304, 1314, 1324, etc.). May be determined. That is, the image decoding apparatus 150 divides the second coding unit 1312 in the vertical direction to form a third coding unit 1304 having an N / 2 ⁇ N / 2 size or a third coding unit 1314 having an N / 2xN / 2 size. ) May be determined or divided into vertical and horizontal directions to determine a third coding unit 1324 having a size of N / 2 ⁇ N / 2.
  • the image decoding apparatus 150 may divide a square coding unit (for example, 1300, 1302, 1304) into a horizontal direction or a vertical direction.
  • the first coding unit 1300 having a size of 2Nx2N is split in the vertical direction to determine the first coding unit 1310 having the size of Nx2N, or the first coding unit 1320 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by splitting the first coding unit 1300, 1302, or 1304 having a size of 2N ⁇ 2N into the horizontal or vertical direction is determined. May be the same as the depth of the first coding unit 1300, 1302, or 1304.
  • the width and height of the third coding unit 1314 or 1324 may correspond to 1/2 times of the first coding unit 1310 or 1320.
  • the depth of the second coding unit 1312 or 1314 that is 1/2 the width and height of the first coding unit 1310 or 1320 may be D + 1.
  • the depth of the third coding unit 1314 or 1324, which is 1/2 the width and the height of the first coding unit 1310 or 1320, may be D + 2.
  • FIG. 14 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the image decoding apparatus 150 may determine a second coding unit having various shapes by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the image decoding apparatus 150 divides the first coding unit 1400 in at least one of the vertical direction and the horizontal direction according to the split type information to form the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d). That is, the image decoding apparatus 150 may determine the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split shape information about the first coding unit 1400.
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d which are determined according to split shape information about the first coding unit 1400 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 1400 having a square shape and the length of the long side of the second coding units 1402a, 1402b, 1404a and 1404b of a non-square shape are the same, the first coding unit ( 1400 and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may be regarded as D.
  • the image decoding apparatus 150 divides the first coding unit 1400 into four square coding units 1406a, 1406b, 1406c, and 1406d based on the split form information, Since the length of one side of the two coding units 1406a, 1406b, 1406c, and 1406d is 1/2 times the length of one side of the first coding unit 1400, the depths of the second coding units 1406a, 1406b, 1406c, and 1406d are the same. May be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 1400.
  • the image decoding apparatus 150 divides the first coding unit 1410 having a height greater than the width in a horizontal direction according to the split shape information, thereby providing a plurality of second coding units 1412a, 1412b, 1414a, 1414b, 1414c).
  • the image decoding apparatus 150 divides the first coding unit 1420 having a width greater than the height in the vertical direction according to the split shape information, thereby providing a plurality of second coding units 1422a, 1422b, 1424a, 1424b, 1424c).
  • the second coding units 1412a, 1412b, 1414a, 1414b, 1416a, 1416b, 1416c, and 1416d that are determined according to split shape information about the first coding unit 1410 or 1420 having a non-square shape may be Depth may be determined based on the length of the long side. For example, since the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 1402a, 1402b, 1404a, and 1404b of the form are D + 1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square form.
  • the image decoding apparatus 150 may divide the non-square first coding unit 1410 into odd second coding units 1414a, 1414b, and 1414c based on the split shape information.
  • the odd numbered second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square shape second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c of the non-square shape and the length of one side of the second coding unit 1414b of the square shape is 1 / time of the length of one side of the first coding unit 1410.
  • the depths of the second coding units 1414a, 1414b, and 1414c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1410.
  • the image decoding apparatus 150 corresponds to the above-described method of determining depths of coding units related to the first coding unit 1410 and is related to the first coding unit 1420 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 150 may determine the size ratio between the coding units.
  • the index can be determined based on this. Referring to FIG. 14, a coding unit 1414b positioned at the center of odd-numbered split coding units 1414a, 1414b, and 1414c has the same width as the other coding units 1414a and 1414c but has a different height. It may be twice the height of the fields 1414a, 1414c. That is, in this case, the coding unit 1414b located in the center may include two of the other coding units 1414a and 1414c.
  • the coding unit 1414c located in the next order may be 3 having an index increased by 2. That is, there may be a discontinuity in the value of the index.
  • the image decoding apparatus 150 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 150 may determine whether the image decoding apparatus 150 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the image decoding apparatus 150 determines an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or an odd number of coding units 1414a and 1414b. 1414c). The image decoding apparatus 150 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 150 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for distinguishing coding units. According to an embodiment, when the split type information of the first coding unit 1410 having a height greater than the width is divided into three coding units, the image decoding apparatus 150 may decode the first coding unit 1410. It may be divided into three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 150 may allocate an index for each of three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 150 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 150 encodes a coding unit 1414b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 1410. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 150 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 14, the coding unit 1414b generated by dividing the first coding unit 1410 may include the coding units 1414a and 1414c having the same width but different heights as the other coding units 1414a and 1414c.
  • the image decoding apparatus 150 may determine that the image decoding apparatus 150 is divided into a plurality of coding units including coding units having different sizes from other coding units. In this case, when the split form information is divided into odd coding units, the image decoding apparatus 150 may have a shape different from a coding unit having a different coding unit (for example, a middle coding unit) at a predetermined position among the odd coding units.
  • the current coding unit can be divided by.
  • the image decoding apparatus 150 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 150 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 150 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 150 may divide a plurality of reference data units for dividing a current picture by using split information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 150 may determine in advance a minimum size that the reference data unit included in the current picture may have. Accordingly, the image decoding apparatus 150 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit using block shape information and split shape information based on the determined reference data unit. You can decide.
  • the image decoding apparatus 150 may use a reference coding unit 1500 having a square shape, or may use a reference coding unit 1502 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiver 160 of the image decoding apparatus 150 may obtain at least one of information about the shape of the reference coding unit and information about the size of the reference coding unit from the bitstream for each of the various data units. .
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit 1500 having a non-square shape has been described. Since the process of determining at least one coding unit included in the above is described above through the process of splitting the current coding unit 1200 or 1250 of FIG. 12, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment, a maximum coding unit, etc.
  • an index for identifying the size and shape of the reference coding unit may be obtained.
  • the image decoding apparatus 150 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 150 selects at least one of the size and shape of the predetermined reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for obtaining the index. You can decide.
  • the image decoding apparatus 150 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure. That is, the image decoding apparatus 150 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and at least one of the block shape information and the split shape information according to various embodiments. Can be divided based on.
  • FIG. 16 illustrates a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the image decoding apparatus 150 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the image decoding apparatus 150 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 150 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the receiver 160 of the image decoding apparatus 150 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 160 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 150 may divide the picture using at least the information about the size of the acquired processing block.
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 150 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the image decoding apparatus 150 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 16, the image decoding apparatus 150 may make the horizontal sizes of the processing blocks 1602 and 1612 four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an exemplary embodiment. You can decide. The image decoding apparatus 150 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 150 may determine each processing block 1602 and 1612 included in the picture 1600 based on the size of the processing block, and include the processing block 1602 and 1612 in the processing block 1602 and 1612.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 150 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream and based on the obtained information about the determination order.
  • the order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 150 may obtain information on a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 160 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 150 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the receiver 160 may obtain information about a reference coding unit determination order from the bitstream as information related to the processing blocks 1602 and 1612, and the image decoding apparatus 150 may process the processing block ( An order of determining at least one reference coding unit included in 1602 and 1612 may be determined, and at least one reference coding unit included in the picture 1600 may be determined according to the determination order of the coding unit.
  • the image decoding apparatus 150 may determine determination orders 1604 and 1614 of at least one reference coding unit associated with each processing block 1602 and 1612. For example, when information on the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 1602 and 1612 may be different for each processing block.
  • the reference coding units included in the processing block 1602 may be determined according to the raster scan order.
  • the reference coding unit determination order 1614 associated with another processing block 1612 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 1612 may be determined according to the reverse order of the raster scan order.
  • MPC mode (Most Probable Chroma Mode), which is a prediction mode for chroma blocks.
  • the MPC mode predicts the chroma samples of the current chroma block according to the correlation information between the prediction result or the reconstruction result of the luma samples included in the current luma block and the luma value and the chroma value obtained from the blocks decoded before the current chroma block. It is a way.
  • the prediction method according to the MPC mode is described in detail below.
  • FIG. 17 illustrates a video decoding apparatus 1700 that performs chroma intra prediction.
  • the video decoding apparatus 1700 includes a correlation information acquirer 1710, a chroma sample predictor 1720, and a decoder 1730.
  • the correlation information acquisition unit 1710, the chroma sample prediction unit 1720, and the decoding unit 1730 are represented by separate structural units, but according to an embodiment, the correlation information acquisition unit 1710 and the chroma sample are illustrated.
  • the predictor 1720 and the decoder 1730 may be combined to be implemented in the same component unit.
  • the correlation information acquisition unit 1710, the chroma sample prediction unit 1720, and the decoding unit 1730 are represented by structural units located in one device, the correlation information acquisition unit 1710 and the chroma sample prediction unit are illustrated.
  • the devices in charge of the functions of the 1720 and the decoder 1730 need not be physically adjacent to each other. Accordingly, the correlation information acquisition unit 1710, the chroma sample prediction unit 1720, and the decoding unit 1730 may be distributed according to an exemplary embodiment.
  • the correlation information acquisition unit 1710, the chroma sample prediction unit 1720, and the decoding unit 1730 may be implemented by one processor according to an embodiment. In some embodiments, the present invention may also be implemented by a plurality of processors.
  • the correlation information acquisition unit 1710, the chroma sample prediction unit 1720, and the decoding unit 1730 may be stored in the form of a program in a storage medium of the video decoding apparatus 1700.
  • a program that performs functions of the correlation information acquirer 1710, the chroma sample predictor 1720, and the decoder 1730 may be acquired from the outside as needed by the video decoding apparatus 1700.
  • the correlation information acquisition unit 1710 may obtain correlation information between the luma value and the chroma value from the MPC mode reference region of the current chroma block.
  • Correlation information includes a correlation between a specific luma value and a chroma value. For example, when the luma value of the luma sample at the same position is 49 and the chroma value of the chroma sample is 117, it may be interpreted that the luma value 49 and the chroma value 117 are correlated with each other. Therefore, the correlation information may include information that the luma value 49 and the chroma value 117 are related to each other.
  • the correlation information acquisition unit 1710 may statistically process a correlation between the luma sample and the chroma sample from the plurality of positions, and determine that a specific luma value and the chroma value have correlation with each other. Samples within the same picture are likely to have the same properties. Therefore, there is a high probability that specific luma values and chroma values are related to each other within the same picture. Therefore, it is possible to statistically analyze luma samples and chroma samples already restored before the current chroma block, and predict chroma samples of the current chroma block with high accuracy. For example, when there are a plurality of positions where the luma value 49 and the chroma value 117 are connected to each other, it may be predicted that the chroma value is 117 at the position where the luma value is 49.
  • the correlation information acquisition unit 1710 may determine an MPC mode reference region for acquiring correlation information.
  • the MPC mode reference region refers to a region where samples necessary for prediction of a current chroma block are located.
  • the size of the MPC mode reference region may be determined to have an optimal prediction efficiency according to various embodiments.
  • the MPC mode reference region may be located in a specific direction from the current chroma block.
  • the MPC mode reference region may exist in the direction in which the decoded block exists before the current chroma block according to the scanning order of the current picture.
  • the MPC mode reference region may be located in at least one of the left, upper side, upper left side, upper right side, and lower left side of the current chroma block.
  • the MPC mode reference region may be located only in the left, top, and left upper directions of the current chroma block.
  • the distance between the reference sample included in the MPC mode reference region and the current chroma block may be within a predetermined sample distance.
  • the samples adjacent to the current chroma block are likely to have the same properties as the samples included in the current chroma block. Therefore, the MPC mode reference region can be determined to be adjacent to the current block.
  • the MPC mode reference region may include only samples within 4 sample distances from the current block. Thus, samples whose distance from the current block exceeds 4 sample distances may be excluded in the MPC mode reference region.
  • the direction and sample distance of the MPC mode reference region may be determined according to the MPC mode reference region information obtained from the bitstream.
  • the MPC mode reference region information includes information on how the MPC mode reference region of the current chroma block is determined.
  • the MPC mode reference region information may include a direction and a sample distance that provide optimal coding efficiency.
  • the MPC mode reference region information may be obtained with respect to a coding unit or a higher data unit of the coding unit.
  • the sample distance may be determined according to the size of the current chroma block, not the MPC mode reference region information. For example, the sample distance may be determined to be equal to half of the width (height) of the current chroma block. Therefore, if the width (height) of the current chroma block is 8, the sample distance may be determined as 4. As another example, the sample distance may be determined to be equal to twice the width (height) of the current chroma block or the width (height) of the current chroma block.
  • the sample distance may be determined according to the resolution of the current picture. As the resolution of the current picture is higher, the number of samples related to the current chroma block increases, so that the sample distance may be set to increase in proportion to the resolution of the current picture.
  • the sample distance may be determined according to the slice type to which the current chroma block belongs. For example, the sample distance may be determined according to whether the current block belongs to a slice of a slice type in which only intra prediction is used.
  • the MPC mode reference area may be an area of all blocks decoded before decoding of the current chroma block. If all blocks are included in the MPC mode reference region, the direction and sample distance of the MPC mode reference region need not be determined.
  • the correlation information is updated each time the chroma block is decoded, and can be used until the last chroma block of the current picture is decoded.
  • the MPC mode reference region 1820 illustrates an embodiment of an MPC mode reference region. If the current chroma block 1810 is predicted by the MPC mode, analysis of the MPC mode reference region 1820 is performed.
  • the MPC mode reference region 1820 includes samples spaced apart by a predetermined sample distance in the left, top, and top left directions from the boundary of the current chroma block.
  • the MPC mode reference region 1820 is positioned in the left, upper, and upper left directions from the current chroma block 1810, but may be located in the lower left and upper right directions, according to an exemplary embodiment.
  • the MPC mode reference region 1820 is shown as part of a decoded region of the current picture. However, according to an embodiment, the MPC mode reference region 1820 may be set to all of the decoded region of the current picture.
  • the sample distance 1830 for determining the MPC mode reference region 1820 of FIG. 18 may be determined according to the current chroma block 1810.
  • the sample distance 1830 may increase in proportion to the size of the current chroma block 1810.
  • the sample distance 1830 can be adjusted to a percentage of the height or width of the current chroma block 1810.
  • the correlation information acquirer 1710 may acquire a luma-chroma pair consisting of a luma value of the luma sample and a chroma value of the chroma sample with respect to the luma sample and the chroma sample of the same position in the MPC mode reference region. For example, when the luma value of the luma sample in the same position is 49 and the chroma value of the chroma sample is 117, luma-chroma pair 49-117 is generated.
  • the correlation information acquisition unit 1710 may scan the MPC mode reference region and reflect the luma-chroma pairs obtained sequentially in the luma-chroma two-dimensional histogram.
  • the method of reflecting the luma-chroma pair in the luma-chroma two-dimensional histogram may be performed according to Equation 1 below.
  • Equation 1 X denotes an MPC mode reference region. Therefore, (i, j) represents a position included in the MPC mode reference region.
  • Y means luma value
  • Cr and Cb means chroma value. Equation 1 can be applied to the prediction of both Cr and Cb, and the chroma value is represented as Cr (Cb).
  • Y [i] [j] represents the luma value at position (i, j)
  • Cr (Cb) [i] [j] represents the chroma value at position (i, j).
  • Hist [Y] [Cr (Cb)] indicates how accumulated (Y, Cr (Cb)) values are accumulated. Therefore, according to Equation 1, Hist [Y] [Cr (Cb)] indicated by the luma-chroma pair according to the position (i, j) is increased by one.
  • Equation 1 each time one position of the MPC mode reference region is scanned, it can be seen that Hist [Y] [Cr (Cb)] for the luma-chroma pair corresponding to the one position increases.
  • Hist [Y] [Cr (Cb)] for the luma-chroma pair corresponding to the one position increases.
  • FIG. 19 shows an embodiment of a luma-chroma two-dimensional histogram.
  • the x-axis of the luma-chromatic two-dimensional histogram represents luma values
  • the y-axis represents chroma values.
  • a distribution of luma-chroma pairs included in the MPC mode reference region appears.
  • the most likely chroma value or the average chroma value is obtained for each luma value or luma range.
  • the correlation information acquirer 1710 may determine a method of matching the luma sample and the chroma sample according to the color format. For example, when the color format is 4: 4: 4, since the density of the luma sample and the chroma sample are the same, all luma samples and chroma samples of the MPC mode reference region may be one-to-one matching. Thus, luma-chroma pairs may be generated for all luma samples in the MPC mode reference region.
  • the luma sample and the chroma sample do not have a one-to-one matching because the density of the luma sample is twice the density of the chroma sample.
  • the luma samples of the entire luma samples of the MPC mode reference region may be determined to match the chroma sample.
  • two luma samples may be determined to match one chroma sample.
  • the luma sample and the chroma sample do not have a one-to-one matching because the density of the luma sample is four times the density of the chroma sample.
  • the luma sample and the chroma sample do not have a one-to-one matching because the density of the luma sample is four times the density of the chroma sample.
  • four luma samples may be determined to match one chroma sample.
  • 20 illustrates a method of matching a luma sample and a chroma sample according to a color format. 20 illustrates a 4 ⁇ 4 luma block and a chroma block.
  • FIG. 20 illustrates a method of matching luma samples and chroma samples when the color format is 4: 4: 4.
  • the color format is 4: 4: 4
  • the density of the luma sample and the chroma sample is the same, the luma samples and the chroma samples are matched according to the sample position.
  • 16 luma-chroma pairs can be generated for 16 luma samples.
  • the middle embodiment of FIG. 20 describes a method of matching luma samples and chroma samples when the color format is 4: 2: 2.
  • the density of the luma sample is twice the density of the chroma sample. Therefore, only half of the luma samples of the entire luma samples of the intermediate embodiment of FIG. 20 may be determined to match the chroma sample.
  • sixteen luma samples may be generated to correspond to eight chroma samples in a ratio of 2: 1.
  • luma sample 2002 can be matched with chroma sample 2012 to generate a luma-chroma pair of 49-117.
  • the luma sample 2004 does not match any chroma sample since there is no chroma sample at the point where the luma sample 2004 is located.
  • the luma sample 2004 may match the chroma sample 2012 instead of the luma sample 2002, or the average of the luma samples 2002 and 2004 may match the chroma sample 2012.
  • luma samples 2002 and 2004 may be matched with chroma samples 2012, respectively.
  • luma-chroma pairs of 49-117 and luma-chroma pairs from luma sample (2002) and chroma sample (2012) may be generated from luma sample (2002) and chroma sample (2012).
  • the lower embodiment of FIG. 20 illustrates a method of matching luma samples and chroma samples when the color format is 4: 2: 0.
  • the density of the luma sample is four times the density of the chroma sample. Therefore, only one quarter luma samples of the whole luma samples of the lower embodiment of FIG. 20 may be determined to match the chroma sample.
  • sixteen luma samples may be generated to correspond to four chroma samples in a 4: 1 ratio.
  • luma sample 2022 can be matched with chroma sample 2032 to produce a luma-chroma pair of 49-117.
  • the luma samples 2024, 2026, 2028 do not match any chroma sample since there is no chroma sample at the point where the luma samples 2024, 2026, 2028 are located.
  • one of the luma samples 2024, 2026, 2028 matches the chroma sample 2032 instead of the luma sample 2022, or the mean of the luma samples 2022, 2024, 2026, 2028 is the chroma sample. 2032 may be matched.
  • luma samples 2022, 2024, 2026, and 2028 may be matched with chroma samples 2032, respectively.
  • one 49-117 luma-chroma pair from luma sample 2022 and chroma sample 2032 and three 50-117 luma-chroma from luma samples 2024, 2026, 2028 and chroma sample 2032 Pairs may be generated.
  • the correlation information acquisition unit 1710 may obtain correlation information by determining the most frequent chroma value corresponding to each luma value according to a luma-chroma two-dimensional histogram. According to a luma-chroma two-dimensional histogram, the correlation information acquisition unit 1710 may obtain a cumulative distribution of chroma values for each of the luma values. In addition, the correlation information acquisition unit 1710 may obtain the most frequent chroma value from the cumulative distribution of the chroma values. Thus, the most likely chroma value can be obtained for each luma value from the luma-chroma two-dimensional histogram. Since the most likely chroma value is most likely to appear with respect to the current chroma block like the MPC mode reference region, the most likely chroma value can be used as a prediction value.
  • the prediction value of the chroma sample having the luma value of the in-situ luma sample in the current chroma block is 49 may be determined as 117.
  • the correlation information acquisition unit 1710 may obtain correlation information by determining an average chroma value corresponding to each luma value according to a luma-chroma two-dimensional histogram. According to the luma-chroma two-dimensional histogram, the correlation information acquisition unit 1710 may obtain an average value of chroma values for each of the luma values. The correlation information acquisition unit 1710 may obtain an average chroma value from the average value of the chroma values. Like the most likely chroma value, the average chroma value is likely to have a high accuracy in predicting chroma samples of the current chroma block. Therefore, in some embodiments, an average chroma value may be used in place of the most frequent chroma value.
  • the correlation information acquisition unit 1710 may reflect only a luma-chroma pair for luma values included in the current luma block in the luma-chroma two-dimensional histogram.
  • the current chroma block is predicted according to the luma value included in the current luma block. Therefore, there is no need for the most recent chroma value for luma values that are not included in the current luma block. Therefore, to reduce the complexity of the calculation, luma-chroma pairs for luma values included in the current luma block in the MPC mode reference region may not be reflected in the two-dimensional histogram.
  • the correlation information acquisition unit 1710 may determine a default value as the least likely chroma value for a luma value for which no luma-chromat pair is found in the MPC mode reference region. For example, if there is a luma sample with a luma value of 49 in the luma block and there are no luma-chroma pairs with a luma value of 49 in the MPC mode reference region, the mode chroma for the luma value 49 is obtained from the MPC mode reference region. Can not. Therefore, the most common chroma value of a luma value without a luma-chromation pair in the MPC mode reference region may be determined as a default value.
  • the default value may be determined to be any predetermined value. For example, if the default value is 120 and there is no luma-chroma pair with a luma value of 49 in the MPC mode reference region, the mode chroma value for luma value 49 is determined to be 120.
  • the default value may be determined as an average value of chroma values of the MPC mode reference region. For example, when the average value of chroma values of the MPC mode reference region is 120 and there is no luma-chromat pair having a luma value of 49 in the MPC mode reference region, the mode chroma value for the luma value 49 is determined to be 120.
  • the correlation information acquisition unit 1710 may determine the most recent chroma value of the adjacent luma value as the least recent chroma value of the luma value with respect to the luma value for which no luma-chroma pair is found in the MPC mode reference region. For example, if there are no luma-chroma pairs with luma value 49 in the MPC mode reference region, instead of having a luma-chroma pair with luma value 50, the least likely chroma value of luma value 50 is determined as the least likely chroma value of luma value 49. Can be.
  • the correlation information acquirer 1710 may reflect the luma-chroma pair in the 2D histogram based on a weight depending on how close the position of the reference sample from which the luma-chroma pair is derived is the current chroma block. Since the samples in the current chroma block are likely to share the same characteristics as the reference samples near the current chroma block, it is possible to give a large weight to the luma-chroma pair derived from the reference samples close to the current chroma block. . Therefore, the prediction accuracy according to the MPC mode can be improved.
  • the method of reflecting the weight of the luma-chroma pair in the luma-chroma two-dimensional histogram may be performed according to Equation 2 below.
  • Equation 2 means a weight and is determined based on the distance between the current chroma block and the reference sample. Specifically, W is set to decrease as the distance between the current chroma block and the reference sample increases. Therefore, according to Equation 2, Hist [Y] [Cr (Cb)] indicated by the luma-chroma pair at position (i, j) is increased by W according to the distance between the reference sample and the current chroma block.
  • the correlation information acquirer 1710 may determine luma ranges including a plurality of consecutive luma values. If the mode chroma is obtained for all luma values included in the current luma block, the computational complexity may increase. In addition, when the number of reference samples for a specific luma value is small, there is a possibility that false prediction values are derived due to noise. Therefore, by obtaining the most frequent chroma value for a luma range that includes a plurality of consecutive luma values, it is possible to reduce the complexity of the calculation and increase the accuracy of the prediction.
  • the method of reflecting the luma-chroma pair in the luma-chroma two-dimensional histogram for each luma range may be performed according to Equation 3 below.
  • Equation 3 ⁇ , (i, j), Y [i] [j], Cr (Cb) [i] [j], and Hist [Y] [Cr (Cb)] in Equation 3 are the same as those in Equation 1 Indicates meaning.
  • ">>” in equation (3) represents a right shift operation. Therefore, "Y >> m” represents a value in which Y expressed in bits is shifted to the right by m bits. For example, when Y representing a luma value is 49, Y is represented in the form of a bit of 00110001. And when m is 3, the right three bits of Y are shifted to the right, so that "Y >> m" is represented in the form of a bit of 00110. Therefore, according to Equation 3, the luma range including the luma value according to the position (i, j) and Hist [Y >> m] [Cr (Cb)] indicated by the chroma value are increased by one.
  • the size of the luma range may be determined according to the bit depth of the luma value. For example, as the bit depth increases by one, the size of the luma range increases by two times. As a specific example, if the size of the luma range is set to 8 when the bit depth of the luma value is 8 bits, the size of the luma range may be set to 32 when the bit depth of the luma value is 10 bits.
  • the present invention is not limited thereto, and the size of the luma range with respect to the bit depth of the luma value can be easily adjusted by a person skilled in the art based on statistical values.
  • the luma range size may be determined according to luma range size information obtained from the bitstream, not the bit depth of the luma value.
  • the luma range size information may include the size of the optimal luma range determined in the encoding process.
  • the luma range may be determined according to the distribution of luma values of the current luma block. For example, when the luma values are distributed in 60 to 75 intervals, the luma range may be determined by dividing the 60 to 75 intervals by a constant number. Specifically, when four luma ranges are required, the interval may be divided into 60 to 63, 64 to 67, 68 to 71, 72 to 75.
  • the correlation information acquisition unit 1710 may determine the most frequent chroma value for each luma range according to a luma-chroma two-dimensional histogram. Therefore, the plurality of luma values included in the luma range correspond to one mode chroma value.
  • obtaining a luma-chromatic two-dimensional histogram and determining correlation information according to the luma-chromatic two-dimensional histogram according to FIGS. 21A to 22B will be described.
  • 21A and 21B are provided to explain a method of predicting a current chroma block 2110 according to an MPC mode reference region.
  • 21A illustrates luma values of luma samples included in a current luma block 2100 and luma values of luma samples included in an MPC mode reference region 2120 of a luma picture.
  • 21B illustrates chroma values of chroma samples included in the current chroma block 2110 and the MPC mode reference region 2120 of the chroma picture for which the prediction step has not yet been performed.
  • the chroma samples of the current chroma block 2110 have not been predicted and reconstructed yet.
  • the chroma samples of the current chroma block 2110 are determined according to the luma values of the luma samples and the chroma samples included in the MPC mode reference regions 2120 and 2130 and the luma values of the luma samples of the current luma block 2100. It is predicted.
  • the luma sample and the chroma sample in the same position included in the MPC mode reference regions 2120 and 2130 match each other.
  • the luma sample and the chroma sample located at the first positions 2121 and 2131 are 49 and 117, respectively.
  • the luma-chroma pair at the first positions 2121 and 2131 is determined to be (49,117).
  • a luma-chroma pair may not be generated for a luma sample having luma values that are not currently included in the luma block 2100 among luma samples included in the MPC mode reference region 2120 of the luma picture.
  • the luma value of the luma sample at the second positions 2122 and 2132 is 61, and since the current luma block 2100 does not include a luma sample having a luma value of 61, the second position 2122 and 2132 is used.
  • a luma-chroma pair for may not be generated.
  • the most recent chroma value or the average chroma value for the luma value included in the luma block 2100 but not in the MPC mode reference region 2120 of the luma picture may be determined as a default value.
  • the luma value of the luma sample located at the third position 2123 is 48, and since there is no luma sample with a luma value of 48 in the MPC mode reference region 2120 of the luma picture, the most likely chroma for luma value 48 is The value or average chroma value may be determined as the default value.
  • the default value may be the mode or average value of the chroma values of the MPC mode reference region 2130 of the chroma picture.
  • the default value may be the most recent chroma value or the average chroma value of the luma value closest to the luma value 48.
  • FIG. 22A illustrates a luma-chromatic two-dimensional histogram 2200 obtained by analyzing the MPC mode reference regions 2120 and 2130 of FIGS. 21A and 21B.
  • the x-axis of the luma-chromatic two-dimensional histogram 2200 represents a luma value and the y-axis represents a chroma value.
  • the two-dimensional plane of the luma-chroma two-dimensional histogram 2200 represents the distribution of luma-chroma pairs in the MPC mode reference regions 2120 and 2130.
  • White portions in the luma-chromium two-dimensional histogram 2200 indicate that there is no corresponding luma-chrom pair. And the light gray portion indicates that there is one corresponding luma-chroma pair, and the gray portion indicates that there are two corresponding luma-chroma pairs. Finally, the black portion indicates that there are three or more corresponding luma-chroma pairs.
  • the most common chroma value for each luma value may be calculated from the luma-chroma two-dimensional histogram 2200. For example, for luma value 54 the mode chroma value is 117. Similarly, the average chroma value may be calculated according to the two-dimensional histogram 2200. The current chroma block is predicted by using the calculated most likely chroma value or the average chroma value.
  • FIG. 22B shows a luma-chromatic two-dimensional histogram 2220 obtained by analyzing the MPC mode reference regions 2120 and 2130 of FIGS. 21A and 21B.
  • the x-axis of the luma-chroma two-dimensional histogram 2220 is divided based on a luma range including a plurality of luma values, unlike the luma-chroma two-dimensional histogram 2200. Therefore, the most common chroma value for each of the luma values is not obtained, but the most common chroma value is obtained for the luma range 2222, 2224, 2226 that includes a plurality of luma values.
  • the mode of chroma is determined to be 117.
  • the most common chroma value is determined to be 118 for the luma range 2224 including the luma values 53 to 56 and the luma range 2226 including the luma values 57 to 60.
  • the chroma sample predictor 1720 may obtain a sample value of the chroma sample included in the current chroma block from the luma samples of the luma block corresponding to the current chroma block according to the correlation information. It can be predicted. A current luma block having the same size as the current chroma block and located at the same location is predicted or decoded before the current chroma block. Therefore, the current chroma block may be predicted using the prediction result or the reconstruction result of the current luma block.
  • the chroma sample predictor 1720 may obtain a luma value of the luma sample at the same position as the chroma sample to determine the prediction value of the chroma sample.
  • the chroma sample predictor 1720 may determine the most recent chroma value corresponding to the obtained luma value as a prediction value of the chroma sample. For example, when the most recent chroma value of the luma value 49 is 117, the chroma value of the chroma sample of which the luma value of the luma sample at the same position is 49 may be predicted as 117.
  • FIG. 23A illustrates a prediction result of the current chroma block 2110 according to the luma-chroma two-dimensional histogram 2200 of FIG. 22A.
  • the left side of FIG. 23A shows the current luma block 2300, and the right side of FIG. 23A shows the prediction result of the current chroma block 2310.
  • the luma value 52 has the most common chroma value of 116
  • the luma values 49, 50, 51, 54, and 58 has the least mode chroma value of 117
  • the luma values 53, 55, 56, 59 The mode chroma value of 60 is 118
  • the mode chroma value of luma value 57 is 119.
  • the most likely chroma value for luma value 48 is the average of the overall chroma values of the luma-chroma two-dimensional histogram 2200. 118 is determined. Reflecting the correlation, the current chroma block 2310 of FIG. 23A is predicted according to the most frequent chroma value corresponding to the luma value of the current luma block 2300.
  • FIG. 23B shows a prediction result of the current chroma block 2330 according to the luma-chroma two-dimensional histogram 2220 of FIG. 22B.
  • the left side of FIG. 23B shows the current luma block 2320, and the right side of FIG. 23B shows the prediction result of the current chroma block 2330.
  • the luma values 49 to 52 have a mode of the most frequent chroma value of 117 and the luma values 53 to 60 have a mode of chroma of 118.
  • the most likely chroma value for luma value 48 cannot be obtained from the luma-chroma two-dimensional histogram 2200, the most likely chroma value for luma value 48 is the average of the overall chroma values of the luma-chroma two-dimensional histogram 2200.
  • 118 is determined.
  • the current chroma block 2330 of FIG. 23B is predicted based on the most recent chroma value corresponding to the luma value of the current luma block 2320 by reflecting the correlation.
  • the chroma sample predictor 1720 may obtain intra mode information of the current chroma block from the bitstream.
  • the intra mode information indicates the intra mode of the current chroma block.
  • the intra mode information may indicate one of the intra modes available in the current chroma block.
  • the usable intra mode may include at least one of a planner mode, a vertical mode, a horizontal mode, a DC mode, a DM mode, and an MPC mode. Intra mode information is described in detail in FIG. 24.
  • the 24 shows a table for describing intra mode information indicating a prediction mode of a current chroma block.
  • an intra mode for the chroma block at least one of a DM mode, a planar mode, a vertical mode, a horizontal mode, a DC mode, and an MPC mode may be used.
  • the DM mode represents a method of predicting the current chroma block in the same manner as the luma intra mode.
  • the planner mode represents a method of predicting a current chroma block by double interpolating neighboring samples of the current chroma block.
  • the vertical mode indicates a method of predicting a current chroma block using neighboring samples of the current chroma block located in the vertical direction.
  • the horizontal mode indicates a method of predicting a current chroma block using neighboring samples of the current chroma block located in the horizontal direction.
  • the DC mode represents a method of predicting a current chroma block according to an average value of neighboring samples of the current chroma block.
  • the MPC mode represents a method of predicting a current chroma block according to correlation information about a luma value and a chroma value obtained in the MPC mode reference region.
  • the method of allocating the code of the intra mode information may be determined according to which prediction mode is allowed for the current chroma block.
  • the intra mode information may be represented by one bit.
  • MPC mode may be allocated to 0 of intra mode information, and DM mode may be allocated to 1 of intra mode information.
  • DM mode may be allocated to 0 of intra mode information, and MPC mode may be allocated to 1 of intra mode information.
  • the intra mode information may be represented by three bits.
  • DM mode may be allocated to 0 of intra mode information
  • MPC mode may be allocated to 100 of intra mode information.
  • the vertical mode, the horizontal mode, and the DC mode may be allocated to the 101, 110, and 111 of the intra mode information, respectively.
  • the code allocation method of the intra mode information may be changed according to the statistical use probability of the intra mode.
  • the intra mode information may be represented by four bits.
  • MPC mode may be allocated to 0 of intra mode information
  • DM mode may be allocated to 10 of intra mode information.
  • the planner mode, the vertical mode, the horizontal mode, and the DC mode may be allocated to the 1100, 1101, 1110, and 1111 of the intra mode information, respectively.
  • the code allocation method of the intra mode information may be changed according to the statistical use probability of the intra mode.
  • the function of the correlation information acquisition unit 1710 may be performed when the intra mode information indicates the MPC mode. Even when the current chroma block is not predicted by the MPC mode, when the function of the correlation information acquisition unit 1710 is performed, encoding and decoding performance is deteriorated due to unnecessary calculation, so that the intra mode information does not indicate the MPC mode. At this time, the function of the correlation information acquisition unit 1710 is not performed.
  • the chroma sample predictor 1720 predicts the current chroma sample according to the intra mode according to the intra mode information. Accordingly, when the intra mode information indicates the MPC mode, the chroma sample predictor 1720 may predict the current chroma mode according to a prediction method according to the MPC mode.
  • the chroma sample predictor 1720 may predict the sample values of the chroma samples of the current chroma block from the decoded luma samples of the current luma block after the current luma block corresponding to the current chroma block is decoded. Since the MPC mode predicts the current chroma block according to the correlation between the luma value and the chroma value, the current luma block must be decoded before the current chroma block. Therefore, the current luma block and the current chroma block can be sequentially decoded.
  • the chroma sample predictor 1720 may predict the sample values of the chroma samples based on the prediction values of the luma samples included in the current luma block.
  • the current chroma block may be inter predicted like the current luma block or intra predicted according to the MPC mode.
  • the prediction result based on inter prediction is generally more accurate than the prediction result based on intra prediction. Therefore, unlike the case in which the current luma block is intra predicted, when the current luma block is inter predicted, the current chroma block may be intra predicted according to the MPC mode according to the prediction result rather than the reconstruction result of the current luma block.
  • the prediction accuracy may be slightly reduced compared to when predicting the current chroma block according to the reconstruction result of the current luma block.
  • the decoding step after the prediction of the current luma block and the prediction step of the current chroma block may be performed in parallel, the decoding speed may increase.
  • Whether the sample value of the current chroma sample is predicted according to the prediction value of the current luma sample may be determined according to parallel prediction information obtained from the bitstream. If the parallel prediction information allows inter-prediction of the current luma block, if the post-prediction decoding step of the current luma block and the prediction step of the current chroma block are allowed to be performed in parallel, the decoding speed may be increased instead of decreasing the prediction accuracy of the current chroma block. Can be. In the encoding process, the parallel prediction information may be determined in consideration of the decrease amount of the prediction accuracy and the increase rate of the decoding speed of the current chroma block.
  • the order of prediction and reconstruction of the current luma block and the current chroma block will be described with reference to FIG. 25.
  • Fig. 25 shows the order of decoding the current luma block and decoding the current chroma block.
  • the prediction 2404 based on the PCM mode of the current chroma block is performed according to the decoded current luma block. do. Therefore, according to the flowchart (a), the current luma block and the current chroma block are performed in order.
  • the decoding based on the decoding 2512 of the current luma block and the PCM mode of the current chroma block are performed.
  • Prediction 2514 may be performed in parallel. Since inter prediction is generally more accurate than intra prediction, it is possible to accurately predict a chroma sample only with the prediction value of the luma sample according to inter prediction. Therefore, in a system capable of parallel operation, the operation speed may be improved by decoding according to (b) the flowchart.
  • the chroma sample predictor 1720 may smooth the predicted value of the chroma sample according to the adjacent sample of the predicted chroma sample. Prediction values of chroma samples may be smoothed to improve prediction accuracy. In this case, the prediction value may be smoothed according to the left and top samples of the chroma sample. Since the previously reconstructed samples of the left block and the upper block of the current chroma block are referenced in the smoothing process, the difference between the predicted value and the actual value can be reduced.
  • the smoothing step may be performed according to Equation 4.
  • Pred [i, j] represents the position of the sample to be smoothed.
  • Pred [i, j] represents the sample value of the sample to be smoothed
  • Pred [i-1, j] represents the sample value of the left sample
  • Pred [i, j-1] represents the sample value of the upper sample.
  • ⁇ 00 , ⁇ ⁇ 1,0 , ⁇ 0 , ⁇ 1 represent weights for the sample value of the sample to be smoothed, the sample value of the left sample, and the sample value of the upper sample, respectively.
  • the prediction values of the current chroma block 2600 may be smoothed for accuracy of prediction.
  • the prediction values may each be smoothed based on the sample value of the left sample immediately adjacent to the left and the sample value of the upper sample immediately adjacent to the right.
  • the prediction values of the chroma samples located at the left boundary or the upper boundary of the current chroma block 2600 are smoothed by the sample values of the already decoded samples 2610 of the neighboring block, thereby improving the accuracy of the prediction.
  • the prediction value of the first sample 2601 located on the upper left side of the current chroma block 2600 is smoothed by the sample values of the two decoded samples 2611 and 2612.
  • the prediction values of other samples of the current chroma block 2600 are also smoothed according to the sample values of the left sample and the upper sample, respectively, according to the arrow direction shown in FIG.
  • the left sample and the upper sample are required to be a decoded sample or a smoothed sample. Therefore, the predicted value of the first sample 2601 must first be decoded.
  • the predicted values of other samples of the current chroma block 2600 are smoothed sequentially in the scanning order.
  • the decoder 1730 may reconstruct the current block based on the predicted chroma sample sample value.
  • FIG. 27 shows a flowchart of a method 2700 of decoding a current chroma block according to the MPC mode.
  • correlation information between a luma value and a chroma value is obtained from the MPC mode reference region of the current chroma block.
  • the MPC mode reference region may be located in the left, upper, and upper left directions of the current chroma block, and may be located within a predetermined sample distance from the boundary of the current chroma block.
  • the predetermined sample distance may be determined according to the MPC mode reference region information obtained from the bitstream.
  • the predetermined sample distance may be determined according to at least one of the size of the current chroma block, the resolution of the current picture, and the slice type, not the MPC mode reference region information.
  • the MPC mode reference region may include all blocks decoded before decoding of the current block.
  • a luma-chroma pair may be obtained from a luma sample and a chroma sample of the same position in the MPC mode reference region.
  • the luma-chroma pair consists of the luma value of the luma sample and the chroma value of the chroma sample in the same position.
  • luma-chroma pair can be reflected in the luma-chroma two-dimensional histogram.
  • Correlation information may be obtained by determining the most likely chroma value or the average chroma value corresponding to each luma value according to a luma-chroma two-dimensional histogram in which all luma-chroma pairs of the MPC mode reference region are reflected.
  • a luma-chroma two-dimensional histogram can be completed for a luma range that includes a plurality of consecutive luma values, rather than each luma value.
  • Correlation information may be obtained by determining the least likely chroma value or the average chroma value for each of the luma ranges according to a luma-chroma two-dimensional histogram according to the luma range.
  • the sample value of the chroma sample of the current chroma block is predicted from the luma samples of the current luma block corresponding to the current chroma block according to the correlation information.
  • a sample value of chroma samples of the current chroma block may be predicted from the reconstruction result of the current luma block. If the current luma block is inter predicted, according to an embodiment, the sample value of the chroma samples of the current chroma block may be predicted from the prediction result of the current luma block.
  • Prediction values of chroma samples included in the current chroma block may be smoothed according to prediction values of adjacent samples adjacent to the chroma sample.
  • step 2730 the current chroma block is decoded based on the sample value of the predicted chroma sample.
  • Steps 2710 to 2730 may be performed by the correlation information obtaining unit 1710 to decoding unit 1730 of FIG. 17.
  • functions performed by each component of the video decoding apparatus 1700 of FIG. 17 may be included in the encoding method 2700 according to the MPC mode.
  • FIG. 28 illustrates a video encoding apparatus 2800 for performing chroma intra prediction.
  • the video encoding apparatus 2800 includes a correlation information acquirer 2810, a chroma sample predictor 2820, and an encoder 2830.
  • the correlation information acquisition unit 2810, the chroma sample prediction unit 2820, and the encoding unit 2830 are represented by separate structural units, but according to an exemplary embodiment, the correlation information acquisition unit 2810 and the chroma sample may be represented.
  • the predictor 2820 and the encoder 2830 may be combined to be implemented in the same structural unit.
  • the correlation information acquisition unit 2810, the chroma sample prediction unit 2820, and the encoding unit 2830 are represented by structural units located in one apparatus, but the correlation information acquisition unit 2810 and the chroma sample prediction unit are illustrated.
  • the devices in charge of the functions of the 2820 and the encoding unit 2830 need not be physically adjacent to each other. Therefore, according to an embodiment, the correlation information acquisition unit 2810, the chroma sample prediction unit 2820, and the encoding unit 2830 may be distributed.
  • the correlation information obtainer 2810, the chroma sample predictor 2820, and the encoder 2830 may be implemented by one processor according to an embodiment. In some embodiments, the present invention may also be implemented by a plurality of processors.
  • the correlation information acquirer 2810, the chroma sample predictor 2820, and the encoder 2830 may be stored in a program form in a storage medium of the video encoding apparatus 2800.
  • a program that performs functions of the correlation information acquirer 2810, the chroma sample predictor 2820, and the encoder 2830 may be obtained from the outside as needed by the video encoding apparatus 2800.
  • the functions of the correlation information acquisition unit 2810 and the chroma sample prediction unit 2820 of FIG. 28 are substantially the same as the functions of the correlation information acquisition unit 1710 and the chroma sample prediction unit 1720 of FIG.
  • the encoder 2830 may select an intra mode having an optimal encoding efficiency among intra modes applicable to the current chroma block, and generate intra mode information according to the selection result.
  • the generated intra mode information may be entropy encoded and included in the bitstream. Therefore, if the prediction result of the MPC mode performed by the correlation information acquisition unit 2810 and the chroma sample prediction unit 2820 has a lower accuracy than the prediction result of another intra mode, the encoder 2830 may determine that the MPC mode is not. Other intra modes may be determined as the intra mode of the current chroma block.
  • the video encoding apparatus 2800 may additionally include a decoder (not shown).
  • the decoder of the video encoding apparatus 2800 has the same function as the decoder 1730 of the video decoding apparatus 1700.
  • the current picture is decoded by referring to the reconstructed picture that was first reconstructed instead of the original picture in the decoding process. Therefore, in order to make the current picture refer to the reconstructed picture that was reconstructed earlier than the original picture, a process of decoding the encoded picture is necessary again. Accordingly, the video encoding apparatus 2800 may perform the functions of the components included in the video decoding apparatus 1700.
  • 29 shows a flowchart of a method 2900 for encoding a current chroma block according to the MPC mode.
  • correlation information between a luma value and a chroma value is obtained from the MPC mode reference region of the current chroma block.
  • the sample value of the chroma sample of the current chroma block is predicted from the luma samples of the current luma block corresponding to the current chroma block according to the correlation information.
  • intra mode information indicating whether prediction of the current block is performed by the MPC mode or another intra mode is generated according to the prediction result according to operation 2920.
  • Steps 2910 to 2930 may be performed by the correlation information acquirer 2810, the chroma sample predictor 2820, and the encoder 2830, respectively.
  • functions performed by each component of the video encoding apparatus 2800 of FIG. 28 may be included in the encoding method 2900 according to the MPC mode.
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

Abstract

현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계, 상관관계 정보에 따라 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계, 및 크로마 샘플의 예측 값에 기초하여, 현재 크로마 블록을 복호화하는 단계를 포함하는 비디오 복호화 방법이 제공된다.

Description

크로마 인트라 예측 방법 및 그 장치
본 발명은 비디오의 부호화 및 복호화에 이용되는 인트라 예측 방법 및 장치에 대한 것으로, 보다 구체적으로는 복호화된 블록들의 통계적 자료에 따라 크로마 인트라 예측을 수행하는 방법 및 장치에 관한 것이다.
높은 화질의 비디오는 부호화시 많은 양의 데이터가 요구된다. 그러나 비디오 데이터를 전달하기 위하여 허용되는 대역폭은 한정되어 있어, 비디오 데이터 전송시 적용되는 데이터 레이트가 제한될 수 있다. 그러므로 효율적인 비디오 데이터의 전송을 위하여, 화질의 열화를 최소화하면서 압축률을 증가시킨 비디오 데이터의 부호화 및 복호화 방법이 필요하다.
비디오 데이터는 픽셀들 간의 공간적 중복성 및 시간적 중복성을 제거함으로써 압축될 수 있다. 인접한 픽셀들 간에 공통된 특징을 가지는 것이 일반적이기 때문에, 인접한 픽셀들 간의 중복성을 제거하기 위하여 픽셀들로 이루어진 데이터 단위로 부호화 정보가 전송된다.
데이터 단위에 포함된 픽셀들의 픽셀 값은 직접 전송되지 않고, 픽셀 값을 획득하기 위해 필요한 방법이 전송된다. 픽셀 값을 원본 값과 유사하게 예측하는 예측 방법이 데이터 단위마다 결정되며, 예측 방법에 대한 부호화 정보가 부호화기에서 복호화기로 전송된다. 또한 예측 값이 원본 값과 완전히 동일하지 않으므로, 원본 값과 예측 값의 차이에 대한 레지듀얼 데이터가 부호화기에서 복호화기로 전송된다.
예측이 정확해질수록 예측 방법을 특정하는데 필요한 부호화 정보가 증가되지만, 레지듀얼 데이터의 크기가 감소하게 된다. 따라서 부호화 정보와 레지듀얼 데이터의 크기를 고려하여 예측 방법이 결정된다. 특히, 픽처에서 분할된 데이터 단위는 다양한 크기를 가지는데, 데이터 단위의 크기가 클수록 예측의 정확도가 감소할 가능성이 높은 대신, 부호화 정보가 감소하게 된다. 따라서 픽처의 특성에 맞게 블록의 크기가 결정된다.
또한 예측 방법에는 인트라 예측과 인터 예측이 있다. 인트라 예측은 블록의 주변 픽셀들로부터 블록의 픽셀들을 예측하는 방법이다. 인터 예측은 블록이 포함된 픽처가 참조하는 다른 픽처의 픽셀을 참조하여 픽셀들을 예측하는 방법이다. 따라서 인트라 예측에 의하여 공간적 중복성이 제거되고, 인터 예측에 의하여 시간적 중복성이 제거된다.
예측 방법의 수가 증가할수록 예측 방법을 나타내기 위한 부호화 정보의 양은 증가한다. 따라서 블록에 적용되는 부호화 정보 역시 다른 블록으로부터 예측하여 부호화 정보의 크기를 줄일 수 있다.
인간의 시각이 인지하지 못하는 한도에서 비디오 데이터의 손실이 허용되는 바, 레지듀얼 데이터를 변환 및 양자화 과정에 따라 손실 압축(lossy compression)하여 레지듀얼 데이터의 양을 감소시킬 수 있다.
픽처는 색 성분에 따라 루마 픽처와 2개의 크로마 픽처 중 하나로 분류될 수 있다. 루마 픽처는 휘도 성분을 나타내는 샘플들을 포함한다. 그리고 크로마 픽처는 색차 성분을 나타내는 샘플들을 포함한다. 부호화 정보의 압축을 위하여, 크로마 픽처의 데이터 단위는 루마 픽처의 데이터 단위의 예측 방법과 동일한 예측 방법에 따라 기초하여 결정될 수 있다.
현재 블록 이전에 복호화된 블록들의 통계적 자료에 따라 현재 블록의 크로마 샘플을 예측하는 크로마 인트라 모드가 개시된다. 또한 상기 크로마 인트라 예측 방법을 수행하는 인트라 예측 장치가 개시된다. 더불어 상기 크로마 인트라 예측 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 개시된다.
현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계, 상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계, 및 상기 크로마 샘플의 예측 값에 기초하여, 상기 현재 크로마 블록을 복호화하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 상관관계 정보 획득부, 상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 크로마 샘플 예측부, 및 상기 크로마 샘플의 예측 값에 기초하여, 상기 현재 크로마 블록을 복호화하는 복호화부를 포함하는 비디오 복호화 장치가 제공된다.
현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계, 상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계, 및 상기 크로마 샘플의 예측 결과에 따라 MPC 모드를 포함한 인트라 모드들 중에서 상기 현재 크로마 블록의 인트라 모드를 결정하는 단계를 포함하는 비디오 부호화 방법이 제공된다.
현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 상관관계 정보 획득부, 상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 크로마 샘플 예측부, 및 상기 크로마 샘플의 예측 결과에 따라 MPC 모드를 포함한 인트라 모드들 중에서 상기 현재 크로마 블록의 인트라 모드를 결정하는 부호화부를 포함하는 비디오 부호화 장치가 제공된다.
본 실시 예가 이루고자 하는 기술적 과제는 상기된 기술적 과제들로 한정되지 않으며, 이하 설명되는 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
크로마 블록에 대한 새로운 예측 방법을 제안하므로써, 비디오 부호화 및 복호화 성능이 개선된다.
도 1a은 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치의 블록도를 도시한다.
도 1b는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 비디오 복호화 장치의 블록도를 도시한다.
도 2a 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 부호화부(200)의 블록도를 도시한다.
도 2b 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 복호화부(250)의 블록도를 도시한다.
도 3은 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 4는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 5는 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 6은 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 7은 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 8은 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 9는 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 11은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 14는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도16은 블록들의 부호화 순서 결정에 관한 일 실시예에 따른 비디오 복호화 장치(1600)를 도시한다.
도 17은 크로마 인트라 예측을 수행하는 비디오 복호화 장치를 도시한다.
도18는 MPC 모드 참조 영역의 일 실시 예를 도시한다.
도 19는 루마-크로마 2차원 히스토그램의 일 실시 예를 나타낸다.
도 20은 컬러 포맷에 따른 루마 샘플과 크로매 샘플의 매칭 방법을 설명한다.
도 21a와 도21b는 MPC 모드 참조 영역을 분석하여 현재 크로마 블록을 예측하는 방법을 설명한다.
도 22a와 도 22b는 도21a와 도21b의 MPC 모드 참조 영역을 분석하여 획득된 루마-크로마 2차원 히스토그램을 나타낸다.
도 23a와 도23b는 도22a와 도22b의 루마-크로마 2차원 히스토그램에 따른 현재 크로마 블록의 예측 결과를 나타낸다.
도 24는 현재 크로마 블록의 예측 모드를 나타내는 인트라 모드 정보를 설명하는 테이블을 도시한다.
도25는 현재 루마 블록과 현재 크로마 블록의 복호화의 순서를 도시한다.
도 26는 현재 크로마 블록의 예측 값의 평활화 과정을 나타낸다.
도 27은 현재 크로마 블록을 MPC 모드에 따라 복호화하는 방법의 순서도를 도시한다.
도 28은 크로마 인트라 예측을 수행하는 비디오 부호화 장치를 도시한다.
도 29은 현재 크로마 블록을 MPC 모드에 따라 부호화하는 방법의 순서도를 도시한다.
현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계, 상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계, 및 상기 크로마 샘플의 예측 값에 기초하여, 상기 현재 크로마 블록을 복호화하는 단계를 포함하는 비디오 복호화 방법이 제공된다.
현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계, 상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계, 및 상기 크로마 샘플의 예측 결과에 따라 MPC 모드를 포함한 인트라 모드들 중에서 상기 현재 크로마 블록의 인트라 모드를 결정하는 단계를 포함하는 비디오 부호화 방법이 제공된다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
"현재 블록"은 현재 부호화 또는 복호화되는 부호화 단위, 예측 단위 및 변환 단위 중 하나를 의미한다. 또한 "하위 블록"은 "현재 블록"으로부터 분할된 데이터 단위를 의미한다. 그리고 "상위 블록"은 "현재 블록"을 포함하는 데이터 단위를 의미한다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 된다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1a는 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치(100)의 블록도를 도시한다.
영상 부호화 장치(100)는 부호화부(110) 및 출력부(120)를 포함한다.
부호화부(110)는 영상을 복수의 부호화 방법에 따라 부호화할 수 있다. 부호화부(110)는 복수의 부호화 방법에 따른 부호화 결과를 비교하여, 가장 효율적인 부호화 방법을 선택할 수 있다. 어떠한 부호화 방법이 가장 효율적인지 여부는 율-왜곡 최적화(Rate-Distortion Optimization)에 따라 결정될 수 있다. 예를 들어, 부호화 방법A와 부호화 방법B가 서로 양립불가능할 때, 부호화부(110)는 율-왜곡 최적화에 따라 부호화 방법A와 부호화 방법B 중 더 효율적인 부호화 방법에 따라 영상을 부호화할 수 있다.
부호화부(110)는 최대 부호화 단위의 크기에 따라 픽처 또는 픽처에 포함된 슬라이스를 복수의 최대 부호화 단위로 분할한다. 최대 부호화 단위는 크기 32x32, 64x64, 128x128, 256x256 등의 데이터 단위로, 가로 및 세로 크기가 2의 자승인 정사각형의 데이터 단위일 수 있다. 부호화부(110)는 최대 부호화 단위의 크기를 나타내는 최대 부호화 단위 크기 정보를 출력부(120)에 제공할 수 있다. 그리고 출력부(120)는 최대 부호화 단위 크기 정보를 비트스트림에 포함시킬 수 있다.
부호화부(110)는 최대 부호화 단위를 분할하여 부호화 단위를 결정한다. 부호화 단위는 최대 크기 및 심도로 결정될 수 있다. 심도란 최대 부호화 단위로부터 부호화 단위가 공간적으로 분할된 횟수로 정의될 수 있다. 심도가 1 증가할 때마다, 부호화 단위는 2개 이상의 부호화 단위로 분할된다. 따라서 심도가 증가할수록 심도별 부호화 단위의 크기는 감소한다. 부호화 단위의 분할 여부는 율-왜곡 최적화에 의하여 부호화 단위의 분할이 효율적인지 여부에 따라 결정된다. 그리고 부호화 단위가 분할되었는지 여부를 나타내는 분할 정보가 생성될 수 있다. 분할 정보는 플래그의 형태로 표현될 수 있다.
부호화 단위는 다양한 방법으로 분할될 수 있다. 예를 들어, 정사각형의 부호화 단위는 너비와 높이가 절반인 4개의 정사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 또한 정사각형의 부호화 단위는 높이가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비 또는 높이를 1:2:1로 분할함으로써 세 개의 부호화 단위로 분할될 수 있다.
너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 너비가 높이의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 너비를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
마찬가지로, 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 또한 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 높이가 너비의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 마찬가지로 높이가 너비의 2배인 직사각형의 부호화 단위는 높이를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
영상 부호화 장치(100)에서 2개 이상의 분할 방법이 사용가능한 경우, 영상 부호화 장치(100)에서 사용가능한 분할 방법 중 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 픽처마다 결정될 수 있다. 따라서 픽처마다 특정한 분할 방법들만이 사용되도록 결정될 수 있다. 만약 영상 부호화 장치(100)가 하나의 분할 방법만을 사용할 경우, 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 별도로 결정되지 않는다.
부호화 단위의 분할 정보가 부호화 단위가 분할됨을 나타낼 때, 부호화 단위의 분할 방법을 나타내는 분할 형태 정보가 생성될 수 있다. 만약 부호화 단위사 속한 픽처에서 사용될 수 있는 분할 방법이 하나인 경우, 분할 형태 정보는 생성되지 않을 수 있다. 만약 분할 방법이 부호화 단위 주변의 부호화 정보에 적응적으로 결정될 경우, 분할 형태 정보는 생성되지 않을 수 있다.
최대 부호화 단위는 최소 부호화 단위 크기 정보에 따라 최소 부호화 단위까지 분할될 수 있다. 최대 부호화 단위의 심도가 최상위 심도이며 최소 부호화 단위가 최하위 심도로 정의될 수 있다. 따라서 상위 심도의 부호화 단위는 복수 개의 하위 심도의 부호화 단위를 포함할 수 있다.
전술한 바와 같이 부호화 단위의 최대 크기에 따라, 현재 픽처의 영상 데이터는 최대 부호화 단위로 분할된다. 그리고 최대 부호화 단위는 심도별로 분할되는 부호화 단위들을 포함할 수 있다. 최대 부호화 단위는 심도별로 분할되므로, 최대 부호화 단위에 포함된 공간 영역(spatial domain)의 영상 데이터가 심도에 따라 계층적으로 분류될 수 있다.
최대 부호화 단위를 계층적으로 분할할 수 있는 최대 횟수를 제한하는 최대 심도 또는 부호화 단위의 최소 크기가 미리 설정되어 있을 수 있다.
부호화부(110)는 부호화 단위를 계층적으로 분할하였을 때의 부호화 효율과 부호화 단위를 분할하지 않았을 때의 부호화 효율을 비교한다. 그리고 부호화부(110)는 비교 결과에 따라 부호화 단위를 분할할지 여부를 결정한다. 만약 부호화 단위의 분할이 더 효율적이라고 결정된 경우, 부호화부(110)는 부호화 단위를 계층적으로 분할한다. 만약 비교 결과에 따라 부호화 단위를 분할하지 않는 것이 효율적이라고 결정된 경우, 부호화 단위를 분할하지 않는다. 부호화 단위의 분할 여부는 인접한 다른 부호화 단위의 분할 여부에 독립적으로 결정될 수 있다.
일 실시예에 의하면, 부호화 단위의 분할 여부는 부호화 과정에서 심도가 큰 부호화 단위부터 결정될 수 있다. 예를 들어, 최대 심도의 부호화 단위와 최대 심도보다 1만큼 작은 부호화 단위의 부호화 효율이 비교되어, 최대 부호화 단위의 각 영역마다 최대 심도의 부호화 단위들과 최대 심도보다 1만큼 작은 부호화 단위들 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 그리고 판단 결과에 따라 최대 부호화 단위의 각 영역마다 최대 심도보다 1만큼 작은 부호화 단위의 분할 여부가 결정된다. 그 후 최대 부호화 단위의 각 영역마다 최대 심도보다 2만큼 작은 부호화 단위들과 위의 판단 결과에 기초하여 선택된 최대 심도보다 1만큼 작은 부호화 단위들과 최소 심도의 부호화 단위들의 조합 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 동일한 판단 과정이 심도가 작은 부호화 단위들에 대하여 순차적으로 수행되어, 최종적으로 최대 부호화 단위와 최대 부호화 단위가 계층적으로 분할되어 생성된 계층 구조 중 어느 것이 더 효율적으로 부호화되는지 여부에 따라 최대 부호화 단위의 분할 여부가 결정된다.
부호화 단위의 분할 여부는 부호화 과정에서 심도가 작은 부호화 단위부터 결정될 수 있다. 예를 들어, 최대 부호화 단위와 최대 부호화 단위보다 1만큼 심도가 큰 부호화 단위의 부호화 효율이 비교되어, 최대 부호화 단위와 최대 부호호 단위보다 1만큼 심도가 큰 부호화 단위들 중 어느 것이 더 효율적으로 부호화되는지 판단된다. 만약 최대 부호화 단위의 부호화 효율이 더 좋을 경우, 최대 부호화 단위는 분할되지 않는다. 만약 최대 부호화 단위보다 1만큼 심도가 큰 부호화 단위들의 부호화 효율이 더 좋을 경우, 최대 부호화 단위는 분할되고, 분할된 부호화 단위에 대하여 동일한 비교 과정이 반복된다.
심도가 큰 부호화 단위부터 부호화 효율을 검토할 경우, 연산량이 많으나 부호화 효율이 높은 트리 구조를 획득할 수 있다. 반대로 심도가 작은 부호화 단위부터 부호화 효율을 검토할 경우, 연산량이 적으나 부호화 효율이 낮은 트리 구조를 획득할 수 있다. 따라서 부호화 효율과 연산량을 고려하여 최대 부호화 단위의 계층적 트리 구조를 획득하기 위한 알고리즘이 다양한 방법으로 설계될 수 있다.
부호화부(110)는 심도별 부호화 단위의 효율성을 판단하기 위하여, 부호화 단위에 가장 효율적인 예측 및 변환 방법을 결정한다. 부호화 단위는 가장 효율적인 예측 및 변환 방법을 결정하기 위하여 소정의 데이터 단위들로 분할될 수 있다. 데이터 단위는 부호화 단위의 분할 방법에 따라 다양한 형태를 가질 수 있다. 데이터 단위를 결정하기 위한 부호화 단위의 분할 방법은 파티션 모드라고 정의될 수 있다. 예를 들어, 크기 2Nx2N(단, N은 양의 정수)의 부호화 단위가 분할되지 않는 경우, 부호화 단위에 포함된 예측 단위의 크기는 2Nx2N이 된다. 크기 2Nx2N의 부호화 단위가 분할될 경우, 부호화 단위에 포함된 예측 단위의 크기는 파티션 모드에 따라 2NxN, Nx2N, NxN 등이 될 수 있다. 일 실시예에 따른 파티션 모드는 부호화 단위의 높이 또는 너비가 대칭적 비율로 분할된 대칭적 데이터 단위들뿐만 아니라, 1:n 또는 n:1과 같이 비대칭적 비율로 분할된 데이터 단위들, 사선 방향으로 분할된 데이터 단위들, 기타 기하학적인 형태로 분할된 데이터 단위들, 임의적 형태의 데이터 단위들을 생성할 수 있다.
부호화 단위는 부호화 단위에 포함된 데이터 단위를 기준으로 예측 및 변환이 수행될 수 있다. 그러나 실시 예에 따라 예측을 위한 데이터 단위와 변환을 위한 데이터 단위가 별도로 결정될 수 있다. 예측을 위한 데이터 단위는 예측 단위로, 변환을 위한 데이터 단위는 변환 단위로 정의될 수 있다. 예측 단위에서 적용되는 파티션 모드와 변환 단위에서 적용되는 파티션 모드는 서로 다를 수 있으며, 부호화 단위에서 예측 단위의 예측과 변환 단위의 변환은 병렬적, 독립적으로 수행될 수 있다.
부호화 단위는 효율적인 예측 방법을 결정하기 위하여 한 개 이상의 예측 단위로 분할될 수 있다. 마찬가지로 부호화 단위는 효율적인 변환 방법을 결정하기 위하여 한 개 이상의 변환 단위로 분할 될 수 있다. 예측 단위의 분할과 변환 단위의 분할은 독립적으로 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 인트라 예측에 사용되는 경우, 부호화 단위에 포함된 예측 단위들 또는 변환 단위들 간에 종속적 관계가 형성되므로 예측 단위와 변환 단위의 분할이 서로 영향을 미칠 수 있다.
부호화 단위에 포함된 예측 단위는 인트라 예측 또는 인터 예측에 의하여 예측될 수 있다. 인트라 예측은 예측 단위 주변의 참조 샘플들을 이용하여 예측 단위의 샘플들을 예측하는 방법이다. 인터 예측은 현재 픽처가 참조하는 참조 픽처로부터 참조 샘플을 획득하여 예측 단위의 샘플들을 예측하는 방법이다.
부호화부(110)는 인트라 예측을 위하여 복수의 인트라 예측 방법을 예측 단위에 적용하여, 가장 효율적인 인트라 예측 방법을 선택할 수 있다. 인트라 예측 방법에는 DC 모드, 플래너(Planar) 모드, 수직 모드 및 수평 모드와 같은 방향성(directional) 모드 등이 포함된다.
인트라 예측은 부호화 단위 주변의 복원 샘플을 참조 샘플로 사용하는 경우 예측 단위마다 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 부호화 단위 내부의 참조 샘플의 복원이 현재 샘플의 예측보다 우선되어야 하므로, 변환 단위의 변환 순서에 예측 단위의 예측 순서가 종속될 수 있다. 따라서 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 예측 단위에 대하여 예측 단위에 대응되는 변환 단위들에 대한 인트라 예측 방법만이 결정되고, 실질적인 인트라 예측은 변환 단위마다 수행될 수 있다.
부호화부(110)는 최적의 움직임 벡터 및 참조 픽처를 결정함으로써 가장 효율적인 인터 예측 방법을 선택할 수 있다. 부호화부(110)는 인터 예측을 위하여 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 움직임 벡터 후보를 결정하고, 그 중 가장 효율적인 움직임 벡터를 움직임 벡터로 결정할 수 있다. 마찬가지로 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 참조 픽처 후보를 결정하고, 그 중 가장 효율적인 참조 픽처를 결정할 수 있다. 실시 예에 따라 참조 픽처는 현재 픽처에 대하여 미리 결정된 참조 픽처 리스트들 중에서 결정될 수 있다. 실시 예에 따라 예측의 정확성을 위하여 복수의 움직임 벡터 후보 중 가장 효율적인 움직임 벡터를 예측 움직임 벡터로 결정하고, 예측 움직임 벡터를 보정하여 움직임 벡터를 결정할 수 있다. 인터 예측은 부호화 단위 내부의 예측 단위별마다 병렬적으로 수행될 수 있다.
부호화부(110)는 스킵 모드에 따라 움직임 벡터 및 참조 픽처를 나타내는 정보만을 획득하여 부호화 단위를 복원할 수 있다. 스킵 모드에 의하면 움직임 벡터 및 참조 픽처를 나타내는 정보를 제외하고 잔차 신호를 포함한 모든 부호화 정보가 생략된다. 잔차 신호가 생략되므로 예측의 정확성이 매우 높은 경우에 스킵 모드가 사용될 수 있다.
예측 단위에 대한 예측 방법에 따라 사용되는 파티션 모드가 제한될 수 있다. 예를 들어 인트라 예측에는 2Nx2N, NxN 크기의 예측 단위에 대한 파티션 모드만이 적용되는 반면, 인터 예측에는 2Nx2N, 2NxN, Nx2N, NxN크기의 예측 단위에 대한 파티션 모드가 적용될 수 있다. 또한, 인터 예측의 스킵 모드에는 2Nx2N 크기의 예측 단위에 대한 파티션 모드만이 적용될 수 있다. 영상 부호화 장치(100)에서 각 예측 방법에 대하여 허용되는 파티션 모드는 부호화 효율에 따라 변경될 수 있다.
영상 부호화 장치(100)는 부호화 단위 또는 부호화 단위에 포함된 변환 단위를 기준으로 변환을 수행할 수 있다. 영상 부호화 장치(100)는 부호화 단위에 포함된 픽셀들에 대한 원본 값과 예측 값의 차이 값인 레지듀얼 데이터를 소정의 과정을 거쳐 변환시킬 수 있다. 예를 들어, 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 및 DCT/DST 변환을 통해 손실 압축을 할 수 있다. 또는 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 없이 무손실 압축을 할 수 있다.
영상 부호화 장치(100)는 양자화 및 변환에 가장 효율적인 변환 단위를 결정할 수 있다. 트리 구조에 따른 부호화 단위와 유사한 방식으로, 부호화 단위 내의 변환 단위도 재귀적으로 더 작은 크기의 변환 단위로 분할되면서, 부호화 단위의 레지듀얼 데이터가 변환 심도에 따라 트리 구조에 따른 변환 단위에 따라 구획될 수 있다. 그리고 영상 부호화 장치(100)는 결정된 변환 단위의 트리 구조에 따라 부호화 단위 및 변환 단위의 분할에 대한 변환 분할 정보를 생성할 수 있다.
영상 부호화 장치(100)는 부호화 단위의 높이 및 너비가 분할하여 변환 단위에 이르기까지의 분할 횟수를 나타내는 변환 심도가 설정될 수 있다. 예를 들어, 크기 2Nx2N의 현재 부호화 단위의 변환 단위의 크기가 2Nx2N이라면 변환 심도 0, 변환 단위의 크기가 NxN이라면 변환 심도 1, 변환 단위의 크기가 N/2xN/2이라면 변환 심도 2로 설정될 수 있다. 즉, 변환 심도에 따라 트리 구조에 따른 변환 단위가 설정될 수 있다.
결론적으로, 부호화부(110)는 복수의 인트라 예측 방법 및 인터 예측 방법 중 현재 예측 단위에 가장 효율적인 예측 방법을 결정한다. 그리고 부호화부(110)는 예측 결과에 따른 부호화 효율에 따라 예측 단위 결정 방식을 판단한다. 마찬가지로 부호화부(110)는 변환 결과에 따른 부호화 효율에 따라 변환 단위 결정 방식을 판단한다. 가장 효율적인 예측 단위와 변환 단위의 결정 방식에 따라 최종적으로 부호화 단위의 부호화 효율이 결정된다. 부호화부(110)는 각 심도별 부호화 단위의 부호화 효율에 따라 최대 부호화 단위의 계층 구조를 확정한다.
부호화부(110)는 심도별 부호화 단위의 부호화 효율성, 예측 방법들의 예측 효율성 등을 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용하여 측정할 수 있다.
부호화부(110)는 결정된 최대 부호화 단위의 계층 구조에 따라 부호화 단위의 심도별 분할 여부를 나타내는 분할 정보를 생성할 수 있다. 그리고 부호화부(110)는 분할이 완료된 부호화 단위에 대하여 예측 단위의 결정을 위한 파티션 모드 정보 및 변환 단위의 결정을 위한 변환 단위 분할 정보를 생성할 수 있다. 또한 부호화부(110)는 부호화 단위의 분할 방법이 2개 이상인 경우, 분할 방법을 나타내는 분할 형태 정보를 분할 정보와 함께 생성할 수 있다. 그리고 부호화부(110)는 예측 단위 및 변환 단위에 사용된 예측 방법 및 변환 방법에 관한 정보를 생성할 수 있다.
출력부(120)는 최대 부호화 단위의 계층 구조에 따라 부호화부(110)가 생성한 정보들을 비트스트림의 형태로 출력할 수 있다.
일 실시예에 따른 최대 부호화 단위의 트리 구조에 따른 부호화 단위, 예측 단위 및 변환 단위의 결정 방식에 대해서는, 도 3 내지 12를 참조하여 상세히 후술한다.
도 1b는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 복호화 장치(150)의 블록도를 도시한다.
영상 복호화 장치(150)는 수신부(160) 및 복호화부(170)를 포함한다.
일 실시예에 따른 영상 복호화 장치(150)의 복호화 동작을 위한 부호화 단위, 심도, 예측 단위, 변환 단위, 각종 분할 정보 등 각종 용어의 정의는, 도 1 및 영상 부호화 장치(100)를 참조하여 전술한 바와 동일하다. 또한 영상 복호화 장치(150)의 목적이 영상 데이터의 복원인 바, 영상 부호화 장치(100)에서 사용된 다양한 부호화 방법들이 영상 복호화 장치(150)에 적용될 수 있다.
수신부(160)는 부호화된 비디오에 대한 비트스트림을 수신하여 파싱한다. 복호화부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 복호화에 필요한 정보들을 추출한다. 복호화부(170)는 현재 픽처에 대한 헤더, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트로부터 현재 픽처의 부호화 단위의 최대 크기에 관한 정보를 추출할 수 있다.
또한, 복호화부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 트리 구조에 따른 부호화 단위들에 대한 최종 심도 및 분할정보를 추출한다. 복호화부(170)는 최대 부호화 단위를 추출된 최종 심도 및 분할정보에 따라 분할하여 최대 부호화 단위의 트리 구조를 결정할 수 있다.
복호화부(170)가 추출한 분할정보는, 영상 부호화 장치(100)에 의하여, 최소 부호화 오차를 발생시키는 것으로 결정된 트리 구조에 대한 분할정보다. 따라서, 영상 복호화 장치(150)는 최소 부호화 오차를 발생시키는 부호화 방식에 따라 데이터를 복호화하여 영상을 복원할 수 있다.
복호화부(170)는 부호화 단위에 포함된 예측 단위 및 변환 단위와 같은 데이터 단위에 대한 분할 정보를 추출할 수 있다. 예를 들어, 복호화부(170)는 예측 단위에 대한 가장 효율적인 파티션 모드에 관한 정보를 추출할 수 있다. 그리고 복호화부(170)는 변환 단위에 있어서 가장 효율적인 트리 구조에 대한 변환 분할 정보를 추출할 수 있다.
또한 복호화부(170)는 부호화 단위로부터 분할된 예측 단위들에 대하여 가장 효율적인 예측 방법에 대한 정보를 획득할 수 있다. 그리고 복호화부(170)는 부호화 단위로부터 분할된 변환 단위들에 대하여 가장 효율적인 변환 방법에 대한 정보를 획득할 수 있다.
복호화부(170)는 영상 부호화 장치(100)의 출력부(120)에서 비트스트림을 구성하는 방식에 따라 비트스트림으로부터 정보를 추출한다.
복호화부(170)는 분할정보에 기초하여 최대 부호화 단위를 가장 효율적인 트리구조를 가진 부호화 단위들로 분할할 수 있다. 그리고 복호화부(170)는 파티션 모드에 관한 정보에 따라 부호화 단위를 예측 단위로 분할할 수 있다. 복호화부(170)는 변환 분할 정보에 따라 부호화 단위를 변환 단위로 분할할 수 있다.
복호화부(170)는 예측 단위를 예측 방법에 대한 정보에 따라 예측할 수 있다. 그리고 복호화부(170)는 변환 단위를 변환 방법에 대한 정보에 따라 픽셀의 원본 값과 예측 값의 차이에 해당하는 레지듀얼 데이터를 역양자화 및 역변환할 수 있다. 또한 복호화부(170)는 예측 단위의 예측 결과와 변환 단위의 변환 결과에 따라 부호화 단위의 픽셀들을 복원할 수 있다.
도 2a 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 부호화부(200)의 블록도를 도시한다.
일 실시예에 따른 영상 부호화부(200)는, 비디오 부호화 장치(100)의 부호화부(110)에서 영상 데이터를 부호화하는데 거치는 작업들을 포함한다. 즉, 인트라 예측부(204)는 현재 프레임(202) 중 인트라 모드의 부호화 단위에 대해 인트라 예측을 수행하고, 인터 예측부(206)는 인터 모드의 현재 프레임(202) 및 참조 프레임(226)을 이용하여 인터 예측을 수행한다.
인트라 예측부(204) 또는 인터 예측부(206) 에 의한 예측에 따라 결정된 예측 오차 데이터는 변환부(210) 및 양자화부(212)를 거쳐 양자화된 변환 계수로 출력된다. 양자화된 변환 계수는 역양자화부(218), 역변환부(220)을 통해 공간 영역의 예측 오차 데이터로 복원되고, 복원된 공간 영역의 예측 오차 데이터는 디블로킹부(222) 및 오프셋 조정부(224)를 거쳐 후처리된다. 그리고 후처리된 예측 오차 데이터와는 인트라 예측부(204) 또는 인터 예측부(206) 에 의한 예측 데이터가 결합함으로써 참조 프레임(226)이 생성된다. 양자화된 변환 계수는 엔트로피 부호화부(214)를 거쳐 비트스트림(216)으로 출력될 수 있다.
영상 부호화부(200)의 구성 요소들인 인트라 예측부(204), 인터 예측부(206), 변환부(210), 양자화부(212), 엔트로피 부호화부(214), 역양자화부(218), 역변환부(220), 디블로킹부(222) 및 오프셋 조정부(224)는 영상의 트리 구조에 따른 부호화 단위들 각각에 대하여 수행된다.
특히, 인트라 예측부(204) 및 인터 예측부(206)는 현재 최대 부호화 단위의 최대 크기 및 최대 심도를 고려하여 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위의 파티션 및 예측 모드를 결정하며, 변환부(210)는 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위 내의 변환 단위의 크기를 결정한다.
도 2b 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 복호화부(250)의 블록도를 도시한다.
비트스트림(252)이 파싱부(254)를 거쳐 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화 정보가 파싱된다. 부호화된 영상 데이터는 엔트로피 복호화부(256) 및 역양자화부(258)를 거쳐 역양자화된 데이터로 출력되고, 역변환부(260)를 거쳐 공간 영역의 예측 오차 데이터가 복원된다.
공간 영역의 예측 오차 데이터에 대해서, 인트라 예측부(262)는 인트라 모드의 부호화 단위에 대해 인트라 예측을 수행하고, 인터 예측부(264)는 참조 프레임(270)을 이용하여 인터 모드의 부호화 단위에 대해 인터 예측을 수행한다.
인트라 예측부(262) 및 인터 예측부(264)로부터 예측된 예측 데이터는 디블로킹부(266) 및 오프셋 보상부(268)를 거쳐 후처리된다. 그리고 후처리된 예측 데이터와 예측 오차 데이터가 결합하여 복원 프레임(272)이 생성될 수 있다.
비디오 복호화 장치(150)의 복호화부(170)에서 영상 데이터를 복호화하기 위해, 일 실시예에 따른 영상 복호화부(250)의 파싱부(254) 이후의 단계별 작업들이 수행될 수 있다.
영상 복호화부(250)의 구성 요소들인 파싱부(254), 엔트로피 복호화부(256), 역양자화부(258), 역변환부(260), 인트라 예측부(262), 인터 예측부(264), 디블로킹부(266) 및 오프셋 보상부(268)는 영상의 트리 구조에 따른 부호화 단위들 각각에 대하여 수행된다.
특히, 인트라 예측부(262), 인터 예측부(264)는 트리 구조에 따른 부호화 단위들 각각마다 파티션 및 예측 모드를 결정하며, 역변환부(260)는 부호화 단위마다 변환 단위의 크기를 결정한다.
도 3은 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(150)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(150)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3를 참조하면, 현재 부호화 단위(300)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(170)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(210a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d 등)를 결정할 수 있다.
도 3을 참조하면 영상 복호화 장치(150)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 두개의 부호화 단위(310b)를 결정할 수 있다. 영상 복호화 장치(150)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 두개의 부호화 단위(310c)를 결정할 수 있다. 영상 복호화 장치(150)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(310d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 4는 일 실시예에 따라 영상 복호화 장치(150)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(150)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(150)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 4를 참조하면 분할 형태 정보가 두개의 부호화 단위로 현재 부호화 단위(400 또는 450)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 분할 형태 정보에 기초하여 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(400 또는 450)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있다.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(150)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4를 참조하면 영상 복호화 장치(150)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(150)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(500)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 결정된 제2 부호화 단위(510)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(150)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(150)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
도 6은 일 실시예에 따라 영상 복호화 장치(150)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(600)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c)을 결정할 수 있다. 영상 복호화 장치(150)는 홀수개의 부호화 단위들(620a, 620b, 620c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(150)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(150)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화단위(620a, 620b, 620c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(150)는 부호화 단위(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(150)는 부호화 단위(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(600)를 복수개의 부호화 단위(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위(620a, 620b, 620c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(150)는 부호화 단위(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(150)는 부호화 단위(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(620a, 620b, 620c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 상단 부호화 단위(620a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 가운데 부호화 단위(620b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(150)는 결정된 부호화 단위(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(150)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(150)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(150)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다.
도 6을 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(600)가 복수개의 부호화 단위들(620a, 620b, 620c)로 분할된 경우 상기 샘플(640)을 포함하는 부호화 단위(620b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 6를 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(600)가 분할되어 결정된 복수개의 부호화 단위들(620a, 620b, 620c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(600) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(600)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(150)는 현재 부호화 단위(600)의 블록 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위(600)가 분할되어 결정되는 복수개의 부호화 단위(620a, 620b, 620c)들 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(620b)를 결정하여 소정의 제한을 둘 수 있다. 도 6을 참조하면 일 실시예에 따라 영상 복호화 장치(150)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)을 결정할 수 있고, 영상 복호화 장치(150)는 이러한 샘플(640)이 포함되는 부호화 단위(620b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(620b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(600)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 4를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7은 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정하거나 제1 부호화 단위(700)를 수평 방향으로 분할하여 제2 부호화 단위(730a, 730b)를 결정하거나 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(750a, 750b, 750c, 750d)를 결정할 수 있다.
도 7을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(710a, 710b)를 수평 방향(710c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(700)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(730a, 730b)의 처리 순서를 수직 방향(730c)으로 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(750a, 750b, 750c, 750d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(750e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 7을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(700)를 분할하여 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 분할하는 방법은 제1 부호화 단위(700)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 7을 참조하면 영상 복호화 장치(150)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정할 수 있고, 나아가 제2 부호화 단위(710a, 710b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(710a)를 수평 방향으로 분할하여 제3 부호화 단위(720a, 720b)로 분할할 수 있고, 우측의 제2 부호화 단위(710b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(710a)가 분할되어 결정된 제3 부호화 단위(720a, 720b)가 처리되는 순서를 우측의 제2 부호화 단위(710b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(710a)가 수평 방향으로 분할되어 제3 부호화 단위(720a, 720b)가 결정되었으므로 제3 부호화 단위(720a, 720b)는 수직 방향(720c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(710a) 및 우측의 제2 부호화 단위(710b)가 처리되는 순서는 수평 방향(710c)에 해당하므로, 좌측의 제2 부호화 단위(710a)에 포함되는 제3 부호화 단위(720a, 720b)가 수직 방향(720c)으로 처리된 후에 우측 부호화 단위(710b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 8은 일 실시예에 따라 영상 복호화 장치(150)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 8을 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제3 부호화 단위들(820a, 820b, 820c, 820d, 820e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 8을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(800)를 재귀적으로 분할하여 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)를 결정할 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(800), 제2 부호화 단위(810a, 810b) 또는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(810a, 810b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할될 수 있다. 제1 부호화 단위(800)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(830))가 될 수 있고, 영상 복호화 장치(150)는 우측 제2 부호화 단위(810b)가 홀수개로 분할되어 결정된 제3 부호화 단위(820c, 820d, 820e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(800)에 포함되는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)의 경계에 따라 제2 부호화 단위(810a, 810b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(810a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(820a, 820b)는 조건을 만족하지만, 우측 제2 부호화 단위(810b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(820c, 820d, 820e)들의 경계가 우측 제2 부호화 단위(810b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(820c, 820d, 820e)는 조건을 만족하지 못하는 것으로 결정될 수 있고, 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(810b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 9는 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(900)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. 일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(900)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9를 참조하면, 블록 형태 정보가 제1 부호화 단위(900)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(900)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(900)에 포함되는 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)의 경계에 따라 제1 부호화 단위(900)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 9를 참조하면 정사각형 형태의 제1 부호화 단위(900)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(910a, 910b, 910c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(900)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(920a, 920b, 920c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(900)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(150)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 9를 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(900), 비-정사각형 형태의 제1 부호화 단위(930 또는 950)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(150)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 제1 부호화 단위(330)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(150)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(150)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b, 1124a, 1124b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(150)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 10과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 6과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216c, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 영상 복호화 장치(150)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(150)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/22배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/21배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/22배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(150)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
영상 복호화 장치(150)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/2 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN/2 크기의 제2 부호화 단위(1314)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1312)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300, 1302 또는 1304)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300, 1302 또는 1304)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/2배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1314)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 영상 복호화 장치(150)는 분할 형태 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1400)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1416a, 1416b, 1416c, 1416d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(150)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(150)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(150)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(150)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(150)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(150)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(150)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(150)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 12의 현재 부호화 단위(1200 또는 1250)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(160)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(150)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(150)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(150)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 16는 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(160)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(150)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16를 참조하면, 영상 복호화 장치(150)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(150)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 프로세싱 블록의 크기에 기초하여 픽쳐(1600)에 포함되는 각각의 프로세싱 블록(1602, 1612)을 결정할 수 있고, 프로세싱 블록(1602, 1612)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(160)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(150)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(160)는 비트스트림으로부터 프로세싱 블록(1602, 1612)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(150)는 상기 프로세싱 블록(1602, 1612)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1600)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(150)는 각각의 프로세싱 블록(1602, 1612)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1604, 1614)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1602, 1612)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1602)과 관련된 기준 부호화 단위 결정 순서(1604)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1602)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1612)과 관련된 기준 부호화 단위 결정 순서(1614)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1612)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
도17 내지 도 29에는 크로마 블록에 대한 예측 모드인 MPC 모드 (Most Probable Chroma Mode)가 설명되어 있다. MPC 모드는 현재 루마 블록에 포함된 루마 샘플들의 예측 결과 또는 복원 결과와 현재 크로마 블록 이전에 복호화된 블록들로부터 획득된 루마 값과 크로마 값의 상관관계 정보에 따라 현재 크로마 블록의 크로마 샘플들을 예측하는 방법이다. MPC 모드에 따른 예측 방법이 이하 자세하게 설명된다.
도 17은 크로마 인트라 예측을 수행하는 비디오 복호화 장치(1700)를 도시한다.
비디오 복호화 장치 (1700)는 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)를 포함한다. 도 17에서 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)는 별도의 구성 단위로 표현되어 있으나, 실시 예에 따라 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)는 합쳐져 동일한 구성 단위로 구현될 수도 있다.
도 17에서 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)는 하나의 장치에 위치한 구성 단위로 표현되었지만, 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없다. 따라서 실시 예에 따라 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)가 분산되어 있을 수 있다.
상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)는 실시 예에 따라 하나의 프로세서에 의하여 구현될 수 있다. 또한 실시 예에 따라 복수 개의 프로세서에 의하여 구현될 수도 있다.
상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)는 비디오 복호화 장치 (1700)의 저장 매체에 프로그램의 형태로 저장되어 있을 수 있다. 또한, 상관관계 정보 획득부 (1710), 크로마 샘플 예측부 (1720) 및 복호화부 (1730)의 기능을 수행하는 프로그램은 비디오 복호화 장치(1700)의 필요에 따라 외부로부터 획득될 수 있다.
상관관계 정보 획득부 (1710)는 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득할 수 있다. 상관관계 정보란 특정한 루마 값과 크로마 값의 상관관계를 포함한다. 예를 들어, 동일 위치의 루마 샘플의 루마 값이 49이고, 크로마 샘플의 크로마 값이 117일 때, 루마 값 49와 크로마 값 117은 서로 상관관계가 있다고 해석될 수 있다. 따라서 루마 값 49와 크로마 값 117이 서로 관련성이 있다는 정보가 상관관계 정보에 포함될 수 있다.
상관관계 정보 획득부 (1710)는 복수의 위치로부터 루마 샘플과 크로마 샘플의 상관관계를 통계적으로 처리하여, 특정한 루마 값과 크로마 값이 서로 상관관계가 있다고 결정할 수 있다. 동일한 픽처 내의 샘플들은 동일한 속성을 가지고 있을 확률이 높다. 따라서 동일한 픽처 내에서 특정한 루마 값과 크로마 값이 서로 연관되어 있을 확률이 높다. 그러므로 현재 크로마 블록 이전에 이미 복원된 루마 샘플과 크로마 샘플을 통계적으로 분석하여, 높은 정확도로 현재 크로마 블록의 크로마 샘플들을 예측할 수 있다. 예를 들어, 루마 값 49와 크로마 값 117이 서로 연결되는 위치가 복수일 경우, 루마 값이 49인 위치에서 크로마 값이 117일 것으로 예측될 수 있다.
상관관계 정보 획득부 (1710)는 상관관계 정보를 획득하기 위한 MPC 모드 참조 영역을 결정할 수 있다. MPC 모드 참조 영역이란 현재 크로마 블록의 예측에 필요한 샘플들이 위치한 영역을 의미한다. MPC 모드 참조 영역의 크기는 다양한 실시 예에 따라 최적의 예측 효율을 가지도록 결정될 수 있다.
일 실시 예에 따르면, MPC 모드 참조 영역은 현재 크로마 블록으로부터 특정 방향에 위치할 수 있다. 구체적으로, 현재 픽처의 스캔 순서에 따라, 현재 크로마 블록 이전에 복호화된 블록이 존재하는 방향에 MPC 모드 참조 영역이 존재할 수 있다. 예를 들어, 래스터 스캔 순서에 의하여 복호화가 수행될 경우, MPC 모드 참조 영역은 현재 크로마 블록의 좌측, 상측, 좌상측, 우상측 및 좌하측 중 적어도 하나의 방향에 위치할 수 있다. 일 실시 예에 따르면, MPC 모드 참조 영역은 현재 크로마 블록의 좌측, 상측, 좌상측 방향에만 위치할 수 있다.
일 실시 예에 따르면, MPC 모드 참조 영역에 포함된 참조 샘플과 현재 크로마 블록의 거리는 소정의 샘플 거리 이내일 수 있다. 현재 크로마 블록에 인접한 샘플들이 현재 크로마 블록에 포함된 샘플과 동일한 속성을 가질 확률이 높다. 그러므로 MPC 모드 참조 영역이 현재 블록에 인접하도록 결정될 수 있다. 예를 들어, MPC 모드 참조 영역에는 현재 블록으로부터 4 샘플 거리 이내의 샘플들만이 포함될 수 있다. 따라서 현재 블록으로부터의 거리가 4 샘플 거리를 초과하는 샘플들은 MPC 모드 참조 영역에 제외될 수 있다.
MPC 모드 참조 영역의 방향과 샘플 거리는 비트스트림으로부터 획득된 MPC 모드 참조 영역 정보에 따라 결정될 수 있다. MPC 모드 참조 영역 정보는 현재 크로마 블록의 MPC 모드 참조 영역이 어떻게 결정되는지에 관한 정보가 포함된다. MPC 모드 참조 영역 정보는 최적의 부호화 효율을 제공하는 방향과 샘플 거리를 포함할 수 있다. MPC 모드 참조 영역 정보는 부호화 단위 또는 부호화 단위의 상위 데이터 단위에 대하여 획득될 수 있다.
상기 샘플 거리는 MPC 모드 참조 영역 정보가 아닌 현재 크로마 블록의 크기에 따라 결정될 수도 있다. 예를 들어, 샘플 거리는 현재 크로마 블록의 너비 (높이)의 절반과 같도록 결정될 수 있다. 따라서 만약 현재 크로마 블록의 너비 (높이)가 8일 경우, 샘플 거리는 4로 결정될 수 있다. 또 다른 예로, 실시 예에 따라 샘플 거리는 현재 크로마 블록의 너비 (높이) 또는 현재 크로마 블록의 너비 (높이)의 두 배와 같도록 결정될 수 있다.
다른 예로, 샘플 거리는 현재 픽처의 해상도에 따라 결정될 수 있다. 현재 픽처의 해상도가 높을수록, 현재 크로마 블록과 관련성 있는 샘플들의 숫자가 증가하므로, 샘플 거리가 현재 픽처의 해상도에 비례하여 증가되도록 설정될 수 있다. 또한 샘플 거리는 현재 크로마 블록이 속한 슬라이스 타입에 따라 결정될 수 있다. 예를 들어, 현재 블록이 인트라 예측만이 사용되는 슬라이스 타입의 슬라이스에 속하는지 여부에 따라 샘플 거리가 결정될 수 있다.
일 실시 예에 따르면, MPC 모드 참조 영역은 현재 크로마 블록의 복호화 이전에 복호화된 모든 블록들의 영역일 수 있다. 모든 블록들이 MPC 모드 참조 영역에 포함될 경우, MPC 모드 참조 영역의 방향과 샘플 거리는 결정될 필요가 없다. 상관관계 정보는 크로마 블록이 복호화될 때마다 업데이트되어, 현재 픽처의 마지막 크로마 블록이 복호화될 때까지 사용될 수 있다.
도18는 MPC 모드 참조 영역의 일 실시 예를 나타낸다. 현재 크로마 블록 (1810)이 MPC 모드에 의하여 예측될 경우, MPC 모드 참조 영역 (1820)의 분석이 수행된다. 도18에서 MPC 모드 참조 영역 (1820)은 현재 크로마 블록의 경계로부터 좌측, 상측, 좌상측 방향으로 일정한 샘플 거리 이하만큼 떨어진 샘플들을 포함한다. 도 18에서는 MPC 모드 참조 영역 (1820)은 현재 크로마 블록 (1810)으로부터 좌측, 상측, 좌상측 방향에 위치하지만, 실시 예에 따라 좌하측, 우상측 방향에 위치할 수도 있다. 도 18에서는 MPC 모드 참조 영역 (1820)이 현재 픽처의 복호화된 영역의 일부로 나타나 있지만, 실시 예에 따라 현재 픽처의 복호화된 영역의 전부로 설정될 수도 있다.
도 18의 MPC 모드 참조 영역 (1820)을 결정하기 위한 샘플 거리 (1830)는 현재 크로마 블록 (1810)에 따라 결정될 수 있다. 구체적으로, 현재 크로마 블록 (1810)의 크기에 비례하여 샘플 거리 (1830)가 증가할 수 있다. 예를 들어, 샘플 거리 (1830)는 현재 크로마 블록 (1810)의 높이 또는 너비의 일정 비율로 조정될 수 있다.
상관관계 정보 획득부 (1710)는 MPC 모드 참조 영역 안의 동일 위치의 루마 샘플과 크로마 샘플에 대하여, 루마 샘플의 루마 값과 크로마 샘플의 크로마 값으로 구성된 루마-크로마 쌍을 획득할 수 있다. 예를 들어, 동일 위치의 루마 샘플의 루마 값이 49이고, 크로마 샘플의 크로마 값이 117일 때, 루마-크로마 쌍 49-117이 생성된다.
상관관계 정보 획득부 (1710)는 MPC 모드 참조 영역을 스캔하면서, 순차적으로 획득된 루마-크로마 쌍을 루마-크로마 2차원 히스토그램에 반영할 수 있다. 루마-크로마 쌍을 루마-크로마 2차원 히스토그램에 반영하는 방법은 아래의 수학식1에 따라 수행될 수 있다.
[수학식1]
Hist[Y][Cr(Cb)]= Hist[Y][Cr(Cb)]+1, Y= Y[i][j], Cr(Cb)= Cr(Cb)[i][j], i,j∈Ω
수학식1에서 Ω는 MPC 모드 참조 영역을 의미한다. 따라서 (i,j)는 MPC 모드 참조 영역에 포함되는 위치를 나타낸다. Y는 루마 값을 의미하고, Cr과 Cb는 크로마 값을 의미한다. 수학식1은 Cr과 Cb의 예측에 모두 적용될 수 있으므로, 크로마 값이 Cr(Cb)로 표시되어 있다. Y[i][j]는 위치 (i,j)의 루마 값을 나타내고, Cr(Cb)[i][j]는 위치 (i,j)의 크로마 값을 나타낸다. Hist[Y][Cr(Cb)]는 (Y,Cr(Cb))값이 얼마나 누적되어 있는지를 나타낸다. 따라서 수학식1에 따르면, 위치 (i,j)에 따른 루마-크로마 쌍이 나타내는 Hist[Y][Cr(Cb)]가 1씩 증가된다.
그러므로 수학식1에 따르면, MPC 모드 참조 영역의 일 위치가 스캔될 때마다, 상기 일 위치에 해당되는 루마-크로마 쌍에 대한 Hist[Y][Cr(Cb)]가 증가함을 알 수 있다. 따라서 MPC 모드 참조 영역이 모두 스캔되면, 루마-크로마 쌍의 누적 분포를 나타낸 히스토그램이 완성된다. 뒤에서 설명될 도 18에서 루마-크로마 2차원 히스토그램의 일 예가 설명된다.
도 19는 루마-크로마 2차원 히스토그램의 일 실시 예를 나타낸다. 도19에 따르면, 루마-크로마 2차원 히스토그램의 x축은 루마 값을 나타내고, y축은 크로마 값을 나타낸다. 그리고 루마-크로마 2차원 히스토그램의 평면에는 MPC 모드 참조 영역에 포함된 루마-크로마 쌍들의 분포가 나타난다. 도18의 루마-크로마 2차원 히스토그램에 따라 각 루마 값 또는 루마 범위에 대하여 최빈 크로마 값 또는 평균 크로마 값이 획득된다.
상관관계 정보 획득부 (1710)는 컬러 포맷에 따라, 루마 샘플과 크로매 샘플을 매칭하는 방법을 결정할 수 있다. 예를 들어, 컬러 포맷이 4:4:4일 때, 루마 샘플과 크로마 샘플의 밀도가 동일하기 때문에, MPC 모드 참조 영역의 모든 루마 샘플과 크로마 샘플은 일대일 매칭이 될 수 있다. 따라서 MPC 모드 참조 영역의 모든 루마 샘플에 대하여 루마-크로마 쌍이 생성될 수 있다.
그러나 컬러 포맷이 4:2:2일 때, 루마 샘플의 밀도는 크로마 샘플의 밀도의 2배이기 때문에, 루마 샘플과 크로마 샘플은 일대일 매칭이 되지 않는다. 따라서, MPC 모드 참조 영역의 전체 루마 샘플들 중 절반의 루마 샘플들만이 크로마 샘플과 매칭되도록 결정될 수 있다. 또는 2개의 루마 샘플들이 1개의 크로마 샘플에 매칭되도록 결정될 수 있다.
마찬가지로 컬러 포맷이 4:2:0일 때, 루마 샘플의 밀도는 크로마 샘플의 밀도의 4배이기 때문에, 루마 샘플과 크로마 샘플은 일대일 매칭이 되지 않는다. 따라서, MPC 모드 참조 영역의 전체 루마 샘플들 중 1/4의 루마 샘플들만이 크로마 샘플과 매칭된다. 또는 4개의 루마 샘플들이 1개의 크로마 샘플에 매칭되도록 결정될 수 있다.
도 20은 컬러 포맷에 따른 루마 샘플과 크로매 샘플의 매칭 방법을 설명한다. 도 20는 4x4 크기의 루마 블록과 크로마(Cr) 블록을 나타낸다.
도 20의 상측 실시 예는 컬러 포맷이 4:4:4일 때, 루마 샘플과 크로마 샘플의 매칭 방법을 설명한다. 컬러 포맷이 4:4:4일 때, 루마 샘플과 크로마 샘플의 밀도가 동일하기 때문에, 루마 샘플들과 크로마 샘플들은 샘플 위치에 따라 매칭된다. 따라서 16개의 루마 샘플에 대하여 16개의 루마-크로마 쌍이 생성될 수 있다.
도 20의 중간 실시 예는 컬러 포맷이 4:2:2일 때, 루마 샘플과 크로마 샘플의 매칭 방법을 설명한다. 컬러 포맷이 4:2:2일 때, 루마 샘플의 밀도는 크로마 샘플의 밀도의 2배이다. 그러므로 도 20의 중간 실시 예의 전체 루마 샘플들 중 절반의 루마 샘플들만이 크로마 샘플과 매칭되도록 결정될 수 있다. 또는, 16개의 루마 샘플이 2:1의 비율로 8개의 크로마 샘플에 대응되도록 생성될 수 있다.
예를 들어, 크로마 샘플들이 위치한 지점의 루마 샘플들만이 크로마 샘플들과 매칭될 수 있다. 그러므로 루마 샘플 (2002)은 크로마 샘플 (2012)과 매칭됨으로써49-117의 루마-크로마 쌍이 생성될 수 있다. 그러나 루마 샘플 (2004)는 루마 샘플 (2004)이 위치한 지점에 크로마 샘플이 없으므로 어떠한 크로마 샘플과도 매칭되지 않는다. 실시 예에 따라, 루마 샘플 (2002) 대신 루마 샘플 (2004)이 크로마 샘플 (2012)과 매칭되거나, 루마 샘플들(2002, 2004)의 평균이 크로마 샘플 (2012)과 매칭될 수 있다.
또 다른 예로 루마 샘플들(2002, 2004)이 각각 크로마 샘플 (2012)과 매칭될 수 있다. 따라서 루마 샘플 (2002)과 크로마 샘플 (2012)로부터 49-117의 루마-크로마 쌍과 루마 샘플 (2004)과 크로마 샘플 (2012)로부터 50-117의 루마-크로마 쌍이 생성될 수 있다.
도 20의 하측 실시 예는 컬러 포맷이 4:2:0일 때, 루마 샘플과 크로마 샘플의 매칭 방법을 설명한다. 컬러 포맷이 4:2:0일 때, 루마 샘플의 밀도는 크로마 샘플의 밀도의 4배이다. 그러므로 도 20의 하측 실시 예의 전체 루마 샘플들 중 1/4의 루마 샘플들만이 크로마 샘플과 매칭되도록 결정될 수 있다. 또는, 16개의 루마 샘플이 4:1의 비율로 4개의 크로마 샘플에 대응되도록 생성될 수 있다.
예를 들어, 크로마 샘플들이 위치한 지점의 루마 샘플들만이 크로마 샘플들과 매칭될 수 있다. 그러므로 루마 샘플 (2022)은 크로마 샘플 (2032)과 매칭됨으로써49-117의 루마-크로마 쌍이 생성될 수 있다. 그러나 루마 샘플들 (2024, 2026, 2028)는 루마 샘플들 (2024, 2026, 2028)이 위치한 지점에 크로마 샘플이 없으므로 어떠한 크로마 샘플과도 매칭되지 않는다. 실시 예에 따라, 루마 샘플 (2022) 대신 루마 샘플들 (2024, 2026, 2028) 중 하나가 크로마 샘플 (2032)과 매칭되거나, 루마 샘플들 (2022, 2024, 2026, 2028) 의 평균이 크로마 샘플 (2032)과 매칭될 수 있다.
또 다른 예로 루마 샘플들(2022, 2024, 2026, 2028)이 각각 크로마 샘플 (2032)과 매칭될 수 있다. 따라서 루마 샘플 (2022)과 크로마 샘플 (2032)로부터 1개의 49-117의 루마-크로마 쌍과 루마 샘플들 (2024, 2026, 2028)과 크로마 샘플 (2032)로부터 3개의 50-117의 루마-크로마 쌍이 생성될 수 있다.
상관관계 정보 획득부 (1710)는 루마-크로마 2차원 히스토그램에 따라, 각 루마 값에 대응되는 최빈 크로마 값을 결정함으로써 상관관계 정보를 획득할 수 있다. 루마-크로마 2차원 히스토그램에 의하면 상관관계 정보 획득부 (1710)는 루마 값 각각에 대하여 크로마 값의 누적 분포도를 획득할 수 있다. 그리고 상관관계 정보 획득부 (1710)는 크로마 값의 누적 분포도로부터 최빈 크로마 값을 획득할 수 있다. 따라서 루마-크로마 2차원 히스토그램으로부터 각각의 루마 값에 대하여 최빈 크로마 값이 획득될 수 있다. 확률적으로 현재 크로마 블록에 대하여도 MPC 모드 참조 영역과 마찬가지로 최빈 크로마 값이 출현할 확률이 가장 높으므로, 최빈 크로마 값이 예측 값으로 사용될 수 있다.
구체적인 예로, MPC 모드 참조 영역에서 루마 값 49에 대한 최빈 크로마 값이 117일 때, 현재 크로마 블록에서 동일 위치 루마 샘플의 루마 값이 49인 크로마 샘플의 예측 값은 117로 결정될 수 있다.
상관관계 정보 획득부 (1710)는 루마-크로마 2차원 히스토그램에 따라, 각 루마 값에 대응되는 평균 크로마 값을 결정함으로써 상관관계 정보를 획득할 수 있다. 루마-크로마 2차원 히스토그램에 의하면 상관관계 정보 획득부 (1710)는 루마 값 각각에 대하여 크로마 값의 평균 값을 획득할 수 있다. 그리고 상관관계 정보 획득부 (1710)는 크로마 값의 평균 값으로부터 평균 크로마 값을 획득할 수 있다. 최빈 크로마 값과 마찬가지로 평균 크로마 값 역시 확률적으로 현재 크로마 블록의 크로마 샘플 예측에 높은 정확도를 가질 가능성이 높다. 따라서 실시 예에 따라 평균 크로마 값이 최빈 크로마 값 대신에 사용될 수 있다.
상관관계 정보 획득부 (1710)는 현재 루마 블록에 포함된 루마 값들에 대한 루마-크로마 쌍만을 루마-크로마 2차원 히스토그램에 반영할 수 있다. MPC 모드에서 현재 크로마 블록은 현재 루마 블록에 포함된 루마 값에 따라 예측된다. 따라서 현재 루마 블록에 포함되지 않은 루마 값에 대한 최빈 크로마 값은 필요가 없다. 그러므로 계산의 복잡성을 감소시키기 위하여, MPC 모드 참조 영역에서 현재 루마 블록에 포함된 루마 값에 대한 루마-크로마 쌍은 2차원 히스토그램에 반영하지 않을 수 있다.
상관관계 정보 획득부 (1710)는 MPC 모드 참조 영역에 루마-크로마 쌍이 발견되지 않는 루마 값에 대하여, 디폴트 값을 최빈 크로마 값으로 결정할 수 있다. 예를 들어, 현재 루마 블록에 루마 값이 49인 루마 샘플이 있고, MPC 모드 참조 영역에 루마 값이 49인 루마-크로마 쌍이 없을 경우, MPC 모드 참조 영역으로부터 루마 값 49에 대한 최빈 크로마 값을 획득할 수 없다. 그러므로 MPC 모드 참조 영역에서 루마-크로마 쌍이 없는 루마 값의 최빈 크로마 값은 디폴트 값으로 결정될 수 있다.
디폴트 값은 미리 정해진 임의의 값으로 결정될 수 있다. 예를 들어, 디폴트 값이 120이고, MPC 모드 참조 영역에 루마 값이 49인 루마-크로마 쌍이 없을 경우, 루마 값 49에 대한 최빈 크로마 값은 120으로 결정된다.
또한 디폴트 값은 MPC 모드 참조 영역의 크로마 값들의 평균 값으로 결정될 수 있다. 예를 들어, MPC 모드 참조 영역의 크로마 값들의 평균 값이 120이고, MPC 모드 참조 영역에 루마 값이 49인 루마-크로마 쌍이 없을 경우, 루마 값 49에 대한 최빈 크로마 값은 120으로 결정된다.
상관관계 정보 획득부 (1710)는 MPC 모드 참조 영역에 루마-크로마 쌍이 발견되지 않는 루마 값에 대하여, 인접 루마 값의 최빈 크로마 값을 상기 루마 값의 최빈 크로마 값으로 결정할 수 있다. 예를 들어, MPC 모드 참조 영역에 루마 값이 49인 루마-크로마 쌍이 없는 대신, 루마 값이 50인 루마-크로마 쌍이 있을 경우, 루마 값 50의 최빈 크로마 값을 루마 값 49의 최빈 크로마 값으로 결정할 수 있다.
상관관계 정보 획득부 (1710)는 루마-크로마 쌍이 도출된 참조 샘플의 위치가 현재 크로마 블록과 얼마나 가까운지에 따른 가중치에 기초하여 루마-크로마 쌍을 2차원 히스토그램에 반영할 수 있다. 현재 크로마 블록 안의 샘플들은 현재 크로마 블록에 가까운 위치의 참조 샘플들과 동일한 특성을 공유할 가능성이 높으므로, 현재 크로마 블록과 가까운 참조 샘플들로부터 도출된 루마-크로마 쌍에 많은 가중치를 부여할 수 있다. 따라서 MPC 모드에 따른 예측 정확도가 향상될 수 있다. 루마-크로마 쌍의 가중치를 루마-크로마 2차원 히스토그램에 반영하는 방법은 아래의 수학식2에 따라 수행될 수 있다.
[수학식2]
Hist[Y][Cr(Cb)]= Hist[Y][Cr(Cb)]+ W, Y= Y[i][j], Cr(Cb)= Cr(Cb)[i][j], i,j∈Ω
수학식2의 Ω, (i,j), Y[i][j], Cr(Cb)[i][j], Hist[Y][Cr(Cb)]는 수학식1의 요소들과 동일한 의미를 나타낸다. 수학식2의 W는 가중치를 의미하며, 현재 크로마 블록과 참조 샘플의 거리에 기초하여 결정된다. 구체적으로, 현재 크로마 블록과 참조 샘플의 거리가 증가할수록, W는 감소하도록 설정된다. 따라서, 수학식2에 따르면, 위치 (i,j)에 따른 루마-크로마 쌍이 나타내는 Hist[Y][Cr(Cb)]가 참조 샘플과 현재 크로마 블록의 거리에 따른 W만큼 증가된다.
상관관계 정보 획득부 (1710)는 복수의 연속한 루마 값들을 포함하는 루마 범위들을 결정할 수 있다. 현재 루마 블록에 포함된 모든 루마 값에 대하여 최빈 크로마 값을 구할 경우, 계산의 복잡성이 증가할 수 있다. 또한, 특정 루마 값에 대한 참조 샘플의 수가 적은 경우, 노이즈로 인하여 잘못된 예측 값이 도출될 가능성이 있다. 그러므로 복수의 연속된 루마 값을 포함하는 루마 범위에 대하여 최빈 크로마 값을 구함으로써, 계산의 복잡성을 감소시키고 예측의 정확성을 높힐 수 있다. 루마-크로마 쌍을 루마 범위별로 루마-크로마 2차원 히스토그램에 반영하는 방법은 아래의 수학식3에 따라 수행될 수 있다.
[수학식3]
Hist[Y>>m][Cr(Cb)]= Hist[Y>>m][Cr(Cb)]+1, Y= Y[i][j], Cr(Cb)= Cr(Cb)[i][j], i,j∈Ω
수학식3의 Ω, (i,j), Y[i][j], Cr(Cb)[i][j], Hist[Y][Cr(Cb)]는 수학식1의 요소들과 동일한 의미를 나타낸다. 수학식3의 ">>"는 우측 시프트 연산을 나타낸다. 따라서 "Y >> m"은 비트로 표현되는Y가 m개의 비트만큼 우측으로 시프트된 값을 표현한다. 예를 들어, 루마 값을 나타내는 Y가 49인 경우, Y는 00110001의 비트 형태로 표현된다. 그리고 m이 3일 경우, Y의 우측 3개의 비트가 우측으로 시프트되어, "Y >> m"은 00110의 비트 형태로 표현된다. 따라서, 수학식3에 따르면, 위치 (i,j)에 따른 루마 값이 포함된 루마 범위와 크로마 값이 나타내는 Hist[Y>>m][Cr(Cb)]가 1만큼 증가된다.
루마 범위의 크기는 루마 값의 비트 뎁스에 따라 결정될 수 있다. 예를 들어, 비트 뎁스가 1 증가할수록, 루마 범위의 크기는 2배 증가한다. 구체적인 예로, 만약 루마 값의 비트 뎁스가 8비트일 때, 루마 범위의 크기가 8로 설정된다면, 루마 값의 비트 뎁스가 10비트일 때, 루마 범위의 크기는 32로 설정될 수 있다. 또한 상기 예에 제한되지 않고, 루마 값의 비트 뎁스에 대한 루마 범위의 크기는 통상의 기술자가 통계적 수치에 근거하여 용이하게 조절할 수 있다.
실시 예에 따라, 루마 범위 크기는 루마 값의 비트 뎁스가 아닌, 비트스트림으로부터 획득된 루마 범위 크기 정보에 따라 결정될 수 있다. 상기 루마 범위 크기 정보는 부호화 과정에서 결정된 최적의 루마 범위의 크기를 포함할 수 있다.
루마 범위는 현재 루마 블록의 루마 값들의 분포에 따라 결정될 수 있다. 예를 들어, 루마 값들이 60 내지 75 구간에 분포한 경우, 60 내지 75 구간을 일정한 수로 분할함으로써 루마 범위가 결정될 수 있다. 구체적으로, 4개의 루마 범위가 필요한 경우, 상기 구간은 60 내지 63, 64 내지 67, 68 내지 71, 72 내지 75으로 분할될 수 있다.
상관관계 정보 획득부 (1710)는 루마-크로마 2차원 히스토그램에 따라, 각각의 루마 범위에 대하여 최빈 크로마 값을 결정할 수 있다. 따라서 루마 범위에 포함된 복수의 루마 값들은 하나의 최빈 크로마 값에 대응된다. 이하 도21a 내지 도22b에 따라 루마-크로마 2차원 히스토그램을 획득하는 단계와 루마-크로마 2차원 히스토그램에 따라 상관관계 정보를 결정하는 단계가 설명된다.
도 21a와 도21b는 MPC 모드 참조 영역에 따라 현재 크로마 블록 (2110)을 예측하는 방법을 설명하기 위하여 제공된다. 도21a은 현재 루마 블록 (2100)에 포함된 루마 샘플들의 루마 값과 루마 픽처의 MPC 모드 참조 영역 (2120)에 포함된 루마 샘플들의 루마 값을 나타낸다. 그리고 도21b는 아직 예측 단계가 수행되지 않은 현재 크로마 블록 (2110)과 크로마 픽처의 MPC 모드 참조 영역 (2120)에 포함된 크로마 샘플들의 크로마 값을 나타낸다. 도 21b에서는 아직 현재 크로마 블록(2110)의 크로마 샘플들이 예측 및 복원되지 않았다. 따라서 현재 크로마 블록(2110)의 크로마 샘플들은 MPC 모드 참조 영역 (2120, 2130)에 포함된 루마 샘플들과 크로마 샘플들에 따른 상관관계 정보와 현재 루마 블록 (2100)의 루마 샘플들의 루마 값에 따라 예측된다.
MPC 모드 참조 영역 (2120, 2130)에 포함된 동일 위치의 루마 샘플과 크로마 샘플은 서로 매칭된다. 예를 들어, 제1위치 (2121, 2131)에 위치한 루마 샘플과 크로마 샘플은 각각 49, 117이다. 따라서, 제1위치 (2121, 2131)의 루마-크로마쌍은 (49,117)로 결정된다.
루마 픽처의 MPC 모드 참조 영역 (2120)에 포함된 루마 샘플들 중 현재 루마 블록 (2100)에 없는 루마 값을 가진 루마 샘플에 대하여 루마-크로마쌍이 생성되지 않을 수 있다. 예를 들어, 제2 위치 (2122, 2132)의 루마 샘플의 루마 값은 61이고, 현재 루마 블록 (2100)에 루마 값이 61인 루마 샘플이 포함되어 있지 않으므로, 제2 위치 (2122, 2132)에 대한 루마-크로마쌍은 생성되지 않을 수 있다.
반대로, 현재 루마 블록 (2100)에 포함되어 있으나, 루마 픽처의 MPC 모드 참조 영역 (2120)에 없는 루마 값에 대한 최빈 크로마 값 또는 평균 크로마 값은 디폴트 값으로 결정될 수 있다. 예를 들어, 제3 위치 (2123)의 위치한 루마 샘플의 루마 값은 48이고, 루마 픽처의 MPC 모드 참조 영역 (2120)에 48의 루마 값을 가진 루마 샘플이 없으므로, 루마 값 48에 대한 최빈 크로마 값 또는 평균 크로마 값은 디폴트 값으로 결정될 수 있다. 디폴트 값은 크로마 픽처의 MPC 모드 참조 영역 (2130)의 크로마 값들의 최빈 값 또는 평균 값이 될 수 있다. 또 다른 예로, 디폴트 값은 루마 값 48에 가장 인접한 루마 값의 최빈 크로마 값 또는 평균 크로마 값이 될 수 있다.
도 22a은 도21a와 도21b의 MPC 모드 참조 영역 (2120,2130)을 분석하여 획득된 루마-크로마 2차원 히스토그램(2200)을 나타낸다. 루마-크로마 2차원 히스토그램(2200)의 x축은 루마 값을, y축은 크로마 값을 나타낸다. 그리고 루마-크로마 2차원 히스토그램(2200)의 2차원 평면은 MPC 모드 참조 영역 (2120, 2130)에 있는 루마-크로마쌍의 분포를 나타낸다.
루마-크로마 2차원 히스토그램(2200)에서 흰색 부분은 대응되는 루마-크로마쌍이 없음을 나타낸다. 그리고 연회색 부분은 대응되는 루마-크로마쌍이 한 개 있음을 나타내고, 회색 부분은 대응되는 루마-크로마쌍이 두 개 있음을 나타낸다. 마지막으로 흑색 부분은 대응되는 루마-크로마쌍이 세 개 이상 있음을 나타낸다.
루마-크로마 2차원 히스토그램(2200)으로부터 각 루마 값에 대한 최빈 크로마 값이 계산될 수 있다. 예를 들어, 루마 값 54에 대하여 최빈 크로마 값은 117이다. 마찬가지로 2차원 히스토그램(2200)에 따라 평균 크로마 값이 계산될 수 있다. 그리고 계산된 최빈 크로마 값 또는 평균 크로마 값을 이용하여 현재 크로마 블록이 예측된다.
도 22b는 도21a와 도21b의 MPC 모드 참조 영역 (2120, 2130)을 분석하여 획득된 루마-크로마 2차원 히스토그램(2220)을 나타낸다. 루마-크로마 2차원 히스토그램(2220)은 루마-크로마 2차원 히스토그램(2200)과 달리 복수의 루마 값이 포함된 루마 범위를 기준으로 루마-크로마 2차원 히스토그램(2220)의 x 축이 분할되어 있다. 따라서 루마 값 각각에 대한 최빈 크로마 값이 획득되지 않고, 복수의 루마 값들이 포함된 루마 범위 (2222, 2224, 2226)에 대하여 최빈 크로마 값이 획득된다. 예를 들어, 루마 값 49 내지 52가 포함된 루마 범위 (2222)에 대하여 최빈 크로마 값은 117로 결정된다. 그리고 루마 값 53 내지 56이 포함된 루마 범위 (2224)와 루마 값 57 내지 60이 포함된 루마 범위 (2226)에 대하여 최빈 크로마 값은 118로 결정된다.
크로마 샘플 예측부 (1720)는 현재 크로마 블록이 MPC 모드에 의하여 예측될 경우, 상관관계 정보에 따라 현재 크로마 블록에 대응되는 루마 블록의 루마 샘플들로부터 현재 크로마 블록에 포함된 크로마 샘플의 샘플 값을 예측할 수 있다. 현재 크로마 블록과 동일한 크기를 가지며 동일한 위치에 있는 현재 루마 블록은 현재 크로마 블록보다 먼저 예측되거나 복호화된다. 따라서 현재 크로마 블록은 현재 루마 블록의 예측 결과 또는 복원 결과를 이용하여 예측될 수 있다.
크로마 샘플 예측부 (1720)는 크로마 샘플의 예측 값으로 결정하기 위하여, 크로마 샘플과 동일한 위치에 있는 루마 샘플의 루마 값을 획득할 수 있다. 그리고 크로마 샘플 예측부 (1720)는 획득된 루마 값에 대응되는 최빈 크로마 값을 크로마 샘플의 예측값으로 결정할 수 있다. 예를 들어, 루마 값 49의 최빈 크로마 값이 117인 경우, 동일 위치의 루마 샘플의 루마 값이 49인 크로마 샘플의 크로마 값은 117로 예측될 수 있다.
도 23a는 도22a의 루마-크로마 2차원 히스토그램(2200)에 따른 현재 크로마 블록 (2110)의 예측 결과를 나타낸다. 도 23a의 좌측에는 현재 루마 블록 (2300)이 도시되어 있고, 도 23a의 우측에는 현재 크로마 블록 (2310)의 예측 결과가 도시되어 있다.
루마-크로마 2차원 히스토그램(2200)에 따르면, 루마 값 52의 최빈 크로마 값은 116, 루마 값 49, 50, 51, 54, 58은 최빈 크로마 값은 117, 루마 값 53, 55, 56, 59, 60의 최빈 크로마 값은 118, 루마 값 57의 최빈 크로마 값은 119이다. 그리고 루마-크로마 2차원 히스토그램(2200)으로부터 루마 값 48에 대한 최빈 크로마 값을 획득할 수 없으므로, 루마 값 48에 대한 최빈 크로마 값은 루마-크로마 2차원 히스토그램(2200)의 전체 크로마 값의 평균인 118로 결정된다. 상기 상관관계를 반영하여, 현재 루마 블록 (2300)의 루마 값에 대응되는 최빈 크로마 값에 따라 도 23a의 현재 크로마 블록 (2310)이 예측된다.
도 23b는 도22b의 루마-크로마 2차원 히스토그램(2220)에 따른 현재 크로마 블록 (2330)의 예측 결과를 나타낸다. 도 23b의 좌측에는 현재 루마 블록 (2320)이 도시되어 있고, 도 23b의 우측에는 현재 크로마 블록 (2330)의 예측 결과가 도시되어 있다.
루마-크로마 2차원 히스토그램(2220)에 따르면, 루마 값 49 내지 52 는 최빈 크로마 값이 117, 루마 값 53 내지 60 의 최빈 크로마 값은 118이다. 그리고 루마-크로마 2차원 히스토그램(2200)으로부터 루마 값 48에 대한 최빈 크로마 값을 획득할 수 없으므로, 루마 값 48에 대한 최빈 크로마 값은 루마-크로마 2차원 히스토그램(2200)의 전체 크로마 값의 평균인 118로 결정된다. 그리고 상기 상관관계를 반영하여, 현재 루마 블록 (2320)의 루마 값에 대응되는 최빈 크로마 값에 따라 도 23b의 현재 크로마 블록 (2330)이 예측된다.
크로마 샘플 예측부 (1720)는 현재 크로마 블록의 인트라 모드 정보를 비트스트림으로부터 획득할 수 있다. 인트라 모드 정보는 현재 크로마 블록의 인트라 모드를 나타낸다. 인트라 모드 정보는 현재 크로마 블록에서 사용가능한 인트라 모드들 중 하나를 나타낼 수 있다. 사용가능한 인트라 모드는 플래너 모드, 수직 모드, 수평 모드, DC 모드, DM 모드, MPC 모드 중 적어도 하나를 포함할 수 있다. 인트라 모드 정보에 대하여, 도 24에서 자세히 설명된다.
도 24은 현재 크로마 블록의 예측 모드를 나타내는 인트라 모드 정보를 설명하는 테이블을 도시한다. 크로마 블록에 대한 인트라 모드로 DM 모드, 플래너 (Planar) 모드, 수직 모드, 수평 모드, DC 모드, MPC 모드들 중 적어도 하나가 사용될 수 있다. DM 모드는 루마 인트라 모드와 동일한 방법으로 현재 크로마 블록을 예측하는 방법을 나타낸다. 플래너 모드는 현재 크로마 블록의 주변 샘플들을 이중 보간하여 현재 크로마 블록을 예측하는 방법을 나타낸다. 수직 모드는 수직 방향에 위치한 현재 크로마 블록의 주변 샘플을 이용하여 현재 크로마 블록을 예측하는 방법을 나타낸다. 수평 모드는 수평 방향에 위치한 현재 크로마 블록의 주변 샘플을 이용하여 현재 크로마 블록을 예측하는 방법을 나타낸다. DC 모드는 현재 크로마 블록의 주변 샘플들의 평균값에 따라 현재 크로마 블록을 예측하는 방법을 나타낸다. MPC 모드는 MPC 모드 참조 영역에서 획득된 루마 값과 크로마 값에 관한 상관관계 정보에 따라 현재 크로마 블록을 예측하는 방법을 나타낸다.
어떤 예측 모드가 현재 크로마 블록에 대하여 허용되었는지에 따라 인트라 모드 정보의 코드의 할당 방법이 결정될 수 있다.
첫 번째 실시 예에 따르면, DM 모드와 MPC 모드가 현재 크로마 블록의 인트라 모드로 허용되는 경우, 인트라 모드 정보는 한 개의 비트로 표현될 수 있다. 예를 들어, 인트라 모드 정보의 0에는 MPC 모드가 할당되고, 인트라 모드 정보의 1에는 DM 모드가 할당될 수 있다. 또한 반대로 인트라 모드 정보의 0에는 DM 모드가 할당되고, 인트라 모드 정보의 1에는 MPC 모드가 할당될 수 있다.
두 번째 실시 예에 따르면, DM 모드, MPC 모드, 수직 모드, 수평 모드, DC 모드가 현재 크로마 블록의 인트라 모드로 허용되는 경우, 인트라 모드 정보는 세 개의 비트로 표현될 수 있다. 예를 들어, 인트라 모드 정보의 0에는 DM모드가 할당되고, 인트라 모드 정보의 100에는 MPC 모드가 할당될 수 있다. 그리고 인트라 모드 정보의 101, 110, 111 에는 수직 모드, 수평 모드, DC 모드가 각각 할당될 수 있다. 인트라 모드 정보의 코드 할당 방법은 인트라 모드의 통계적 사용확률에 따라 변경될 수 있다.
세 번째 실시 예에 따르면, DM 모드, MPC 모드, 플래너 모드, 수직 모드, 수평 모드, DC 모드가 현재 크로마 블록의 인트라 모드로 허용되는 경우, 인트라 모드 정보는 네 개의 비트로 표현될 수 있다. 예를 들어, 인트라 모드 정보의 0에는 MPC 모드가 할당되고, 인트라 모드 정보의 10에는 DM 모드가 할당될 수 있다. 그리고 인트라 모드 정보의 1100, 1101, 1110, 1111 에는 플래너 모드, 수직 모드, 수평 모드, DC 모드가 각각 할당될 수 있다. 인트라 모드 정보의 코드 할당 방법은 인트라 모드의 통계적 사용확률에 따라 변경될 수 있다.
상관관계 정보 획득부 (1710)의 기능은 인트라 모드 정보가 MPC 모드를 가리킬 때 수행될 수 있다. 현재 크로마 블록이 MPC 모드에 의하여 예측되지 않는 경우에도 상관관계 정보 획득부 (1710)의 기능이 수행될 경우, 불필요한 계산으로 인하여 부호화 및 복호화 성능이 저하되는 바, 인트라 모드 정보가 MPC 모드를 나타내지 않을 때, 상관관계 정보 획득부 (1710)의 기능은 수행되지 않는다.
크로마 샘플 예측부 (1720)는 인트라 모드 정보에 따른 인트라 모드에 따라 현재 크로마 샘플을 예측한다. 따라서 크로마 샘플 예측부 (1720)는 인트라 모드 정보가 MPC 모드를 가리킬 때, MPC 모드에 따른 예측 방법에 따라 현재 크로마 모드를 예측할 수 있다.
크로마 샘플 예측부 (1720)는 현재 크로마 블록에 대응되는 현재 루마 블록이 복호화된 후, 현재 루마 블록의 복호화된 루마 샘플로부터 현재 크로마 블록의 크로마 샘플들의 샘플 값을 예측할 수 있다. MPC 모드는 루마 값과 크로마 값의 상관관계에 따라 현재 크로마 블록을 예측하므로, 현재 루마 블록이 현재 크로마 블록보다 먼저 복호화되어야 한다. 그러므로 현재 루마 블록과 현재 크로마 블록은 순차적으로 복호화될 수 있다.
일 실시 예에 따르면, 크로마 샘플 예측부 (1720)는 현재 루마 블록이 인터 예측되는 경우, 현재 루마 블록에 포함된 루마 샘플들의 예측 값에 기초하여 크로마 샘플들의 샘플 값을 예측할 수 있다. 현재 루마 블록이 인터 예측되는 경우, 현재 크로마 블록은 현재 루마 블록과 같이 인터 예측되거나, MPC 모드에 따라 인트라 예측될 수 있다.
인터 예측에 따른 예측 결과는 일반적으로 인트라 예측에 따른 예측 결과보다 더 정확하다. 따라서 현재 루마 블록이 인트라 예측된 경우와 다르게, 현재 루마 블록이 인터 예측된 경우, 현재 루마 블록의 복원 결과가 아닌 예측 결과에 따라 현재 크로마 블록을 MPC 모드에 따라 인트라 예측할 수 있다. 현재 루마 블록의 예측 결과에 따라 현재 크로마 블록을 예측할 경우, 현재 루마 블록의 복원 결과에 따라 현재 크로마 블록을 예측할 경우에 비하여 예측 정확도가 다소 감소할 수 있다. 그러나 현재 루마 블록의 예측 후 복호화 단계과 현재 크로마 블록의 예측 단계가 병렬적으로 수행될 수 있어, 복호화 속도가 증가할 수 있다.
현재 크로마 샘플의 샘플 값이 현재 루마 샘플의 예측 값에 따라 예측되는지 여부는 비트스트림으로부터 획득되는 병렬 예측 정보에 따라 결정될 수 있다. 만약 병렬 예측 정보가 현재 루마 블록이 인터 예측된 경우, 현재 루마 블록의 예측 후 복호화 단계과 현재 크로마 블록의 예측 단계의 병렬 수행을 허용한다면, 현재 크로마 블록의 예측 정확도가 감소하는 대신 복호화 속도가 증가할 수 있다. 부호화 과정에서 현재 크로마 블록의 예측 정확도의 감소량과 복호화 속도의 증가량을 고려하여 병렬 예측 정보를 결정할 수 있다. 이하 도25에서 현재 루마 블록과 현재 크로마 블록의 예측 및 복원의 순서가 설명된다.
도25는 현재 루마 블록의 복호화와 현재 크로마 블록의 복호화의 순서를 도시한다. 도25의 상측에 있는 (a) 순서도에 의하면 현재 루마 블록의 예측 (2500)과 복호화 (2502)가 완료된 이후, 복호화된 현재 루마 블록에 따라 현재 크로마 블록의 PCM 모드에 기초한 예측 (2404)이 수행된다. 따라서 (a) 순서도에 의하면 현재 루마 블록과 현재 크로마 블록는 순서대로 수행된다.
그러나 도25의 상측에 있는 (b) 순서도에 의하면 현재 루마 블록이 인터 예측되는 경우, 현재 루마 블록이 예측 (2510)된 후, 현재 루마 블록의 복호화 (2512)와 현재 크로마 블록의 PCM 모드에 기초한 예측 (2514)이 병렬적으로 수행될 수 있다. 인터 예측의 경우, 일반적으로 인트라 예측보다 더 정확하기 때문에, 인터 예측에 따른 루마 샘플의 예측 값만으로도 크로마 샘플을 정확히 예측할 수 있다. 그러므로 병렬 연산이 가능한 시스템에서는 (b) 순서도에 따른 복호화에 따를 경우, 연산 속도가 향상될 수 있다.
크로마 샘플 예측부 (1720)는 크로마 샘플의 예측 값을 예측된 크로마 샘플의 인접 샘플에 따라 평활화(smoothing)할 수 있다. 크로마 샘플의 예측 값은 예측 정확도 향상을 위하여 평활화될 수 있다. 이 때 예측 값은 크로마 샘플의 좌측 샘플과 상측 샘플에 따라 평활화될 수 있다. 평활화 과정에서 현재 크로마 블록의 좌측 블록 및 상측 블록의 이미 복원된 샘플들이 참조되므로, 예측 값과 실제 값의 괴리를 줄일 수 있다. 상기 평활화 단계는 수학식 4에 따라 수행될 수 있다.
[수학식4]
Pred[i,j]=α00 Pred[i,j]+ α-1,0 Pred[i-1,j]+ α0 ,-1 Pred[i,j-1] , 1= α00 + α-1,0 + α0,-1
(i,j)는 평활화되는 샘플의 위치를 나타낸다. Pred[i,j]는 평활화되는 샘플의 샘플 값을, Pred[i-1,j]는 좌측 샘플의 샘플 값을, 그리고 Pred[i,j-1]는 상측 샘플의 샘플 값을 나타낸다. α00, α-1,0, α0 ,- 1는 각각 평활화되는 샘플의 샘플 값, 좌측 샘플의 샘플 값, 상측 샘플의 샘플 값에 대한 가중치를 나타낸다. α00, α-1,0, α0,-1의 합은 1이기 때문에, 수학식4 의 좌측의 Pred[i,j]는 우측의 Pred[i,j], Pred[i-1,j], Pred[i,j-1]의 가중평균 값이 된다. 위에서 설명된 평활화는 좌상측 샘플부터 래스터 스캔에 따른 순서대로 수행될 수 있다.
도 26는 현재 크로마 블록 (2600)의 예측 값의 평활화 단계를 설명한다. 현재 크로마 블록 (2600)이 MPC 모드에 따라 예측된 후, 예측의 정확도를 위하여 현재 크로마 블록 (2600)의 예측 값들은 평활화될 수 있다. 예측 값들은 각각 바로 좌측에 인접한 좌측 샘플의 샘플 값과 바로 상측에 인접한 상측 샘플의 샘플 값에 기초하여 평활화될 수 있다. 현재 크로마 블록 (2600)의 좌측 경계 또는 상측 경계에 위치한 크로마 샘플의 예측 값들은 주변 블록의 이미 복호화된 샘플들 (2610)의 샘플 값들에 의하여 평활화됨으로써 예측의 정확도가 향상된다.
예를 들어, 현재 크로마 블록 (2600)의 좌상측에 위치한 제1 샘플 (2601)의 예측 값은 복호화된 2개의 샘플들 (2611, 2612)의 샘플 값에 의하여 평활화된다. 그리고 현재 크로마 블록 (2600)의 다른 샘플들의 예측 값도 도 26에 도시된 화살표 방향에 따라 각각 좌측 샘플과 상측 샘플의 샘플 값에 따라 평활화된다. 예측 값의 평활화를 위하여 좌측 샘플과 상측 샘플은 복호화된 샘플이거나, 평활화된 샘플일 것이 요구된다. 그러므로 제1 샘플 (2601)의 예측 값이 먼저 복호화되어야 한다. 그리고 현재 크로마 블록 (2600)의 다른 샘플의 예측 값이 스캔 순서에 따라 순차적으로 평활화된다.
복호화부 (1730)는 예측된 크로마 샘플의 샘플 값에 기초하여, 현재 블록을 복원할 수 있다.
도 27은 현재 크로마 블록을 MPC 모드에 따라 복호화하는 방법 (2700)의 순서도를 도시한다.
단계 2710에서, 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보가 획득된다.
MPC 모드 참조 영역은 현재 크로마 블록의 좌측, 상측 및 좌상측 방향에 위치하며, 현재 크로마 블록의 경계로부터 소정의 샘플 거리 이내에 위치할 수 있다. 소정의 샘플 거리는 비트스트림으로부터 획득된 MPC 모드 참조 영역 정보에 따라 결정될 수 있다. 또한 소정의 샘플 거리는 MPC 모드 참조 영역 정보가 아닌 현재 크로마 블록의 크기, 현재 픽처의 해상도, 슬라이스 타입 중 적어도 하나에 따라 결정될 수 있다.
다른 실시 예에서 MPC 모드 참조 영역은 현재 블록의 복호화 이전에 복호화된 모든 블록들을 포함할 수 있다.
상관관계 정보를 획득하기 위하여, MPC 모드 참조 영역 안의 동일 위치의 루마 샘플과 크로마 샘플로부터 루마-크로마 쌍을 획득될 수 있다. 루마-크로마 쌍은 동일 위치의 루마 샘플의 루마 값과 크로마 샘플의 크로마 값으로 구성된다. 그리고 루마-크로마 쌍은 루마-크로마 2차원 히스토그램에 반영될 수 있다. MPC 모드 참조 영역의 모든 루마-크로마 쌍이 반영된 루마-크로마 2차원 히스토그램에 따라, 각 루마 값에 대응되는 최빈 크로마 값 또는 평균 크로마 값을 결정함으로써 상관관계 정보가 획득될 수 있다.
루마-크로마 2차원 히스토그램은 각각의 루마 값이 아닌, 복수의 연속한 루마 값들을 포함하는 루마 범위에 대하여 완성될 수 있다. 루마 범위에 따른 루마-크로마 2차원 히스토그램에 따라, 루마 범위 각각에 대하여 최빈 크로마 값 또는 평균 크로마 값을 결정함으로써 상관관계 정보가 획득될 수 있다.
단계 2720에서, 상관관계 정보에 따라 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 현재 크로마 블록의 크로마 샘플의 샘플 값이 예측된다.
현재 크로마 블록에 대응되는 현재 루마 블록이 복원된 후, 현재 루마 블록의 복원 결과로부터 현재 크로마 블록의 크로마 샘플들의 샘플 값이 예측될 수 있다. 만약 현재 루마 블록이 인터 예측된 경우, 실시 예에 따라, 현재 루마 블록의 예측 결과로부터 현재 크로마 블록의 크로마 샘플들의 샘플 값이 예측될 수 있다.
현재 크로마 블록에 포함된 크로마 샘플의 예측 값들은, 상기 크로마 샘플에 인접한 인접 샘플들의 예측 값에 따라 평활화될 수 있다.
단계 2730에서, 예측된 크로마 샘플의 샘플 값에 기초하여, 현재 크로마 블록이 복호화된다.
단계2710 내지 단계 2730은 도 17의 상관관계 정보 획득부 (1710) 내지 복호화부 (1730)에서 수행될 수 있다. 또한 도 17의 비디오 복호화 장치 (1700)의 각 구성이 수행하는 기능들이 MPC 모드에 따른 부호화 방법 (2700)에 포함될 수 있다.
도 28은 크로마 인트라 예측을 수행하는 비디오 부호화 장치(2800)를 도시한다.
비디오 부호화 장치 (2800)는 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)를 포함한다. 도 28에서 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)는 별도의 구성 단위로 표현되어 있으나, 실시 예에 따라 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)는 합쳐져 동일한 구성 단위로 구현될 수도 있다.
도 28에서 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)는 하나의 장치에 위치한 구성 단위로 표현되었지만, 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없다. 따라서 실시 예에 따라 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)가 분산되어 있을 수 있다.
상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)는 실시 예에 따라 하나의 프로세서에 의하여 구현될 수 있다. 또한 실시 예에 따라 복수 개의 프로세서에 의하여 구현될 수도 있다.
상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)는 비디오 부호화 장치 (2800)의 저장 매체에 프로그램의 형태로 저장되어 있을 수 있다. 또한, 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)의 기능을 수행하는 프로그램은 비디오 부호화 장치 (2800)의 필요에 따라 외부로부터 획득될 수 있다.
도28의 상관관계 정보 획득부 (2810)와 크로마 샘플 예측부 (2820)의 기능은 도17의 상관관계 정보 획득부 (1710)와 크로마 샘플 예측부 (1720)의 기능과 실질적으로 동일하다.
부호화부 (2830)는 현재 크로마 블록에 적용가능한 인트라 모드들 중에서 최적의 부호화 효율을 가지는 인트라 모드를 선택하고, 선택 결과에 따라 인트라 모드 정보를 생성할 수 있다. 생성된 인트라 모드 정보는 엔트로피 부호화되어 비트스트림에 포함될 수 있다. 따라서 상관관계 정보 획득부 (2810)와 크로마 샘플 예측부 (2820)에 의하여 수행된 MPC 모드의 예측 결과가 다른 인트라 모드에 의한 예측 결과에 비하여 정확성이 낮을 경우, 부호화부 (2830)는 MPC 모드가 아닌 다른 인트라 모드를 현재 크로마 블록의 인트라 모드로 결정할 수 있다.
비디오 부호화 장치 (2800)는 추가적으로 복호화부 (미도시)를 포함할 수 있다. 비디오 부호화 장치 (2800)의 복호화부는 비디오 복호화 장치 (1700)의 복호화부 (1730)과 동일한 기능을 가진다. 손실 압축 (lossy coding)에서는 원본 픽쳐와 복원 픽쳐가 서로 완전히 동일하지 않으므로, 복호화 과정에서 원본 픽쳐가 아닌 먼저 복원된 복원 픽쳐를 참조하여 현재 픽쳐를 복호화하게 된다. 그러므로 부호화 과정에서 현재 픽쳐가 원본 픽쳐가 아닌 먼저 복원된 복원 픽쳐를 참조하도록 하기 위하여, 부호화된 픽쳐를 다시 복호화하는 과정이 필요하다. 따라서 비디오 부호화 장치 (2800)는 비디오 복호화 장치 (1700)에 포함된 구성들의 기능을 수행할 수 있다.
도 29은 현재 크로마 블록을 MPC 모드에 따라 부호화하는 방법 (2900)의 순서도를 도시한다.
단계 2910에서, 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보가 획득된다.
단계 2920에서, 상관관계 정보에 따라 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 현재 크로마 블록의 크로마 샘플의 샘플 값이 예측된다.
단계 2930에서, 단계 2920에 따른 예측 결과에 따라 현재 블록의 예측이 MPC 모드 또는 다른 인트라 모드에 의하여 수행되는지 여부를 나타내는 인트라 모드 정보가 생성된다.
단계 2910 내지 단계 2930은 각각 상관관계 정보 획득부 (2810), 크로마 샘플 예측부 (2820) 및 부호화부 (2830)에서 수행될 수 있다. 또한 도 28의 비디오 부호화 장치 (2800)의 각 구성이 수행하는 기능들이 MPC 모드에 따른 부호화 방법 (2900)에 포함될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
본 발명은 특정한 최상의 실시 예와 관련하여 설명되었지만, 이외에 본 발명에 대체, 변형 및 수정이 적용된 발명들은 전술한 설명에 비추어 당업자에게 명백할 것이다. 즉, 청구범위는 이러한 모든 대체, 변형 및 수정된 발명을 포함하도록 해석한다. 그러므로 이 명세서 및 도면에서 설명한 모든 내용은 예시적이고 비제한적인 의미로 해석해야 한다.

Claims (15)

  1. 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계;
    상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계; 및
    상기 크로마 샘플의 예측 값에 기초하여, 상기 현재 크로마 블록을 복호화하는 단계를 포함하는 비디오 복호화 방법.
  2. 제1항에 있어서,
    상기 MPC 모드 참조 영역은 상기 현재 크로마 블록의 좌측, 상측 및 좌상측에 위치하며, 상기 MPC 모드 참조 영역은 상기 현재 크로마 블록의 경계로부터 소정의 샘플 거리 이내에 위치한 것을 특징으로 하는 비디오 복호화 방법.
  3. 제2항에 있어서,
    상기 소정의 샘플 거리는 비트스트림으로부터 획득된 MPC 모드 참조 영역 정보에 따라 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제2항에 있어서,
    상기 소정의 샘플 거리는 상기 현재 크로마 블록의 크기, 현재 픽처의 해상도, 슬라이스 타입 중 적어도 하나에 따라 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  5. 제1항에 있어서,
    상기 MPC 모드 참조 영역은 상기 현재 크로마 블록의 복호화 이전에 복호화된 모든 블록들이 포함된 영역인 것을 특징으로 하는 비디오 복호화 방법.
  6. 제1항에 있어서,
    상기 상관관계 정보를 획득 단계는,
    상기 MPC 모드 참조 영역 안의 동일 위치의 루마 샘플과 크로마 샘플에 대하여, 상기 루마 샘플의 루마 값과 상기 크로마 샘플의 크로마 값으로 구성된 루마-크로마 쌍을 획득하는 단계;
    상기 루마-크로마 쌍을 루마-크로마 2차원 히스토그램에 반영하는 단계;
    상기 루마-크로마 2차원 히스토그램에 따라, 각 루마 값에 대응되는 크로마 값을 결정함으로써 상기 상관관계 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  7. 제6항에 있어서,
    상기 상관관계 정보를 획득하는 단계는,
    복수의 연속한 루마 값들을 포함하는 루마 범위들을 결정하는 단계;
    상기 루마-크로마 2차원 히스토그램에 따라, 상기 루마 범위들에 대하여 각각 대응되는 크로마 값을 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  8. 제1항에 있어서,
    상기 크로마 샘플의 예측 값 결정 단계에 있어서,
    상기 현재 크로마 블록에 대응되는 현재 루마 블록이 복원된 후, 상기 현재 루마 블록의 복원 결과로부터 상기 현재 크로마 블록의 크로마 샘플들의 예측 값을 결정하는 것을 특징으로 하는 비디오 복호화 방법.
  9. 제1항에 있어서,
    상기 크로마 샘플의 예측 값 결정 단계에 있어서,
    상기 현재 크로마 블록에 대응되는 현재 루마 블록이 인터 예측 모드에 따라 예측되는 경우, 상기 현재 루마 블록의 예측 결과에 기초하여 상기 현재 크로마 블록의 크로마 샘플들의 예측 값을 결정하는 것을 특징으로 하는 비디오 복호화 방법.
  10. 제1항에 있어서,
    상기 크로마 샘플의 예측 값 결정 단계에 있어서,
    상기 크로마 샘플의 예측 값을 상기 크로마 샘플의 인접 샘플에 따라 평활화(smoothing)하는 단계가 포함된 비디오 복호화 방법.
  11. 제1항에 있어서,
    상기 현재 크로마 블록의 인트라 모드 정보를 비트스트림으로부터 획득하는 단계를 더 포함하고,
    상기 인트라 모드 정보는 상기 현재 크로마 블록에서 사용가능한 인트라 모드들 중 하나를 나타내는 것을 특징으로 하는 비디오 복호화 방법.
  12. 제11항에 있어서,
    상기 사용가능한 인트라 모드는 플래너 모드, 수직 모드, 수평 모드, DC 모드, DM 모드, MPC 모드 중 적어도 하나를 포함하고,
    상기 상관관계 정보를 획득하는 단계 및 상기 크로마 샘플들의 샘플 값을 예측하는 단계는 상기 인트라 모드 정보가 MPC 모드를 가리킬 때 수행되는 것을 특징으로 하는 비디오 복호화 방법.
  13. 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 상관관계 정보 획득부;
    상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 크로마 샘플 예측부; 및
    상기 크로마 샘플의 예측 값에 기초하여, 상기 현재 크로마 블록을 복호화하는 복호화부를 포함하는 비디오 복호화 장치.
  14. 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 단계;
    상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 단계; 및
    상기 크로마 샘플의 예측 결과에 따라 MPC 모드를 포함한 인트라 모드들 중에서 상기 현재 크로마 블록의 인트라 모드를 결정하는 단계를 포함하는 비디오 부호화 방법.
  15. 현재 크로마 블록의 MPC 모드 참조 영역으로부터 루마 값과 크로마 값의 상관관계 정보를 획득하는 상관관계 정보 획득부;
    상기 상관관계 정보에 따라 상기 현재 크로마 블록에 대응되는 현재 루마 블록의 루마 샘플들로부터 상기 현재 크로마 블록의 크로마 샘플의 예측 값을 결정하는 크로마 샘플 예측부; 및
    상기 크로마 샘플의 예측 결과에 따라 MPC 모드를 포함한 인트라 모드들 중에서 상기 현재 크로마 블록의 인트라 모드를 결정하는 부호화부를 포함하는 비디오 부호화 장치.
PCT/KR2017/007289 2016-07-14 2017-07-07 크로마 인트라 예측 방법 및 그 장치 WO2018012808A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020187034611A KR20180135075A (ko) 2016-07-14 2017-07-07 크로마 인트라 예측 방법 및 그 장치
US16/317,862 US11277604B2 (en) 2016-07-14 2017-07-07 Chroma intra prediction method and device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662362213P 2016-07-14 2016-07-14
US62/362,213 2016-07-14

Publications (1)

Publication Number Publication Date
WO2018012808A1 true WO2018012808A1 (ko) 2018-01-18

Family

ID=60953140

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/007289 WO2018012808A1 (ko) 2016-07-14 2017-07-07 크로마 인트라 예측 방법 및 그 장치

Country Status (3)

Country Link
US (1) US11277604B2 (ko)
KR (1) KR20180135075A (ko)
WO (1) WO2018012808A1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019190140A1 (ko) * 2018-03-25 2019-10-03 김기백 영상 부호화/복호화 방법 및 장치
CN110876061A (zh) * 2018-09-03 2020-03-10 华为技术有限公司 色度块预测方法及装置
WO2020050607A1 (ko) * 2018-09-05 2020-03-12 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
WO2020076142A1 (ko) * 2018-10-12 2020-04-16 주식회사 윌러스표준기술연구소 교차성분 선형 모델을 이용한 비디오 신호 처리 방법 및 장치
WO2020116848A1 (ko) * 2018-12-05 2020-06-11 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
CN113412617A (zh) * 2018-12-21 2021-09-17 三星电子株式会社 编码方法及其装置和解码方法及其装置
CN114208185A (zh) * 2019-07-23 2022-03-18 北京字节跳动网络技术有限公司 预测处理中调色板模式的模式确定
US11470306B2 (en) 2018-10-07 2022-10-11 Wilus Institute Of Standards And Technology Inc. Method and device for processing video signal using MPM configuration method for multiple reference lines
WO2023197191A1 (zh) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质
US11924432B2 (en) 2019-07-20 2024-03-05 Beijing Bytedance Network Technology Co., Ltd Condition dependent coding of palette mode usage indication

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083319A (ko) * 2018-12-28 2020-07-08 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP4017000A4 (en) * 2019-08-14 2022-10-05 LG Electronics Inc. IMAGE ENCODING/DECODING METHOD AND APPARATUS FOR DETERMINING THE PREDICTION MODE OF A CHROMA BLOCK WITH REFERENCE TO A LUMA SENSING POSITION AND METHODS FOR TRANSMITTING A BIT STREAM
KR20230107417A (ko) * 2019-12-30 2023-07-14 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 비디오 데이터의 크로마 및 루마 성분의 교차 성분결정
WO2023154410A1 (en) * 2022-02-10 2023-08-17 Beijing Dajia Internet Information Technology Co., Ltd. Method and apparatus for cross-component prediction for video coding
WO2023177197A1 (ko) * 2022-03-15 2023-09-21 주식회사 케이티 영상 부호화/복호화 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100054542A1 (en) * 2008-09-03 2010-03-04 Texas Instruments Incorporated Processing video frames with the same content but with luminance variations across frames
WO2012121535A2 (ko) * 2011-03-06 2012-09-13 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
KR20130004133A (ko) * 2011-06-28 2013-01-09 삼성전자주식회사 휘도 성분 영상을 이용한 색차 성분 영상의 예측 방법 및 예측 장치
KR20130036773A (ko) * 2010-09-03 2013-04-12 돌비 레버러토리즈 라이쎈싱 코오포레이션 비디오 코딩 및 프로세싱을 위한 조도 보상 및 변환을 위한 방법 및 시스템
KR20140110015A (ko) * 2012-01-04 2014-09-16 미디어텍 싱가폴 피티이. 엘티디. 루마 기반 크로마 인트라 예측의 방법 및 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040006065A (ko) 2002-07-09 2004-01-24 삼성전자주식회사 장면전환검출장치 및 그 방법
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR102223526B1 (ko) * 2010-04-09 2021-03-04 엘지전자 주식회사 비디오 데이터 처리 방법 및 장치
US11032550B2 (en) * 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100054542A1 (en) * 2008-09-03 2010-03-04 Texas Instruments Incorporated Processing video frames with the same content but with luminance variations across frames
KR20130036773A (ko) * 2010-09-03 2013-04-12 돌비 레버러토리즈 라이쎈싱 코오포레이션 비디오 코딩 및 프로세싱을 위한 조도 보상 및 변환을 위한 방법 및 시스템
WO2012121535A2 (ko) * 2011-03-06 2012-09-13 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
KR20130004133A (ko) * 2011-06-28 2013-01-09 삼성전자주식회사 휘도 성분 영상을 이용한 색차 성분 영상의 예측 방법 및 예측 장치
KR20140110015A (ko) * 2012-01-04 2014-09-16 미디어텍 싱가폴 피티이. 엘티디. 루마 기반 크로마 인트라 예측의 방법 및 장치

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11438577B2 (en) 2018-03-25 2022-09-06 B1 Institute Of Image Technology, Inc. Image encoding/decoding method and device
US11956425B2 (en) 2018-03-25 2024-04-09 B1 Institute Of Image Technology, Inc. Image encoding/decoding method and device
WO2019190140A1 (ko) * 2018-03-25 2019-10-03 김기백 영상 부호화/복호화 방법 및 장치
RU2752009C1 (ru) * 2018-03-25 2021-07-21 Б1 Инститьют Оф Имидж Текнолоджи, Инк. Способ и устройство кодирования/декодирования изображения
CN110876061A (zh) * 2018-09-03 2020-03-10 华为技术有限公司 色度块预测方法及装置
CN110876061B (zh) * 2018-09-03 2022-10-11 华为技术有限公司 色度块预测方法及装置
WO2020050607A1 (ko) * 2018-09-05 2020-03-12 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
US11470306B2 (en) 2018-10-07 2022-10-11 Wilus Institute Of Standards And Technology Inc. Method and device for processing video signal using MPM configuration method for multiple reference lines
CN112823526A (zh) * 2018-10-12 2021-05-18 韦勒斯标准与技术协会公司 通过使用交叉分量线性模型来处理视频信号的方法和设备
US11438596B2 (en) 2018-10-12 2022-09-06 Wilus Institute Of Standards And Technology Inc. Method and device for processing video signal by using cross-component linear model
CN112823526B (zh) * 2018-10-12 2023-09-15 三星电子株式会社 通过使用交叉分量线性模型来处理视频信号的方法和设备
US11870995B2 (en) 2018-10-12 2024-01-09 Samsung Electronics Co., Ltd. Method and device for processing video signal by using cross-component linear model
WO2020076142A1 (ko) * 2018-10-12 2020-04-16 주식회사 윌러스표준기술연구소 교차성분 선형 모델을 이용한 비디오 신호 처리 방법 및 장치
WO2020116848A1 (ko) * 2018-12-05 2020-06-11 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
US11582482B2 (en) 2018-12-05 2023-02-14 Lg Electronics Inc. Image prediction method and device for deriving chroma intra prediction mode
CN113412617A (zh) * 2018-12-21 2021-09-17 三星电子株式会社 编码方法及其装置和解码方法及其装置
US11924432B2 (en) 2019-07-20 2024-03-05 Beijing Bytedance Network Technology Co., Ltd Condition dependent coding of palette mode usage indication
CN114208185A (zh) * 2019-07-23 2022-03-18 北京字节跳动网络技术有限公司 预测处理中调色板模式的模式确定
CN114208185B (zh) * 2019-07-23 2023-12-29 北京字节跳动网络技术有限公司 预测处理中调色板模式的模式确定
WO2023197191A1 (zh) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质

Also Published As

Publication number Publication date
KR20180135075A (ko) 2018-12-19
US20210281831A1 (en) 2021-09-09
US11277604B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2017142327A1 (ko) 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치
WO2017138791A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018030599A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019182385A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019172705A1 (ko) 샘플 필터링을 이용한 영상 부호화/복호화 방법 및 장치
WO2020060158A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2018047995A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020040619A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2020027551A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018124333A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018174457A1 (ko) 영상 처리 방법 및 이를 위한 장치
WO2020130712A1 (ko) 삼각 예측 모드를 이용하는 영상 부호화 장치 및 영상 복호화 장치, 및 이에 의한 영상 부호화 방법 및 영상 복호화 방법
WO2019216712A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2020130745A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020096427A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020139059A1 (ko) 움직임 벡터 차분의 부호화 방법 및 부호화 장치, 및 움직임 벡터 차분의 복호화 방법 및 복호화 장치
WO2020076130A1 (ko) 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 방법, 및 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 장치
WO2021141451A1 (ko) 양자화 파라미터를 획득하기 위한 비디오 복호화 방법 및 장치, 양자화 파라미터를 전송하기 위한 비디오 부호화 방법 및 장치
WO2019209028A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2019066514A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019194647A1 (ko) 필터 정보 기반의 적응적 루프 필터링 방법, 그를 이용한 영상 부호화 및 복호화 방법
WO2019240458A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017195945A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20187034611

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17827881

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17827881

Country of ref document: EP

Kind code of ref document: A1