WO2019013515A1 - 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 - Google Patents

부호화 방법 및 그 장치, 복호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2019013515A1
WO2019013515A1 PCT/KR2018/007780 KR2018007780W WO2019013515A1 WO 2019013515 A1 WO2019013515 A1 WO 2019013515A1 KR 2018007780 W KR2018007780 W KR 2018007780W WO 2019013515 A1 WO2019013515 A1 WO 2019013515A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
encoding
determining
encoding unit
intra prediction
Prior art date
Application number
PCT/KR2018/007780
Other languages
English (en)
French (fr)
Inventor
진보라
알시나엘레나
최나래
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2019013515A1 publication Critical patent/WO2019013515A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present disclosure relates to a video encoding method and a video decoding method, and more particularly relates to an intra prediction method.
  • High quality video requires a large amount of data when encoding.
  • the bandwidth allowed for delivering video data is limited, so that the data rate applied when transmitting video data may be limited. Therefore, in order to efficiently transmit video data, a method of encoding and decoding video data with an increased compression ratio while minimizing deterioration of image quality is needed.
  • Video data can be compressed by eliminating spatial redundancy and temporal redundancy between pixels. Since it is common to have a common feature among adjacent pixels, encoding information is transmitted in units of data consisting of pixels in order to eliminate redundancy between adjacent pixels.
  • the pixel values of the pixels included in the data unit are not transmitted directly, but the necessary method to obtain the pixel value is transmitted.
  • a prediction method for predicting the pixel value similar to the original value is determined for each data unit and the encoding information for the prediction method is transmitted from the encoder to the decoder. Also, since the predicted value is not exactly the same as the original value, the residual data of the difference between the original value and the predicted value is transmitted to the decoder in the encoder.
  • the prediction method is determined in consideration of the size of the encoding information and the residual data.
  • data units divided in pictures have various sizes. The larger the size of a data unit, the more likely the prediction accuracy decreases, and the coding information decreases. Therefore, the size of the block is determined according to the characteristics of the picture.
  • the prediction methods include intra prediction and inter prediction.
  • Intra prediction is a method of predicting pixels of a block from surrounding pixels of the block.
  • Inter prediction is a method of predicting pixels with reference to pixels of another picture referenced by a picture including a block. Therefore, spatial redundancy is removed by intra prediction, and temporal redundancy is eliminated by inter prediction.
  • the encoding information applied to the block can also be predicted from other blocks, thereby reducing the size of the encoded information.
  • the amount of residual data can be reduced by lossy compression of the residual data according to the transformation and quantization process.
  • a video encoding method and a video encoding apparatus for performing intra prediction based on a weighted sum of reference samples included in a reference region are disclosed.
  • a video decoding method and a video decoding apparatus for performing intra prediction based on a weighted sum of reference samples included in a reference region are also disclosed.
  • a computer-readable recording medium on which a program for causing a computer to execute a video encoding method and a video decoding method according to an embodiment of the present disclosure is disclosed.
  • Determining an intra prediction mode of a current block in the present disclosure determining a reference region adjacent to the current block to be used for prediction of a current sample, determining a reference region to be used for predicting a current sample based on an intra prediction mode of the current block, Determining a weight of a plurality of reference samples included in the reference region based on a weighted sum of reference samples included in the reference region calculated according to the determined weight; Determining an intra prediction method according to the intra prediction method.
  • the intra prediction mode of the current block is determined, a reference region adjacent to the current block to be used for prediction of the current sample is determined, and the reference region is included according to the intra prediction mode of the current block and the position of the current sample.
  • a computer-readable recording medium on which a program for performing the video coding method and the video decoding method is recorded.
  • the prediction accuracy of the block is improved according to the intra prediction method according to the weighted sum of the reference samples included in the reference area of the block. As the prediction accuracy of the blocks included in the image is improved, the coding rate of the image is improved.
  • FIG. 1A shows a block diagram of an image encoding apparatus based on an encoding unit according to a tree structure according to an embodiment of the present disclosure.
  • FIG. 1B shows a block diagram of an image decoding apparatus based on an encoding unit according to a tree structure according to an embodiment.
  • FIG. 2 illustrates a process in which at least one encoding unit is determined by dividing a current encoding unit according to an embodiment.
  • FIG. 3 illustrates a process in which at least one encoding unit is determined by dividing a non-square encoding unit according to an embodiment.
  • FIG. 4 illustrates a process in which an encoding unit is divided based on at least one of block type information and division type information according to an embodiment.
  • FIG. 5 illustrates a method of determining a predetermined encoding unit among odd number of encoding units according to an exemplary embodiment.
  • FIG. 6 illustrates a sequence in which a plurality of coding units are processed when a current coding unit is divided to determine a plurality of coding units according to an exemplary embodiment.
  • FIG. 7 illustrates a process in which, when an encoding unit can not be processed in a predetermined order according to an embodiment, it is determined that the current encoding unit is divided into odd number of encoding units.
  • FIG. 8 illustrates a process in which a first encoding unit is divided into at least one encoding unit according to an embodiment of the present invention.
  • FIG. 10 illustrates a process in which a square-shaped encoding unit is divided when division type information can not be divided into four square-shaped encoding units according to an embodiment
  • FIG. 11 illustrates that the processing order among a plurality of coding units may be changed according to a division process of coding units according to an embodiment.
  • FIG. 12 illustrates a process of determining the depth of an encoding unit according to a change in type and size of an encoding unit when a plurality of encoding units are determined by recursively dividing an encoding unit according to an exemplary embodiment.
  • FIG. 13 illustrates a depth index (hereinafter referred to as PID) for coding unit classification and depth that can be determined according to the type and size of coding units according to an exemplary embodiment.
  • PID depth index
  • FIG. 14 shows that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 15 illustrates a processing block serving as a reference for determining a determination order of a reference encoding unit included in a picture according to an embodiment.
  • 16A is a block diagram of an image encoding unit based on an encoding unit according to various embodiments.
  • 16B shows a block diagram of an image decoding unit based on an encoding unit according to various embodiments.
  • 17 shows a block diagram of an intra prediction apparatus for predicting samples of current blocks according to a weighted sum of sample values of reference samples.
  • Figure 18 illustrates an embodiment for predicting the current sample according to the weighted sum of the reference samples of the reference region.
  • 19 illustrates an embodiment for determining weights of reference samples according to the prediction direction of the intra-prediction mode.
  • FIG. 21 illustrates an embodiment for determining weights of reference samples when bidirectional prediction is applied to a current block.
  • FIG. 22 illustrates an embodiment for determining weights of reference samples when a plurality of intra prediction modes are applied to a current block.
  • 23 illustrates an embodiment for determining the weights of reference samples when predictive value filtering is applied to the current block.
  • Figure 24 illustrates an embodiment for determining weights of reference samples when the reference region is set to include samples that are two sample units away from the current block.
  • 25 shows a flowchart of an intra prediction method for predicting samples of current blocks according to a weighted sum of sample values of reference samples.
  • Determining an intra prediction mode of a current block in the present disclosure determining a reference region adjacent to the current block to be used for prediction of a current sample, determining a reference region to be used for predicting a current sample based on an intra prediction mode of the current block, Determining a weight of a plurality of reference samples included in the reference region based on a weighted sum of reference samples included in the reference region calculated according to the determined weight; Determining an intra prediction method according to the intra prediction method.
  • determining the intra prediction mode of the current block further comprises determining whether smoothing is performed on the plurality of reference samples and wherein determining the weighting comprises: And determining a weight of the reference samples according to a smoothing filter coefficient when smoothing is performed on the reference samples.
  • determining the intra prediction mode of the current block comprises determining a smoothing intensity for the plurality of reference samples when smoothing is performed on the plurality of reference samples, May include determining a weight of the plurality of reference samples according to a smoothing filter coefficient according to the smoothing intensity.
  • the weighting step may determine the weights of the plurality of reference samples based on the reference position of the reference area indicated by the prediction direction of the intra prediction mode from the current sample.
  • determining the weighting comprises: determining an interpolation filter coefficient according to the fractional value if the reference position has a fractional value; and determining the interpolation filter coefficient according to the interpolation filter coefficient, And determining a weight of the reference samples.
  • determining the intra prediction mode of the current block further comprises determining whether smoothing is performed on the plurality of reference samples and wherein determining the weighting comprises: Determining a combined filter coefficient for the smoothing filter coefficient and the interpolation filter coefficient when performing a smoothing for the reference samples, and determining a weight of the plurality of reference samples according to the combined filter coefficient can do.
  • the step of determining an intra prediction mode of the current block includes a step of determining whether bidirectional prediction is applied to the current block, and the step of determining the weighting value includes: when the bidirectional prediction is applied to the current block, And determining a weight of the reference samples based on a first reference position of the reference area indicated by the prediction direction of the intra-prediction mode and a second reference position of the reference area indicated by a direction opposite to the prediction direction. .
  • the step of determining an intra prediction mode of the current block comprises the steps of: determining whether a plurality of intra prediction modes are applied to the current block; if a plurality of intra prediction modes are applied to the current block, Prediction mode of the intra-prediction mode is determined based on a plurality of reference positions of the reference region indicated by a plurality of prediction directions of the plurality of intra-prediction modes from the current sample, And the weights of the plurality of reference samples are determined.
  • the step of determining an intra prediction mode of the current block further comprises determining whether prediction value filtering is applied to the current block, and the step of determining a weight value comprises: applying prediction value filtering to the current block Determining an upper position located on the upper side of the current sample and a left position located on the left side of the current sample from the reference area and a weighting value of the plurality of reference samples based on the upper position and the left position, Based on the result of the determination.
  • the step of determining the reference region may include determining two or more sample lines on the upper side of the current block and a reference region including two or more sample columns on the left side of the current block .
  • the weighting step may be such that a weight is determined such that a sum of weights of the plurality of reference samples is equal to one.
  • an intra prediction mode of a current block is determined, a reference region adjacent to the current block to be used for predicting a current sample is determined, and a reference region is determined according to the intra prediction mode of the current block and the position of the current sample.
  • a video encoding method for encoding video according to the intraprediction method according to the present disclosure and a video decoding method for decoding encoded video.
  • a computer-recordable recording medium on which a program for performing an intra prediction method according to the present disclosure is stored.
  • part refers to a hardware component such as software, FPGA or ASIC, and “ part " However, “ part “ is not meant to be limited to software or hardware. &Quot; Part " may be configured to reside on an addressable storage medium and may be configured to play back one or more processors.
  • part (s) refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.
  • the functions provided in the components and “ parts " may be combined into a smaller number of components and “ parts “ or further separated into additional components and “ parts ".
  • the " current block” means one of a coding unit, a prediction unit and a conversion unit which are currently encoded or decoded. For convenience of explanation, when it is necessary to distinguish other types of blocks such as a prediction unit, a conversion unit, a "current encoding block”, a “current prediction block”, and a “current conversion block” may be used.
  • “Sub-block” means a data unit divided from “current block”.
  • “upper block” means a data unit including " current block ".
  • sample means data to be processed as data assigned to a sampling position of an image.
  • pixel values in the image of the spatial domain, and transform coefficients on the transform domain may be samples.
  • a unit including at least one of these samples may be defined as a block.
  • FIG. 1A shows a block diagram of an image encoding apparatus 100 based on an encoding unit according to a tree structure according to an embodiment of the present disclosure.
  • the image coding apparatus 100 includes a coding unit 110 and a bitstream generation unit 120.
  • the encoding unit 110 divides a picture or a slice included in a picture into a plurality of maximum encoding units according to the size of the maximum encoding unit.
  • the maximum encoding unit may be a data unit of size 32x32, 64x64, 128x128, 256x256, or the like, and a data unit of a character approval square whose width and height are two.
  • the encoding unit 110 may provide the maximum encoding unit size information indicating the size of the maximum encoding unit to the bitstream generating unit 120.
  • the bitstream generating unit 120 may include the maximum encoding unit size information in the bitstream.
  • the encoding unit 110 determines the encoding unit by dividing the maximum encoding unit. Whether or not the coding unit is divided depends on whether or not the coding unit is efficiently divided by Rate-Distortion Optimization. And division information indicating whether or not the encoding unit is divided may be generated. The division information can be expressed in the form of a flag.
  • the encoding unit can be divided in various ways. For example, a square encoding unit can be divided into four square encoding units that are half the width and height. A square encoding unit can be divided into two rectangular encoding units that are half in width. A square encoding unit can be divided into two rectangular encoding units whose height is half. A square encoding unit can be divided into three encoding units by dividing the width or height by 1: 2: 1.
  • a rectangular coding unit whose width is twice the height can be divided into two square coding units.
  • a rectangular coding unit whose width is twice as high can be divided into rectangular coding units having two widths and four times the height.
  • An encoding unit of a rectangle whose width is twice the height can be divided into two rectangular encoding units and one square encoding unit by dividing the width by 1: 2: 1.
  • a rectangular coding unit whose height is twice the width can be divided into two square coding units.
  • a rectangular unit of coding whose height is twice the width can be divided into rectangular units of which the height is four times the width.
  • a rectangular unit of coding whose height is twice the width can be divided into two rectangular unit of coding and one square unit of coding by dividing the height by 1: 2: 1.
  • the image coding apparatus 100 When two or more division methods are available in the image coding apparatus 100, information on division methods that can be used for the coding units among the division methods available in the image coding apparatus 100 can be determined for each picture. Therefore, only the division methods specific to each picture can be determined to be used. If the image encoding apparatus 100 uses only one division method, information on the division method that can be used in the encoding unit is not separately determined.
  • a coding unit of a certain size it can be divided by a specific division method. For example, when the size of an encoding unit is 256x265, an encoding unit can be set to be divided into only four square units of which the width and height are halved.
  • division type information indicating a division method of an encoding unit can be generated. If there is one division method that can be used in a picture to which an encoding unit belongs, the division type information may not be generated. If the division method is adaptively determined to the encoding information around the encoding unit, the division type information may not be generated.
  • the image data of the current picture is divided into the maximum encoding units.
  • the maximum encoding unit may include the encoding units hierarchically divided from the maximum encoding unit.
  • the type and position of the lower coding unit can be determined according to the division type of the upper coding unit.
  • the minimum size of the encoding unit that limits the division of the encoding unit may be preset.
  • the encoding unit 110 compares the encoding efficiency when the encoding unit is hierarchically divided and the encoding efficiency when the encoding unit is not divided. Then, the encoding unit 110 determines whether to divide the encoding unit according to the comparison result. If it is determined that the division of the encoding unit is more efficient, the encoding unit 110 divides the encoding unit hierarchically. If it is determined that it is efficient to not divide the encoding unit according to the comparison result, the encoding unit is not divided. Whether or not the encoding unit is divided can be determined independently of whether or not the adjacent encoding units are divided.
  • the finally divided encoding unit can be predicted by intra prediction or inter prediction.
  • Intra prediction is a method of predicting samples of a prediction unit using reference samples around the prediction unit.
  • Inter prediction is a method of obtaining a reference sample from a reference picture referred to by the current picture and predicting the samples of the prediction unit.
  • the encoding unit 110 can select a most efficient intra prediction method by applying a plurality of intra prediction methods to prediction units for intraprediction.
  • Intra prediction methods include a DC mode, a planar mode, a directional mode such as a vertical mode and a horizontal mode, and the like.
  • Intra prediction can be performed for each prediction unit when a reconstructed sample around a coding unit is used as a reference sample.
  • the prediction order of the prediction unit may be dependent on the conversion order of the conversion unit since the restoration of the reference sample in the coding unit should take precedence over the prediction. Therefore, when a reconstructed sample in a coding unit is used as a reference sample, only the intra prediction method for the conversion units corresponding to the prediction unit is determined for the prediction unit, and the actual intra prediction can be performed for each conversion unit.
  • the encoding unit 110 can select the most efficient inter prediction method by determining the optimal motion vector and the reference picture.
  • the coding unit determination unit 120 may determine a plurality of motion vector candidates from spatial units temporally adjacent to the current coding unit for inter prediction and determine the most efficient motion vector among the motion vectors as a motion vector.
  • a plurality of reference picture candidates can be determined from the current and the temporally adjacent encoding units, and the most efficient reference picture can be determined.
  • a reference picture may be determined from predetermined reference picture lists for the current picture.
  • the most efficient motion vector among a plurality of motion vector candidates may be determined as a predictive motion vector for correct prediction, and a motion vector may be determined by correcting a predictive motion vector.
  • Inter prediction can be performed in parallel for each prediction unit in an encoding unit.
  • the encoding unit 110 may obtain only the information indicating the motion vector and the reference picture according to the skip mode to restore the encoding unit.
  • the skip mode all the coding information including the residual signal is omitted except for the information indicating the motion vector and the reference picture. Since the residual signal is omitted, the skip mode can be used when the accuracy of the prediction is very high.
  • the partitioning mode used may be limited depending on the prediction method for the prediction unit. For example, only the partition mode for a prediction unit of 2Nx2N, NxN size is applied to the intra prediction, whereas a partition mode for a prediction unit of 2Nx2N, 2NxN, Nx2N, NxN size can be applied to the inter prediction. In addition, only the partition mode for a prediction unit of 2Nx2N size can be applied to the skip mode of the inter prediction.
  • the partition mode allowed for each prediction method in the image coding apparatus 100 can be changed according to the coding efficiency.
  • the image encoding apparatus 100 may perform conversion based on the encoding unit.
  • the image encoding apparatus 100 may convert residual data, which is a difference value between an original value and a predicted value, of the pixels included in the encoding unit through a predetermined process.
  • the image encoding apparatus 100 may perform lossy compression through quantization and DCT / DST conversion of residual data.
  • the image encoding apparatus 100 can perform lossless compression of the residual data without quantization.
  • the coding unit 110 determines the most efficient prediction method for the current coding unit among the plurality of intra prediction methods and inter prediction methods. Then, the encoding unit 110 determines the prediction method of the current encoding unit according to the encoding efficiency according to the prediction result. Similarly, the encoding unit 110 can determine the conversion method according to the encoding efficiency according to the conversion result. The encoding efficiency of the encoding unit is finally determined according to the most efficient encoding unit prediction method and the conversion method determination method. The encoding unit 110 determines the hierarchical structure of the maximum encoding unit according to the encoding efficiency of the finally divided encoding units.
  • the coding unit 110 may measure the coding efficiency of the coding unit and the prediction efficiency of the prediction methods using Rate-Distortion Optimization based on a Lagrangian Multiplier.
  • the encoding unit 110 may generate division information indicating whether or not the encoding unit is divided according to the determined hierarchical structure of the maximum encoding unit.
  • the encoding unit 110 may generate partition mode information for determining a prediction unit and conversion unit division information for determining a conversion unit for an encoding unit for which a division has been completed. If the encoding unit 110 has two or more encoding unit division methods, the encoding unit 110 can generate the division type information indicating the division method together with the division information.
  • the encoding unit 110 may generate information on the prediction method and the conversion method used in the prediction unit and the conversion unit.
  • the bitstream generating unit 120 may output information generated by the encoding unit 110 in the form of a bitstream according to a hierarchical structure of a maximum encoding unit.
  • FIG. 1B shows a block diagram of an image decoding apparatus 150 based on a coding unit according to a tree structure according to an embodiment.
  • the image decoding apparatus 150 includes a receiving unit 160 and a decoding unit 170.
  • the receiving unit 160 receives and parses the bitstream of the encoded video.
  • the decoding unit 170 extracts information necessary for decoding for each maximum encoding unit from the parsed bit stream and provides the extracted information to the decoding unit 170.
  • the decoding unit 170 can extract information on the maximum size of the encoding unit of the current picture from the header, sequence parameter set, or picture parameter set for the current picture.
  • the decoding unit 170 extracts the division information for the encoding units according to the tree structure from the parsed bit stream for each maximum encoding unit.
  • the extracted division information is output to the decoding unit 170.
  • the decoding unit 170 can determine the tree structure of the maximum encoding unit by dividing the maximum encoding unit according to the extracted division information.
  • the division information extracted by the decoding unit 170 is division information for a tree structure determined by the image coding apparatus 100 to generate the minimum coding error. Accordingly, the image decoding apparatus 150 can decode the image according to the encoding scheme that generates the minimum encoding error to recover the image.
  • the decoding unit 170 may extract the division information for a data unit such as a prediction unit and a conversion unit included in the encoding unit. For example, the decoding unit 170 may extract the most efficient partition mode information for a prediction unit. Then, the decoding unit 170 can extract the conversion division information for the most efficient tree structure in the conversion unit.
  • the decoding unit 170 can obtain information on the most efficient prediction method for the prediction units divided from the coding unit.
  • the decoding unit 170 can obtain information on the most efficient conversion method for the conversion units divided from the encoding unit.
  • the decoding unit 170 extracts information from a bitstream according to a method of constructing a bitstream by the bitstream generating unit 120 of the image encoding apparatus 100.
  • the decoding unit 170 can divide the maximum coding unit into coding units having the most efficient tree structure based on the division information.
  • the decoding unit 170 may divide the encoding unit into prediction units according to information on the partition mode.
  • the decoding unit 170 may divide an encoding unit into units of conversion according to the conversion division information.
  • the decoding unit 170 can predict the prediction unit according to the prediction method information.
  • the decoding unit 170 may dequantize and invert the residual data corresponding to the difference between the original value and the predicted value of the pixel according to the information on the conversion method of the conversion unit. Also, the decoding unit 170 can restore the pixels of the encoding unit according to the prediction result of the prediction unit and the conversion result of the conversion unit.
  • FIG. 2 illustrates a process in which the image decoding apparatus 150 determines at least one encoding unit by dividing a current encoding unit according to an embodiment.
  • the image decoding apparatus 150 may determine the type of an encoding unit using block type information, and may determine a type of an encoding unit to be divided using the type information. That is, the division method of the coding unit indicated by the division type information can be determined according to which block type the block type information used by the video decoding apparatus 150 represents.
  • the image decoding apparatus 150 may use block type information indicating that the current encoding unit is a square type. For example, the image decoding apparatus 150 can determine whether to divide a square encoding unit according to division type information, vertically divide, horizontally divide, or divide into four encoding units. 2, if the block type information of the current encoding unit 200 indicates a square shape, the decoding unit 180 may calculate the size of the current encoding unit 200 according to the division type information indicating that the current block is not divided It is possible to determine the divided coding units 210b, 210c, and 210d based on the division type information indicating the predetermined division method or not dividing the coding unit 210a.
  • the image decoding apparatus 150 determines two encoding units 210b, which are obtained by dividing the current encoding unit 200 in the vertical direction, based on the division type information indicating that the image is divided vertically according to an embodiment .
  • the image decoding apparatus 150 can determine two encoding units 210c in which the current encoding unit 200 is horizontally divided based on the division type information indicating that the image is divided in the horizontal direction.
  • the image decoding apparatus 150 can determine the four coding units 210d obtained by dividing the current coding unit 200 in the vertical direction and the horizontal direction based on the division type information indicating that the coding unit 200 is divided in the vertical direction and the horizontal direction.
  • the division type in which the square coding unit can be divided should not be limited to the above-mentioned form, but may include various forms in which the division type information can be represented.
  • the predetermined divisional form in which the square encoding unit is divided will be described in detail by way of various embodiments below.
  • FIG. 3 illustrates a process in which the image decoding apparatus 150 determines at least one encoding unit by dividing a non-square encoding unit according to an embodiment.
  • the image decoding apparatus 150 may use block type information indicating that the current encoding unit is a non-square format.
  • the image decoding apparatus 150 can determine whether to divide the current non-square coding unit according to the division type information or not by a predetermined method. 3, if the block type information of the current encoding unit 300 or 350 indicates a non-square shape, the image decoding apparatus 150 determines whether the current encoding unit 300 320b, 330a, 330b, 330c, 370a, and 330b based on the division type information indicating a predetermined division method, or the encoding units 310 and 360 having the same size as the encoding units 310 and 360, 370b, 380a, 380b, and 380c.
  • the predetermined division method in which the non-square coding unit is divided will be described in detail through various embodiments.
  • the image decoding apparatus 150 may determine the type in which the coding unit is divided using the division type information.
  • the division type information indicates the number of at least one coding unit generated by dividing the coding unit . 3, if the division type information indicates that the current encoding unit 300 or 350 is divided into two encoding units, the image decoding apparatus 150 decodes the current encoding unit 300 or 350 based on the division type information, To determine the two encoding units 320a, 320b, or 370a, 370b included in the current encoding unit.
  • the non-square current coding unit 300 or 350 can be divided in consideration of the position of the long side.
  • the image decoding apparatus 150 divides the current encoding unit 300 or 350 in the direction of dividing the long side of the current encoding unit 300 or 350 in consideration of the shape of the current encoding unit 300 or 350 So that a plurality of encoding units can be determined.
  • the image decoding apparatus 150 may determine an odd number of encoding units included in the current encoding unit 300 or 350.
  • the image decoding device 150 divides the current encoding unit 300 or 350 into three encoding units 330a , 330b, 330c, 380a, 380b, and 380c.
  • the image decoding apparatus 150 may determine an odd number of encoding units included in the current encoding unit 300 or 350, and the sizes of the determined encoding units may not be the same.
  • the size of the predetermined encoding unit 330b or 380b among the determined odd number of encoding units 330a, 330b, 330c, 380a, 380b, and 380c is different from the size of the other encoding units 330a, 330c, 380a, and 380c . That is, the encoding unit that can be determined by dividing the current encoding unit 300 or 350 may have a plurality of types of sizes.
  • the image decoding apparatus 150 can determine an odd number of encoding units included in the current encoding unit 300 or 350, The image decoding apparatus 150 may limit the encoding unit of at least one of odd number of encoding units generated by division.
  • the image decoding apparatus 150 includes a coding unit 330a, 330b, 330c, 380a, 380b, and 380c generated by dividing a current coding unit 300 or 350, (330b, 380b) may be different from the other encoding units (330a, 330c, 380a, 380c).
  • the image decoding apparatus 150 may restrict the encoding units 330b and 380b positioned at the center to be not further divided, or may be limited to a predetermined number of times, differently from other encoding units 330a, 330c, 380a, and 380c It can be limited to be divided.
  • FIG. 4 illustrates a process in which the image decoding apparatus 150 divides an encoding unit based on at least one of block type information and division type information according to an embodiment.
  • the image decoding apparatus 150 may determine that the first encoding unit 400 in the form of a square is not divided or divided into encoding units based on at least one of the block type information and the division type information. According to one embodiment, when the division type information indicates that the first encoding unit 400 is divided in the horizontal direction, the image decoding apparatus 150 divides the first encoding unit 400 in the horizontal direction, (410).
  • the first encoding unit, the second encoding unit, and the third encoding unit used according to an embodiment are terms used to understand the relation before and after the division between encoding units.
  • the second encoding unit can be determined, and if the second encoding unit is divided, the third encoding unit can be determined.
  • the relationship between the first coding unit, the second coding unit and the third coding unit used can be understood to be in accordance with the above-mentioned characteristic.
  • the image decoding apparatus 150 may determine that the determined second encoding unit 410 is not divided or divided into encoding units based on at least one of the block type information and the division type information.
  • the image decoding apparatus 150 includes a second coding unit 410 of a non-square shape determined by dividing a first coding unit 400 based on at least one of block type information and division type information It may be divided into at least one third encoding unit 420a, 420b, 420c, 420d, or the like, or the second encoding unit 410 may not be divided.
  • the image decoding apparatus 150 may obtain at least one of the block type information and the division type information and the image decoding apparatus 150 may acquire at least one of the block type information and the division type information,
  • the second encoding unit 410 may divide a plurality of second encoding units (for example, 410) of various types into a first encoding unit 410 and a second encoding unit 410
  • the unit 400 can be divided according to the division method.
  • the encoding unit 410 may also be divided into a third encoding unit (e.g., 420a, 420b, 420c, 420d, etc.) based on at least one of the block type information and the division type information for the second encoding unit 410 have. That is, an encoding unit can be recursively divided based on at least one of division type information and block type information associated with each encoding unit. A method which can be used for recursive division of an encoding unit will be described later in various embodiments.
  • the image decoding apparatus 150 divides each of the third encoding units 420a, 420b, 420c, and 420d into units of encoding based on at least one of the block type information and the division type information, It can be determined that the unit 410 is not divided.
  • the image decoding apparatus 150 may divide the second encoding unit 410 in the non-square form into an odd number of third encoding units 420b, 420c and 420d according to an embodiment.
  • the image decoding apparatus 150 may set a predetermined restriction on a predetermined third encoding unit among odd numbered third encoding units 420b, 420c, and 420d.
  • the image decoding apparatus 150 may limit the encoding unit 420c located in the middle among the odd-numbered third encoding units 420b, 420c, and 420d to no longer be divided or be divided into a set number of times . Referring to FIG.
  • the image decoding apparatus 150 includes an encoding unit (not shown) located in the middle among the odd third encoding units 420b, 420c, and 420d included in the second encoding unit 410 in the non- 420c are not further divided or are limited to being divided into a predetermined division form (for example, divided into four coding units or divided into a form corresponding to a form in which the second coding units 410 are divided) (For example, dividing only n times, n > 0).
  • a predetermined division form for example, divided into four coding units or divided into a form corresponding to a form in which the second coding units 410 are divided
  • the above restriction on the encoding unit 420c positioned at the center is merely an example and should not be construed to be limited to the above embodiments and the encoding unit 420c positioned at the center is not limited to the other encoding units 420b and 420d Quot;), < / RTI > which can be decoded differently.
  • the image decoding apparatus 150 may obtain at least one of the block type information and the division type information used for dividing the current encoding unit at a predetermined position in the current encoding unit according to an embodiment.
  • the image decoding apparatus 150 may select one of the encoding units.
  • the method for selecting one of the plurality of encoding units may be various, and description of these methods will be described later in various embodiments.
  • the image decoding apparatus 150 may divide the current encoding unit into a plurality of encoding units and determine a predetermined encoding unit.
  • FIG. 5 illustrates a method for an image decoding apparatus 150 to determine an encoding unit of a predetermined position among odd number of encoding units according to an embodiment.
  • the image decoding apparatus 150 may use information indicating positions of odd-numbered encoding units in order to determine an encoding unit located in the middle among odd-numbered encoding units. Referring to FIG. 5, the image decoding apparatus 150 may determine an odd number of encoding units 520a, 520b, and 520c by dividing the current encoding unit 500. FIG. The image decoding apparatus 150 can determine the center encoding unit 520b by using information on the positions of the odd number of encoding units 520a, 520b and 520c.
  • the image decoding apparatus 150 determines the positions of the encoding units 520a, 520b, and 520c based on information indicating the positions of predetermined samples included in the encoding units 520a, 520b, and 520c,
  • the encoding unit 520b located in the encoding unit 520 can be determined.
  • the video decoding apparatus 150 decodes the coding units 520a, 520b, and 520c based on information indicating the positions of the upper left samples 530a, 530b, and 530c of the coding units 520a, By determining the position, the coding unit 520b located in the center can be determined.
  • Information indicating the positions of the upper left samples 530a, 530b, and 530c included in the coding units 520a, 520b, and 520c is a position in the picture of the coding units 520a, 520b, and 520c Or information about the coordinates.
  • Information indicating the positions of the upper left samples 530a, 530b, and 530c included in the coding units 520a, 520b, and 520c according to one embodiment is stored in the coding units 520a and 520b included in the current coding unit 500 , 520c, and the width or height may correspond to information indicating the difference between the coordinates of the coding units 520a, 520b, and 520c in the picture.
  • the image decoding apparatus 150 directly uses the information on the positions or coordinates of the coding units 520a, 520b and 520c in the pictures or information on the width or height of the coding units corresponding to the difference between the coordinates
  • the encoding unit 520b located in the center can be determined.
  • the information indicating the position of the upper left sample 530a of the upper coding unit 520a may indicate the coordinates of (xa, ya) and the upper left sample 530b of the middle coding unit 520b May indicate the coordinates of (xb, yb), and information indicating the position of the upper left sample 530c of the lower coding unit 520c may indicate (xc, yc) coordinates.
  • the image decoding apparatus 150 can determine the center encoding unit 520b using the coordinates of the upper left samples 530a, 530b, and 530c included in the encoding units 520a, 520b, and 520c.
  • the coding unit 520b including (xb, yb) coordinates of the sample 530b positioned at the center, 520b, and 520c determined by dividing the current encoding unit 500 by a coding unit located in the middle of the encoding units 520a, 520b, and 520c.
  • the coordinates indicating the positions of the upper left samples 530a, 530b, and 530c may indicate the coordinates indicating the absolute position in the picture
  • the position of the upper left sample unit 530a of the upper coding unit 520a may be (Dxb, dyb), which is information indicating the relative position of the upper left sample 530b of the middle coding unit 520b, and the relative position of the upper left sample 530c of the lower coding unit 520c
  • Information dyn (dxc, dyc) coordinates may also be used.
  • the method of determining the coding unit at a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be limited to the above-described method, and various arithmetic Should be interpreted as a method.
  • the image decoding apparatus 150 may divide the current encoding unit 500 into a plurality of encoding units 520a, 520b, and 520c, and may encode a predetermined one of the encoding units 520a, 520b, and 520c
  • the encoding unit can be selected.
  • the image decoding apparatus 150 can select an encoding unit 520b having a different size from the encoding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 includes a (xa, ya) coordinate which is information indicating the position of the upper left sample 530a of the upper encoding unit 520a, (Xc, yc) coordinates, which are information indicating the positions of the upper-stage coding unit 530b and the upper-left sample unit 530c of the lower-stage coding unit 520c, 520b, and 520c, respectively.
  • the video decoding apparatus 150 encodes the video data in units of encoding units 520a, 520b, and 520c using the coordinates (xa, ya), (xb, yb), (xc, yc) indicating the positions of the encoding units 520a, 520b, ) Can be determined.
  • the image decoding apparatus 150 can determine the width of the upper encoding unit 520a as xb-xa and the height as yb-ya. According to an embodiment, the image decoding apparatus 150 can determine the width of the center encoding unit 520b as xc-xb and the height as yc-yb. The image decoding apparatus 150 may determine the width or height of the lower coding unit using the width or height of the current coding unit and the width and height of the upper coding unit 520a and the middle coding unit 520b . The image decoding apparatus 150 may determine an encoding unit having a different size from other encoding units based on the width and height of the determined encoding units 520a, 520b, and 520c.
  • the image decoding apparatus 150 may determine a coding unit 520b as a coding unit at a predetermined position while having a size different from that of the upper coding unit 520a and the lower coding unit 520c.
  • the process of determining the encoding unit having a size different from that of the other encoding units by the above-described video decoding apparatus 150 may be performed in an embodiment that determines encoding units at predetermined positions using the sizes of the encoding units determined based on the sample coordinates .
  • Various processes may be used for determining the encoding unit at a predetermined position by comparing the sizes of the encoding units determined according to predetermined sample coordinates.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the left upper end, and information about the position of any sample included in the coding unit can be interpreted as being available.
  • the image decoding apparatus 150 may select an encoding unit of a predetermined position among odd number of encoding units determined by dividing the current encoding unit in consideration of the type of the current encoding unit. For example, if the current coding unit is a non-square shape having a width greater than the height, the image decoding apparatus 150 can determine a coding unit at a predetermined position along the horizontal direction. That is, the image decoding apparatus 150 may determine one of the encoding units which are located in the horizontal direction and limit the encoding unit. If the current coding unit has a non-square shape with a height greater than the width, the image decoding apparatus 150 can determine a coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 150 may determine one of the encoding units having different positions in the vertical direction and set a restriction on the encoding unit.
  • the image decoding apparatus 150 may use information indicating positions of even-numbered encoding units in order to determine an encoding unit of a predetermined position among the even-numbered encoding units.
  • the image decoding apparatus 150 can determine an even number of encoding units by dividing the current encoding unit and determine a encoding unit at a predetermined position by using information on the positions of the even number of encoding units.
  • a concrete procedure for this is omitted because it may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, the middle position) among the above-mentioned odd number of coding units.
  • the video decoding apparatus 150 may divide the block type information stored in the samples included in the middle coding unit, Information can be used.
  • the image decoding apparatus 150 may divide the current encoding unit 500 into a plurality of encoding units 520a, 520b, and 520c based on at least one of block type information and division type information, It is possible to determine an encoding unit 520b located in the middle of the plurality of encoding units 520a, 520b, and 520c. Furthermore, the image decoding apparatus 150 may determine a coding unit 520b positioned at the center in consideration of the position at which at least one of the block type information and the division type information is obtained.
  • At least one of the block type information and the division type information of the current encoding unit 500 can be acquired in the sample 540 located in the center of the current encoding unit 500, and the block type information and the division type information If the current encoding unit 500 is divided into a plurality of encoding units 520a, 520b and 520c based on at least one of the encoding units 520a to 520c, You can decide.
  • the information used for determining the coding unit located in the middle should not be limited to at least one of the block type information and the division type information, and various kinds of information may be used in the process of determining the coding unit located in the middle .
  • predetermined information for identifying a coding unit at a predetermined position may be obtained from a predetermined sample included in a coding unit to be determined.
  • the image decoding apparatus 150 includes a plurality of encoding units 520a, 520b, and 520c, which are determined by dividing the current encoding unit 500, Block type information obtained at a predetermined position in the current encoding unit 500 (e.g., a sample located in the middle of the current encoding unit 500) to determine the encoding unit located in the middle of the encoding unit, and And at least one of division type information. .
  • the image decoding apparatus 150 can determine the sample at the predetermined position in consideration of the block form of the current encoding unit 500, and the image decoding apparatus 150 can decode the plural A coding unit 520b including a sample in which predetermined information (for example, at least one of block type information and division type information) can be obtained is determined among the plurality of coding units 520a, 520b and 520c, .
  • the image decoding apparatus 150 may determine a sample 540 positioned at the center of the current encoding unit 500 as a sample from which predetermined information can be obtained,
  • the coding unit 150 may limit the coding unit 520b including the sample 540 to a predetermined limit in the decoding process.
  • the position of the sample from which the predetermined information can be obtained should not be construed to be limited to the above-mentioned position, but may be interpreted as samples at arbitrary positions included in the encoding unit 520b to be determined for limiting.
  • the position of a sample from which predetermined information can be obtained may be determined according to the type of the current encoding unit 500 according to an embodiment.
  • the block type information can determine whether the current encoding unit is a square or a non-square, and determine the position of a sample from which predetermined information can be obtained according to the shape.
  • the image decoding apparatus 150 may use at least one of the information on the width of the current encoding unit and the information on the height, and may be located on a boundary that divides at least one of the width and the height of the current encoding unit by half The sample can be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 150 may set one of the samples adjacent to the boundary dividing the long side of the current encoding unit in half to a predetermined Can be determined as a sample from which the information of < / RTI >
  • the image decoding apparatus 150 may determine at least one of the block type information and the division type information One can be used. According to an exemplary embodiment, the image decoding apparatus 150 may obtain at least one of the block type information and the division type information from a sample at a predetermined position included in the encoding unit, and the image decoding apparatus 150 may determine that the current encoding unit is divided And divide the generated plurality of coding units by using at least one of division type information and block type information obtained from samples at predetermined positions included in each of the plurality of coding units.
  • the coding unit can be recursively divided using at least one of the block type information and the division type information obtained in the sample at the predetermined position included in each of the coding units. Since the recursive division process of the encoding unit has been described with reference to FIG. 4, a detailed description will be omitted.
  • the image decoding apparatus 150 may determine at least one encoding unit by dividing the current encoding unit, and may determine the order in which the at least one encoding unit is decoded in a predetermined block (for example, ). ≪ / RTI >
  • FIG. 6 illustrates a sequence in which a plurality of encoding units are processed when the image decoding apparatus 150 determines a plurality of encoding units by dividing the current encoding unit according to an exemplary embodiment.
  • the image decoding apparatus 150 divides the first encoding unit 600 in the vertical direction according to the block type information and the division type information to determine the second encoding units 610a and 610b, 650b, 650c, and 650d by dividing the first encoding unit 600 in the horizontal direction to determine the second encoding units 630a and 630b or dividing the first encoding unit 600 in the vertical direction and the horizontal direction, Can be determined.
  • the image decoding apparatus 150 may determine the order in which the second encoding units 610a and 610b determined by dividing the first encoding unit 600 in the vertical direction are processed in the horizontal direction 610c .
  • the image decoding apparatus 150 can determine the processing order of the second encoding units 630a and 630b determined by dividing the first encoding unit 600 in the horizontal direction as the vertical direction 630c.
  • the image decoding apparatus 150 processes the encoding units located in one row of the second encoding units 650a, 650b, 650c, and 650d determined by dividing the first encoding unit 600 in the vertical direction and the horizontal direction (For example, a raster scan order or a z scan order 650e) in which the encoding units located in the next row are processed.
  • the image decoding apparatus 150 may recursively divide encoding units. 6, the image decoding apparatus 150 may determine a plurality of encoding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d by dividing the first encoding unit 600, The determined plurality of encoding units 610a, 610b, 630a, 630b, 650a, 650b, 650c and 650d may be recursively divided.
  • the method of dividing the plurality of encoding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be a method corresponding to the method of dividing the first encoding unit 600.
  • the plurality of encoding units 610a, 610b, 630a, 630b, 650a, 650b, 650c, and 650d may be independently divided into a plurality of encoding units. Referring to FIG.
  • the image decoding apparatus 150 may determine the second encoding units 610a and 610b by dividing the first encoding unit 600 in the vertical direction, and may further determine the second encoding units 610a and 610b Can be determined not to divide or separate independently.
  • the image decoding apparatus 150 may divide the second encoding unit 610a on the left side in the horizontal direction into the third encoding units 620a and 620b and may divide the second encoding unit 610a on the right side into the second encoding units 610b ) May not be divided.
  • the processing order of the encoding units may be determined based on the division process of the encoding units.
  • the processing order of the divided coding units can be determined based on the processing order of the coding units immediately before being divided.
  • the image decoding apparatus 150 can determine the order in which the third coding units 620a and 620b determined by dividing the second coding unit 610a on the left side are processed independently of the second coding unit 610b on the right side.
  • the third encoding units 620a and 620b may be processed in the vertical direction 620c since the second encoding units 610a on the left side are divided in the horizontal direction and the third encoding units 620a and 620b are determined.
  • the third encoding unit included in the left second encoding unit 610a The right encoding unit 610b can be processed after the blocks 620a and 620b are processed in the vertical direction 620c.
  • the above description is intended to explain the process sequence in which encoding units are determined according to the encoding units before division. Therefore, it should not be construed to be limited to the above-described embodiments, It should be construed as being used in various ways that can be handled independently in sequence.
  • FIG. 7 illustrates a process of determining that the current encoding unit is divided into odd number of encoding units when the image decoding apparatus 150 can not process the encoding units in a predetermined order according to an embodiment.
  • the image decoding apparatus 150 may determine that the current encoding unit is divided into odd number of encoding units based on the obtained block type information and the division type information.
  • the first encoding unit 700 of a square shape can be divided into second non-square encoding units 710a and 710b, and the second encoding units 710a and 710b can be independently 3 encoding units 720a, 720b, 720c, 720d, and 720e.
  • the image decoding apparatus 150 may determine a plurality of third encoding units 720a and 720b by dividing the left encoding unit 710a among the second encoding units in the horizontal direction, and the right encoding unit 710b May be divided into an odd number of third encoding units 720c, 720d, and 720e.
  • the image decoding apparatus 150 determines whether or not the third encoding units 720a, 720b, 720c, 720d, and 720e can be processed in a predetermined order and determines whether there are odd-numbered encoding units You can decide. Referring to FIG. 7, the image decoding apparatus 150 may recursively divide the first coding unit 700 to determine the third coding units 720a, 720b, 720c, 720d, and 720e.
  • the image decoding apparatus 150 may further include a first encoding unit 700, a second encoding unit 710a and 710b or a third encoding unit 720a, 720b, 720c, and 720c based on at least one of block type information and division type information, 720d, and 720e may be divided into odd number of coding units among the divided types. For example, an encoding unit located on the right of the second encoding units 710a and 710b may be divided into odd third encoding units 720c, 720d, and 720e.
  • the order in which the plurality of coding units included in the first coding unit 700 are processed may be a predetermined order (for example, a z-scan order 730) 150 can determine whether the third encoding units 720c, 720d, and 720e determined by dividing the right second encoding unit 710b into odd numbers satisfy the condition that the third encoding units 720c, 720d, and 720e can be processed according to the predetermined order.
  • a predetermined order for example, a z-scan order 730
  • the image decoding apparatus 150 satisfies a condition that third encoding units 720a, 720b, 720c, 720d, and 720e included in the first encoding unit 700 can be processed in a predetermined order And it is determined whether or not at least one of the widths and heights of the second encoding units 710a and 710b is divided in half according to the boundaries of the third encoding units 720a, 720b, 720c, 720d, and 720e, .
  • the third encoding units 720a and 720b determined by dividing the height of the left second encoding unit 710a in the non-square shape by half are satisfying the condition, but the right second encoding unit 710b is set to 3 Since the boundaries of the third encoding units 720c, 720d, and 720e, which are determined by dividing the first encoding units 720c, 720d, and 720e, can not divide the width or the height of the second right encoding unit 710b by half, 720e may be determined as not satisfying the condition and the image decoding apparatus 150 may determine that the scanning order is disconnection in the case of such unsatisfactory condition and the right second encoding unit 710b is determined based on the determination result It can be determined to be divided into odd number of encoding units.
  • the coding unit of a predetermined position among the divided coding units may be limited to a predetermined size. Since the embodiment has been described above, a detailed description thereof will be omitted.
  • FIG. 8 illustrates a process in which an image decoding apparatus 150 determines at least one encoding unit by dividing a first encoding unit 800 according to an embodiment.
  • the image decoding apparatus 150 may divide the first encoding unit 800 based on at least one of the block type information and the division type information acquired through the receiver 160.
  • the first encoding unit 800 in the form of a square may be divided into four encoding units having a square form, or may be divided into a plurality of encoding units of a non-square form. For example, referring to FIG.
  • the image decoding device 150 when the block type information indicates that the first encoding unit 800 is a square and that the division type information is divided into non-square encoding units, the image decoding device 150 generates a first encoding unit
  • the encoding unit 800 may be divided into a plurality of non-square encoding units. More specifically, when the division type information indicates that the first encoding unit 800 is divided horizontally or vertically to determine an odd number of encoding units, the image decoding apparatus 150 includes a first encoding unit 800 in the form of a square 800 820b, and 820c divided in the vertical direction as the odd number of encoding units, or into the second encoding units 820a, 820b, and 820c determined by being divided in the horizontal direction.
  • the image decoding apparatus 150 may be configured such that the second encoding units 810a, 810b, 810c, 820a, 820b, and 820c included in the first encoding unit 800 are processed in a predetermined order And the condition is that at least one of the width and height of the first encoding unit 800 is divided in half according to the boundaries of the second encoding units 810a, 810b, 810c, 820a, 820b, and 820c .
  • the boundaries of the second encoding units 810a, 810b and 810c which are determined by dividing the first encoding unit 800 in the vertical direction into a square shape, are divided in half by the width of the first encoding unit 800
  • the first encoding unit 800 can be determined as not satisfying a condition that can be processed in a predetermined order. Also, since the boundaries of the second encoding units 820a, 820b, and 820c determined by dividing the first encoding unit 800 in the horizontal direction into the horizontal direction can not divide the width of the first encoding unit 800 in half, 1 encoding unit 800 may be determined as not satisfying a condition that can be processed in a predetermined order.
  • the image decoding apparatus 150 may determine that the scan sequence is disconnection in the case of such unsatisfactory condition and determine that the first encoding unit 800 is divided into odd number of encoding units based on the determination result. According to one embodiment, when the image decoding apparatus 150 is divided into an odd number of coding units, the coding unit of a predetermined position among the divided coding units may be limited to a predetermined size. Since the embodiment has been described above, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may divide the first encoding unit and determine various types of encoding units.
  • the image decoding apparatus 150 may divide the first coding unit 800 of a square shape and the first coding unit 830 or 850 of a non-square shape into various types of coding units .
  • the image decoding apparatus 150 generates the first coding unit 900 in the form of a square based on at least one of the block type information and the division type information acquired through the receiving unit 160, 2 encoding units 910a, 910b, 920a, and 920b.
  • the second encoding units 910a, 910b, 920a, and 920b may be independently divided. Accordingly, the video decoding apparatus 150 determines whether to divide or not divide into a plurality of coding units based on at least one of the block type information and the division type information related to each of the second coding units 910a, 910b, 920a, and 920b .
  • the image decoding apparatus 150 divides the non-square left second encoding unit 910a determined by dividing the first encoding unit 900 in the vertical direction into the horizontal direction, 912a, and 912b. However, when the left second encoding unit 910a is divided in the horizontal direction, the right-side second encoding unit 910b is arranged in the horizontal direction in the same direction as the direction in which the left second encoding unit 910a is divided, As shown in Fig.
  • the right second encoding unit 910b is divided in the same direction and the third encoding units 914a and 914b are determined, the left second encoding unit 910a and the right second encoding unit 910b are arranged in the horizontal direction
  • the third encoding units 912a, 912b, 914a, and 914b can be determined by being independently divided.
  • the image decoding apparatus 150 may divide the first coding unit 900 into four square-shaped second coding units 930a, 930b, 930c, and 930d based on at least one of the block type information and the division type information. And this may be inefficient in terms of image decoding.
  • the image decoding apparatus 150 divides the second encoding unit 920a or 920b in the non-square form determined by dividing the first encoding unit 330 in the horizontal direction into the vertical direction, (922a, 922b, 924a, 924b). However, if one of the second coding units (for example, the upper second coding unit 920a) is divided in the vertical direction, the video decoding apparatus 150 may generate a second coding unit (for example, Coding unit 920b) can be restricted so that the upper second encoding unit 920a can not be divided vertically in the same direction as the divided direction.
  • a second coding unit for example, Coding unit 920b
  • FIG. 10 illustrates a process in which the image decoding apparatus 150 divides a square-shaped encoding unit when the division type information can not be divided into four square-shaped encoding units according to an embodiment.
  • the image decoding apparatus 150 divides the first encoding unit 1000 based on at least one of the block type information and the division type information to generate the second encoding units 1010a, 1010b, 1020a, and 1020b You can decide.
  • the division type information may include information on various types in which the coding unit can be divided, but information on various types may not include information for dividing into four square units of coding units.
  • the image decoding apparatus 150 can not divide the first encoding unit 1000 in the square form into the second encoding units 1030a, 1030b, 1030c, and 1030d in the form of four squares.
  • the image decoding apparatus 150 can determine the second encoding units 1010a, 1010b, 1020a, and 1020b in the non-square form based on the division type information.
  • the image decoding apparatus 150 may independently divide the non-square second encoding units 1010a, 1010b, 1020a, and 1020b, respectively.
  • Each of the second encoding units 1010a, 1010b, 1020a, 1020b, and the like may be divided in a predetermined order through a recursive method, and the first encoding unit 1000 May be a partitioning method corresponding to a method in which a partition is divided.
  • the image decoding apparatus 150 can determine the third encoding units 1012a and 1012b in the form of a square by dividing the left second encoding unit 1010a in the horizontal direction, and the right second encoding unit 1010b It is possible to determine the third encoding units 1014a and 1014b in the form of a square by being divided in the horizontal direction. Furthermore, the image decoding apparatus 150 may divide the left second encoding unit 1010a and the right second encoding unit 1010b in the horizontal direction to determine the third encoding units 1016a, 1016b, 1016c, and 1016d in the form of a square have. In this case, the encoding unit may be determined in the same manner as the first encoding unit 1000 is divided into the four second square encoding units 1030a, 1030b, 1030c, and 1030d.
  • the image decoding apparatus 150 can determine the third encoding units 1022a and 1022b in the shape of a square by dividing the upper second encoding unit 1020a in the vertical direction, and the lower second encoding units 1020b Can be divided in the vertical direction to determine the third encoding units 1024a and 1024b in the form of a square. Further, the image decoding apparatus 150 may divide the upper second encoding unit 1020a and the lower second encoding unit 1020b in the vertical direction to determine the third encoding units 1022a, 1022b, 1024a, and 1024b in the form of a square have. In this case, the encoding unit may be determined in the same manner as the first encoding unit 1000 is divided into the four second square encoding units 1030a, 1030b, 1030c, and 1030d.
  • FIG. 11 illustrates that the processing order among a plurality of coding units may be changed according to the division process of the coding unit according to an embodiment.
  • the image decoding apparatus 150 may divide the first encoding unit 1100 based on the block type information and the division type information.
  • the image decoding apparatus 150 includes a first encoding unit 1100 (For example, 1110a, 1110b, 1120a, 1120b, 1130a, 1130b, 1130c, 1130d, etc.)
  • the non-square second encoding units 1110a, 1110b, 1120a, and 1120b which are determined by dividing the first encoding unit 1100 only in the horizontal direction or the vertical direction, As shown in FIG.
  • the image decoding apparatus 150 divides the second encoding units 1110a and 1110b generated by dividing the first encoding unit 1100 in the vertical direction into the horizontal direction, and outputs the third encoding units 1116a and 1116b, 1116c and 1116d can be determined and the second encoding units 1120a and 1120b generated by dividing the first encoding unit 1100 in the horizontal direction are respectively divided in the horizontal direction to generate third encoding units 1126a, 1126b and 1126c , 1126d. Since the process of dividing the second encoding units 1110a, 1110b, 1120a, and 1120b has been described in detail with reference to FIG. 9, a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may process an encoding unit in a predetermined order.
  • the features of the processing of the encoding unit according to the predetermined order have been described above with reference to FIG. 6, and a detailed description thereof will be omitted.
  • the image decoding apparatus 150 divides a first encoding unit 1100 in a square form into 4 pieces of fourth encoding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d Can be determined.
  • the image decoding apparatus 150 may process the third encoding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d according to the form in which the first encoding unit 1100 is divided You can decide.
  • the image decoding apparatus 150 divides the second encoding units 1110a and 1110b generated in the vertical direction into the horizontal direction to determine the third encoding units 1116a, 1116b, 1116c, and 1116d And the image decoding apparatus 150 first processes the third encoding units 1116a and 1116b included in the left second encoding unit 1110a in the vertical direction and then processes the third encoding units 1116a and 1116b included in the right second encoding unit 1110b The third encoding units 1116a, 1116b, 1116c, and 1116d may be processed in accordance with an order 1117 of processing the third encoding units 1116c and 1116d in the vertical direction.
  • the image decoding apparatus 150 divides the second encoding units 1120a and 1120b generated in the horizontal direction into vertical directions to determine the third encoding units 1126a, 1126b, 1126c, and 1126d
  • the image decoding apparatus 150 first processes the third encoding units 1126a and 1126b included in the upper second encoding unit 1120a in the horizontal direction and then processes the third encoding units 1126a and 1126b included in the lower second encoding unit 1120b
  • the third encoding units 1126a, 1126b, 1126c, and 1126d can be processed according to the order 1127 of processing the third encoding units 1126c and 1126d in the horizontal direction.
  • the second encoding units 1110a, 1110b, 1120a, and 1120b are divided to determine the third encoding units 1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, and 1126d, have.
  • the second encoding units 1110a and 1110b determined to be divided in the vertical direction and the second encoding units 1120a and 1120b determined to be divided in the horizontal direction are divided into different formats, but the third encoding units 1116a , 1116b, 1116c, 1116d, 1126a, 1126b, 1126c and 1126d, the result is that the first encoding unit 1100 is divided into the same type of encoding units.
  • FIG. 12 illustrates a process of determining the depth of an encoding unit when the encoding unit is recursively divided and a plurality of encoding units are determined according to an embodiment.
  • the image decoding apparatus 150 may determine the depth of a coding unit according to a predetermined criterion.
  • a predetermined criterion may be a length of a long side of a coding unit.
  • the depth of the current coding unit is smaller than the depth of the coding unit before being divided it can be determined that the depth is increased by n.
  • an encoding unit with an increased depth is expressed as a lower-depth encoding unit.
  • the image decoding apparatus 150 may generate a square form 1 encoding unit 1200 can be divided to determine the second encoding unit 1202, the third encoding unit 1204, and the like of the lower depth. If the size of the first encoding unit 1200 in the square form is 2Nx2N, the second encoding unit 1202 determined by dividing the width and height of the first encoding unit 1200 by 1/21 times has a size of NxN have.
  • the third encoding unit 1204 determined by dividing the width and height of the second encoding unit 1202 by a half size may have a size of N / 2xN / 2.
  • the width and height of the third encoding unit 1204 correspond to 1/22 times of the first encoding unit 1200. If the depth of the first encoding unit 1200 is D, the depth of the second encoding unit 1202, which is 1/21 times the width and height of the first encoding unit 1200, may be D + 1, The depth of the third encoding unit 1204, which is one-22 times the width and height of the third encoding unit 1200, may be D + 2.
  • block type information indicating a non-square shape for example, block type information is' 1: NS_VER 'indicating that the height is a non-square having a width greater than the width or' 2
  • the image decoding apparatus 150 divides the non-square first coding unit 1210 or 1220 and outputs the second coding unit 1212 or 1222 of lower depth, The third encoding unit 1214 or 1224, or the like.
  • the image decoding apparatus 150 may determine a second encoding unit (e.g., 1202, 1212, 1222, etc.) by dividing at least one of the width and height of the first encoding unit 1210 of Nx2N size. That is, the image decoding apparatus 150 may determine the second encoding unit 1202 of the NxN size or the second encoding unit 1222 of the NxN / 2 size by dividing the first encoding unit 1210 in the horizontal direction, The second encoding unit 1212 of N / 2xN size may be determined by dividing the second encoding unit 1212 in the horizontal direction and the vertical direction.
  • a second encoding unit e.g., 1202, 1212, 1222, etc.
  • the image decoding apparatus 150 divides at least one of the width and the height of the 2NxN first encoding unit 1220 to determine a second encoding unit (for example, 1202, 1212, 1222, etc.) It is possible. That is, the image decoding apparatus 150 may determine the second encoding unit 1202 of NxN size or the second encoding unit 1212 of N / 2xN size by dividing the first encoding unit 1220 in the vertical direction, The second encoding unit 1222 of NxN / 2 size may be determined by dividing the image data in the horizontal direction and the vertical direction.
  • a second encoding unit for example, 1202, 1212, 1222, etc.
  • the image decoding apparatus 150 divides at least one of the width and the height of the second encoding unit 1202 of NxN size to determine a third encoding unit (for example, 1204, 1214, 1224, etc.) It is possible. That is, the image decoding apparatus 150 determines the third encoding unit 1204 of N / 2xN / 2 size by dividing the second encoding unit 1202 in the vertical direction and the horizontal direction, or determines the third encoding unit 1204 of N / 2xN / 3 encoding unit 1214 or a third encoding unit 1224 of N / 2xN / 2 size.
  • a third encoding unit for example, 1204, 1214, 1224, etc.
  • the image decoding apparatus 150 divides at least one of the width and the height of the second encoding unit 1212 of N / 2xN size into a third encoding unit (for example, 1204, 1214, 1224, . That is, the image decoding apparatus 150 divides the second encoding unit 1212 in the horizontal direction to generate a third encoding unit 1204 of N / 2xN / 2 or a third encoding unit 1224 of N / 2xN / 2 size ) Or may be divided in the vertical and horizontal directions to determine the third encoding unit 1214 of N / 2xN / 2 size.
  • a third encoding unit for example, 1204, 1214, 1224
  • the image decoding apparatus 150 divides at least one of the width and the height of the second encoding unit 1214 of NxN / 2 size to generate a third encoding unit (e.g., 1204, 1214, 1224, etc.) . That is, the image decoding apparatus 150 divides the second encoding unit 1212 in the vertical direction to generate a third encoding unit 1204 of N / 2xN / 2 or a third encoding unit 1214 of N / 2xN / 2 size ) Or may be divided in the vertical and horizontal directions to determine the third encoding unit 1224 of N / 2xN / 2 size.
  • a third encoding unit e.g. 1204, 1214, 1224, etc.
  • the image decoding apparatus 150 may divide a square-shaped encoding unit (for example, 1200, 1202, and 1204) into a horizontal direction or a vertical direction.
  • a square-shaped encoding unit for example, 1200, 1202, and 1204
  • the first encoding unit 1200 having a size of 2Nx2N is divided in the vertical direction to determine a first encoding unit 1210 having a size of Nx2N or the first encoding unit 1210 having a size of 2NxN to determine a first encoding unit 1220 having a size of 2NxN .
  • the depth of the encoding unit in which the first encoding unit 1200, 1202, or 1204 of size 2Nx2N is divided in the horizontal direction or the vertical direction is determined May be the same as the depth of the first encoding unit 1200, 1202 or 1204.
  • the width and height of the third encoding unit 1214 or 1224 may correspond to 1/2 of the first encoding unit 1210 or 1220.
  • the depth of the first coding unit 1210 or 1220 is D
  • the depth of the second coding unit 1212 or 1214 which is half the width and height of the first coding unit 1210 or 1220 is D +
  • the depth of the third encoding unit 1214 or 1224, which is half the width and height of the first encoding unit 1210 or 1220 may be D + 2.
  • FIG. 13 illustrates a depth index (hereinafter referred to as PID) for coding unit classification and depth that can be determined according to the type and size of coding units according to an exemplary embodiment.
  • PID depth index
  • the image decoding apparatus 150 may determine a second type of encoding unit by dividing the first encoding unit 1300 in a square form. 13, the image decoding apparatus 150 divides the first encoding unit 1300 into at least one of a vertical direction and a horizontal direction according to the division type information, and outputs the second encoding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d. That is, the image decoding apparatus 150 can determine the second encoding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d based on the division type information for the first encoding unit 1300. [
  • the second encoding units 1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, and 1306d which are determined according to the division type information for the first encoding unit 1300 in a square form, Depth can be determined based on. For example, since the length of one side of the square-shaped first encoding unit 1300 and the length of longer sides of the non-square-shaped second encoding units 1302a, 1302b, 1304a, and 1304b are the same, 1300) and the non-square type second encoding units 1302a, 1302b, 1304a, and 1304b are denoted by D in the same manner.
  • the image decoding apparatus 150 divides the first encoding unit 1300 into four square-shaped second encoding units 1306a, 1306b, 1306c, and 1306d based on the division type information, 1306b, 1306c, and 1306d are 1/2 times the length of one side of the first encoding unit 1300, the depths of the second encoding units 1306a, 1306b, 1306c, May be a depth of D + 1 which is one depth lower than D, which is the depth of the first encoding unit 1300.
  • the image decoding apparatus 150 divides a first encoding unit 1310 having a height greater than a width in a horizontal direction according to division type information, and generates a plurality of second encoding units 1312a, 1312b, 1314a, 1314b, and 1314c.
  • the image decoding apparatus 150 divides a first encoding unit 1320 having a length greater than a height in a vertical direction according to the division type information to generate a plurality of second encoding units 1322a, 1322b, 1324a, 1324b, and 1324c.
  • the second encoding units 1312a, 1312b, 1314a, 1314b, 1316a, 1316b, 1316c, and 1316d determined according to the division type information for the first encoding unit 1310 or 1320 in the non-
  • the depth can be determined based on the length of the long side. For example, since the length of one side of the square-shaped second encoding units 1312a and 1312b is one-half the length of one side of the non-square first encoding unit 1310 whose height is longer than the width, The depth of the second encoding units 1302a, 1302b, 1304a, and 1304b of the form of D + 1 is one depth lower than the depth D of the first encoding unit 1310 of the non-square form.
  • the image decoding apparatus 150 may divide the non-square first encoding unit 1310 into odd second encoding units 1314a, 1314b, and 1314c based on the division type information.
  • the odd number of second encoding units 1314a, 1314b and 1314c may include non-square second encoding units 1314a and 1314c and a square second encoding unit 1314b.
  • the long side of the non-square type second encoding units 1314a and 1314c and the length of one side of the second type encoding unit 1314b in the form of a square are set to 1/4 of the length of one side of the first encoding unit 1310
  • the depth of the second encoding units 1314a, 1314b, and 1314c may be a depth of D + 1 which is one depth lower than the depth D of the first encoding unit 1310.
  • the image decoding apparatus 150 is connected to the first coding unit 1320 of a non-square form having a width greater than the height in a manner corresponding to the method of determining the depths of the coding units associated with the first coding unit 1310 The depth of the encoding units can be determined.
  • the image decoding apparatus 150 may calculate a size ratio between the coding units The index can be determined based on the index. Referring to FIG. 13, an encoding unit 1314b positioned at the center among odd-numbered encoding units 1314a, 1314b, and 1314c has the same width as other encoding units 1314a and 1314c, May be twice as high as the height of the sidewalls 1314a, 1314c. That is, in this case, the middle encoding unit 1314b may include two of the other encoding units 1314a and 1314c.
  • the coding unit 1314c positioned next to the coding unit 1314c may be three days in which the index is increased by two. That is, there may be a discontinuity in the value of the index.
  • the image decoding apparatus 150 may determine whether odd-numbered encoding units are not the same size based on whether there is an index discontinuity for distinguishing between the divided encoding units.
  • the image decoding apparatus 150 may determine whether the image is divided into a specific division form based on a value of an index for distinguishing a plurality of coding units divided and determined from the current coding unit. 13, the image decoding apparatus 150 divides a rectangular first encoding unit 1310 having a height greater than the width to determine an even number of encoding units 1312a and 1312b or an odd number of encoding units 1314a and 1314b , 1314c.
  • the image decoding apparatus 150 may use an index (PID) indicating each coding unit to identify each of the plurality of coding units.
  • the PID may be obtained at a sample of a predetermined position of each coding unit (e.g., the upper left sample).
  • the image decoding apparatus 150 may determine an encoding unit of a predetermined location among the plurality of encoding units determined by using an index for distinguishing an encoding unit. According to an exemplary embodiment, when the division type information for the rectangular first type encoding unit 1310 having a height greater than the width is divided into three encoding units, the image decoding apparatus 150 encodes the first encoding unit 1310 It can be divided into three encoding units 1314a, 1314b, and 1314c. The image decoding apparatus 150 may assign an index to each of the three encoding units 1314a, 1314b, and 1314c.
  • the image decoding apparatus 150 may compare the indices of the respective encoding units in order to determine the middle encoding unit among the encoding units divided into odd numbers.
  • the image decoding apparatus 150 encodes an encoding unit 1314b having an index corresponding to a middle value among indices based on the indices of the encoding units into an encoding unit 1314b for encoding the middle position among the encoding units determined by dividing the first encoding unit 1310 Can be determined as a unit.
  • the image decoding apparatus 150 may determine an index based on a size ratio between coding units when the coding units are not the same size in determining the index for dividing the divided coding units .
  • the coding unit 1314b generated by dividing the first coding unit 1310 is divided into coding units 1314a and 1314c having the same width as the other coding units 1314a and 1314c but different in height Can be double the height.
  • the index (PID) of the coding unit 1314b located at the center is 1, the coding unit 1314c located next to the coding unit 1314c may be three days in which the index is increased by two.
  • the image decoding apparatus 150 may determine that the image is divided into a plurality of encoding units including encoding units having different sizes from other encoding units.
  • the image decoding apparatus 150 may be configured such that the encoding unit (for example, the middle encoding unit) at a predetermined position among the odd number of encoding units has a format different from that of the other encoding units
  • the current encoding unit can be divided into.
  • the image decoding apparatus 150 can determine an encoding unit having a different size by using an index (PID) for the encoding unit.
  • PID index
  • the index and the size or position of the encoding unit at a predetermined position to be determined are specific for explaining an embodiment, and thus should not be construed to be limited thereto, and various indexes, positions and sizes of encoding units can be used Should be interpreted.
  • the image decoding apparatus 150 may use a predetermined data unit in which recursive division of encoding units starts.
  • FIG. 14 shows that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • a predetermined data unit may be defined as a data unit in which an encoding unit starts to be recursively segmented using at least one of block type information and partition type information. That is, it may correspond to a coding unit of the highest depth used in a process of determining a plurality of coding units for dividing a current picture.
  • a predetermined data unit is referred to as a reference data unit for convenience of explanation.
  • the reference data unit may represent a predetermined size and shape.
  • the reference encoding unit may comprise samples of MxN.
  • M and N may be equal to each other, or may be an integer represented by a multiplier of 2. That is, the reference data unit may represent a square or a non-square shape, and may be divided into an integer number of encoding units.
  • the image decoding apparatus 150 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 150 may divide a plurality of reference data units for dividing a current picture by using the division information for each reference data unit.
  • the segmentation process of the reference data unit may correspond to the segmentation process using a quad-tree structure.
  • the image decoding apparatus 150 may determine in advance a minimum size that the reference data unit included in the current picture can have. Accordingly, the image decoding apparatus 150 can determine reference data units of various sizes having a size larger than a minimum size, and determine at least one coding unit using block type information and division type information based on the determined reference data unit You can decide.
  • the image decoding apparatus 150 may use a square-shaped reference encoding unit 1400 or a non-square-shaped reference encoding unit 1402.
  • the type and size of the reference encoding unit may include various data units (e.g., a sequence, a picture, a slice, a slice segment a slice segment, a maximum encoding unit, and the like).
  • the receiver 160 of the video decoding apparatus 150 may acquire at least one of the information on the format of the reference encoding unit and the size of the reference encoding unit from the bit stream for each of the various data units .
  • the process of determining at least one encoding unit included in the reference-type encoding unit 1400 in the form of a square is described in detail in the process of dividing the current encoding unit 300 of FIG. 10, Is determined in the process of dividing the current encoding unit 1100 or 1150 of FIG. 11, so that a detailed description thereof will be omitted.
  • the image decoding apparatus 150 may include an index for identifying the size and type of the reference encoding unit Can be used. That is, the receiving unit 160 extracts a predetermined condition (for example, a data unit having a size equal to or smaller than a slice) among the various data units (for example, a sequence, a picture, a slice, a slice segment, It is possible to obtain only an index for identifying the size and type of the reference encoding unit for each slice, slice segment, maximum encoding unit, and the like.
  • a predetermined condition for example, a data unit having a size equal to or smaller than a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment
  • the image decoding apparatus 150 can determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the information on the type of the reference encoding unit and the information on the size of the reference encoding unit are obtained from the bitstream for each relatively small data unit and used, the use efficiency of the bitstream may not be good. Therefore, Information on the size of the reference encoding unit and information on the size of the reference encoding unit can be acquired and used.
  • at least one of the size and the type of the reference encoding unit corresponding to the index indicating the size and type of the reference encoding unit may be predetermined. That is, the image decoding apparatus 150 selects at least one of the size and the type of the reference encoding unit in accordance with the index so that at least one of the size and the type of the reference encoding unit included in the data unit, You can decide.
  • the image decoding apparatus 150 may use at least one reference encoding unit included in one maximum encoding unit. That is, the maximum encoding unit for dividing an image may include at least one reference encoding unit, and the encoding unit may be determined through a recursive division process of each reference encoding unit. According to an exemplary embodiment, at least one of the width and the height of the maximum encoding unit may correspond to at least one integer multiple of the width and height of the reference encoding unit. According to an exemplary embodiment, the size of the reference encoding unit may be a size obtained by dividing the maximum encoding unit n times according to a quadtree structure.
  • the image decoding apparatus 150 may determine the reference encoding unit by dividing the maximum encoding unit n times according to the quad tree structure, and may determine the reference encoding unit based on at least one of the block type information and the division type information As shown in FIG.
  • FIG. 15 shows a processing block serving as a reference for determining a determination order of a reference encoding unit included in a picture 1500 according to an embodiment.
  • the image decoding apparatus 150 may determine at least one processing block that divides a picture.
  • the processing block is a data unit including at least one reference encoding unit for dividing an image, and at least one reference encoding unit included in the processing block may be determined in a specific order. That is, the order of determination of at least one reference encoding unit determined in each processing block may correspond to one of various kinds of order in which the reference encoding unit can be determined, and the reference encoding unit determination order determined in each processing block May be different for each processing block.
  • the order of determination of the reference encoding unit determined for each processing block is a raster scan, a Z scan, an N scan, an up-right diagonal scan, a horizontal scan a horizontal scan, and a vertical scan. However, the order that can be determined should not be limited to the scan orders.
  • the image decoding apparatus 150 may obtain information on the size of the processing block to determine the size of the at least one processing block included in the image.
  • the image decoding apparatus 150 may obtain information on the size of the processing block from the bitstream to determine the size of the at least one processing block included in the image.
  • the size of such a processing block may be a predetermined size of a data unit represented by information on the size of the processing block.
  • the receiving unit 160 of the image decoding apparatus 150 may obtain information on the size of the processing block from the bit stream for each specific data unit.
  • information on the size of a processing block can be obtained from a bitstream in units of data such as an image, a sequence, a picture, a slice, a slice segment, or the like. That is, the receiving unit 160 may obtain the information on the size of the processing block from the bitstream for each of the plurality of data units, and the image decoding apparatus 150 may obtain the information on the size of the processing block using the information on the size of the obtained processing block
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference encoding unit.
  • the image decoding apparatus 150 may determine the sizes of the processing blocks 1502 and 1512 included in the picture 1500.
  • the video decoding apparatus 150 may determine the size of the processing block based on information on the size of the processing block obtained from the bitstream.
  • the image decoding apparatus 150 according to an exemplary embodiment of the present invention may be configured such that the horizontal size of the processing blocks 1502 and 1512 is four times the horizontal size of the reference encoding unit, four times the vertical size of the reference encoding unit, You can decide.
  • the image decoding apparatus 150 may determine an order in which at least one reference encoding unit is determined in at least one processing block.
  • the video decoding apparatus 150 may determine each processing block 1502, 1512 included in the picture 1500 based on the size of the processing block, and may include in the processing blocks 1502, 1512 The determination order of at least one reference encoding unit is determined.
  • the determination of the reference encoding unit may include determining the size of the reference encoding unit according to an embodiment.
  • the image decoding apparatus 150 may obtain information on a determination order of at least one reference encoding unit included in at least one processing block from a bitstream, So that the order in which at least one reference encoding unit is determined can be determined.
  • the information on the decision order can be defined in the order or direction in which the reference encoding units are determined in the processing block. That is, the order in which the reference encoding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 150 may obtain information on a determination order of a reference encoding unit from a bitstream for each specific data unit.
  • the receiving unit 160 may acquire information on the order of determination of a reference encoding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information on the determination order of the reference encoding unit indicates the reference encoding unit determination order in the processing block, the information on the determination order can be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 150 may determine at least one reference encoding unit based on the determined order according to an embodiment.
  • the receiving unit 160 may obtain information on the reference encoding unit determination order from the bitstream as the information related to the processing blocks 1502 and 1512, and the video decoding apparatus 150 may receive the information 1502, and 1512, and determine at least one reference encoding unit included in the picture 1500 according to the determination order of the encoding units.
  • the image decoding apparatus 150 may determine a determination order 1504 and 1514 of at least one reference encoding unit associated with each of the processing blocks 1502 and 1512. For example, when information on the determination order of reference encoding units is obtained for each processing block, the reference encoding unit determination order associated with each processing block 1502 and 1512 may be different for each processing block.
  • the reference encoding unit determination order 1504 related to the processing block 1502 is a raster scan order
  • the reference encoding unit included in the processing block 1502 may be determined according to the raster scan order.
  • the reference encoding unit determination order 1514 related to another processing block 1512 is a reverse order of the raster scan order
  • the reference encoding unit included in the processing block 1512 can be determined according to the reverse order of the raster scan order.
  • 16A is a block diagram of an image encoding unit 1600 based on an encoding unit according to various embodiments.
  • the image encoding unit 1600 includes operations for encoding image data in the encoding unit 110 of the video encoding device 100.
  • the intra-prediction unit 1604 performs intra-prediction on the intra-mode encoding unit of the current frame 1602
  • the inter-prediction unit 1606 performs intra-prediction on the current frame 1602 and the reference frame 1626 of the inter- To perform inter-estimation and motion compensation.
  • the data output from the intra prediction unit 1604 and the inter prediction unit 1606 is output as a transform coefficient quantized through the transform unit 1610 and the quantization unit 1612.
  • the quantized transform coefficients are reconstructed into spatial domain data through the inverse quantization unit 1618 and the inverse transform unit 1620 and the data of the reconstructed spatial domain is passed through the deblocking unit 1622 and the offset compensating unit 1624, And output to the reference frame 1626.
  • the quantized transform coefficients may be output to the bit stream 1616 via the entropy encoding unit 1614.
  • the intra prediction unit 1604, the inter prediction unit 1606, the transform unit 1610, the quantization unit 1612, and the quantization unit 1610, which are components of the image encoding unit 1600, are required to be applied to the video encoding apparatus 100 according to one embodiment.
  • the entropy encoding unit 1614, the inverse quantization unit 1618, the inverse transform unit 1620, the deblocking unit 1622, and the offset compensating unit 1624 all have a maximum tree size And perform an operation based on each encoding unit among the encoding units according to the respective encoding units.
  • the intra-prediction unit 1604 and the inter-prediction unit 1606 determine the partition and prediction mode of each coding unit among the coding units according to the tree structure in consideration of the maximum size and the maximum depth of the current maximum coding unit,
  • the transform unit 1610 must determine the size of the transform unit in each encoding unit among the encoding units according to the tree structure.
  • 16B shows a block diagram of an image decoding unit 1650 based on an encoding unit according to various embodiments.
  • the bit stream 1652 passes through the parsing unit 1654 to parse the encoded image data to be decoded and the encoding-related information necessary for decoding.
  • the coded image data is outputted as inverse quantized data through the entropy decoding unit 1656 and the inverse quantization unit 1658, and the image data in the spatial domain is restored through the inverse transformation unit 1660.
  • the intra prediction unit 1662 performs intraprediction on the intra-mode encoding unit and the inter-prediction unit 1664 uses the reference frame 1670 together for the intra-mode encoding unit And performs motion compensation for the motion compensation.
  • the data in the spatial domain that has passed through the intra prediction unit 1662 and the inter prediction unit 1664 may be post-processed through the deblocking unit 1666 and the offset compensating unit 1668 and output to the restoring frame 1672.
  • the post-processed data via the deblocking unit 1666 and the loop filtering unit 1668 can be output as a reference frame 1670.
  • the intra prediction unit 1662, the inter prediction unit 1664, the deblocking unit 1666, and the offset compensation unit 1668 all perform operations based on the coding units according to the tree structure for each maximum coding unit do.
  • the intra prediction unit 1662 and the inter prediction unit 1664 determine a partition and a prediction mode for each coding unit according to the tree structure, and the inverse transform unit 1660 determines the size of the conversion unit for each coding unit .
  • Figs. 1 to 16B a method of dividing an image into a maximum encoding unit and dividing a maximum encoding unit into encoding units of a hierarchical tree structure has been described.
  • Figs. 17 to 26 an intra prediction mode in which prediction values of samples of a current block are determined according to a weighted sum of a plurality of reference samples is described.
  • FIG. 17 shows a block diagram of an intra prediction apparatus 1700 that predicts samples of current blocks according to a weighted sum of sample values of reference samples.
  • the intra prediction apparatus 1700 includes an intra prediction mode determination unit 1710, a reference region determination unit 1720, and an intra prediction unit 1730. 16, the intra prediction mode determination unit 1710, the reference region determination unit 1720, and the intra prediction unit 1730 are expressed as separate structural units. However, according to the embodiment, the intra prediction mode determination unit 1710, The area determination unit 1720 and the intra prediction unit 1730 may be combined and implemented in one unit.
  • the intra-prediction mode determining unit 1710, the reference area determining unit 1720, and the intra-prediction unit 1730 are expressed as a unit that is located in one apparatus.
  • the intra-prediction mode determining unit 1710, The apparatuses for performing the respective functions of the intra prediction unit 1720 and the intra prediction unit 1730 are not necessarily physically adjacent to each other. Therefore, the intra prediction mode determination unit 1710, the reference region determination unit 1720, and the intra prediction unit 1730 may be dispersed according to the embodiment.
  • the intra prediction mode determination unit 1710, the reference region determination unit 1720, and the intra prediction unit 1730 may be implemented by one processor according to an embodiment. And may be implemented by a plurality of processors according to an embodiment.
  • the intra prediction mode determination unit 1710 determines an intra prediction mode of the current block.
  • the intra prediction mode determination unit 1710 may obtain intra prediction mode information indicating an intra prediction mode of the current block from the bitstream.
  • the intra prediction mode determination unit 1710 may determine the intra prediction mode of the current block according to the intra prediction mode information.
  • the intra prediction mode determination unit 1710 may determine whether or not smoothing is performed on a plurality of reference samples.
  • the reference area referred to by the current block contains reference samples reconstructed through quantization. Therefore, the reference sample in the reference area contains a quantization error. Therefore, the quantization error of the reference samples can be eliminated by smoothing the reference samples.
  • the intra prediction mode determination unit 1710 can determine whether or not smoothing is performed on a plurality of reference samples according to the sample value of the reference sample. If the difference of the sample values between adjacent reference samples is small, the intra prediction mode determination unit 1710 can determine not to perform smoothing on the reference samples. Conversely, when the difference in sample values between adjacent reference samples is large, the intra prediction mode determination section 1710 can determine that smoothing is to be performed on the reference samples
  • the intra prediction mode determination unit 1710 may determine a smoothing intensity for the plurality of reference samples when smoothing is performed on the plurality of reference samples. If the difference in sample values between the reference samples is equal to or larger than the threshold value, the intra prediction mode determination unit 1710 can smooth the reference sample according to the high smoothing intensity. The intraprediction mode determination unit 1710 may select one of two or more equalization intensities according to a difference in sample values between reference samples.
  • the intra prediction mode determination unit 1710 can determine whether bidirectional prediction is applied to the current block.
  • bidirectional prediction refers to a prediction method using not only the prediction direction of the intra-prediction mode but also the direction opposite to the prediction direction. Therefore, when the reference sample in the prediction direction and the reference sample in the opposite direction to the prediction direction can be obtained in the reference area, the current sample can be predicted using the reference sample in the prediction direction and the reference sample in the opposite direction to the prediction direction.
  • the weight of the reference sample in the prediction direction and the reference sample in the opposite direction to the prediction direction can be determined according to the ratio of the distance between the current sample and the reference sample in the prediction direction and the distance between the current sample and the reference sample in the direction opposite to the prediction direction in bidirectional prediction have.
  • the current block can be more accurately predicted when two or more intra prediction modes are applied together, as compared to when one intra prediction mode is applied. Accordingly, the intra prediction mode determination unit 1710 can determine whether a plurality of intra prediction modes are applied to the current block. When a plurality of intra prediction modes are applied to the current block, the intra prediction mode determination unit 1710 can determine a plurality of intra prediction modes to be applied to the current block.
  • the intra prediction mode determination unit 1710 may determine a plurality of intra prediction modes of the current block from the intra prediction mode information.
  • the intra prediction mode information may indicate two or more directional intra prediction modes.
  • the intra prediction mode information may indicate one or more directional intra prediction modes together with the non-directional intra prediction mode.
  • the non-directional intra prediction mode may include a DC mode, a planar mode, and a bilinear mode.
  • the intra prediction mode determination unit 1710 may determine whether prediction value filtering is applied to the current block.
  • Prediction value filtering means an encoding tool that improves the continuity of reference samples and intra-predicted samples by filtering intra-predicted samples included in a current block according to reference samples in a reference region. Prediction value filtering may be performed to improve the prediction accuracy of the intra-predicted samples.
  • the intra prediction mode determination unit 1710 can determine an intra prediction tool allowed in the current block according to the syntax information on the upper unit of the current block.
  • the intra prediction mode determination unit 1710 may determine an intra prediction tool to be applied to the current block among the intra prediction tools allowed in the current block.
  • the intra prediction tool may include the above-described reference sample smoothing, bidirectional prediction, a plurality of intra prediction modes, and prediction value filtering.
  • the reference area determining unit 1720 determines a reference area adjacent to the current block to be used for prediction of the current sample.
  • the reference area means an area to be referred to for prediction of the current block.
  • the reference area may include an adjacent sample on the upper side of the current block and an adjacent sample on the left side of the current block. Alternatively, the reference area may include adjacent samples adjacent to the right side of the current block according to the coding order.
  • the reference region may contain samples reconstructed before the current block. If there is no reconstructed sample in a portion of the reference region, a reference sample can be generated by padding the reconstructed reference sample in the reference region.
  • the reference area determining unit 1720 may determine two or more sample lines on the upper side of the current block and a reference area including two or more sample columns on the left side of the current block.
  • the intra prediction unit 1730 determines a weight of a plurality of reference samples included in the reference region according to the intra prediction mode of the current block and the position of the current sample. For example, if the intra prediction mode is the directional intra prediction mode, the intra prediction unit 1730 can determine the weights of the plurality of reference samples based on the reference position of the reference region indicated by the prediction direction of the intra prediction mode from the current sample have. If the intra prediction mode is the DC mode, the intra prediction unit 1730 can determine the weight of all reference samples equally. If the intra prediction mode is the planar mode or the dual linear mode, the intra prediction unit 1730 can determine the weight of the reference sample according to the position of the current sample.
  • the intra predictor 1730 may determine a weight of the reference samples according to a smoothing filter coefficient when the smoothing is performed on the reference samples.
  • the intraprediction unit 1730 may determine the weights of the plurality of reference samples according to the smoothing filter coefficient according to the smoothing strength.
  • the intra prediction unit 1730 may weight the reference samples indicated by the prediction direction of the intra prediction mode and surrounding samples of the reference samples according to the smoothing filter coefficients. If the smoothing filter is a 3-tap filter, the intra predictor 1730 assigns a weight greater than 0 to the reference sample indicated by the prediction direction of the intra prediction mode and two adjacent samples of the reference sample, The weight can be determined to be zero. Likewise, when the smoothing filter is an N-tap filter, the intra predictor 1730 assigns a weight greater than 0 to the reference sample indicated by the prediction direction of the intra-prediction mode and N-1 adjacent samples of the reference sample, The weight of the remaining reference samples can be determined to be zero.
  • the intra predictor 1730 may determine a first predicted value of the current sample according to the smoothed reference sample and a second predicted value of the current sample according to the original reference sample.
  • the intra prediction unit 1730 may determine the final prediction value of the current sample according to the weighted sum of the first prediction value and the second prediction value.
  • the intraprediction unit 1730 may change the weight of the reference sample according to the smoothed filter coefficient, and calculate a final predicted value of the current sample from the first predicted value according to the smoothed reference sample and the second predicted value according to the original reference sample It is possible to obtain the determining effect.
  • the intraprediction unit 1730 can obtain the above effect by giving a large weight to the reference samples indicated by the prediction direction of the intra prediction mode.
  • the intra predictor 1730 may determine an interpolation filter coefficient according to the fractional value if the reference position has a fractional value.
  • the intra prediction unit 1730 may determine a weight of the plurality of reference samples according to the interpolation filter coefficient.
  • the reference position indicates the position of the reference sample indicated by the prediction direction of the intra prediction mode from the current sample.
  • the intra prediction unit 1730 can determine the reference position in units of 1/4 samples or 1/8 samples.
  • the intra predictor 1730 can determine the reference position in units of samples smaller than 1/8 sample unit according to the embodiment.
  • the number of interpolation filter coefficients included in the interpolation filter may be determined to be three or more.
  • the number of interpolation filter coefficients may be 7 or 8, depending on the fractional value of the reference position.
  • An interpolation filter used for sub-sample interpolation of the inter prediction can be used to determine the weight of the reference sample.
  • a reference sample-only interpolation filter used only for determining the weight of the reference sample can be used to determine the weight of the reference sample.
  • the intra predictor 1730 may determine a combined filter coefficient that is a combination of a smoothing filter coefficient and an interpolation filter coefficient when the reference position has a fractional value and smoothing is performed on a plurality of reference samples have.
  • the intraprediction unit 1730 may determine the weights of the plurality of reference samples according to the combined filter coefficient.
  • the intra prediction unit 1730 refers to the first reference position of the reference region indicated by the prediction direction of the intra-prediction mode and the second reference position of the reference region indicated by the direction opposite to the prediction direction
  • the weights of the samples can be determined.
  • the intra predictor 1730 may determine a weight of reference samples around the first reference position according to at least one of a smoothing filter coefficient and an interpolation filter coefficient. Similarly, the intra predictor 1730 can determine the weight of the reference samples around the second reference position in accordance with the smoothing filter coefficient and the interpolation filter coefficient.
  • the intra prediction unit 1730 can determine the weights of the plurality of reference samples based on the plurality of reference positions of the reference region indicated by the plurality of prediction directions of the plurality of intra prediction modes from the current sample.
  • the intra predictor 1730 may determine a weight of reference samples around a plurality of reference positions according to at least one of a smoothing filter coefficient and an interpolation filter coefficient.
  • the intraprediction unit 1730 can determine an upper position located on the upper side of the current sample and a left position located on the left side of the current sample from the reference region.
  • the intra prediction unit 1730 may determine the weights of the plurality of reference samples based on the upper position and the left position.
  • the intra predictor 1730 can determine the weight of the reference samples of the reference position indicated by the prediction direction of the intra prediction mode according to at least one of the smoothing filter coefficient and the interpolation filter coefficient.
  • the intra prediction unit 1730 may determine a weight for the reference sample at the upper position and the reference sample at the left position.
  • the intra prediction unit 1730 may determine that the sum of the weights of the reference samples at the reference position indicated by the prediction direction of the intra prediction mode and the sum of the weights of the reference samples at the upper position and the left position is a constant ratio.
  • the intra predictor 1730 determines the weight so that the sum of the weights of the plurality of reference samples is 1.
  • the weighted sum of the plurality of reference samples may be substantially equal to the weighted average of the plurality of reference samples.
  • the intra predictor 1730 determines the predicted value of the current sample based on the weighted sum of the reference samples included in the reference area calculated according to the determined weight.
  • the intra predictor 1730 may determine a prediction value according to a weighted sum of a plurality of reference samples for all the samples included in the current block as well as the current sample.
  • the weighted sum of the plurality of reference samples depends on the location of the sample. Accordingly, the intra prediction unit 1730 can predict the current block by determining the prediction values of all the samples included in the current block.
  • the intra prediction apparatus 1700 may be included in the encoding unit 110 of the video encoding apparatus 100. Accordingly, the function of the intra prediction apparatus 1700 can be performed by the encoding unit 110. [ The intra prediction apparatus 1700 may be included in the intra prediction unit 1604 of the image encoding unit 1600. Therefore, the function of the intra prediction unit 1700 can be performed in the intra prediction unit 1604. [ The intra prediction apparatus 1700 may derive intra prediction results for a plurality of intra prediction modes and determine an optimal intra prediction mode to be applied to the current block according to the intra prediction results.
  • the intra prediction mode determination unit 1710 of the intra prediction apparatus 1700 included in the video encoding stage may be determined to generate information about the intra prediction mode indicating the optimal intra prediction mode of the current block.
  • the information on the intra prediction mode may include reference sample smoothing information, reference sample smoothing intensity information, bidirectional prediction information, a plurality of intra prediction mode permission information, information on the number of intra prediction modes, prediction value filtering application information,
  • the intra prediction apparatus 1700 may be included in the decoding unit 170 of the video decoding apparatus 150. Therefore, the function of the intra prediction apparatus 1700 can be performed in the decoding unit 170.
  • the intra prediction apparatus 1700 may be included in the intra prediction unit 1662 of the image decoding unit 1650. Therefore, the function of the intra prediction unit 1700 can be performed in the intra prediction unit 1662.
  • the intra prediction apparatus 1700 determines an intra prediction mode of the current block and predicts the current block according to the intra prediction mode.
  • the intra prediction mode decision unit 1710 of the intra prediction device 1700 included in the video decoding stage acquires information about the intra prediction mode from the bitstream, It can be set to determine whether or not the intra prediction tool is applied.
  • the intra prediction mode determination unit 1710 may obtain reference sample smoothing information indicating whether or not smoothing is performed on a plurality of reference samples from the bit stream.
  • the intra prediction mode determination unit 1710 may determine whether to perform smoothing for a plurality of reference samples according to reference sample smoothing information.
  • the intra prediction mode determination unit 1710 can obtain reference sample smoothing intensity information on the smoothing intensity of the reference sample from the bit stream.
  • the intra prediction mode determination unit 1710 can determine the smoothing intensity of the reference sample from the reference sample smoothing intensity information.
  • the intra prediction mode decision unit 1710 in the video decoding stage can acquire bidirectional prediction information indicating whether bidirectional prediction is applied to the current block from the bitstream.
  • the intra prediction mode determination unit 1710 may determine whether bidirectional prediction is applied to the current block according to bidirectional prediction information.
  • the intra prediction mode decision unit 1710 in the video decoding stage can acquire a plurality of intra prediction mode permission information indicating whether a plurality of intra prediction modes are applied to the current block from the bit stream.
  • the intra prediction mode determination unit 1710 may determine whether a plurality of intra prediction modes are applied to the current block according to the plurality of intra prediction mode permission information.
  • the intra prediction mode determination unit 1710 can obtain the intra prediction mode number information indicating the number of intra prediction modes from the bitstream.
  • the intra prediction mode determination unit 1710 may determine the number of intra prediction modes to be applied to the current block according to the intra prediction mode number information.
  • the intra prediction mode decision unit 1710 in the video decoding stage can obtain prediction value filtering application information indicating whether prediction value filtering is applied to the current block from the bitstream.
  • the intra prediction mode determination unit 1710 may determine whether prediction value filtering is applied to the current block according to the prediction value filtering application information.
  • 18-24 illustrate various embodiments for predicting samples of current blocks according to a weighted sum of sample values of reference samples.
  • Figure 18 illustrates an embodiment for predicting the current sample according to the weighted sum of the reference samples of the reference region.
  • the intra prediction apparatus 1700 may determine the current sample 1802 included in the current block 1800 according to the weighted sum of the reference samples of the reference region 1810. [ Equations (1) and (2) below represent a prediction method according to the weighted sum of the reference samples of the current sample 1802.
  • Equation (1) p (x, y) represents a predicted value of the current sample 1802 located at (x, y).
  • r (i, j) represents the sample value of the reference sample located at (i, j).
  • (x, y, i, j) represents the weight of the reference sample of (i, j) for prediction of the current sample 1802 of (x, y).
  • Equation (2) is a variation of Equation (1).
  • the predicted value of the current sample according to the reference area 1810 is determined by adding the predicted value of the current sample according to the upper reference area 1812 and the predicted value of the current sample according to the left reference area 1814. Represents the predicted value of the current sample along the upper reference region 1812, Represents the predicted value of the current sample along left reference region 1814.
  • Nu denotes a horizontal range of the reference area 1810
  • Nl denotes a vertical range of the reference area 1810.
  • Nu can be determined to be twice the width of the current block 1800 and Nl can be determined to be twice the height of the current block 1800.
  • the sizes of Nu and Nl may be varied.
  • the reference region 1810 may include surrounding samples of the current block, as well as any samples of the reconstructed region.
  • P (x, y) which is the predicted value of the current sample 1802 in Equations (1) and (2), is determined by adding the product of the sample value of the reference sample and the weight of the reference sample for all reference samples in the reference region 1810 do.
  • the sum of all ⁇ (x, y, i, j) determined for the reference samples in the reference region can be determined to be 1.
  • 19 illustrates an embodiment for determining weights of reference samples according to the prediction direction of the intra-prediction mode.
  • Intraprediction apparatus 1700 can determine the weight of reference samples included in reference region 1910 according to the prediction direction 1920 of the intra prediction mode. Equation (2) below represents a prediction method according to the weighted sum of reference samples based on the prediction direction 1920. [
  • the weight of the left reference region 1814 is determined to be zero. Therefore, the predicted value of the current sample 1902 can be determined by the weighted sum of the reference samples of the upper reference region 1912 as shown in Equation (3) below.
  • the weight for the reference sample 1924 is determined to be 1, The weight of the remaining reference samples may be determined to be zero.
  • the reference samples 1922 around the reference position 1925 , 1924, 1926, 1928) can be determined.
  • the fractional value of the reference position 1925 is 0.5. Accordingly, the weights of the reference samples 1922, 1924, 1926, and 1928 around the reference position 1925 can be determined according to the interpolation filter coefficient corresponding to 0.5. If the interpolation filter is a 2-tap filter, a weight greater than zero may be determined for reference samples 1924,1926 and the weight of the remaining reference samples in upper reference region 1912 may be determined as zero. Equation (4) shows an equation for predicting the current sample 1902 when the interpolation filter is a 2-tap filter.
  • a0 represents a reference sample 1924
  • a1 represents a reference sample 1926.
  • c represents the weight for the reference sample 1924
  • 1-c represents the weight for the reference sample 1926.
  • the interpolation filter is a 4-tap filter
  • a weight greater than 0 is determined for the reference samples 1922, 1924, 1926, and 1928, and a weight of the remaining reference samples in the upper reference region 1912 is set to 0 Can be determined.
  • intra prediction apparatus 1700 may determine the weight of the reference sample according to the smoothed filter coefficient or the combined filter coefficient.
  • the weights of the reference samples in the upper reference region 1912 including the reference samples 1922, 1924, 1926, and 1928, may be determined according to the smoothed filter coefficients or the combined filter coefficients.
  • the filter coefficients of the reference samples 1922, 1924, and 1926 may be determined to be 0.25, 0.5, 0.25, respectively. And the filter coefficients of the remaining reference samples of the upper reference region 1912 excluding the reference samples 1922, 1924, and 1926 may be determined to be zero.
  • the reference position 1925 pointed by the prediction direction 1920 from the current sample is the center of the reference sample 1924 and the reference sample 1926 and the reference samples of the upper reference region 1910 have a filter coefficient
  • the weights of the reference samples 1922, 1924, 1926 and 1928 are determined according to the combined filter coefficients in which the interpolation filter coefficients and the smoothing filter coefficients are combined.
  • a method of acquiring a coupling filter coefficient is introduced.
  • the filter coefficient of the 3-tap smoothing filter 2000 is ⁇ f0, f1, f2 ⁇
  • the 2-tap interpolation filter 2010 is ⁇ g0, g1 ⁇ .
  • the smoothed reference sample a1 ' is f0 * a0 + f1 * a1 + f2 * a2 and the smoothed reference sample a2' is f0 * a1 + f1 * a2 + f2 * a3.
  • the interpolation filter ⁇ g0, g1 ⁇ is applied to the reference samples adjacent to the reference position. Therefore, the predicted value p of the current sample is determined as g0 * a1 '+ g1 * a1'.
  • a1 'and a2' are replaced by f0 * a0 + f1 * a1 + f2 * a2 and f0 * a1 + f1 * a2 + f2 * a3, the predicted value p of the current sample becomes g0 * f0 * a0 + g0 * f1 * a1 + g0 * f2 * a2 + g1 * f0 * a1 + g1 * f1 * a2 + g1 * f2 * a3.
  • the number of filter coefficients of the smoothing filter is m and the number of filter coefficients of the interpolation filter is n
  • the number of filter coefficients of the combining filter combining the smoothing filter and the interpolation filter is determined as m + n-1. Even when the number of filter coefficients of the smoothing filter and the number of filter coefficients of the interpolation filter are different from those of Fig. 20, the combining filter can be determined in the same manner as that shown in Fig.
  • FIG. 21 illustrates an embodiment for determining weights of reference samples when bi-directional prediction is applied to current block 2100.
  • the intra prediction apparatus 1700 determines whether or not the reference sample 2100 included in the reference region 2110 is included in the prediction direction 2120 of the intra prediction mode and the direction 2130 opposite to the prediction direction when bidirectional prediction is applied to the current block 2100. [ Can be determined.
  • a combining filter and a prediction direction weighting filter ⁇ g0, g1 ⁇ in which a 3-tap smoothing filter ⁇ f0, f1, f2 ⁇ and a 2-tap interpolation filter ⁇ c, 1-c ⁇ are combined are used.
  • the filter coefficients of the combining filter are ⁇ c * f0, c * f1 + (1-c) * f0, c * f2 + (1-c) * f1, (1-c) * f2 ⁇ .
  • the filter coefficient c of the combining filter can be changed according to the reference position.
  • the values of g0 and g1 are determined so that the sum of g0 and g1 is 1.
  • the following equation (5) is derived according to the coupling filter.
  • Equation (5) Represents the predicted value of the current sample 2102 along the upper reference region 2112 and may be determined by the weighted sum of the reference samples in the prediction direction 2120.
  • the weighted sum of the reference samples in the prediction direction 2120 can be determined in accordance with the four reference samples 2122, 2124, 2126, and 2128 in the prediction direction 2120 in the upper reference region 2112.
  • the weights of the reference samples 2122, 2124, 2126, and 2128 may be determined according to the filter coefficients of the combining filter.
  • the weight of the remaining reference samples in the upper reference region 2112 may be determined as zero.
  • the weighted sum of the reference samples in the opposite direction 2130 of the prediction direction can be determined .
  • the weights of the reference samples 2132, 2134, 2136, and 2138 may be determined according to the filter coefficients of the combining filter.
  • the weight of the remaining reference samples in the left reference region 2114 may be determined to be zero.
  • the predicted value of the current sample 2102 may be determined by applying a weighted sum of the reference samples of the prediction direction 2120 and a weighted sum of the reference samples in the opposite direction 2130 of the prediction direction 2130 to the prediction direction weighted filter.
  • the prediction direction weight for the weighted sum of the reference samples in the prediction direction 2120 is g0 and the prediction direction weight for the weighted sum of the reference samples in the opposite direction 2130 in the prediction direction is g1.
  • the prediction direction weight for the prediction direction 2120 may be set so that g0 is greater than g1 in the prediction direction weight for the direction 2130 opposite to the prediction direction.
  • the values of g0 and g1 can be changed to be equal to each other or to have a larger value of g1.
  • the weights of reference samples 2122, 2124, 2126, 2128, 2132, 2134, 2136 and 2138 to which the combining filter of FIG. 21 and the prediction direction weighting filter are applied are c * f0 * g0, (c * f1 + (1-c ') * f2 * g0, c' * f0 * g1, (c '* f1 + (1-c) * f1) * g0, ) * f0) * g1, (c '* f2 + (1-c') * f1) * g1, (1-c ') * f2 * g1.
  • FIG. 22 illustrates an embodiment for determining weights of reference samples when a plurality of intra prediction modes are applied to the current block 2200.
  • the intra prediction apparatus 1700 predicts a prediction direction 2220 of the first intra prediction mode and a prediction direction 2230 of the second intra prediction mode of the prediction direction
  • the weight of the reference samples included in the reference area 2210 can be determined.
  • a 2-tap interpolation filter ⁇ c, 1-c ⁇ and a prediction mode weighting filter ⁇ f0, f1 ⁇ are used.
  • the filter coefficient c of the interpolation filter can be changed according to the reference position.
  • the values of the prediction mode weights f0 and f1 can be determined such that the sum of the prediction mode weights f0 and f1 is 1. [
  • the following equation (6) is derived according to the interpolation filter and the prediction mode weighting filter.
  • Equation (6) Represents the predicted value of the current sample 2202 along the upper reference area 2212 and can be determined by the weighted sum of the reference samples of the prediction direction 2220 of the first intra prediction mode.
  • the weighted sum of the reference samples of the prediction direction 2220 of the first intra-prediction mode is determined in accordance with the two reference samples 2222 and 2224 of the prediction direction 2220 of the first intra-prediction mode in the upper reference region 2212 .
  • the weights of the reference samples 2222 and 2224 may be determined according to the filter coefficients of the interpolation filter.
  • the weight of the remaining reference samples in the upper reference region 2212 may be determined as zero.
  • the weighted sum of the reference samples of the prediction direction 2230 of the second intraprediction mode is determined in accordance with the two reference samples 2232 and 2234 of the prediction direction 2230 of the second intraprediction mode in the left reference area 2214 .
  • the weights of the reference samples 2232 and 2234 may be determined according to the filter coefficients of the interpolation filter.
  • the weight of the remaining reference samples in the left reference region 2214 may be determined to be zero.
  • the predicted value of the current sample 2202 may be determined by a weighted sum of a predicted value according to the prediction direction 2220 of the first intra-prediction mode and a predicted value according to the prediction direction 2230 of the second intra-prediction mode.
  • the prediction mode weights of the predicted values along the prediction direction 2220 of the first intra-prediction mode and the prediction values along the prediction direction 2230 of the second intra-prediction mode are determined as f0 and f1, respectively. Therefore, the weight of the reference sample 2222 is c0 * f0, and the weight of the reference sample 2224 is (1-c0) * f0.
  • the weight of the reference sample 2232 is c0 '* f1, and the weight of the reference sample 2234 is (1-c0') * f1.
  • intraprediction modes are applied to the current block in Fig. 22, more than two intraprediction modes may be applied to the current block, depending on the embodiment.
  • the non-directional intra prediction mode such as the DC mode, the planar mode, and the dual linear mode and the directional intra prediction mode can be applied to the current block.
  • weights of the reference samples according to the plurality of intra prediction modes are described according to the 2-tap interpolation filter, but an interpolation filter different from FIG. 22 may be used according to the embodiment.
  • a smoothing filter or a combining filter may be applied according to the embodiment, unlike FIG.
  • FIG. 23 illustrates an embodiment for determining weights of reference samples when predictive value filtering is applied to the current block 2300.
  • the intra prediction apparatus 1700 determines whether or not reference samples included in the reference region 2310 are included in the reference region 2310 according to the prediction direction 2320 of the intra prediction mode and the position of the current sample 2302 when predictive value filtering is applied to the current block 2300. [ Can be determined.
  • a 2-tap interpolation filter ⁇ c, 1-c ⁇ and a prediction value filter ⁇ f0, f1, f2 ⁇ are used.
  • the filter coefficient c of the interpolation filter can be changed according to the reference position.
  • the values of f0, f1, and f2 can be determined such that the sum of the filter coefficients of the predictive value filter is 1.
  • the following equation (7) is derived according to the interpolation filter and the prediction value filter.
  • the reference samples 2322 and 2324, the upper reference sample 2340, and the left reference sample 2342 in the prediction direction 2320 of the intra prediction mode are weighted with zero or more.
  • the upper reference sample 2340 is located at the intersection of a row adjacent to the upper side of the current block 2300 and a row of the current sample 2302.
  • the left reference sample 2342 is located at the intersection of the row of the current sample 2302 and the column adjacent to the left side of the current block 2300
  • the weights of the upper reference sample 2340 and the left reference sample 2342 may be determined as f0 and f1, respectively.
  • the weights of the reference samples 2322 and 2324 in the prediction direction 2320 of the intra prediction mode can be determined as c * f2, (1-c) * f2. As the values of f0 and f1 become larger, the intensity of the predictive value filtering becomes higher.
  • the upper reference sample 2340 and the left reference sample 2342 are used for the prediction value filtering of the current sample 2302, but according to the embodiment, another reference sample is stored in the upper reference sample 2340 and the left reference sample 2342 ), Or may be used in addition to the upper reference sample 2340 and the left reference sample 2342.
  • Figure 24 illustrates an embodiment for determining the weights of reference samples when the reference field 2410 is set to include samples that are two sample units away from the current block 2400.
  • Intraprediction apparatus 1700 includes a current sample 2402 according to all reference samples 2422, 2424, 2426, and 2428 of a reference region 2410 located in a prediction direction 2320 of an intra prediction mode from a current sample 2402. [ Can be determined.
  • two-tap interpolation filter ⁇ c, 1-c ⁇ and distance weight filter ⁇ f0, f1 ⁇ are used.
  • the filter coefficient c of the interpolation filter can be changed according to the reference position.
  • the values of the distance weights f0 and f1 may be determined such that the sum of the distance weights f0 and f1 is 1.
  • the following equation (8) is derived according to the interpolation filter.
  • reference samples 2422, 2424 that are one sample distance away from the current block 2400 among the reference samples 2422, 2424, 2426, 2428 located in the prediction direction 2420 of the intra-
  • the distance weight f0 is applied.
  • a distance weight f1 is applied to the reference samples 2426, 2428, which are two sample distances from the current block 2400, among the reference samples 2422, 2424, 2426, Since the reference sample closer to the current block 2400 has a higher prediction accuracy with respect to the current sample 2402, f0 can be set to be larger than f1.
  • the weights of the reference samples 2422, 2424, 2426 and 2428 to which the interpolation filter and the distance weighting filter are applied are determined as f0 * c0, f0 * (1-c0), f1 * c1 and f1 * (1- .
  • the reference area 2410 includes only the left and upper samples of the current block 2400, but according to the embodiment, the reference area 2410 may include the right sample instead of the left sample, .
  • a 2-tap filter is applied to reference samples 2422 and 2424 separated by one sample distance and reference samples 2426 and 2428 separated by two sample distances.
  • M tap filters are applied to reference samples one sample distance apart
  • N tap filters can be applied to reference samples that are two sample distances apart. M and N are different positive integers.
  • Figure 25 shows a flowchart of an intra prediction method (2500) for predicting samples of current blocks according to a weighted sum of sample values of reference samples.
  • step 2510 the intra prediction mode of the current block is determined.
  • Whether or not smoothing is performed on a plurality of reference samples can be determined.
  • the smoothing intensity for a plurality of reference samples can be determined.
  • a reference region adjacent to the current block to be used for prediction of the current sample is determined.
  • a reference area including two or more sample lines on the upper side of the current block and two or more sample columns on the left side of the current block may be determined.
  • step 2530 weights of a plurality of reference samples included in the reference region are determined according to the intra prediction mode of the current block and the position of the current sample.
  • the weights of the reference samples may be determined according to the smoothed filter coefficients.
  • the weights of the plurality of reference samples may be determined according to the smoothing filter coefficient according to the smoothing intensity.
  • the weights of the plurality of reference samples may be determined based on the reference position of the reference region indicated by the prediction direction of the intra-prediction mode from the current sample.
  • the interpolation filter coefficient may be determined according to the fractional value.
  • the weights of the plurality of reference samples may be determined according to the interpolation filter coefficients.
  • a smoothed filter coefficient and a combined filter coefficient may be determined for the interpolation filter coefficient.
  • the weights of the plurality of reference samples may be determined according to the combined filter coefficients.
  • the weight of the reference samples can be determined based on the first reference position of the reference area indicated by the prediction direction of the intra-prediction mode and the second reference position of the reference area indicated by the direction opposite to the prediction direction .
  • a weight of a plurality of reference samples may be determined based on a plurality of reference positions of a reference region indicated by a plurality of prediction directions of a plurality of intra prediction modes from the current sample.
  • an upper position located on the upper side of the current sample and a left position located on the left side of the current sample can be determined from the reference region. And a weight of the plurality of reference samples may be determined based on the upper position and the left position.
  • the predicted value of the current sample is determined based on the weighted sum of the reference samples included in the reference area calculated according to the weight determined in step 2540.
  • the intra prediction method 2500 may include functions and operations performed in the intra prediction apparatus 1700.
  • the intraprediction method 2500 may be performed by the encoding unit 110 of the video encoding apparatus 100 and the decoding unit 170 of the video encoding apparatus 150.
  • the intra prediction method 2500 may be performed by the intra prediction unit 1604 of the image encoding unit 1600 and the intra prediction unit 1662 of the image decoding unit 1650.

Abstract

현재 블록의 인트라 예측 모드를 결정하는 단계, 현재 샘플의 예측에 사용될 현재 블록에 인접한 참조 영역을 결정하는 단계, 현재 블록의 인트라 예측 모드 및 현재 샘플의 위치에 따라 참조 영역에 포함된 복수의 참조 샘플들의 가중치를 결정하는 단계, 및 결정된 가중치에 따라 계산된 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 현재 샘플의 예측 값을 결정하는 단계를 포함하는 인트라 예측 방법이 제공된다.

Description

부호화 방법 및 그 장치, 복호화 방법 및 그 장치
본 개시는 비디오의 부호화 방법 및 복호화 방법에 대한 것으로, 보다 구체적으로는 효율적으로 인트라 예측 방법에 관한 것이다.
높은 화질의 비디오는 부호화시 많은 양의 데이터가 요구된다. 그러나 비디오 데이터를 전달하기 위하여 허용되는 대역폭은 한정되어 있어, 비디오 데이터 전송시 적용되는 데이터 레이트가 제한될 수 있다. 그러므로 효율적인 비디오 데이터의 전송을 위하여, 화질의 열화를 최소화하면서 압축률을 증가시킨 비디오 데이터의 부호화 및 복호화 방법이 필요하다.
비디오 데이터는 픽셀들 간의 공간적 중복성 및 시간적 중복성을 제거함으로써 압축될 수 있다. 인접한 픽셀들 간에 공통된 특징을 가지는 것이 일반적이기 때문에, 인접한 픽셀들 간의 중복성을 제거하기 위하여 픽셀들로 이루어진 데이터 단위로 부호화 정보가 전송된다.
데이터 단위에 포함된 픽셀들의 픽셀 값은 직접 전송되지 않고, 픽셀 값을 획득하기 위해 필요한 방법이 전송된다. 픽셀 값을 원본 값과 유사하게 예측하는 예측 방법이 데이터 단위마다 결정되며, 예측 방법에 대한 부호화 정보가 부호화기에서 복호화기로 전송된다. 또한 예측 값이 원본 값과 완전히 동일하지 않으므로, 원본 값과 예측 값의 차이에 대한 레지듀얼 데이터가 부호화기에서 복호화기로 전송된다.
예측이 정확해질수록 예측 방법을 특정하는데 필요한 부호화 정보가 증가되지만, 레지듀얼 데이터의 크기가 감소하게 된다. 따라서 부호화 정보와 레지듀얼 데이터의 크기를 고려하여 예측 방법이 결정된다. 특히, 픽처에서 분할된 데이터 단위는 다양한 크기를 가지는데, 데이터 단위의 크기가 클수록 예측의 정확도가 감소할 가능성이 높은 대신, 부호화 정보가 감소하게 된다. 따라서 픽처의 특성에 맞게 블록의 크기가 결정된다.
또한 예측 방법에는 인트라 예측과 인터 예측이 있다. 인트라 예측은 블록의 주변 픽셀들로부터 블록의 픽셀들을 예측하는 방법이다. 인터 예측은 블록이 포함된 픽처가 참조하는 다른 픽처의 픽셀을 참조하여 픽셀들을 예측하는 방법이다. 따라서 인트라 예측에 의하여 공간적 중복성이 제거되고, 인터 예측에 의하여 시간적 중복성이 제거된다.
예측 방법의 수가 증가할수록 예측 방법을 나타내기 위한 부호화 정보의 양은 증가한다. 따라서 블록에 적용되는 부호화 정보 역시 다른 블록으로부터 예측하여 부호화 정보의 크기를 줄일 수 있다.
인간의 시각이 인지하지 못하는 한도에서 비디오 데이터의 손실이 허용되는 바, 레지듀얼 데이터를 변환 및 양자화 과정에 따라 손실 압축(lossy compression)하여 레지듀얼 데이터의 양을 감소시킬 수 있다.
참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 인트라 예측을 수행하는 비디오 부호화 방법 및 비디오 부호화 장치가 개시된다. 또한 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 인트라 예측을 수행하는 비디오 복호화 방법 및 비디오 복호화 장치가 개시된다. 더불어 본 개시의 일 실시 예에 따른 비디오 부호화 방법 및 비디오 복호화 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 개시된다.
본 개시에서 현재 블록의 인트라 예측 모드를 결정하는 단계, 현재 샘플의 예측에 사용될 상기 현재 블록에 인접한 참조 영역을 결정하는 단계, 상기 현재 블록의 인트라 예측 모드 및 상기 현재 샘플의 위치에 따라 상기 참조 영역에 포함된 복수의 참조 샘플들의 가중치(weight)를 결정하는 단계, 및 상기 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합(weighted sum)에 기초하여 상기 현재 샘플의 예측 값을 결정하는 단계를 포함하는 인트라 예측 방법이 제공된다.
본 개시에서 현재 블록의 인트라 예측 모드를 결정하고, 현재 샘플의 예측에 사용될 상기 현재 블록에 인접한 참조 영역을 결정하고, 상기 현재 블록의 인트라 예측 모드 및 상기 현재 샘플의 위치에 따라 상기 참조 영역에 포함된 복수의 참조 샘플들의 가중치를 결정하고, 상기 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 상기 현재 샘플의 예측 값을 결정하는 프로세서를 포함하는 인트라 예측 장치가 제공된다.
상기 비디오 부호화 방법 및 비디오 복호화 방법을 수행하는 프로그램이 기록된 컴퓨터로 기록가능한 기록매체가 제공된다.
본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
블록의 참조 영역에 포함된 참조 샘플들의 가중합에 따른 인트라 예측 방법에 따라 블록의 예측 정확도가 향상된다. 이미지에 포함된 블록들의 예측 정확도가 향상됨에 따라 이미지의 부호화율이 향상된다.
도 1a은 본 개시의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치의 블록도를 도시한다.
도 1b는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 복호화 장치의 블록도를 도시한다.
도 2는 일 실시예에 따라 현재 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 3은 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 4는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 5는 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 6은 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 7은 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 8은 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 9는 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 11은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 14는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 16a 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 부호화부의 블록도를 도시한다.
도 16b 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 복호화부의 블록도를 도시한다.
도 17은 참조 샘플들의 샘플 값의 가중합에 따라 현재 블록들의 샘플들을 예측하는 인트라 예측 장치의 블록도를 도시한다.
도 18은 참조 영역의 참조 샘플들의 가중합에 따라 현재 샘플을 예측하는 실시 예를 설명한다.
도 19는 인트라 예측 모드의 예측 방향에 따라 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
도 20에서 평활화 필터와 보간 필터를 결합하는 실시 예가 설명된다.
도 21은 현재 블록에 양방향 예측이 적용되는 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
도 22는 현재 블록에 복수의 인트라 예측 모드가 적용되는 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
도 23은 현재 블록에 예측 값 필터링이 적용되는 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
도 24는 참조 영역이 현재 블록으로부터 2 샘플 단위 떨어진 샘플들을 포함하도록 설정된 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
도 25는 참조 샘플들의 샘플 값의 가중합에 따라 현재 블록들의 샘플들을 예측하는 인트라 예측 방법의 순서도를 도시한다.
본 개시에서 현재 블록의 인트라 예측 모드를 결정하는 단계, 현재 샘플의 예측에 사용될 상기 현재 블록에 인접한 참조 영역을 결정하는 단계, 상기 현재 블록의 인트라 예측 모드 및 상기 현재 샘플의 위치에 따라 상기 참조 영역에 포함된 복수의 참조 샘플들의 가중치(weight)를 결정하는 단계, 및 상기 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합(weighted sum)에 기초하여 상기 현재 샘플의 예측 값을 결정하는 단계를 포함하는 인트라 예측 방법이 제공된다.
상기 현재 블록의 인트라 예측 모드를 결정하는 단계는, 상기 복수의 참조 샘플들에 대한 평활화(smoothing)가 수행되는지 여부를 결정하는 단계를 더 포함하고, 상기 가중치를 결정하는 단계는, 상기 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수(smoothing filter coefficient)에 따라 상기 참조 샘플들의 가중치를 결정하는 단계를 포함할 수 있다.
상기 현재 블록의 인트라 예측 모드를 결정하는 단계는, 상기 복수의 참조 샘플들에 대한 평활화가 수행될 때, 상기 복수의 참조 샘플에 대한 평활화 강도(smoothing intensity)를 결정하는 단계를 포함하고, 상기 가중치를 결정하는 단계는, 상기 평활화 강도에 따른 평활화 필터 계수에 따라 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함할 수 있다.
상기 가중치를 결정하는 단계는, 상기 현재 샘플로부터 상기 인트라 예측 모드의 예측 방향이 가리키는 상기 참조 영역의 참조 위치에 기초하여 상기 복수의 참조 샘플들의 가중치를 결정하는 것을 특징으로 할 수 있다.
상기 가중치를 결정하는 단계는, 상기 참조 위치가 분수 값(fractional value)을 가지는 경우, 상기 분수 값에 따라 보간 필터 계수(interpolation filter coefficient)를 결정하는 단계, 및 상기 보간 필터 계수에 따라 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함할 수 있다.
상기 현재 블록의 인트라 예측 모드를 결정하는 단계는, 상기 복수의 참조 샘플들에 대한 평활화가 수행되는지 여부를 결정하는 단계를 더 포함하고, 상기 가중치를 결정하는 단계는, 상기 복수의 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수와 상기 보간 필터 계수에 결합 필터 계수(combined filter coefficient)를 결정하는 단계, 및 상기 결합 필터 계수에 따라, 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함할 수 있다.
상기 현재 블록의 인트라 예측 모드를 결정하는 단계는, 상기 현재 블록에 양방향 예측이 적용되는지 여부를 결정하는 단계를 포함하고, 상기 가중치를 결정하는 단계는, 상기 현재 블록에 양방향 예측이 적용될 때, 상기 인트라 예측 모드의 예측 방향이 가리키는 상기 참조 영역의 제1 참조 위치와 상기 예측 방향의 반대 방향이 가리키는 상기 참조 영역의 제2 참조 위치에 기초하여 상기 참조 샘플들의 가중치를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
상기 현재 블록의 인트라 예측 모드를 결정하는 단계는, 상기 현재 블록에 복수의 인트라 예측 모드가 적용되는지 여부를 결정하는 단계, 상기 현재 블록에 복수의 인트라 예측 모드가 적용되는 경우, 상기 현재 블록의 복수의 인트라 예측 모드를 결정하는 것을 특징으로 하고, 상기 가중치를 결정하는 단계는, 상기 현재 샘플로부터 상기 복수의 인트라 예측 모드의 복수의 예측 방향이 가리키는 상기 참조 영역의 복수의 참조 위치들에 기초하여 상기 복수의 참조 샘플들의 가중치를 결정하는 것을 특징으로 할 수 있다.
상기 현재 블록의 인트라 예측 모드를 결정하는 단계는, 상기 현재 블록에 예측 값 필터링이 적용되는지 여부를 결정하는 단계를 더 포함하고, 상기 가중치를 결정하는 단계는, 상기 현재 블록에 예측 값 필터링이 적용될 경우, 상기 참조 영역으로부터 상기 현재 샘플의 상측에 위치하는 상측 위치 및 상기 현재 샘플의 좌측에 위치하는 좌측 위치를 결정하는 단계, 및 상기 상측 위치 및 상기 좌측 위치에 기초하여 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함할 수 있다.
상기 참조 영역을 결정하는 단계는, 상기 현재 블록 상측의 2 이상의 샘플 라인(sample line)과 상기 현재 블록 좌측의 2이상의 샘플 컬럼(sample column)을 포함하는 참조 영역을 결정하는 단계를 포함할 수 있다.
상기 가중치를 결정하는 단계는, 상기 복수의 참조 샘플들의 가중치들의 합이 1이 되도록 가중치를 결정하는 것을 특징으로 할 수 있다.
본 개시에서, 현재 블록의 인트라 예측 모드를 결정하고, 현재 샘플의 예측에 사용될 상기 현재 블록에 인접한 참조 영역을 결정하고, 상기 현재 블록의 인트라 예측 모드 및 상기 현재 샘플의 위치에 따라 상기 참조 영역에 포함된 복수의 참조 샘플들의 가중치를 결정하고, 상기 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 상기 현재 샘플의 예측 값을 결정하는 프로세서를 포함하는 인트라 예측 장치가 제공된다.
본 개시에 따른 인트라 예측 방법에 따라 비디오를 부호화하는 비디오 부호화 방법 및 부호화된 비디오를 복호화하는 비디오 복호화 방법이 제공된다. 또한 본 개시에 따른 인트라 예측 방법을 수행하는 프로그램이 저장된 컴퓨터로 기록 가능한 기록 매체가 제공된다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
"현재 블록"은 현재 부호화 또는 복호화되는 부호화 단위, 예측 단위 및 변환 단위 중 하나를 의미한다. 만약, 설명의 편의를 위하여, 예측 단위, 변환 단위 등 기타 종류의 블록을 구분할 필요가 있을 때는 "현재 부호화 블록", "현재 예측 블록", "현재 변환 블록"이 사용될 수 있다. 또한 "하위 블록"은 "현재 블록"으로부터 분할된 데이터 단위를 의미한다. 그리고 "상위 블록"은 "현재 블록"을 포함하는 데이터 단위를 의미한다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1a는 본 개시의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 부호화 장치(100)의 블록도를 도시한다.
영상 부호화 장치(100)는 부호화부(110), 비트스트림 생성부(120)를 포함한다.
부호화부(110)는 최대 부호화 단위의 크기에 따라 픽처 또는 픽처에 포함된 슬라이스를 복수의 최대 부호화 단위로 분할한다. 최대 부호화 단위는 크기 32x32, 64x64, 128x128, 256x256 등의 데이터 단위로, 가로 및 세로 크기가 2의 자승인 정사각형의 데이터 단위일 수 있다. 부호화부(110)는 최대 부호화 단위의 크기를 나타내는 최대 부호화 단위 크기 정보를 비트스트림 생성부(120)에 제공할 수 있다. 그리고 비트스트림 생성부(120)는 최대 부호화 단위 크기 정보를 비트스트림에 포함시킬 수 있다.
부호화부(110)는 최대 부호화 단위를 분할하여 부호화 단위를 결정한다. 부호화 단위의 분할 여부는 율-왜곡 최적화(Rate-Distortion Optimization)에 의하여 부호화 단위의 분할이 효율적인지 여부에 따라 결정된다. 그리고 부호화 단위가 분할되었는지 여부를 나타내는 분할 정보가 생성될 수 있다. 분할 정보는 플래그의 형태로 표현될 수 있다.
부호화 단위는 다양한 방법으로 분할될 수 있다. 예를 들어, 정사각형의 부호화 단위는 너비와 높이가 절반인 4개의 정사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 높이가 절반인 2개의 직사각형의 부호화 단위로 분할될 수 있다. 정사각형의 부호화 단위는 너비 또는 높이를 1:2:1로 분할함으로써 세 개의 부호화 단위로 분할될 수 있다.
너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 2개의 너비가 높이의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 너비가 높이의 2배인 직사각형의 부호화 단위는 너비를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
마찬가지로, 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 정사각형의 부호화 단위로 분할될 수 있다. 또한 높이가 너비의 2배인 직사각형의 부호화 단위는 2개의 높이가 너비의 4배인 직사각형의 부호화 단위로 분할될 수 있다. 마찬가지로 높이가 너비의 2배인 직사각형의 부호화 단위는 높이를 1:2:1로 분할함으로써 2개의 직사각형의 부호화 단위와 한 개의 정사각형의 부호화 단위로 분할될 수 있다.
영상 부호화 장치(100)에서 2개 이상의 분할 방법이 사용가능한 경우, 영상 부호화 장치(100)에서 사용가능한 분할 방법 중 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 픽처마다 결정될 수 있다. 따라서 픽처마다 특정한 분할 방법들만이 사용되도록 결정될 수 있다. 만약 영상 부호화 장치(100)가 하나의 분할 방법만을 사용할 경우, 부호화 단위에 사용될 수 있는 분할 방법에 대한 정보가 별도로 결정되지 않는다.
특정 크기의 부호화 단위에 대하여는 특정한 분할 방법으로 분할될 수 있다. 예를 들어, 부호화 단위 크기가 256x265일 경우, 부호화 단위는 너비와 높이가 절반인 4개의 정사각형의 부호화 단위로만 분할되도록 설정될 수 있다.
부호화 단위의 분할 정보가 부호화 단위가 분할됨을 나타낼 때, 부호화 단위의 분할 방법을 나타내는 분할 형태 정보가 생성될 수 있다. 만약 부호화 단위가 속한 픽처에서 사용될 수 있는 분할 방법이 하나인 경우, 분할 형태 정보는 생성되지 않을 수 있다. 만약 분할 방법이 부호화 단위 주변의 부호화 정보에 적응적으로 결정될 경우, 분할 형태 정보는 생성되지 않을 수 있다.
전술한 바와 같이 부호화 단위의 최대 크기에 따라, 현재 픽처의 영상 데이터는 최대 부호화 단위로 분할된다. 그리고 최대 부호화 단위는 최대 부호화 단위로부터 계층적으로 분할된 부호화 단위들을 포함할 수 있다. 상위 부호화 단위의 분할 형태에 따라 하위 부호화 단위의 형태와 위치가 결정될 수 있다. 그리고 부호화 단위의 분할을 제한하는 부호화 단위의 최소 크기가 미리 설정되어 있을 수 있다.
부호화부(110)는 부호화 단위를 계층적으로 분할하였을 때의 부호화 효율과 부호화 단위를 분할하지 않았을 때의 부호화 효율을 비교한다. 그리고 부호화부(110)는 비교 결과에 따라 부호화 단위를 분할할지 여부를 결정한다. 만약 부호화 단위의 분할이 더 효율적이라고 결정된 경우, 부호화부(110)는 부호화 단위를 계층적으로 분할한다. 만약 비교 결과에 따라 부호화 단위를 분할하지 않는 것이 효율적이라고 결정된 경우, 부호화 단위를 분할하지 않는다. 부호화 단위의 분할 여부는 인접한 다른 부호화 단위의 분할 여부에 독립적으로 결정될 수 있다.
최종적으로 분할된 부호화 단위는 인트라 예측 또는 인터 예측에 의하여 예측될 수 있다. 인트라 예측은 예측 단위 주변의 참조 샘플들을 이용하여 예측 단위의 샘플들을 예측하는 방법이다. 인터 예측은 현재 픽처가 참조하는 참조 픽처로부터 참조 샘플을 획득하여 예측 단위의 샘플들을 예측하는 방법이다.
부호화부(110)는 인트라 예측을 위하여 복수의 인트라 예측 방법을 예측 단위에 적용하여, 가장 효율적인 인트라 예측 방법을 선택할 수 있다. 인트라 예측 방법에는 DC 모드, 플래너(Planar) 모드, 수직 모드 및 수평 모드와 같은 방향성(directional) 모드 등이 포함된다.
인트라 예측은 부호화 단위 주변의 복원 샘플을 참조 샘플로 사용하는 경우 예측 단위마다 수행될 수 있다. 그러나 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 부호화 단위 내부의 참조 샘플의 복원이 예측보다 우선되어야 하므로, 변환 단위의 변환 순서에 예측 단위의 예측 순서가 종속될 수 있다. 따라서 부호화 단위 내부의 복원 샘플이 참조 샘플로 사용될 경우, 예측 단위에 대하여 예측 단위에 대응되는 변환 단위들에 대한 인트라 예측 방법만이 결정되고, 실질적인 인트라 예측은 변환 단위마다 수행될 수 있다.
부호화부(110)는 최적의 움직임 벡터 및 참조 픽처를 결정함으로써 가장 효율적인 인터 예측 방법을 선택할 수 있다. 부호화 단위 결정부(120)는 인터 예측을 위하여 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 움직임 벡터 후보를 결정하고, 그 중 가장 효율적인 움직임 벡터를 움직임 벡터로 결정할 수 있다. 마찬가지로 현재 부호화 단위로부터 공간적, 시간적으로 이웃한 부호화 단위로부터 복수의 참조 픽처 후보를 결정하고, 그 중 가장 효율적인 참조 픽처를 결정할 수 있다. 실시 예에 따라 참조 픽처는 현재 픽처에 대하여 미리 결정된 참조 픽처 리스트들 중에서 결정될 수 있다. 실시 예에 따라 예측의 정확성을 위하여 복수의 움직임 벡터 후보 중 가장 효율적인 움직임 벡터를 예측 움직임 벡터로 결정하고, 예측 움직임 벡터를 보정하여 움직임 벡터를 결정할 수 있다. 인터 예측은 부호화 단위 내부의 예측 단위별마다 병렬적으로 수행될 수 있다.
부호화부(110)는 스킵 모드에 따라 움직임 벡터 및 참조 픽처를 나타내는 정보만을 획득하여 부호화 단위를 복원할 수 있다. 스킵 모드에 의하면 움직임 벡터 및 참조 픽처를 나타내는 정보를 제외하고 잔차 신호를 포함한 모든 부호화 정보가 생략된다. 잔차 신호가 생략되므로 예측의 정확성이 매우 높은 경우에 스킵 모드가 사용될 수 있다.
예측 단위에 대한 예측 방법에 따라 사용되는 파티션 모드가 제한될 수 있다. 예를 들어 인트라 예측에는 2Nx2N, NxN 크기의 예측 단위에 대한 파티션 모드만이 적용되는 반면, 인터 예측에는 2Nx2N, 2NxN, Nx2N, NxN크기의 예측 단위에 대한 파티션 모드가 적용될 수 있다. 또한, 인터 예측의 스킵 모드에는 2Nx2N 크기의 예측 단위에 대한 파티션 모드만이 적용될 수 있다. 영상 부호화 장치(100)에서 각 예측 방법에 대하여 허용되는 파티션 모드는 부호화 효율에 따라 변경될 수 있다.
영상 부호화 장치(100)는 부호화 단위를 기준으로 변환을 수행할 수 있다. 영상 부호화 장치(100)는 부호화 단위에 포함된 픽셀들에 대한 원본 값과 예측 값의 차이 값인 레지듀얼 데이터를 소정의 과정을 거쳐 변환시킬 수 있다. 예를 들어, 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 및 DCT/DST 변환을 통해 손실 압축을 할 수 있다. 또는 영상 부호화 장치(100)는 레지듀얼 데이터를 양자화 없이 무손실 압축을 할 수 있다.
결론적으로, 부호화부(110)는 복수의 인트라 예측 방법 및 인터 예측 방법 중 현재 부호화 단위에 가장 효율적인 예측 방법을 결정한다. 그리고 부호화부(110)는 예측 결과에 따른 부호화 효율에 따라 현재 부호화 단위의 예측 방법을 판단한다. 마찬가지로 부호화부(110)는 변환 결과에 따른 부호화 효율에 따라 변환 방법을 결정할 수 있다. 가장 효율적인 부호화 단위의 예측 방법 및 변환 방법 결정 방식에 따라 최종적으로 부호화 단위의 부호화 효율이 결정된다. 부호화부(110)는 최종적으로 분할된 부호화 단위의 부호화 효율에 따라 최대 부호화 단위의 계층 구조를 확정한다.
부호화부(110)는 부호화 단위의 부호화 효율성, 예측 방법들의 예측 효율성 등을 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용하여 측정할 수 있다.
부호화부(110)는 결정된 최대 부호화 단위의 계층 구조에 따라 부호화 단위의 분할 여부를 나타내는 분할 정보를 생성할 수 있다. 그리고 부호화부(110)는 분할이 완료된 부호화 단위에 대하여 예측 단위의 결정을 위한 파티션 모드 정보 및 변환 단위의 결정을 위한 변환 단위 분할 정보를 생성할 수 있다. 또한 부호화부(110)는 부호화 단위의 분할 방법이 2개 이상인 경우, 분할 방법을 나타내는 분할 형태 정보를 분할 정보와 함께 생성할 수 있다. 그리고 부호화부(110)는 예측 단위 및 변환 단위에 사용된 예측 방법 및 변환 방법에 관한 정보를 생성할 수 있다.
비트스트림 생성부(120)는 최대 부호화 단위의 계층 구조에 따라 부호화부(110)가 생성한 정보들을 비트스트림의 형태로 출력할 수 있다.
일 실시예에 따른 최대 부호화 단위의 트리 구조에 따른 부호화 단위, 예측 단위 및 변환 단위의 결정 방식에 대해서는, 도 3 내지 12를 참조하여 상세히 후술한다.
도 1b는 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 영상 복호화 장치(150)의 블록도를 도시한다.
영상 복호화 장치(150)는 수신부(160) 및 복호화부(170)를 포함한다.
일 실시예에 따른 영상 복호화 장치(150)의 복호화 동작을 위한 부호화 단위, 예측 단위, 변환 단위, 각종 분할 정보 등 각종 용어의 정의는, 도 1 및 영상 부호화 장치(100)를 참조하여 전술한 바와 동일하다. 또한 영상 복호화 장치(150)의 목적이 영상 데이터의 복원인 바, 영상 부호화 장치(100)에서 사용된 다양한 부호화 방법들이 영상 복호화 장치(150)에 적용될 수 있다.
수신부(160)는 부호화된 비디오에 대한 비트스트림을 수신하여 파싱한다. 복호화부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 복호화에 필요한 정보들을 추출하여 복호화부(170)에 제공한다. 복호화부(170)는 현재 픽처에 대한 헤더, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트로부터 현재 픽처의 부호화 단위의 최대 크기에 관한 정보를 추출할 수 있다.
또한, 복호화부(170)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 트리 구조에 따른 부호화 단위들에 대한 분할정보를 추출한다. 추출된 분할정보는 복호화부(170)로 출력된다. 복호화부(170)는 최대 부호화 단위를 추출된 분할정보에 따라 분할하여 최대 부호화 단위의 트리 구조를 결정할 수 있다.
복호화부(170)가 추출한 분할정보는, 영상 부호화 장치(100)에 의하여, 최소 부호화 오차를 발생시키는 것으로 결정된 트리 구조에 대한 분할정보다. 따라서, 영상 복호화 장치(150)는 최소 부호화 오차를 발생시키는 부호화 방식에 따라 데이터를 복호화하여 영상을 복원할 수 있다.
복호화부(170)는 부호화 단위에 포함된 예측 단위 및 변환 단위와 같은 데이터 단위에 대한 분할 정보를 추출할 수 있다. 예를 들어, 복호화부(170)는 예측 단위에 대한 가장 효율적인 파티션 모드에 관한 정보를 추출할 수 있다. 그리고 복호화부(170)는 변환 단위에 있어서 가장 효율적인 트리 구조에 대한 변환 분할 정보를 추출할 수 있다.
또한 복호화부(170)는 부호화 단위로부터 분할된 예측 단위들에 대하여 가장 효율적인 예측 방법에 대한 정보를 획득할 수 있다. 그리고 복호화부(170)는 부호화 단위로부터 분할된 변환 단위들에 대하여 가장 효율적인 변환 방법에 대한 정보를 획득할 수 있다.
복호화부(170)는 영상 부호화 장치(100)의 비트스트림 생성부(120)에서 비트스트림을 구성하는 방식에 따라 비트스트림으로부터 정보를 추출한다.
복호화부(170)는 분할정보에 기초하여 최대 부호화 단위를 가장 효율적인 트리구조를 가진 부호화 단위들로 분할할 수 있다. 그리고 복호화부(170)는 파티션 모드에 관한 정보에 따라 부호화 단위를 예측 단위로 분할할 수 있다. 복호화부(170)는 변환 분할 정보에 따라 부호화 단위를 변환 단위로 분할할 수 있다.
복호화부(170)는 예측 단위를 예측 방법에 대한 정보에 따라 예측할 수 있다. 그리고 복호화부(170)는 변환 단위를 변환 방법에 대한 정보에 따라 픽셀의 원본 값과 예측 값의 차이에 해당하는 레지듀얼 데이터를 역양자화 및 역변환할 수 있다. 또한 복호화부(170)는 예측 단위의 예측 결과와 변환 단위의 변환 결과에 따라 부호화 단위의 픽셀들을 복원할 수 있다.
도 2는 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(150)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(150)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 2를 참조하면, 현재 부호화 단위(200)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(180)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(200)와 동일한 크기를 가지는 부호화 단위(210a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(210b, 210c, 210d 등)를 결정할 수 있다.
도 2를 참조하면 영상 복호화 장치(150)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수직방향으로 분할한 두개의 부호화 단위(210b)를 결정할 수 있다. 영상 복호화 장치(150)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수평방향으로 분할한 두개의 부호화 단위(210c)를 결정할 수 있다. 영상 복호화 장치(150)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(200)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(210d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 3은 일 실시예에 따라 영상 복호화 장치(150)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(150)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300 또는 350)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(150)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(300 또는 350)와 동일한 크기를 가지는 부호화 단위(310 또는 360)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(320a, 320b, 330a, 330b, 330c, 370a, 370b, 380a, 380b, 380c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 3을 참조하면 분할 형태 정보가 두개의 부호화 단위로 현재 부호화 단위(300 또는 350)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 분할 형태 정보에 기초하여 현재 부호화 단위(300 또는 350)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(320a, 320b, 또는 370a, 370b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(300 또는 350)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(300 또는 350)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)의 형태를 고려하여 현재 부호화 단위(300 또는 350)의 긴 변을 분할하는 방향으로 현재 부호화 단위(300 또는 350)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(300 또는 350)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)를 3개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c) 중 소정의 부호화 단위(330b 또는 380b)의 크기는 다른 부호화 단위(330a, 330c, 380a, 380c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(300 또는 350)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있다.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(150)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 3을 참조하면 영상 복호화 장치(150)는 현재 부호화 단위(300 또는 350)가 분할되어 생성된 3개의 부호화 단위(330a, 330b, 330c, 380a, 380b, 380c)들 중 중앙에 위치하는 부호화 단위(330b, 380b)에 대한 복호화 과정을 다른 부호화 단위(330a, 330c, 380a, 380c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(150)는 중앙에 위치하는 부호화 단위(330b, 380b)에 대하여는 다른 부호화 단위(330a, 330c, 380a, 380c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 4는 일 실시예에 따라 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(400)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(400)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(400)를 수평 방향으로 분할하여 제2 부호화 단위(410)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 결정된 제2 부호화 단위(410)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 4를 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(410)를 적어도 하나의 제3 부호화 단위(420a, 420b, 420c, 420d 등)로 분할하거나 제2 부호화 단위(410)를 분할하지 않을 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(150)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 410)를 분할할 수 있으며, 제2 부호화 단위(410)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(400)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(400)가 제1 부호화 단위(400)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(410)로 분할된 경우, 제2 부호화 단위(410) 역시 제2 부호화 단위(410)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 420a, 420b, 420c, 420d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(420a, 420b, 420c, 420d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(410)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(150)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(410)를 홀수개의 제3 부호화 단위(420b, 420c, 420d)로 분할할 수 있다. 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(420b, 420c, 420d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(150)는 홀수개의 제3 부호화 단위(420b, 420c, 420d) 중 가운데에 위치하는 부호화 단위(420c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 4를 참조하면, 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(410)에 포함되는 홀수개의 제3 부호화 단위(420b, 420c, 420d)들 중 가운데에 위치하는 부호화 단위(420c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(410)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(420c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(420c)가 다른 부호화 단위(420b, 420d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(150) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
도 5은 일 실시예에 따라 영상 복호화 장치(150)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 5을 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(500)를 분할하여 홀수개의 부호화 단위들(520a, 520b, 520c)을 결정할 수 있다. 영상 복호화 장치(150)는 홀수개의 부호화 단위들(520a, 520b, 520c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(520b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(150)는 부호화 단위들(520a, 520b, 520c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(520a, 520b, 520c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(150)는 부호화 단위들(520a, 520b, 520c)의 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보에 기초하여 부호화 단위(520a, 520b, 520c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보는 부호화 단위(520a, 520b, 520c)의 픽처 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 정보는 현재 부호화 단위(500)에 포함되는 부호화단위(520a, 520b, 520c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(520a, 520b, 520c)의 픽처 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)의 픽처 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)에 각각 포함되는 좌측 상단의 샘플(530a, 530b, 530c)의 좌표를 이용하여 가운데 부호화 단위(520b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(530a, 530b, 530c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(530b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(520b)를 현재 부호화 단위(500)가 분할되어 결정된 부호화 단위(520a, 520b, 520c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(530a, 530b, 530c)의 위치를 나타내는 좌표는 픽처 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 기준으로, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위(500)를 복수개의 부호화 단위(520a, 520b, 520c)로 분할할 수 있고, 부호화 단위(520a, 520b, 520c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c) 중 크기가 다른 부호화 단위(520b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 상단 부호화 단위(520a)의 좌측 상단의 샘플(530a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(520b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(520c)의 좌측 상단의 샘플(530c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(520a, 520b, 520c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(150)는 부호화 단위(520a, 520b, 520c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(520a, 520b, 520c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 상단 부호화 단위(520a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 가운데 부호화 단위(520b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(520a) 및 가운데 부호화 단위(520b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(150)는 결정된 부호화 단위(520a, 520b, 520c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 상단 부호화 단위(520a) 및 하단 부호화 단위(520c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(520b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(150)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(150)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 5에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(150)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다.
도 5을 참조하면 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(500)를 복수개의 부호화 단위들(520a, 520b, 520c)로 분할할 수 있으며, 복수개의 부호화 단위들(520a, 520b, 520c) 중 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(520b)를 결정할 수 있다. 즉, 현재 부호화 단위(500)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(500)의 가운데에 위치하는 샘플(540)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(500)가 복수개의 부호화 단위들(520a, 520b, 520c)로 분할된 경우 상기 샘플(540)을 포함하는 부호화 단위(520b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 5를 참조하면, 영상 복호화 장치(150)는 현재 부호화 단위(500)가 분할되어 결정된 복수개의 부호화 단위들(520a, 520b, 520c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(500) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(500)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(150)는 현재 부호화 단위(500)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위(500)가 분할되어 결정되는 복수개의 부호화 단위(520a, 520b, 520c)들 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(520b)를 결정하여 소정의 제한을 둘 수 있다. 도 5을 참조하면 일 실시예에 따라 영상 복호화 장치(150)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(500)의 가운데에 위치하는 샘플(540)을 결정할 수 있고, 영상 복호화 장치(150)는 이러한 샘플(540)이 포함되는 부호화 단위(520b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(520b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(500)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또 다른 예를 들면, 영상 복호화 장치(150)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(150)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 4를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치(150)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(600)를 수직 방향으로 분할하여 제2 부호화 단위(610a, 610b)를 결정하거나 제1 부호화 단위(600)를 수평 방향으로 분할하여 제2 부호화 단위(630a, 630b)를 결정하거나 제1 부호화 단위(600)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(650a, 650b, 650c, 650d)를 결정할 수 있다.
도 6을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(610a, 610b)를 수평 방향(610c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(630a, 630b)의 처리 순서를 수직 방향(630c)으로 결정할 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(650a, 650b, 650c, 650d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(650e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 6을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(600)를 분할하여 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)을 분할하는 방법은 제1 부호화 단위(600)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(610a, 610b, 630a, 630b, 650a, 650b, 650c, 650d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 6을 참조하면 영상 복호화 장치(150)는 제1 부호화 단위(600)를 수직 방향으로 분할하여 제2 부호화 단위(610a, 610b)를 결정할 수 있고, 나아가 제2 부호화 단위(610a, 610b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(610a)를 수평 방향으로 분할하여 제3 부호화 단위(620a, 620b)로 분할할 수 있고, 우측의 제2 부호화 단위(610b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(150)는 좌측의 제2 부호화 단위(610a)가 분할되어 결정된 제3 부호화 단위(620a, 620b)가 처리되는 순서를 우측의 제2 부호화 단위(610b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(610a)가 수평 방향으로 분할되어 제3 부호화 단위(620a, 620b)가 결정되었으므로 제3 부호화 단위(620a, 620b)는 수직 방향(620c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(610a) 및 우측의 제2 부호화 단위(610b)가 처리되는 순서는 수평 방향(610c)에 해당하므로, 좌측의 제2 부호화 단위(610a)에 포함되는 제3 부호화 단위(620a, 620b)가 수직 방향(620c)으로 처리된 후에 우측 부호화 단위(610b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 7는 일 실시예에 따라 영상 복호화 장치(150)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 7를 참조하면 정사각형 형태의 제1 부호화 단위(700)가 비-정사각형 형태의 제2 부호화 단위(710a, 710b)로 분할될 수 있고, 제2 부호화 단위(710a, 710b)는 각각 독립적으로 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제2 부호화 단위 중 좌측 부호화 단위(710a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(720a, 720b)를 결정할 수 있고, 우측 부호화 단위(710b)는 홀수개의 제3 부호화 단위(720c, 720d, 720e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제3 부호화 단위들(720a, 720b, 720c, 720d, 720e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 7을 참조하면, 영상 복호화 장치(150)는 제1 부호화 단위(700)를 재귀적으로 분할하여 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)를 결정할 수 있다. 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(700), 제2 부호화 단위(710a, 710b) 또는 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(710a, 710b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(720c, 720d, 720e)로 분할될 수 있다. 제1 부호화 단위(700)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(730))가 될 수 있고, 영상 복호화 장치(150)는 우측 제2 부호화 단위(710b)가 홀수개로 분할되어 결정된 제3 부호화 단위(720c, 720d, 720e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(700)에 포함되는 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(720a, 720b, 720c, 720d, 720e)의 경계에 따라 제2 부호화 단위(710a, 710b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(710a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(720a, 720b)는 조건을 만족하지만, 우측 제2 부호화 단위(710b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(720c, 720d, 720e)들의 경계가 우측 제2 부호화 단위(710b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(720c, 720d, 720e)는 조건을 만족하지 못하는 것으로 결정될 수 있고, 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(710b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 8은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(800)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. 일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(800)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(800)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 8을 참조하면, 블록 형태 정보가 제1 부호화 단위(800)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(800)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(800)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(800)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(810a, 810b, 810c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(820a, 820b, 820c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(800)에 포함되는 제2 부호화 단위(810a, 810b, 810c, 820a, 820b, 820c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(810a, 810b, 810c, 820a, 820b, 820c)의 경계에 따라 제1 부호화 단위(800)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 8을 참조하면 정사각형 형태의 제1 부호화 단위(800)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(810a, 810b, 810c)들의 경계가 제1 부호화 단위(800)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(800)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(800)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(820a, 820b, 820c)들의 경계가 제1 부호화 단위(800)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(800)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(150)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(800)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(150)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 8을 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(800), 비-정사각형 형태의 제1 부호화 단위(830 또는 850)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 9은 일 실시예에 따라 영상 복호화 장치(150)가 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 수신부(160)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(900)를 비-정사각형 형태의 제2 부호화 단위(910a, 910b, 920a, 920b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(910a, 910b, 920a, 920b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(150)는 제2 부호화 단위(910a, 910b, 920a, 920b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(910a)를 수평 방향으로 분할하여 제3 부호화 단위(912a, 912b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 좌측 제2 부호화 단위(910a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(910b)는 좌측 제2 부호화 단위(910a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(910b)가 동일한 방향으로 분할되어 제3 부호화 단위(914a, 914b)가 결정된 경우, 좌측 제2 부호화 단위(910a) 및 우측 제2 부호화 단위(910b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(912a, 912b, 914a, 914b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(150)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(900)를 4개의 정사각형 형태의 제2 부호화 단위(930a, 930b, 930c, 930d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 제1 부호화 단위(330)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(920a 또는 920b)를 수직 방향으로 분할하여 제3 부호화 단위(922a, 922b, 924a, 924b)를 결정할 수 있다. 다만 영상 복호화 장치(150)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(920a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(920b))는 상단 제2 부호화 단위(920a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 10은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(150)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 분할하여 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1010a, 1010b, 1020a, 1020b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1012a, 1012b)를 결정할 수 있고, 우측 제2 부호화 단위(1010b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1014a, 1014b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1016a, 1016b, 1016c, 1016d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1000)가 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(150)는 상단 제2 부호화 단위(1020a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1022a, 1022b)를 결정할 수 있고, 하단 제2 부호화 단위(1020b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1024a, 1024b)를 결정할 수 있다. 나아가 영상 복호화 장치(150)는 상단 제2 부호화 단위(1020a) 및 하단 제2 부호화 단위(1020b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1000)가 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 11는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1100)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1100)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(예를 들면, 1110a, 1110b, 1120a, 1120b, 1130a, 1130b, 1130c, 1130d 등)를 결정할 수 있다. 도 11을 참조하면 제1 부호화 단위1100)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(150)는 제1 부호화 단위(1100)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1110a, 1110b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수 있고, 제1 부호화 단위(1100)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1120a, 1120b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 결정할 수 있다. 이러한 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)의 분할 과정은 도 9와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 6과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 11을 참조하면 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1100)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 제1 부호화 단위(1100)가 분할되는 형태에 따라 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1110a, 1110b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수 있고, 영상 복호화 장치(150)는 좌측 제2 부호화 단위(1110a)에 포함되는 제3 부호화 단위(1116a, 1116b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1110b)에 포함되는 제3 부호화 단위(1116c, 1116d)를 수직 방향으로 처리하는 순서(1117)에 따라 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1120a, 1120b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 결정할 수 있고, 영상 복호화 장치(150)는 상단 제2 부호화 단위(1120a)에 포함되는 제3 부호화 단위(1126a, 1126b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1120b)에 포함되는 제3 부호화 단위(1126c, 1126d)를 수평 방향으로 처리하는 순서(1127)에 따라 제3 부호화 단위(1126a, 1126b, 1126c, 1126d)를 처리할 수 있다.
도 11을 참조하면, 제2 부호화 단위(1110a, 1110b, 1120a, 1120b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1110a, 1110b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1120a, 1120b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1116a, 1116b, 1116c, 1116d, 1126a, 1126b, 1126c, 1126d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1100)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(150)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 12는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(150)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 12를 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(150)는 정사각형 형태인 제1 부호화 단위(1200)를 분할하여 하위 심도의 제2 부호화 단위(1202), 제3 부호화 단위(1204) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1200)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1200)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(1202)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1202)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1204)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1204)의 너비 및 높이는 제1 부호화 단위(1200)의 1/22배에 해당한다. 제1 부호화 단위(1200)의 심도가 D인 경우 제1 부호화 단위(1200)의 너비 및 높이의 1/21배인 제2 부호화 단위(1202)의 심도는 D+1일 수 있고, 제1 부호화 단위(1200)의 너비 및 높이의 1/22배인 제3 부호화 단위(1204)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(150)는 비-정사각형 형태인 제1 부호화 단위(1210 또는 1220)를 분할하여 하위 심도의 제2 부호화 단위(1212 또는 1222), 제3 부호화 단위(1214 또는 1224) 등을 결정할 수 있다.
영상 복호화 장치(150)는 Nx2N 크기의 제1 부호화 단위(1210)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1202, 1212, 1222 등)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1210)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1202) 또는 NxN/2 크기의 제2 부호화 단위(1222)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1212)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 2NxN 크기의 제1 부호화 단위(1220) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1202, 1212, 1222 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1220)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1202) 또는 N/2xN 크기의 제2 부호화 단위(1212)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1222)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN 크기의 제2 부호화 단위(1202) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1202)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정하거나 N/2xN/2 크기의 제3 부호화 단위(1224)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 N/2xN 크기의 제2 부호화 단위(1212)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1212)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204) 또는 N/2xN/2 크기의 제3 부호화 단위(1224)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 NxN/2 크기의 제2 부호화 단위(1214)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1204, 1214, 1224 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(150)는 제2 부호화 단위(1212)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1204) 또는 N/2xN/2 크기의 제3 부호화 단위(1214)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/2크기의 제3 부호화 단위(1224)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 부호화 단위(예를 들면, 1200, 1202, 1204)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1200)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1210)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1220)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1200, 1202 또는 1204)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1200, 1202 또는 1204)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1214 또는 1224)의 너비 및 높이는 제1 부호화 단위(1210 또는 1220)의 1/2배에 해당할 수 있다. 제1 부호화 단위(1210 또는 1220)의 심도가 D인 경우 제1 부호화 단위(1210 또는 1220)의 너비 및 높이의 1/2배인 제2 부호화 단위(1212 또는 1214)의 심도는 D+1일 수 있고, 제1 부호화 단위(1210 또는 1220)의 너비 및 높이의 1/2배인 제3 부호화 단위(1214 또는 1224)의 심도는 D+2일 수 있다.
도 13은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 정사각형 형태의 제1 부호화 단위(1300)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 13을 참조하면, 영상 복호화 장치(150)는 분할 형태 정보에 따라 제1 부호화 단위(1300)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)를 결정할 수 있다. 즉, 영상 복호화 장치(150)는 제1 부호화 단위(1300)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1300)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1302a, 1302b, 1304a, 1304b, 1306a, 1306b, 1306c, 1306d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1300)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1300)와 비-정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 제1 부호화 단위(1300)를 4개의 정사각형 형태의 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)의 한 변의 길이는 제1 부호화 단위(1300)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1306a, 1306b, 1306c, 1306d)의 심도는 제1 부호화 단위(1300)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1310)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1312a, 1312b, 1314a, 1314b, 1314c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1320)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1322a, 1322b, 1324a, 1324b, 1324c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1310 또는 1320)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1312a, 1312b, 1314a, 1314b, 1316a, 1316b, 1316c, 1316d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1312a, 1312b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1310)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1302a, 1302b, 1304a, 1304b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1310)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(150)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1310)를 홀수개의 제2 부호화 단위(1314a, 1314b, 1314c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1314a, 1314b, 1314c)는 비-정사각형 형태의 제2 부호화 단위(1314a, 1314c) 및 정사각형 형태의 제2 부호화 단위(1314b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1314a, 1314c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1314b)의 한 변의 길이는 제1 부호화 단위(1310)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1314a, 1314b, 1314c)의 심도는 제1 부호화 단위(1310)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(150)는 제1 부호화 단위(1310)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1320)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 13을 참조하면, 홀수개로 분할된 부호화 단위들(1314a, 1314b, 1314c) 중 가운데에 위치하는 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1314a, 1314c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1314b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1314c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 13을 참조하면 영상 복호화 장치(150)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1310)를 분할하여 짝수개의 부호화 단위(1312a, 1312b)를 결정하거나 홀수개의 부호화 단위(1314a, 1314b, 1314c)를 결정할 수 있다. 영상 복호화 장치(150)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1310)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(150)는 제1 부호화 단위(1310)를 3개의 부호화 단위(1314a, 1314b, 1314c)로 분할할 수 있다. 영상 복호화 장치(150)는 3개의 부호화 단위(1314a, 1314b, 1314c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(150)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(150)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1314b)를, 제1 부호화 단위(1310)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 13을 참조하면, 제1 부호화 단위(1310)가 분할되어 생성된 부호화 단위(1314b)는 다른 부호화 단위들(1314a, 1314c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1314a, 1314c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1314b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1314c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(150)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(150)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(150)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(150)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 14는 일 실시예에 따라 픽처에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽처를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽처를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(150)는 현재 픽처를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 현재 픽처에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(150)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 14를 참조하면, 영상 복호화 장치(150)는 정사각형 형태의 기준 부호화 단위(1400)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1402)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽처(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1400)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 10의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1400)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 11의 현재 부호화 단위(1100 또는 1150)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(150)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(160)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽처, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(150)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(150)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(150)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 15는 일 실시예에 따라 픽처(1500)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(150)는 픽처를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(150)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)의 수신부(160)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽처, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(160)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(150)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽처를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 픽처(1500)에 포함되는 프로세싱 블록(1502, 1512)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(150)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(150)는 일 실시예에 따라 프로세싱 블록(1502, 1512)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(150)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(150)는 프로세싱 블록의 크기에 기초하여 픽처(1500)에 포함되는 각각의 프로세싱 블록(1502, 1512)을 결정할 수 있고, 프로세싱 블록(1502, 1512)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(150)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(160)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽처, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(150)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(160)는 비트스트림으로부터 프로세싱 블록(1502, 1512)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(150)는 상기 프로세싱 블록(1502, 1512)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽처(1500)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(150)는 각각의 프로세싱 블록(1502, 1512)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1504, 1514)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1502, 1512)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1502)과 관련된 기준 부호화 단위 결정 순서(1504)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1502)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1512)과 관련된 기준 부호화 단위 결정 순서(1514)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1512)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
도 16a 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 부호화부(1600)의 블록도를 도시한다.
일 실시예에 따른 영상 부호화부(1600)는, 비디오 부호화 장치(100)의 부호화부(110)에서 영상 데이터를 부호화하는데 거치는 작업들을 포함한다. 즉, 인트라 예측부(1604)는 현재 프레임(1602) 중 인트라 모드의 부호화 단위에 대해 인트라 예측을 수행하고, 인터 예측부(1606)는 인터 모드의 현재 프레임(1602) 및 참조 프레임(1626)을 이용하여 인터 추정 및 움직임 보상을 수행한다.
인트라 예측부(1604), 인터 예측부(1606)로부터 출력된 데이터는 변환부(1610) 및 양자화부(1612)를 거쳐 양자화된 변환 계수로 출력된다. 양자화된 변환 계수는 역양자화부(1618), 역변환부(1620)을 통해 공간 영역의 데이터로 복원되고, 복원된 공간 영역의 데이터는 디블로킹부(1622) 및 오프셋 보상부(1624)를 거쳐 후처리되어 참조 프레임(1626)으로 출력된다. 양자화된 변환 계수는 엔트로피 부호화부(1614)를 거쳐 비트스트림(1616)으로 출력될 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)에 적용되기 위해서는, 영상 부호화부(1600)의 구성 요소들인 인트라 예측부(1604), 인터 예측부(1606), 변환부(1610), 양자화부(1612), 엔트로피 부호화부(1614), 역양자화부(1618), 역변환부(1620), 디블로킹부(1622) 및 오프셋 보상부(1624)가 모두, 최대 부호화 단위마다 최대 심도를 고려하여 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위에 기반한 작업을 수행하여야 한다.
특히, 인트라 예측부(1604), 인터 예측부(1606)는 현재 최대 부호화 단위의 최대 크기 및 최대 심도를 고려하여 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위의 파티션 및 예측 모드를 결정하며, 변환부(1610)는 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위 내의 변환 단위의 크기를 결정하여야 한다.
도 16b 는 다양한 실시예에 따른 부호화 단위에 기초한 영상 복호화부(1650)의 블록도를 도시한다.
비트스트림(1652)이 파싱부(1654)를 거쳐 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화에 관한 정보가 파싱된다. 부호화된 영상 데이터는 엔트로피 복호화부(1656) 및 역양자화부(1658)를 거쳐 역양자화된 데이터로 출력되고, 역변환부(1660)를 거쳐 공간 영역의 영상 데이터가 복원된다.
공간 영역의 영상 데이터에 대해서, 인트라 예측부(1662)는 인트라 모드의 부호화 단위에 대해 인트라 예측을 수행하고, 인터 예측부(1664)는 참조 프레임(1670)를 함께 이용하여 인터 모드의 부호화 단위에 대해 움직임 보상을 수행한다.
인트라 예측부(1662) 및 인터 예측부(1664)를 거친 공간 영역의 데이터는 디블로킹부(1666) 및 오프셋 보상부(1668)를 거쳐 후처리되어 복원 프레임(1672)으로 출력될 수 있다. 또한, 디블로킹부(1666) 및 루프 필터링부(1668)를 거쳐 후처리된 데이터는 참조 프레임(1670)으로서 출력될 수 있다.
비디오 복호화 장치(1650)의 복호화부(170)에서 영상 데이터를 복호화하기 위해, 일 실시예에 따른 영상 복호화부(1650)의 파싱부(1654) 이후의 단계별 작업들이 수행될 수 있다.
일 실시예에 따른 비디오 복호화 장치(150)에 적용되기 위해서는, 영상 복호화부(1650)의 구성 요소들인 파싱부(1654), 엔트로피 복호화부(1656), 역양자화부(1658), 역변환부(1660), 인트라 예측부(1662), 인터 예측부(1664), 디블로킹부(1666) 및 오프셋 보상부(1668)가 모두, 최대 부호화 단위마다 트리 구조에 따른 부호화 단위들에 기반하여 작업을 수행하여야 한다.
특히, 인트라 예측부(1662), 인터 예측부(1664)는 트리 구조에 따른 부호화 단위들 각각마다 파티션 및 예측 모드를 결정하며, 역변환부(1660)는 부호화 단위마다 변환 단위의 크기를 결정하여야 한다.
도1 내지 도 16b에서는 영상을 최대 부호화 단위로 분할하고, 최대 부호화 단위를 계층적 트리 구조의 부호화 단위들로 분할하는 방법이 설명되었다. 도 17 내지 도 26에서는 현재 블록의 샘플들의 예측 값을 복수의 참조 샘플의 가중합(weighted sum)에 따라 결정하는 인트라 예측 모드가 설명된다.
도 17은 참조 샘플들의 샘플 값의 가중합에 따라 현재 블록들의 샘플들을 예측하는 인트라 예측 장치(1700)의 블록도를 도시한다.
인트라 예측 장치(1700)는 인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)를 포함한다. 도 16에서 인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)는 별도의 구성 단위로 표현되어 있으나, 실시 예에 따라 인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)는 합쳐져 하나의 구성 단위로 구현될 수도 있다.
도 17에서 인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)는 하나의 장치에 위치한 구성 단위로 표현되었지만, 인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없다. 따라서 실시 예에 따라 인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)가 분산되어 있을 수 있다.
인트라 예측 모드 결정부(1710), 참조 영역 결정부(1720) 및 인트라 예측부(1730)는 실시 예에 따라 하나의 프로세서에 의하여 구현될 수 있다. 또한 실시 예에 따라 복수 개의 프로세서에 의하여 구현될 수도 있다.
인트라 예측 모드 결정부(1710)는 현재 블록의 인트라 예측 모드를 결정한다. 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 현재 블록의 인트라 예측 모드를 나타내는 인트라 예측 모드 정보를 획득할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 인트라 예측 모드 정보에 따라 현재 블록의 인트라 예측 모드를 결정할 수 있다.
인트라 예측 모드 결정부(1710)는 복수의 참조 샘플들에 대한 평활화(smoothing)가 수행되는지 여부를 결정할 수 있다. 현재 블록이 참조하는 참조 영역은 양자화를 거쳐 복원된 참조 샘플이 포함되어 있다. 따라서 참조 영역의 참조 샘플에는 양자화 에러가 포함되어 있다. 그러므로 참조 샘플을 평활화하므로써 참조 샘플의 양자화 에러가 제거될 수 있다.
인트라 예측 모드 결정부(1710)는 참조 샘플의 샘플 값에 따라 복수의 참조 샘플에 대한 평활화가 수행되는지 여부를 결정할 수 있다. 인접한 참조 샘플들 간의 샘플 값 차이가 작을 경우, 인트라 예측 모드 결정부(1710)는 참조 샘플에 대한 평활화가 수행되지 않도록 결정할 수 있다. 반대로, 인접한 참조 샘플들 간의 샘플 값 차이가 클 경우, 인트라 예측 모드 결정부(1710)는 참조 샘플에 대한 평활화가 수행되도록 결정할 수 있다
인트라 예측 모드 결정부(1710)는 복수의 참조 샘플들에 대한 평활화가 수행될 때, 상기 복수의 참조 샘플에 대한 평활화 강도(smoothing intensity)를 결정할 수 있다. 참조 샘플들 간의 샘플 값 차이가 임계치 이상일 경우, 인트라 예측 모드 결정부(1710)는 높은 평활화 강도에 따라 참조 샘플을 평활화할 수 있다. 인트라 예측 모드 결정부(1710)는 참조 샘플들 간의 샘플 값 차이에 따라, 2개 이상의 평활화 강도 중 하나의 평활화 강도를 선택할 수 있다.
인트라 예측 모드 결정부(1710)는 현재 블록에 양방향 예측이 적용되는지 여부를 결정할 수 있다. 인트라 예측 모드에서 양방향 예측이란 인트라 예측 모드의 예측 방향뿐만 아니라, 예측 방향의 반대 방향을 이용하는 예측 방법을 의미한다. 따라서 참조 영역에 예측 방향의 참조 샘플과 예측 방향의 반대 방향의 참조 샘플이 획득될 수 있는 경우, 예측 방향의 참조 샘플과 예측 방향의 반대 방향의 참조 샘플을 이용하여 현재 샘플을 예측할 수 있다. 양방향 예측에서 현재 샘플과 예측 방향의 참조 샘플의 거리 및 현재 샘플과 예측 방향의 반대 방향의 참조 샘플의 거리의 비율에 따라 예측 방향의 참조 샘플과 예측 방향의 반대 방향의 참조 샘플의 가중치가 결정될 수 있다.
경우에 따라, 현재 블록은 두 개 이상의 인트라 예측 모드가 같이 적용되는 경우, 한 개의 인트라 예측 모드가 적용되는 경우보다 정확하게 예측될 수 있다. 따라서 인트라 예측 모드 결정부(1710)는 현재 블록에 복수의 인트라 예측 모드가 적용되는지 여부를 결정할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 현재 블록에 복수의 인트라 예측 모드가 적용되는 경우, 현재 블록에 적용되는 복수의 인트라 예측 모드를 결정할 수 있다.
그리고 인트라 예측 모드 결정부(1710)는 인트라 예측 모드 정보로부터 현재 블록의 복수의 인트라 예측 모드를 결정할 수 있다. 인트라 예측 모드 정보는 2개 이상의 방향성 인트라 예측 모드를 나타낼 수 있다. 또한 인트라 예측 모드 정보는 비방향성 인트라 예측 모드와 함께 1개 이상의 방향성 인트라 예측 모드를 나타낼 수 있다. 상기 비방향성 인트라 예측 모드는 DC 모드, 플래너(Planar) 모드, 이중선형(bilinear) 모드를 포함할 수 있다.
인트라 예측 모드 결정부(1710)는 현재 블록에 예측 값 필터링이 적용되는지 여부를 결정할 수 있다. 예측 값 필터링은 현재 블록에 포함된 인트라 예측된 샘플들을 참조 영역의 참조 샘플들에 따라 필터링하므로써 참조 샘플과 인트라 예측된 샘플들의 연속성을 향상시키는 부호화 툴을 의미한다. 예측 값 필터링이 수행됨으로써 인트라 예측된 샘플들의 예측 정확도가 향상될 수 있다.
인트라 예측 모드 결정부(1710)는 현재 블록의 상위 단위에 대한 신택스 정보에 따라, 현재 블록에 허용된 인트라 예측 툴을 결정할 수 있다. 인트라 예측 모드 결정부(1710)는 현재 블록에 허용된 인트라 예측 툴 중에서 현재 블록에 적용되는 인트라 예측 툴을 결정할 수 있다. 상기 인트라 예측 툴은 앞서 설명된 참조 샘플 평활화, 양방향 예측, 복수 인트라 예측 모드, 예측 값 필터링을 포함할 수 있다.
참조 영역 결정부(1720)는 현재 샘플의 예측에 사용될 현재 블록에 인접한 참조 영역을 결정한다. 참조 영역은 현재 블록의 예측을 위하여 참조되는 영역을 의미한다. 참조 영역은 현재 블록의 상측에 인접한 인접 샘플과 현재 블록의 좌측에 인접한 인접 샘플을 포함할 수 있다. 또는 참조 영역은 부호화 순서에 따라 현재 블록의 우측에 인접한 인접 샘플을 포함할 수도 있다.
참조 영역은 현재 블록 이전에 재구성된 샘플들을 포함할 수 있다. 만약 참조 영역의 일부에 재구성된 샘플이 없을 경우, 참조 영역의 재구성된 참조 샘플을 패딩함으로써 참조 샘플을 생성할 수 있다.
참조 영역 결정부(1720)는 현재 블록 상측의 2 이상의 샘플 라인(sample line)과 현재 블록 좌측의 2이상의 샘플 컬럼(sample column)을 포함하는 참조 영역을 결정할 수 있다.
인트라 예측부(1730)는 현재 블록의 인트라 예측 모드 및 현재 샘플의 위치에 따라 참조 영역에 포함된 복수의 참조 샘플들의 가중치(weight)를 결정한다. 예를 들어, 만약 인트라 예측 모드가 방향성 인트라 예측 모드일 경우 인트라 예측부(1730)는 현재 샘플로부터 인트라 예측 모드의 예측 방향이 가리키는 참조 영역의 참조 위치에 기초하여 복수의 참조 샘플들의 가중치를 결정할 수 있다. 만약 인트라 예측 모드가 DC 모드일 경우, 인트라 예측부(1730)는 모든 참조 샘플들의 가중치를 동일하게 결정할 수 있다. 만약 인트라 예측 모드가 플래너 모드 또는 이중 선형 모드일 경우, 인트라 예측부(1730)는 현재 샘플의 위치에 따라 참조 샘플의 가중치를 결정할 수 있다.
인트라 예측부(1730)는 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수(smoothing filter coefficient)에 따라 참조 샘플들의 가중치를 결정할 수 있다. 그리고 인트라 예측부(1730)는 평활화 강도에 따른 평활화 필터 계수에 따라 복수의 참조 샘플들의 가중치를 결정할 수 있다.
인트라 예측부(1730)는 인트라 예측 모드가 방향성 인트라 예측 모드일 경우, 인트라 예측 모드의 예측 방향이 가리키는 참조 샘플 및 참조 샘플의 주변 샘플에 평활화 필터 계수에 따라 가중치를 부여할 수 있다. 만약 평활화 필터가 3탭 필터일 경우, 인트라 예측부(1730)는 인트라 예측 모드의 예측 방향이 가리키는 참조 샘플과 상기 참조 샘플의 두 인접 샘플들에 대하여 0보다 큰 가중치가 부여하고, 나머지 참조 샘플들의 가중치는 0으로 결정할 수 있다. 마찬가지로, 평활화 필터가 N탭 필터일 경우, 인트라 예측부(1730)는 인트라 예측 모드의 예측 방향이 가리키는 참조 샘플과 상기 참조 샘플의 N-1개의 인접 샘플들에 대하여 0보다 큰 가중치가 부여하고, 나머지 참조 샘플들의 가중치는 0으로 결정할 수 있다.
인트라 예측부(1730)는 평활화된 참조 샘플에 따른 현재 샘플의 제1 예측 값과 원본 참조 샘플에 따른 현재 샘플의 제2 예측 값을 결정할 수 있다. 그리고 인트라 예측부(1730)는 제1 예측 값과 제2 예측 값의 가중합에 따라 현재 샘플의 최종 예측 값을 결정할 수 있다.
또는, 인트라 예측부(1730)는 평활화 필터 계수에 따른 참조 샘플의 가중치를 변경하여, 평활화된 참조 샘플에 따른 제1 예측 값과 원본 참조 샘플에 따른 제2 예측 값으로부터 현재 샘플의 최종 예측 값을 결정하는 효과를 획득할 수 있다. 예를 들어, 인트라 예측부(1730)는 인트라 예측 모드의 예측 방향이 나타내는 참조 샘플에 큰 가중치를 부여하여 상기의 효과를 획득할 수 있다.
인트라 예측부(1730)는 참조 위치가 분수 값(fractional value)을 가지는 경우, 상기 분수 값에 따라 보간 필터 계수(interpolation filter coefficient)를 결정할 수 있다. 그리고 인트라 예측부(1730)는 보간 필터 계수에 따라 상기 복수의 참조 샘플들의 가중치를 결정할 수 있다. 상기 참조 위치는 현재 샘플로부터 인트라 예측 모드의 예측 방향이 가리키는 참조 샘플의 위치를 나타낸다.
인트라 예측부(1730)는 참조 위치를 1/4 샘플 단위 또는 1/8 샘플 단위로 결정할 수 있다. 인트라 예측부(1730)는 실시 예에 따라 참조 위치를 1/8 샘플 단위보다 더 작은 샘플 단위로 결정할 수 있다.
보간 필터에 포함되는 보간 필터 계수의 개수는 3개 이상으로 결정될 수 있다. 예를 들어, 보간 필터 계수의 개수는 참조 위치의 분수 값에 따라 7개 또는 8개일 수 있다. 인터 예측의 서브 샘플 보간(Sub-sample Interpolation)에 사용되는 보간 필터가 참조 샘플의 가중치 결정에 사용될 수 있다. 또한 참조 샘플의 가중치 결정에만 사용되는 참조 샘플 전용 보간 필터가 참조 샘플의 가중치 결정에 사용될 수 있다.
인트라 예측부(1730)는 상기 참조 위치가 분수 값을 가지고, 복수의 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수와 보간 필터 계수가 결합된 결합 필터 계수(combined filter coefficient)를 결정할 수 있다. 그리고 인트라 예측부(1730)는 결합 필터 계수에 따라 상기 복수의 참조 샘플들의 가중치를 결정할 수 있다.
인트라 예측부(1730)는 현재 블록에 양방향 예측이 적용될 때, 인트라 예측 모드의 예측 방향이 가리키는 참조 영역의 제1 참조 위치와 예측 방향의 반대 방향이 가리키는 참조 영역의 제2 참조 위치에 기초하여 참조 샘플들의 가중치를 결정할 수 있다. 인트라 예측부(1730)는 평활화 필터 계수 및 보간 필터 계수 중 적어도 하나에 따라 제1 참조 위치 주변의 참조 샘플들의 가중치를 결정할 수 있다. 마찬가지로, 인트라 예측부(1730)는 평활화 필터 계수 및 보간 필터 계수에 따라 제2 참조 위치 주변의 참조 샘플들의 가중치를 결정할 수 있다.
인트라 예측부(1730)는 현재 샘플로부터 복수의 인트라 예측 모드의 복수의 예측 방향이 가리키는 참조 영역의 복수의 참조 위치들에 기초하여 복수의 참조 샘플들의 가중치를 결정할 수 있다. 인트라 예측부(1730)는 평활화 필터 계수 및 보간 필터 계수 중 적어도 하나에 따라 복수의 참조 위치 주변의 참조 샘플들의 가중치를 결정할 수 있다.
인트라 예측부(1730)는 현재 블록에 예측 값 필터링이 적용될 경우, 참조 영역으로부터 현재 샘플의 상측에 위치하는 상측 위치 및 현재 샘플의 좌측에 위치하는 좌측 위치를 결정할 수 있다. 그리고 인트라 예측부(1730)는 상측 위치 및 좌측 위치에 기초하여 복수의 참조 샘플들의 가중치를 결정할 수 있다.
인트라 예측부(1730)는 평활화 필터 계수 및 보간 필터 계수 중 적어도 하나에 따라 인트라 예측 모드의 예측 방향이 나타내는 참조 위치의 참조 샘플들의 가중치를 결정할 수 있다. 그리고 인트라 예측부(1730)는 상측 위치의 참조 샘플과 좌측 위치의 참조 샘플에 가중치를 결정할 수 있다. 인트라 예측부(1730)는 인트라 예측 모드의 예측 방향이 나타내는 참조 위치의 참조 샘플들의 가중치의 합과 상측 위치 및 좌측 위치의 참조 샘플들의 가중치의 합이 일정한 비율이 되도록 결정할 수 있다.
인트라 예측부(1730)는 복수의 참조 샘플들의 가중치들의 합이 1이 되도록 가중치를 결정한다. 따라서 복수의 참조 샘플들의 가중합은 복수의 참조 샘플들의 가중평균과 실질적으로 동일할 수 있다.
인트라 예측부(1730)는 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 현재 샘플의 예측 값을 결정한다.
인트라 예측부(1730)는 현재 샘플뿐만 아니라, 현재 블록에 포함된 모든 샘플들에 대하여 복수의 참조 샘플들의 가중합에 따라 예측 값을 결정할 수 있다. 복수의 참조 샘플들의 가중합은 샘플의 위치에 따라 달라진다. 따라서 인트라 예측부(1730)은 현재 블록에 포함된 모든 샘플들의 예측 값을 결정함으로써, 현재 블록을 예측할 수 있다.
인트라 예측 장치(1700)는 비디오 부호화 장치(100)의 부호화부(110)에 포함될 수 있다. 따라서 인트라 예측 장치(1700)의 기능은 부호화부(110)에서 수행될 수 있다. 또한 인트라 예측 장치(1700)는 영상 부호화부(1600)의 인트라 예측부(1604)에 포함될 수 있다. 따라서 인트라 예측 장치(1700)의 기능은 인트라 예측부(1604)에서 수행될 수 있다. 인트라 예측 장치(1700)는 복수의 인트라 예측 모드에 대한 인트라 예측 결과를 도출하고, 상기 인트라 예측 결과에 따라 현재 블록에 적용되는 최적의 인트라 예측 모드를 결정할 수 있다.
비디오 부호화단에 포함된 인트라 예측 장치(1700)의 인트라 예측 모드 결정부(1710)는 현재 블록의 최적의 인트라 예측 모드를 나타내는 인트라 예측 모드에 관한 정보를 생성하도록 결정될 수 있다. 인트라 예측 모드에 관한 정보는 참조 샘플 평활화 정보, 참조 샘플 평활화 강도 정보, 양방향 예측 정보, 복수 인트라 예측 모드 허용 정보, 인트라 예측 모드 개수 정보, 예측 값 필터링 적용 정보 등을 포함할 수 있다.
인트라 예측 장치(1700)는 비디오 복호화 장치(150)의 복호화부(170)에 포함될 수 있다. 따라서 인트라 예측 장치(1700)의 기능은 복호화부(170)에서 수행될 수 있다. 또한 인트라 예측 장치(1700)는 영상 복호화부(1650)의 인트라 예측부(1662)에 포함될 수 있다. 따라서 인트라 예측 장치(1700)의 기능은 인트라 예측부(1662)에서 수행될 수 있다. 인트라 예측 장치(1700)는 현재 블록의 인트라 예측 모드를 결정하고, 상기 인트라 예측 모드에 따라 현재 블록을 예측할 수 있다.
비디오 복호화단에 포함된 인트라 예측 장치(1700)의 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 인트라 예측 모드에 관한 정보를 획득하고, 상기 인트라 예측 모드에 관한 정보에 따라 현재 블록에 적용되는 다양한 인트라 예측 툴의 적용 여부를 결정하도록 설정될 수 있다.
예를 들어, 비디오 복호화단에서 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 복수의 참조 샘플들에 대한 평활화가 수행되는지 여부를 나타내는 참조 샘플 평활화 정보를 획득할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 참조 샘플 평활화 정보에 따라 복수의 참조 샘플들에 대한 평활화 수행 여부를 결정할 수 있다.
마찬가지로, 비디오 복호화단에서 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 참조 샘플의 평활화 강도에 대한 참조 샘플 평활화 강도 정보를 획득할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 참조 샘플 평활화 강도 정보로부터 참조 샘플의 평활화 강도를 결정할 수 있다.
비디오 복호화단에서 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 현재 블록에 양방향 예측이 적용되는지 여부를 나타내는 양방향 예측 정보를 획득할 수 있다. 인트라 예측 모드 결정부(1710)는 양방향 예측 정보에 따라 현재 블록에 양방향 예측이 적용되는지 여부를 결정할 수 있다.
비디오 복호화단에서 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 현재 블록에 복수의 인트라 예측 모드가 적용되는지 여부를 나타내는 복수 인트라 예측 모드 허용 정보를 획득할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 복수 인트라 예측 모드 허용 정보에 따라 현재 블록에 복수의 인트라 예측 모드가 적용되는지 여부를 결정할 수 있다.
또한 인트라 예측 모드 결정부(1710)는 현재 블록에 복수의 인트라 예측 모드가 적용될 경우, 비트스트림으로부터 복수의 인트라 예측 모드의 개수를 나타내는 인트라 예측 모드 개수 정보를 획득할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 인트라 예측 모드 개수 정보에 따라 현재 블록에 적용되는 인트라 예측 모드의 개수를 결정할 수 있다.
비디오 복호화단에서 인트라 예측 모드 결정부(1710)는 비트스트림으로부터 현재 블록에 예측 값 필터링이 적용되는지 여부를 나타내는 예측 값 필터링 적용 정보를 획득할 수 있다. 그리고 인트라 예측 모드 결정부(1710)는 예측 값 필터링 적용 정보에 따라 현재 블록에 예측 값 필터링이 적용되는지 여부를 결정할 수 있다.
도 18 내지 24는 참조 샘플들의 샘플 값의 가중합에 따라 현재 블록들의 샘플들을 예측하는 다양한 실시 예를 도시한다.
도 18은 참조 영역의 참조 샘플들의 가중합에 따라 현재 샘플을 예측하는 실시 예를 설명한다.
인트라 예측 장치(1700)는 현재 블록(1800)에 포함된 현재 샘플(1802)을 참조 영역(1810)의 참조 샘플들의 가중합에 따라 결정할 수 있다. 하기의 수학식1및 수학식2은 현재 샘플(1802)의 참조 샘플들의 가중합에 따른 예측 방법을 나타낸다.
[수학식1]
Figure PCTKR2018007780-appb-I000001
수학식1에서 p(x,y)는 (x,y)에 위치한 현재 샘플(1802)의 예측 값을 나타낸다. r(i,j)는 (i,j)에 위치한 참조 샘플의 샘플 값을 나타낸다. ω(x,y,i,j)는 (x,y)의 현재 샘플(1802)의 예측을 위한 (i,j)의 참조 샘플의 가중치를 나타낸다.
[수학식2]
Figure PCTKR2018007780-appb-I000002
수학식2는 수학식1의 변형이다. 수학식2에서는 상측 참조 영역(1812)에 따른 현재 샘플의 예측 값과 좌측 참조 영역(1814)에 따른 현재 샘플의 예측 값을 더하여 참조 영역(1810)에 따른 현재 샘플의 예측 값이 결정된다.
Figure PCTKR2018007780-appb-I000003
는 상측 참조 영역(1812)에 따른 현재 샘플의 예측 값을 나타내고,
Figure PCTKR2018007780-appb-I000004
는 좌측 참조 영역(1814)에 따른 현재 샘플의 예측 값을 나타낸다.
도 18 및 수학식2에서 Nu는 참조 영역(1810)의 수평 범위를, Nl는 참조 영역(1810)의 수직 범위를 나타낸다. Nu는 현재 블록(1800)의 너비의 2배로, Nl는 현재 블록(1800)의 높이의 2배로 결정될 수 있다. 실시 예에 따라 Nu와 Nl의 크기는 변경될 수 있다. 또한 참조 영역(1810)은 현재 블록의 주변 샘플들뿐만 아니라, 복원된 영역의 어떠한 샘플들도 포함할 수 있다.
수학식1 및 수학식2에서 현재 샘플(1802)의 예측 값인 p(x,y)는 참조 영역(1810)의 모든 참조 샘플에 대하여, 참조 샘플의 샘플 값과 참조 샘플의 가중치의 곱을 더함으로써 결정된다. 참조 영역의 참조 샘플들에 대하여 결정된 모든 ω(x,y,i,j)의 합은 1로 결정될 수 있다.
도 19는 인트라 예측 모드의 예측 방향에 따라 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
인트라 예측 장치(1700)는 인트라 예측 모드의 예측 방향(1920)에 따라 참조 영역(1910)에 포함된 참조 샘플들의 가중치를 결정할 수 있다. 하기의 수학식2는 예측 방향(1920)에 기초한 참조 샘플들의 가중합에 따른 예측 방법을 나타낸다.
도 19에 따르면, 예측 방향(1920)이 상측을 가리키는 바, 좌측 참조 영역(1814)의 가중치는 0으로 결정된다. 따라서 현재 샘플(1902)의 예측 값은 하기의 수학식3과 같이 상측 참조 영역(1912)의 참조 샘플의 가중합으로 결정될 수 있다.
[수학식3]
Figure PCTKR2018007780-appb-I000005
만약, 현재 샘플로부터 예측 방향(1920)이 가리키는 참조 위치(1925)가 참조 샘플(1924)의 위치와 일치한다면, 참조 샘플(1924)에 대한 가중치가 1로 결정되고, 상측 참조 영역(1912)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다.
그러나 도 19와 같이, 현재 샘플로부터 예측 방향(1920)이 가리키는 참조 위치(1925)가 참조 샘플(1924)과 참조 샘플(1926)의 중앙일 경우, 참조 위치(1925) 주변의 참조 샘플들(1922,1924,1926,1928)의 가중치가 결정될 수 있다.
도 19의 경우, 참조 위치(1925)의 분수 값은 0.5이다. 따라서 0.5에 대응되는 보간 필터 계수에 따라 참조 위치(1925) 주변의 참조 샘플들(1922,1924,1926,1928)의 가중치가 결정될 수 있다. 만약 보간 필터가 2탭 필터인 경우, 참조 샘플들(1924,1926)에 대하여만 0보다 큰 가중치가 결정되고 상측 참조 영역(1912)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다. 하기 수학식 4는 보간 필터가 2탭 필터인 경우, 현재 샘플(1902)을 예측하는 식을 나타낸다.
[수학식4]
Figure PCTKR2018007780-appb-I000006
수학식4에서 a0는 참조 샘플(1924)을, a1는 참조 샘플(1926)을 나타낸다. 그리고 c는 참조 샘플(1924)에 대한 가중치를, 1-c는 참조 샘플(1926)에 대한 가중치를 나타낸다. 상측 참조 영역(1912)의 나머지 참조 샘플들의 가중치는 0으로 결정되기 때문에, 수학식4에서 나머지 참조 샘플들의 가중치는 표시되지 않는다. 수학식 4에서 참조 위치(1925)의 분수 값은 0.5이므로 c의 값은 0.5로 결정될 수 있다. 따라서 참조 샘플들(1924,1926)에 대한 가중치는 모두 0.5일 수 있다.
상기 실시 예와 달리 보간 필터가 4탭 필터인 경우, 참조 샘플들(1922,1924,1926,1928)에 대하여 0보다 큰 가중치가 결정되고 상측 참조 영역(1912)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다.
도 19에서는 보간 필터 계수에 따라 참조 샘플의 가중치를 결정하는 실시 예가 소개되었다. 그러나 인트라 예측 장치(1700)는 평활화 필터 계수 또는 결합 필터 계수에 따라 참조 샘플의 가중치를 결정할 수도 있다. 따라서 참조 샘플들(1922,1924,1926,1928)을 비롯한 상측 참조 영역(1912)의 참조 샘플들의 가중치는 평활화 필터 계수 또는 결합 필터 계수에 따라 결정될 수 있다.
만약, 현재 샘플로부터 예측 방향(1920)이 가리키는 참조 위치(1925)가 참조 샘플(1924)의 위치와 일치하고, 상측 참조 영역(1910)의 참조 샘플들이 필터 계수가 [0.25, 0.5, 0.25]인 3탭 필터에 의하여 평활화되는 경우, 참조 샘플들(1922, 1924, 1926)의 필터 계수는 각각 0.25, 0.5, 0.25로 결정될 수 있다. 그리고 참조 샘플들(1922, 1924, 1926)을 제외한 상측 참조 영역(1912)의 나머지 참조 샘플들의 필터 계수는 0으로 결정될 수 있다.
만약, 도 19와 같이 현재 샘플로부터 예측 방향(1920)이 가리키는 참조 위치(1925)가 참조 샘플(1924)과 참조 샘플(1926)의 중앙이고, 상측 참조 영역(1910)의 참조 샘플들이 필터 계수가 [0.25, 0.5, 0.25]인 3탭 필터에 의하여 평활화되는 경우, 참조 샘플들(1922, 1924, 1926, 1928)의 가중치는 보간 필터 계수와 평활화 필터 계수가 결합된 결합 필터 계수에 따라 결정된다. 도 20에서 결합 필터 계수의 획득 방법이 소개된다.
도 20에서 3탭 평활화 필터(2000)와 2탭 보간 필터(2010)를 결합하는 실시 예가 설명된다. 3탭 평활화 필터(2000)의 필터 계수는 {f0, f1, f2}이고, 2탭 보간 필터(2010)는 {g0, g1}이다.
참조 샘플들이 3탭 평활화 필터(2000)에 따라 평활화될 경우, 평활화된 참조 샘플 a1'은 f0*a0+f1*a1+f2*a2으로, 평활화된 참조 샘플 a2'은 f0*a1+f1*a2+f2*a3으로 결정된다.
현재 샘플로부터 예측 방향이 가리키는 참조 위치가 참조 샘플 a1와 a2의 사이에 있을 경우, 참조 위치에 인접한 참조 샘플들에 보간 필터 {g0, g1}가 적용된다. 따라서, 현재 샘플의 예측 값 p는 g0*a1' + g1* a1'으로 결정된다. a1'과 a2'를 각각 f0*a0+f1*a1+f2*a2와 f0*a1+f1*a2+f2*a3으로 치환할 경우, 현재 샘플의 예측 값 p는 g0*f0*a0 + g0*f1*a1 + g0*f2*a2 + g1*f0*a1 + g1*f1*a2 + g1*f2*a3가 된다. 따라서 3탭 평활화 필터(2000)와 2탭 보간 필터(2010)가 결합된 결합 필터(2020)의 필터 계수 {h0, h1, h2, h3}는 h0 = g0*f0, h1 = g0*f1+g1*f0, h2 = g0*f2 + g1*f1, h3 = g1*f2와 같이 결정된다.
평활화 필터의 필터 계수의 개수가 m개, 보간 필터의 필터 계수의 개수가 n개 일 때, 평활화 필터와 보간 필터가 결합된 결합 필터의 필터 계수의 개수는 m+n-1개로 결정된다. 평활화 필터의 필터 계수의 개수와 보간 필터의 필터 계수의 개수가 도 20과 다른 경우에도, 도 20에서 제시된 방법과 마찬가지로 결합 필터가 결정될 수 있다.
도 21은 현재 블록(2100)에 양방향 예측이 적용되는 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
인트라 예측 장치(1700)는 현재 블록(2100)에 양방향 예측이 적용되는 경우, 인트라 예측 모드의 예측 방향(2120)과 예측 방향의 반대 방향(2130)에 따라 참조 영역(2110)에 포함된 참조 샘플들의 가중치를 결정할 수 있다.
도 21의 실시 예에서 3탭 평활화 필터 {f0, f1, f2}와 2탭 보간 필터 {c, 1-c}가 결합된 결합 필터와 예측 방향 가중 필터 {g0, g1}이 사용된다. 결합 필터의 필터 계수는 {c*f0, c*f1+(1-c)*f0, c*f2+(1-c)*f1, (1-c)*f2}이다. 결합 필터의 필터 계수의 c는 참조 위치에 따라 변경될 수 있다. 그리고 g0, g1의 합이 1이 되도록, g0, g1의 값이 결정된다. 상기 결합 필터에 따라 하기의 수학식5가 도출된다.
[수학식5]
Figure PCTKR2018007780-appb-I000007
수학식 5에 따르면
Figure PCTKR2018007780-appb-I000008
는 상측 참조 영역(2112)에 따른 현재 샘플(2102)의 예측 값을 나타내며, 예측 방향(2120)의 참조 샘플들의 가중합으로 결정될 수 있다. 따라서 상측 참조 영역(2112)에서 예측 방향(2120)의 4개의 참조 샘플들(2122, 2124, 2126, 2128)에 따라 예측 방향(2120)의 참조 샘플들의 가중합이 결정될 수 있다. 상기 참조 샘플들(2122, 2124, 2126, 2128)의 가중치는 결합 필터의 필터 계수에 따라 결정될 수 있다. 상측 참조 영역(2112)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다.
그리고
Figure PCTKR2018007780-appb-I000009
는 좌측 참조 영역(2114)에 따른 현재 샘플(2102)의 예측 값을 나타내며, 예측 방향의 반대 방향(2130)의 참조 샘플들의 가중합으로 결정될 수 있다. 좌측 참조 영역(2114)에서 예측 방향의 반대 방향(2130)의 4개의 참조 샘플들(2132, 2134, 2136, 2138)에 따라 예측 방향의 반대 방향(2130)의 참조 샘플들의 가중합이 결정될 수 있다. 상기 참조 샘플들(2132, 2134, 2136, 2138)의 가중치는 결합 필터의 필터 계수에 따라 결정될 수 있다. 좌측 참조 영역(2114)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다.
그리고 현재 샘플(2102)의 예측값은 예측 방향(2120)의 참조 샘플들의 가중합과 예측 방향의 반대 방향(2130)의 참조 샘플들의 가중합에 예측 방향 가중 필터를 적용함으로써 결정될 수 있다. 예측 방향(2120)의 참조 샘플들의 가중합에 대한 예측 방향 가중치는 g0로, 예측 방향의 반대 방향(2130)의 참조 샘플들의 가중합에 대한 예측 방향 가중치는 g1으로 결정된다. 예측 방향(2120)에 대한 예측 방향 가중치는 g0가 예측 방향의 반대 방향(2130)에 대한 예측 방향 가중치는 g1보다 더 크도록 설정될 수 있다. 그러나 실시 예에 따라, g0와 g1의 값은 서로 동일하게 또는 g1의 값이 더 크도록 변경될 수 있다.
도21의 결합 필터와 예측 방향 가중 필터가 적용된 참조 샘플들(2122, 2124, 2126, 2128, 2132, 2134, 2136, 2138)의 가중치는 각각 c*f0*g0, (c*f1+(1-c)*f0)*g0, (c*f2+(1-c)*f1) *g0, (1-c')*f2*g0, c'*f0*g1, (c'*f1+(1-c')*f0)*g1, (c'*f2+(1-c')*f1) *g1, (1-c')*f2*g1으로 결정된다.
도 21에는 3탭 평활화 필터와 2탭 보간 필터가 결합된 결합 필터에 따라 양방향 예측에 따른 참조 샘플의 가중치가 설명되었지만, 도 21과 다른 평활화 필터 또는 보간 필터가 사용될 수 있다.
도 22는 현재 블록(2200)에 복수의 인트라 예측 모드가 적용되는 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
인트라 예측 장치(1700)는 현재 블록(2200)에 복수의 인트라 예측 모드가 적용되는 경우, 제1 인트라 예측 모드의 예측 방향(2220)과 예측 방향의 제2 인트라 예측 모드의 예측 방향(2230)에 따라 참조 영역(2210)에 포함된 참조 샘플들의 가중치를 결정할 수 있다.
도 22의 실시 예에서 2탭 보간 필터 {c, 1-c}와 예측 모드 가중 필터(prediction mode weighting filter) {f0, f1}가 사용된다. 보간 필터의 필터 계수의 c는 참조 위치에 따라 변경될 수 있다. 그리고 예측 모드 가중치 f0와 f1의 합이 1이 되도록, 예측 모드 가중치 f0와 f1의 값이 결정될 수 있다. 상기 보간 필터 및 예측 모드 가중 필터에 따라 하기의 수학식6가 도출된다.
[수학식6]
Figure PCTKR2018007780-appb-I000010
수학식 6에 따르면
Figure PCTKR2018007780-appb-I000011
는 상측 참조 영역(2212)에 따른 현재 샘플(2202)의 예측 값을 나타내며, 제1 인트라 예측 모드의 예측 방향(2220)의 참조 샘플들의 가중합으로 결정될 수 있다. 상측 참조 영역(2212)에서 제1 인트라 예측 모드의 예측 방향(2220)의 2개의 참조 샘플들(2222, 2224)에 따라 제1 인트라 예측 모드의 예측 방향(2220)의 참조 샘플들의 가중합이 결정될 수 있다. 상기 참조 샘플들(2222, 2224)의 가중치는 보간 필터의 필터 계수에 따라 결정될 수 있다. 상측 참조 영역(2212)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다.
그리고
Figure PCTKR2018007780-appb-I000012
는 좌측 참조 영역(2214)에 따른 현재 샘플(2202)의 예측 값을 나타내며, 제2 인트라 예측 모드의 예측 방향(2230)의 참조 샘플들의 가중합으로 결정될 수 있다. 좌측 참조 영역(2214)에서 제2 인트라 예측 모드의 예측 방향(2230)의 2개의 참조 샘플들(2232, 2234)에 따라 제2 인트라 예측 모드의 예측 방향(2230)의 참조 샘플들의 가중합이 결정될 수 있다. 상기 참조 샘플들(2232, 2234)의 가중치는 보간 필터의 필터 계수에 따라 결정될 수 있다. 좌측 참조 영역(2214)의 나머지 참조 샘플들의 가중치는 0으로 결정될 수 있다.
현재 샘플(2202)의 예측 값은 제1 인트라 예측 모드의 예측 방향(2220)에 따른 예측 값과 제2 인트라 예측 모드의 예측 방향(2230)에 따른 예측 값의 가중합으로 결정될 수 있다. 수학식6에 따르면, 제1 인트라 예측 모드의 예측 방향(2220)에 따른 예측 값과 제2 인트라 예측 모드의 예측 방향(2230)에 따른 예측 값의 예측 모드 가중치는 각각 f0, f1으로 결정된다. 따라서 참조 샘플(2222)의 가중치는 c0*f0으로 참조 샘플(2224)의 가중치는 (1-c0)*f0으로 결정된다. 그리고 참조 샘플(2232)의 가중치는 c0'*f1으로 참조 샘플(2234)의 가중치는 (1-c0')*f1으로 결정된다.
도 22에서는 2개의 인트라 예측 모드만이 현재 블록에 적용되었지만, 실시 예에 따라 3개 이상의 인트라 예측 모드가 현재 블록에 적용될 수 있다. 또한 도 22에서는 방향성 인트라 예측 모드만이 사용되었지만, DC 모드, 플래너 모드, 이중 선형 모드와 같은 비방향성 인트라 예측 모드와 방향성 인트라 예측 모드가 같이 현재 블록에 적용될 수 있다.
도 22에는 2탭 보간 필터에 따라 복수의 인트라 예측 모드에 따른 참조 샘플의 가중치가 설명되었지만, 실시 예에 따라 도 22와 다른 보간 필터가 사용될 수 있다. 또한 실시 예에 따라 도 22와 다르게 평활화 필터 또는 결합 필터가 적용될 수 있다.
도 23은 현재 블록(2300)에 예측 값 필터링이 적용되는 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
인트라 예측 장치(1700)는 현재 블록(2300)에 예측 값 필터링이 적용되는 경우, 인트라 예측 모드의 예측 방향(2320)과 현재 샘플(2302)의 위치에 따라 참조 영역(2310)에 포함된 참조 샘플들의 가중치를 결정할 수 있다.
도 23의 실시 예에서 2탭 보간 필터 {c, 1-c}와 예측 값 필터 {f0, f1, f2}가 사용된다. 보간 필터의 필터 계수의 c는 참조 위치에 따라 변경될 수 있다. 예측 값 필터의 필터 계수의 총합이 1이 되도록 f0, f1, f2의 값이 결정될 수 있다. 상기 보간 필터 및 예측 값 필터에 따라 하기의 수학식7이 도출된다.
[수학식7]
Figure PCTKR2018007780-appb-I000013
수학식 7에 따르면, 인트라 예측 모드의 예측 방향(2320)의 참조 샘플(2322,2324), 상측 참조 샘플(2340) 및 좌측 참조 샘플(2342)에 0 이상의 가중치가 부여된다. 상측 참조 샘플(2340)은 현재 블록(2300)의 상측에 인접한 행과 현재 샘플(2302)의 열의 교차점에 위치한다. 그리고 좌측 참조 샘플(2342)는 현재 샘플(2302)의 행과 현재 블록(2300)의 좌측에 인접한 열의 교차점에 위치한다
상측 참조 샘플(2340) 및 좌측 참조 샘플(2342)의 가중치는 각각 f0, f1로 결정될 수 있다. 그리고 인트라 예측 모드의 예측 방향(2320)의 참조 샘플(2322,2324)의 가중치는 c*f2, (1-c)*f2로 결정될 수 있다. f0, f1의 값이 커질수록 예측 값 필터링의 강도가 높아진다.
도 23에서는 상측 참조 샘플(2340) 및 좌측 참조 샘플(2342)만이 현재 샘플(2302)의 예측 값 필터링에 사용되었으나, 실시 예에 따라 다른 참조 샘플이 상측 참조 샘플(2340) 및 좌측 참조 샘플(2342) 대신 사용되거나, 상측 참조 샘플(2340) 및 좌측 참조 샘플(2342)에 추가적으로 사용될 수 있다.
도 24는 참조 영역(2410)이 현재 블록(2400)으로부터 2 샘플 단위 떨어진 샘플들을 포함하도록 설정된 경우, 참조 샘플들의 가중치를 결정하는 실시 예를 설명한다.
인트라 예측 장치(1700)는 현재 샘플(2402)로부터 인트라 예측 모드의 예측 방향(2320)에 위치한 참조 영역(2410)의 모든 참조 샘플들(2422, 2424, 2426, 2428)에 따라 현재 샘플(2402)의 예측 값을 결정할 수 있다.
도 24의 실시 예에서 2탭 보간 필터 {c, 1-c} 및 거리 가중치 필터 {f0, f1}가 사용된다. 보간 필터의 필터 계수의 c는 참조 위치에 따라 변경될 수 있다. 그리고 거리 가중치 f0와 f1의 합이 1이 되도록, 상기 거리 가중치 f0와 f1의 값이 결정될 수 있다. 상기 보간 필터에 따라 하기의 수학식8이 도출된다.
[수학식8]
Figure PCTKR2018007780-appb-I000014
수학식 8에 따르면, 인트라 예측 모드의 예측 방향(2420)에 위치한 참조 샘플들(2422, 2424, 2426, 2428) 중 현재 블록(2400)으로부터 1 샘플 거리만큼 떨어진 참조 샘플들(2422, 2424)에 대하여 거리 가중치 f0가 적용된다. 그리고 상기 참조 샘플들(2422, 2424, 2426, 2428) 중 현재 블록(2400)으로부터 2 샘플 거리만큼 떨어진 참조 샘플들(2426, 2428)에 대하여 거리 가중치 f1가 적용된다. 현재 블록(2400)에 가까운 참조 샘플일수록 현재 샘플(2402)에 대한 예측 정확도가 높기 때문에, f0이 f1보다 더 크도록 설정될 수 있다.
보간 필터와 거리 가중 필터가 적용된 참조 샘플들(2422, 2424, 2426, 2428)의 가중치는 각각 f0*c0, f0*(1-c0), f1*c1, f1*(1-c1)으로 결정된다.
도 24에는 현재 블록(2400)으로부터 2 샘플 단위 떨어진 샘플들만이 참조 영역(2410)에 포함되었지만, 실시 예에 따라 3 샘플 단위보다 멀리 떨어진 샘플들도 참조 영역(2410)에 포함될 수 있다. 도 24에는 참조 영역(2410)이 현재 블록(2400)의 좌측 및 상측의 샘플만을 포함하지만, 실시 예에 따라 참조 영역(2410)은 좌측 샘플 대신 우측 샘플을 포함하거나, 좌측 샘플과 우측 샘플을 같이 포함할 수도 있다.
또한 도 24에는 1 샘플 거리만큼 떨어진 참조 샘플들(2422, 2424)과 2 샘플 거리만큼 떨어진 참조 샘플들(2426, 2428)에 대하여 2탭 필터가 적용되었다. 그러나 실시 예에 따라 1 샘플 거리만큼 떨어진 참조 샘플들에 대하여 M탭 필터가 적용되고, 2 샘플 거리만큼 떨어진 참조 샘플들에 대하여 N탭 필터가 적용될 수 있다. 상기 M과 N은 서로 다른 양의 정수이다.
도 25는 참조 샘플들의 샘플 값의 가중합에 따라 현재 블록들의 샘플들을 예측하는 인트라 예측 방법(2500)의 순서도를 도시한다.
단계 2510에서 현재 블록의 인트라 예측 모드가 결정된다.
복수의 참조 샘플들에 대한 평활화가 수행되는지 여부가 결정될 수 있다. 복수의 참조 샘플들에 대한 평활화가 수행될 때, 복수의 참조 샘플에 대한 평활화 강도가 결정될 수 있다.
현재 블록에 양방향 예측이 적용되는지 여부가 결정될 수 있다. 또한 현재 블록에 복수의 인트라 예측 모드가 적용되는지 여부가 결정될 수 있다. 그리고 현재 블록에 복수의 인트라 예측 모드가 적용되는 경우, 현재 블록의 복수의 인트라 예측 모드가 결정될 수 있다. 또한 현재 블록에 예측 값 필터링이 적용되는지 여부가 결정될 수 있다.
단계 2520에서 현재 샘플의 예측에 사용될 현재 블록에 인접한 참조 영역이 결정된다. 실시 예에 따라, 현재 블록 상측의 2 이상의 샘플 라인과 상기 현재 블록 좌측의 2이상의 샘플 컬럼을 포함하는 참조 영역이 결정될 수 있다.
단계 2530에서 현재 블록의 인트라 예측 모드 및 현재 샘플의 위치에 따라 참조 영역에 포함된 복수의 참조 샘플들의 가중치가 결정된다.
참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수에 따라 참조 샘플들의 가중치를 결정될 수 있다. 또한 평활화 강도에 따른 평활화 필터 계수에 따라 복수의 참조 샘플들의 가중치가 결정될 수 있다.
현재 샘플로부터 인트라 예측 모드의 예측 방향이 가리키는 참조 영역의 참조 위치에 기초하여 복수의 참조 샘플들의 가중치가 결정될 수 있다.
참조 위치가 분수 값을 가지는 경우, 상기 분수 값에 따라 보간 필터 계수가 결정될 수 있다. 그리고 보간 필터 계수에 따라 복수의 참조 샘플들의 가중치가 결정될 수 있다. 복수의 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수와 상기 보간 필터 계수에 결합 필터 계수가 결정될 수 있다. 그리고 결합 필터 계수에 따라, 상기 복수의 참조 샘플들의 가중치가 결정될 수 있다.
현재 블록에 양방향 예측이 적용될 때, 인트라 예측 모드의 예측 방향이 가리키는 참조 영역의 제1 참조 위치와 예측 방향의 반대 방향이 가리키는 참조 영역의 제2 참조 위치에 기초하여 참조 샘플들의 가중치가 결정될 수 있다.
현재 샘플로부터 복수의 인트라 예측 모드의 복수의 예측 방향이 가리키는 참조 영역의 복수의 참조 위치들에 기초하여 복수의 참조 샘플들의 가중치가 결정될 수 있다.
현재 블록에 예측 값 필터링이 적용될 경우, 참조 영역으로부터 현재 샘플의 상측에 위치하는 상측 위치 및 현재 샘플의 좌측에 위치하는 좌측 위치가 결정될 수 있다. 그리고 상측 위치 및 좌측 위치에 기초하여 복수의 참조 샘플들의 가중치가 결정될 수 있다.
단계 2540에서 결정된 가중치에 따라 계산된 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 현재 샘플의 예측 값이 결정된다.
인트라 예측 방법(2500)은 인트라 예측 장치(1700)에서 수행되는 기능 및 동작이 포함될 수 있다. 인트라 예측 방법(2500)은 비디오 부호화 장치(100)의 부호화부(110) 및 비디오 복호화 장치(150)의 복호화부(170)에 의하여 수행될 수 있다. 또한 인트라 예측 방법(2500)은 영상 부호화부(1600)의 인트라 예측부(1604) 및 영상 복호화부(1650)의 인트라 예측부(1662)에 수행될 수 있다.
상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
본 개시는 특정한 최상의 실시 예와 관련하여 설명되었지만, 이외에 본 개시에 대체, 변형 및 수정이 적용된 발명들은 전술한 설명에 비추어 당업자에게 명백할 것이다. 즉, 청구범위는 이러한 모든 대체, 변형 및 수정된 발명을 포함하도록 해석한다. 그러므로 이 명세서 및 도면에서 설명한 모든 내용은 예시적이고 비제한적인 의미로 해석해야 한다.

Claims (15)

  1. 현재 블록의 인트라 예측 모드를 결정하는 단계;
    현재 샘플의 예측에 사용될 상기 현재 블록에 인접한 참조 영역을 결정하는 단계;
    상기 현재 블록의 인트라 예측 모드 및 상기 현재 샘플의 위치에 따라 상기 참조 영역에 포함된 복수의 참조 샘플들의 가중치(weight)를 결정하는 단계; 및
    상기 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합(weighted sum)에 기초하여 상기 현재 샘플의 예측 값을 결정하는 단계를 포함하는 인트라 예측 방법.
  2. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드를 결정하는 단계는,
    상기 복수의 참조 샘플들에 대한 평활화(smoothing)가 수행되는지 여부를 결정하는 단계를 더 포함하고,
    상기 가중치를 결정하는 단계는,
    상기 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수(smoothing filter coefficient)에 따라 상기 참조 샘플들의 가중치를 결정하는 단계를 포함하는 인트라 예측 방법.
  3. 제2항에 있어서,
    상기 현재 블록의 인트라 예측 모드를 결정하는 단계는,
    상기 복수의 참조 샘플들에 대한 평활화가 수행될 때, 상기 복수의 참조 샘플에 대한 평활화 강도(smoothing intensity)를 결정하는 단계를 포함하고,
    상기 가중치를 결정하는 단계는,
    상기 평활화 강도에 따른 평활화 필터 계수에 따라 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함하는 인트라 예측 방법.
  4. 제1항에 있어서,
    상기 가중치를 결정하는 단계는,
    상기 현재 샘플로부터 상기 인트라 예측 모드의 예측 방향이 가리키는 상기 참조 영역의 참조 위치에 기초하여 상기 복수의 참조 샘플들의 가중치를 결정하는 것을 특징으로 하는 인트라 예측 방법.
  5. 재4항에 있어서,
    상기 가중치를 결정하는 단계는,
    상기 참조 위치가 분수 값(fractional value)을 가지는 경우, 상기 분수 값에 따라 보간 필터 계수(interpolation filter coefficient)를 결정하는 단계; 및
    상기 보간 필터 계수에 따라 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함하는 인트라 예측 방법.
  6. 제5항에 있어서,
    상기 현재 블록의 인트라 예측 모드를 결정하는 단계는,
    상기 복수의 참조 샘플들에 대한 평활화가 수행되는지 여부를 결정하는 단계를 더 포함하고,
    상기 가중치를 결정하는 단계는,
    상기 복수의 참조 샘플들에 대한 평활화가 수행될 때, 평활화 필터 계수와 상기 보간 필터 계수에 결합 필터 계수(combined filter coefficient)를 결정하는 단계; 및
    상기 결합 필터 계수에 따라, 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함하는 인트라 예측 방법.
  7. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드를 결정하는 단계는,
    상기 현재 블록에 양방향 예측이 적용되는지 여부를 결정하는 단계를 포함하고,
    상기 가중치를 결정하는 단계는,
    상기 현재 블록에 양방향 예측이 적용될 때, 상기 인트라 예측 모드의 예측 방향이 가리키는 상기 참조 영역의 제1 참조 위치와 상기 예측 방향의 반대 방향이 가리키는 상기 참조 영역의 제2 참조 위치에 기초하여 상기 참조 샘플들의 가중치를 결정하는 단계를 포함하는 것을 특징으로 하는 인트라 예측 방법.
  8. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드를 결정하는 단계는,
    상기 현재 블록에 복수의 인트라 예측 모드가 적용되는지 여부를 결정하는 단계;
    상기 현재 블록에 복수의 인트라 예측 모드가 적용되는 경우, 상기 현재 블록의 복수의 인트라 예측 모드를 결정하는 것을 특징으로 하고,
    상기 가중치를 결정하는 단계는,
    상기 현재 샘플로부터 상기 복수의 인트라 예측 모드의 복수의 예측 방향이 가리키는 상기 참조 영역의 복수의 참조 위치들에 기초하여 상기 복수의 참조 샘플들의 가중치를 결정하는 것을 특징으로 하는 인트라 예측 방법.
  9. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드를 결정하는 단계는,
    상기 현재 블록에 예측 값 필터링이 적용되는지 여부를 결정하는 단계를 더 포함하고,
    상기 가중치를 결정하는 단계는,
    상기 현재 블록에 예측 값 필터링이 적용될 경우, 상기 참조 영역으로부터 상기 현재 샘플의 상측에 위치하는 상측 위치 및 상기 현재 샘플의 좌측에 위치하는 좌측 위치를 결정하는 단계; 및
    상기 상측 위치 및 상기 좌측 위치에 기초하여 상기 복수의 참조 샘플들의 가중치를 결정하는 단계를 포함하는 인트라 예측 방법.
  10. 제1항에 있어서,
    상기 참조 영역을 결정하는 단계는,
    상기 현재 블록 상측의 2 이상의 샘플 라인(sample line)과 상기 현재 블록 좌측의 2이상의 샘플 컬럼(sample column)을 포함하는 참조 영역을 결정하는 단계를 포함하는 인트라 예측 방법.
  11. 제1항에 있어서,
    상기 가중치를 결정하는 단계는,
    상기 복수의 참조 샘플들의 가중치들의 합이 1이 되도록 가중치를 결정하는 것을 특징으로 하는 인트라 예측 방법.
  12. 현재 블록의 인트라 예측 모드를 결정하고,
    현재 샘플의 예측에 사용될 상기 현재 블록에 인접한 참조 영역을 결정하고,
    상기 현재 블록의 인트라 예측 모드 및 상기 현재 샘플의 위치에 따라 상기 참조 영역에 포함된 복수의 참조 샘플들의 가중치를 결정하고,
    상기 결정된 가중치에 따라 계산된 상기 참조 영역에 포함된 참조 샘플들의 가중합에 기초하여 상기 현재 샘플의 예측 값을 결정하는 프로세서를 포함하는 인트라 예측 장치.
  13. 제1항 내지 제 11항 중 어느 한 항의 인트라 예측 방법에 따라 비디오를 복호화하는 비디오 복호화 방법.
  14. 제1항 내지 제 11항 중 어느 한 항의 인트라 예측 방법에 따라 비디오를 부호화하는 비디오 부호화 방법.
  15. 제1항 내지 제 11항 중 어느 한 항의 인트라 예측 방법을 수행하는 프로그램이 저장된 컴퓨터로 기록 가능한 기록 매체.
PCT/KR2018/007780 2017-07-10 2018-07-10 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 WO2019013515A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762530408P 2017-07-10 2017-07-10
US62/530,408 2017-07-10

Publications (1)

Publication Number Publication Date
WO2019013515A1 true WO2019013515A1 (ko) 2019-01-17

Family

ID=65001456

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/007780 WO2019013515A1 (ko) 2017-07-10 2018-07-10 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Country Status (1)

Country Link
WO (1) WO2019013515A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090257492A1 (en) * 2006-07-07 2009-10-15 Kenneth Andersson Video data management
US20110249741A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Methods and Systems for Intra Prediction
KR101719346B1 (ko) * 2010-04-09 2017-03-27 한국전자통신연구원 적응적 필터를 이용한 인트라 예측을 수행하는 영상 복호화 방법 및 컴퓨터로 읽을 수 있는 기록 매체
WO2017090993A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
KR101743893B1 (ko) * 2013-07-19 2017-06-05 퀄컴 인코포레이티드 인트라 예측 필터링 불능화

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090257492A1 (en) * 2006-07-07 2009-10-15 Kenneth Andersson Video data management
US20110249741A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Methods and Systems for Intra Prediction
KR101719346B1 (ko) * 2010-04-09 2017-03-27 한국전자통신연구원 적응적 필터를 이용한 인트라 예측을 수행하는 영상 복호화 방법 및 컴퓨터로 읽을 수 있는 기록 매체
KR101743893B1 (ko) * 2013-07-19 2017-06-05 퀄컴 인코포레이티드 인트라 예측 필터링 불능화
WO2017090993A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치

Similar Documents

Publication Publication Date Title
WO2019168244A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018084523A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2017209394A1 (en) Methods and apparatuses for encoding and decoding video according to coding order
WO2017090993A1 (ko) 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
WO2017018664A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017171107A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019066174A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020040626A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017142327A1 (ko) 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치
WO2019216716A2 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2012005520A2 (en) Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
WO2019199127A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018047995A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017090967A1 (ko) 부호화 순서 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018124627A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020050685A1 (ko) 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2019240458A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020130745A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019017673A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019190280A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020055169A1 (ko) 인터 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019194653A1 (ko) 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
WO2019135601A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18832188

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18832188

Country of ref document: EP

Kind code of ref document: A1