WO2017142262A1 - 적응적인 블록 파티셔닝 방법 및 장치 - Google Patents

적응적인 블록 파티셔닝 방법 및 장치 Download PDF

Info

Publication number
WO2017142262A1
WO2017142262A1 PCT/KR2017/001523 KR2017001523W WO2017142262A1 WO 2017142262 A1 WO2017142262 A1 WO 2017142262A1 KR 2017001523 W KR2017001523 W KR 2017001523W WO 2017142262 A1 WO2017142262 A1 WO 2017142262A1
Authority
WO
WIPO (PCT)
Prior art keywords
coding unit
unit
coding
units
split
Prior art date
Application number
PCT/KR2017/001523
Other languages
English (en)
French (fr)
Inventor
박민우
진보라
최인권
김찬열
최나래
민정혜
이선일
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020187016337A priority Critical patent/KR20180107083A/ko
Priority to EP17753423.7A priority patent/EP3396955A4/en
Priority to US15/998,659 priority patent/US20210211699A1/en
Publication of WO2017142262A1 publication Critical patent/WO2017142262A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Definitions

  • the present specification relates to a method and an apparatus for image encoding and image decoding, and more particularly, to a method and apparatus for adaptively dividing a block.
  • the image data is encoded by a codec according to a predetermined data compression standard, for example, the Moving Picture Expert Group (MPEG) standard, and then stored in a recording medium in the form of a bitstream or transmitted through a communication channel.
  • MPEG Moving Picture Expert Group
  • Various data units may be used to compress an image, and there may be an inclusion relationship among these data units.
  • the data unit may be divided by various methods, and the optimized data unit is determined according to the characteristics of the image, thereby encoding or decoding the image.
  • An object of the present invention is to provide a method and apparatus for adaptively dividing a block.
  • a method of decoding an image comprising: determining reference pixels for division of the coding unit among pixels adjacent to a coding unit; Determining a split position indicating a position of a boundary for dividing the coding unit, based on at least one of a position where a pixel gradient is largest among the reference pixels and a position of a detected edge; Dividing the coding unit in a predetermined direction based on the split position to obtain a plurality of prediction units from the coding unit; And performing prediction on the plurality of prediction units.
  • the predetermined direction may be a direction in which the coding unit is split vertically or horizontally.
  • the determining of the reference pixels may include comparing a variance value of pixels adjacent to an upper side of the coding unit with a variance value of pixels adjacent to a left side of the coding unit. Determining large pixels as the reference pixels.
  • the prediction values of the pixels corresponding to the boundary are divided by the boundary. And setting the average prediction value of the predicted prediction units.
  • the performing of the prediction may include: when the position of the boundary dividing the coding unit is a boundary between integer pixels, the predicted value of pixels adjacent to the boundary is the boundary. It may be set based on the prediction value of the prediction units divided by.
  • the determining of the segmentation position may include selecting one of two segmentation position candidates among the reference pixels.
  • the split position may be derived from information indicating a position of a boundary of another coding unit and a motion vector.
  • the information on the predetermined direction may be obtained from the bitstream.
  • an image decoding method includes: obtaining split reference position information indicating reference positions of at least one boundary for dividing a coding unit from a bitstream; Determining the one or more boundaries based on the split reference position information by dividing the coding unit from the reference position in predetermined directions at predetermined pixel intervals; Dividing a plurality of prediction units from the coding unit based on the one or more boundaries; And performing prediction on the plurality of prediction units.
  • the split reference position information may indicate a position of a boundary closest to an upper left pixel of the coding unit among the one or more boundaries.
  • the predetermined pixel interval may be based on the size of the coding unit.
  • the dividing of the plurality of prediction units may include selecting one of the one or more boundaries; And dividing two prediction units from the coding unit based on the selected boundary.
  • the image decoding method may determine whether the current transformation unit deviates from an outline of the picture by comparing a position in a picture of a current transformation unit divided from a coding unit with at least one of a width and a height of the picture. Doing; Dividing the current transformation unit in at least one direction by dividing the current transformation unit into a plurality of transformation units when the current transformation unit is out of an outline of the picture; If the current transform unit does not deviate from an outline of the picture, obtaining split information about the current transform unit from a bitstream, and dividing the current transform unit into a plurality of transform units based on the split information; And performing inverse transform on a transform unit that is no longer divided among the plurality of transform units.
  • the method divides the current transform unit in at least one direction until at least one transform unit of the plurality of transform units does not deviate from an outline of the picture. Splitting into a plurality of transform units may be performed recursively.
  • the split information about the current transform unit may not be obtained from the bitstream.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
  • 3 illustrates various forms of prediction units split from coding units.
  • FIG. 4 illustrates a first embodiment of adaptively dividing a coding unit according to an embodiment.
  • FIG. 5 illustrates a second embodiment of adaptively dividing a coding unit, according to an embodiment.
  • FIG. 6 illustrates a method of predicting a boundary region for splitting a coding unit, according to an embodiment.
  • FIG. 7 illustrates a method of dividing a coding unit into predetermined pixel units according to an embodiment.
  • FIG. 8 illustrates a process of determining whether a transform unit deviates from a picture outline according to an exemplary embodiment.
  • FIG 9 illustrates a transform unit outside a picture outline according to an embodiment.
  • 10A to 10C illustrate a method of dividing a transform unit out of a picture outline, according to an exemplary embodiment.
  • FIG. 11 is a flowchart illustrating an image encoding method, according to an exemplary embodiment.
  • FIG. 12 is a flowchart illustrating an image decoding method, according to another exemplary embodiment.
  • FIG. 13 is a flowchart illustrating a method of decoding an image, according to another exemplary embodiment.
  • FIG. 14 is a diagram illustrating a process of determining at least one coding unit by dividing a current coding unit according to an embodiment.
  • FIG. 15 illustrates a process of determining at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • 16 illustrates a process of splitting a coding unit based on at least one of block type information and split type information, according to an embodiment.
  • 17 illustrates a method of determining a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 18 is a diagram illustrating an order in which a plurality of coding units are processed when a current coding unit is divided and a plurality of coding units are determined according to an embodiment.
  • 19 illustrates a process of determining that a current coding unit is divided into odd coding units when the coding units cannot be processed in a predetermined order, according to an embodiment.
  • FIG. 20 illustrates a process of determining at least one coding unit by dividing a first coding unit according to an embodiment.
  • FIG. 21 illustrates that a form in which a second coding unit may be split is limited when a second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 22 is a diagram illustrating a process of splitting a coding unit having a square shape when the split shape information cannot be divided into four square coding units according to an embodiment.
  • FIG. 23 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • FIG. 24 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 25 illustrates a depth and a part index (PID) for distinguishing a coding unit, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • FIG. 26 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 27 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • the "image” may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
  • FIGS. 1 to 27 An image encoding apparatus, an image decoding apparatus, an image encoding method, and an image decoding method according to an embodiment will be described with reference to FIGS. 1 to 27.
  • a method of adaptively dividing a block according to an embodiment will be described below with reference to FIGS. 1 through 13, and a method of determining a data unit of an image according to an embodiment will be described below with reference to FIGS. 14 through 27.
  • FIG. 1 is a schematic block diagram of an image encoding apparatus 100 according to an embodiment.
  • the image encoding apparatus 100 includes an encoder 110 and a transmitter 120.
  • the encoder 110 may split the image data of the current picture into the largest coding units according to the maximum size of the coding units.
  • Each maximum coding unit may include coding units divided by split information.
  • image data of a spatial domain included in a maximum coding unit may be hierarchically classified according to segmentation information.
  • the block shape of the coding unit may be square or rectangular, and may be any geometric shape, and thus is not limited to a data unit having a constant size.
  • encoding an image in a larger unit may encode the image at a higher image compression rate.
  • the coding unit is enlarged and its size is fixed, the video cannot be efficiently encoded by reflecting the characteristics of the continuously changing video.
  • the compression rate when encoding a flat area of the sea or sky, the compression rate may be improved by increasing the coding unit. However, when the complex area of the people or building is encoded, the compression rate is improved by decreasing the coding unit.
  • the encoder 110 sets a maximum coding unit having a different size for each picture or slice, and sets split information of one or more coding units split from the maximum coding unit.
  • the size of the coding unit included in the maximum coding unit may be variably set according to the split information.
  • Split information of one or more coding units may be determined based on a rate-distortion cost (R-D cost) calculation.
  • the split information may be determined differently for each picture or slice, or differently for each maximum coding unit.
  • the split information of the coding unit split from the largest coding unit may be characterized in a block form and a split form.
  • a detailed method of determining a coding unit in a block form and a split form will be described later with reference to FIGS. 13 to 27.
  • the coding units included in the largest coding unit may be predicted or transformed (eg, values in the pixel domain are converted into values in the frequency domain) based on processing units having different sizes.
  • the image encoding apparatus 100 may perform a plurality of processing steps for image encoding based on various sizes and various types of processing units. In order to encode image data, processing steps such as prediction, transformation, and entropy encoding are performed, and processing units having the same size may be used in all stages, and processing units having different sizes may be used in stages.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode, and the specific prediction mode may be performed only for coding units of a specific size or shape.
  • the prediction mode having the smallest encoding error may be selected by performing prediction on each coding unit.
  • the image encoding apparatus 100 may perform prediction encoding based on coding units that are no longer split.
  • a coding unit that is no longer divided based on prediction coding is referred to as a “prediction unit”.
  • the image encoding apparatus 100 may convert image data based on a processing unit having a size different from that of the coding unit.
  • the transformation may be performed based on a data unit having a size smaller than or equal to the coding unit.
  • the processing unit which is the basis of conversion is called a "transformation unit.”
  • the information used for encoding requires not only split information but also prediction related information and transform related information. Therefore, the encoder 110 may determine the split information that causes the minimum encoding error, the prediction mode for each coding unit, the size of the transformation unit for transformation, and the like.
  • the encoder 110 may measure a coding error of a coding unit by using a Lagrangian Multiplier-based rate-distortion optimization technique.
  • the transmitter 120 may output image data of a coding unit encoded based on at least one coding unit determined by the encoder 110 and information about a coding mode for each coding unit, in a bitstream form. Send to the decoding device.
  • the encoded image data may be a result of encoding residual data of the image.
  • the information about the encoding mode for each coding unit may include split information, a block form, a split form, prediction mode information for each coding unit, size information of a transformation unit, and the like.
  • FIG. 2 is a schematic block diagram of an image decoding apparatus 200 according to an embodiment.
  • the image decoding apparatus 200 includes a receiver 210 and a decoder 220.
  • the receiver 210 parses the bitstream received by the image decoding apparatus 200, obtains image data for each coding unit, and outputs the image data to the decoder 220.
  • the receiver 210 may extract information about the current picture or slice from a parameter set Raw byte sequence payload (RBSP) for the current picture or slice.
  • RBSP Raw byte sequence payload
  • the receiver 210 parses a bit string received by the image decoding apparatus 200 to determine a size of a maximum coding unit, split information of a coding unit split from the maximum coding unit, and a coding mode of a coding unit. Extract the information.
  • the split information and the information about the encoding mode are output to the decoder 220.
  • the information about the encoding mode may include a block form, a split form, prediction mode information for each coding unit, size information of a transformation unit, and the like.
  • the decoder 220 reconstructs the current picture by decoding image data of each coding unit based on the determined coding unit.
  • the decoder 220 may decode the coding unit included in the maximum coding unit based on the split information of the coding unit split from the maximum coding unit.
  • the decoding process may include a motion prediction process including inverse quantization, inverse transformation, intra prediction, and motion compensation.
  • the decoder 220 may generate residual data by performing inverse quantization and inverse transformation for each coding unit based on the information about the transformation unit of the coding unit.
  • the decoder 220 may perform intra prediction or inter prediction based on information about a prediction mode of a coding unit.
  • the decoder 220 may perform prediction on the prediction unit that is the basis of the prediction, and then generate reconstruction data using the prediction data and the residual data of the coding unit.
  • 3 illustrates various forms of prediction units split from coding units.
  • information about a partition type, information about a prediction mode, and the like may be encoded and transmitted for each coding unit as information about an encoding mode.
  • the information about the partition type is a data unit for predictive encoding of the current coding unit, and may indicate information about a partition type in which the prediction unit of the current coding unit is divided.
  • prediction units such as a 2NxN partition type 320, an Nx2N partition type 330, and an NxN partition type 340, may be split from coding units having a size of 2N ⁇ 2N.
  • the partition type includes 2NxnU partition type 350, 2NxnD partition type 360, nLx2N partition type 370, and nRx2N as well as symmetric partitions in which the height or width of the prediction unit is divided by a symmetrical ratio. It may also include asymmetric partitions, such as partition type 380. That is, the partition type of the prediction unit may optionally include partitions partitioned in an asymmetric ratio such as 1: n or n: 1, partitions partitioned in a geometric shape, arbitrary partitions, and the like. In general, a symmetric partition type may be used in an intra mode, and both a symmetric partition type and an asymmetric partition type may be used in an inter mode.
  • the prediction mode of the prediction unit may be at least one of an intra mode, an inter mode, and a skip mode.
  • the intra mode and the inter mode may be performed on partitions having sizes of 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, and N ⁇ N.
  • the skip mode may be performed only for partitions having a size of 2N ⁇ 2N.
  • the encoding may be performed independently for each prediction unit in the coding unit to select a prediction mode having the smallest encoding error.
  • FIG. 4 illustrates a first embodiment of adaptively dividing a coding unit according to an embodiment.
  • the cost function may be a function for calculating the gradient of the reference pixel value.
  • the degree of change may be expressed as a difference between adjacent reference pixel values.
  • the reference pixel is a restored pixel before the current coding unit, in the present exemplary embodiment, a pixel adjacent to the upper side or the left side of the coding unit 400 is illustrated, but the position of the reference pixel may vary depending on the scanning order (processing order). have.
  • a position where the degree of change of the reference pixel value among the reference pixels 420 and 430 around the coding unit 400 has the largest change may be a boundary between the reference pixel 412 and the reference pixel 414.
  • the boundary 410 dividing the coding unit 400 in a predetermined direction may be determined based on the boundary between the reference pixel 412 and the reference pixel 414.
  • the position between the reference pixel 412 and the reference pixel 414 becomes a "split position" as a reference for indicating the position of the boundary 410 dividing the coding unit 400. That is, the dividing position according to an embodiment may indicate a position where the degree of change of the pixel value is largest among the reference pixels.
  • the split position may be selected as one of a plurality of split position candidates among the reference pixels. For example, one of the two split position candidates having the greatest degree of change may be selected.
  • information for selecting one of the plurality of split position candidates may be transmitted from the image encoding apparatus 100 to the image decoding apparatus 200 as explicit information.
  • the boundary 410 dividing the coding unit 400 may represent a boundary between integer pixels. .
  • the direction of the boundary 410 dividing the coding unit 400 may be a direction orthogonal from the upper side or the left side of the coding unit 400.
  • the direction of the boundary 410 is not necessarily limited to the above embodiment.
  • the direction of the boundary 410 may be a direction passing through the center of the coding unit 400 based on the split position.
  • the direction of the boundary 410 may be a linear direction having a specific angle with respect to the divided position.
  • the direction of the boundary 410 may be a direction in which an angle with the coding unit 400 is toward 45 degrees or ⁇ 45 degrees based on the split position.
  • information about the selection direction may be signaled from the image encoding apparatus 100 to the image decoding apparatus 200.
  • the direction of the boundary 410 dividing the coding unit 400 may be predefined.
  • the direction of the boundary 410 may be predetermined in the vertical direction or the horizontal direction. If the direction of the boundary 410 is predetermined in the vertical direction, in determining the position of the boundary 410 dividing the coding unit 400, only the reference pixels 420 adjacent to the upper side of the coding unit 400 are included. The degree of change can be calculated.
  • the direction of the boundary 410 is predetermined in the horizontal direction, in determining the position of the boundary 410 dividing the coding unit 400, reference pixels 430 adjacent to the left side of the coding unit 400 are included. The degree of change may be calculated using only).
  • information about the direction of the boundary 410 dividing the coding unit 400 may be signaled from the image encoding apparatus 100 to the image decoding apparatus 200.
  • determining the direction of the boundary 410 only reference pixels having a larger dispersion value among the reference pixels 420 and 430 around the coding unit 400 may be used.
  • the variance value of the reference pixels 420 adjacent to the upper side of the coding unit 400 is compared with the variance value of the reference pixels 430 adjacent to the left side of the coding unit 400 so that one or more variance values are large.
  • the direction of the boundary 410 may be determined using pixels.
  • the coding unit 400 may be split along the boundary 410 to obtain a plurality of prediction units. Thereafter, prediction may be performed for each prediction unit according to the prediction mode of the coding unit 400.
  • the above-described determination of the split position, the division of the coding unit, and the acquisition process of the prediction unit may be performed by the image encoding apparatus 100.
  • the position and direction of the boundary for dividing the coding unit 400 are based on characteristics of the neighboring pixels of the coding unit 400. Accordingly, the image encoding apparatus 100 does not need to separately generate information about the partition type of the prediction unit, and does not need to transmit information about the size or shape of the prediction unit to the image decoding apparatus 200.
  • the image decoding apparatus 200 may determine the partition type and the size of the prediction unit based on the characteristics of the neighboring pixels of the coding unit 400 without obtaining information about the partition type of the prediction unit from the bitstream.
  • the partition form of the prediction unit may reflect the characteristics of the actual image, thereby improving the overall coding efficiency.
  • FIG. 5 illustrates a second embodiment of adaptively dividing a coding unit, according to an embodiment.
  • a reference pixel 510 indicating a position of a boundary 520 that divides the coding unit 500 based on a cost function for the reference pixels 530 and 540 around the coding unit 500 is Can be selected.
  • the cost function may represent an algorithm for detecting an edge of reference pixels.
  • various known edge detection filters eg, Sobel, Canny, Deriche, Differential, Prewitt, etc. may be used for the edge detection scheme.
  • the absolute value of the value to which the filter (or [1 -1] filter) is applied can be used as a cost function.
  • the detection position of the edge may be the position of the pixel having the largest cost value.
  • the position of the detected edge among the neighboring pixels 530 and 540 of the coding unit 500 may be the position of the reference pixel 510.
  • the boundary 520 dividing the coding unit 500 in a predetermined direction may be determined based on the position of the reference pixel 510.
  • the position of the reference pixel 510 becomes a "divided position" as a reference for indicating the position of the boundary 520 dividing the coding unit 500.
  • the split position according to an embodiment may be the position of the reference pixel detected as an edge among the reference pixels.
  • the split position may be selected as one of a plurality of split position candidates among the reference pixels.
  • one of the plurality of split position candidates detected as an edge may be selected.
  • information for selecting one of the plurality of split position candidates may be transmitted from the image encoding apparatus 100 to the image decoding apparatus 200 as explicit information.
  • the boundary 520 dividing the coding unit 500 may represent an integer pixel.
  • the direction of the boundary 520 dividing the coding unit 500 may be a direction orthogonal from the upper side or the left side of the coding unit 500.
  • the direction of the boundary 520 is not necessarily limited to the above embodiment.
  • the direction of the boundary 520 may be a direction passing through the center of the coding unit 500 based on the split position.
  • the direction of the boundary 520 may be a linear direction having a specific angle with respect to the divided position.
  • the direction of the boundary 520 may be a direction in which an angle with the coding unit 500 is toward 45 degrees or ⁇ 45 degrees based on the split position.
  • information about the selection direction may be signaled from the image encoding apparatus 100 to the image decoding apparatus 200.
  • the direction of the boundary 520 dividing the coding unit 500 may be predefined.
  • the direction of the boundary 520 may be predetermined in the vertical direction or the horizontal direction. If the direction of the boundary 520 is predetermined in the vertical direction, in determining the position of the boundary 520 dividing the coding unit 500, only reference pixels 530 adjacent to the upper side of the coding unit 500 are included. Edge detection algorithm can be applied. In addition, if the direction of the boundary 520 is predetermined in the horizontal direction, in determining the position of the boundary 520 that divides the coding unit 500, reference pixels 540 adjacent to the left side of the coding unit 500 are determined. The edge detection algorithm may be applied using only).
  • information about the direction of the boundary 520 dividing the coding unit 500 may be signaled from the image encoding apparatus 100 to the image decoding apparatus 200.
  • only reference pixels having a large dispersion value among the reference pixels 530 and 540 around the coding unit 500 may be used. For example, by comparing the variance values of the reference pixels 530 adjacent to the coding unit 500 with the variance values of the reference pixels 540 adjacent to the left of the coding unit 500, only pixels having a large variance value are compared.
  • the direction of the boundary 520 may be determined by using.
  • the coding unit 500 may be split along the boundary 520 to obtain a plurality of prediction units. Thereafter, prediction may be performed for each prediction unit according to the prediction mode of the coding unit 500.
  • the above-described determination of the split position, the division of the coding unit, and the acquisition process of the prediction unit may be performed by the image encoding apparatus 100.
  • the position and direction of the boundary for dividing the coding unit 500 are based on the characteristics of the neighboring pixels of the coding unit 500. Accordingly, the image encoding apparatus 100 does not need to separately generate information about the partition type of the prediction unit, and does not need to transmit information about the size or shape of the prediction unit to the image decoding apparatus 200.
  • the image decoding apparatus 200 may determine the partition type and the size of the prediction unit based on the characteristics of the neighboring pixels of the coding unit 500 without obtaining information about the partition type of the prediction unit from the bitstream.
  • the partition form of the prediction unit may reflect the characteristics of the actual image, thereby improving the overall coding efficiency.
  • FIG. 6 illustrates a method of predicting a boundary region for splitting a coding unit, according to an embodiment.
  • a motion prediction process including intra prediction and motion compensation is performed for each prediction mode according to each prediction mode.
  • a smoothing operation of the prediction value of pixels in the boundary or pixels adjacent to the boundary may be performed.
  • a boundary for dividing coding units 610, 630, and 650 may vary.
  • the boundary may be an integer position pixel 614 positioned in a predetermined direction with respect to the division position, or may be boundary 634 and 655 between integer pixels.
  • the prediction units 612 and 616 are divided based on the boundary 614.
  • there are pixels ie, pixels corresponding to the boundary 614 in the coding unit 610) that are not included in any prediction units 612 and 616.
  • prediction values of the prediction units 612 and 616 adjacent to the boundary 614 may be used to perform prediction for pixels corresponding to the boundary 614.
  • the prediction value of the pixels corresponding to the boundary 614 may be set as an average prediction value of the prediction units 612 and 616 divided by the boundary 614.
  • the prediction units 632 and 636 are correctly divided based on the boundary 634, and thus, within the coding unit 630. All pixels are included in one of the prediction units 632, 636. Therefore, the coding unit 630 may perform prediction on the prediction units 632 and 636.
  • the prediction units 652 and 658 are divided based on the boundary 655.
  • the prediction values of the pixels 644 and 656 adjacent to the boundary 655 are expressed using the prediction values of the prediction units 652 and 658.
  • the prediction values of the pixels 644 and 656 adjacent to the boundary 655 may be set as the average prediction values of the divided prediction units 652 and 658.
  • pixels 654 adjacent to one direction of boundary 656 are calculated by weighting the prediction values of prediction unit 652 adjacent to pixels 654, and the other side of boundary 656.
  • the pixels 656 adjacent to the direction may be calculated by applying weights to the prediction values of the prediction unit 658 adjacent to the pixels 656.
  • whether the boundary is represented as the integer pixel 614 or the boundary between the integer pixels 634 and 655 is determined from the image encoding apparatus 100 to the image decoding apparatus 200 through explicit information. May be signaled.
  • whether a boundary is represented as an integer pixel 614 or as a boundary between the integer pixels 634 and 655 may be derived from information about neighboring pixels of a coding unit without transmitting explicit information.
  • the encoder 110 of the image encoding apparatus 100 divides a coding unit based on at least one of a position of the largest pixel change degree among the reference pixels and a position of the detected edge. It is possible to determine the split position indicating the position of.
  • the decoding unit 220 of the image decoding apparatus 200 also divides the position indicating the position of a boundary for dividing the coding unit based on at least one of the position of the largest pixel change among the reference pixels and the position of the detected edge. The location can be determined.
  • a motion vector may be used to represent a boundary that divides the coding unit. The shift of the position of the boundary may be expressed in integer pixel units, 1/2 or 1/4 pixel units using a motion vector.
  • FIG. 7 illustrates a method of dividing a coding unit into predetermined pixel units according to an embodiment.
  • the coding units 710, 730, and 750 may be divided into N pixel units.
  • N pixel units For example, referring to FIG. 7, when the 8x8 coding unit 710 is divided in the vertical direction every two pixel intervals, five prediction units may be obtained.
  • the 8x8 coding unit 730 is divided in the vertical direction every 3 pixel intervals, four prediction units may be obtained.
  • the 8x8 coding unit 750 is divided in the vertical direction every 4 pixel intervals, three prediction units may be obtained.
  • the N pixel unit may represent the division interval of the coding unit.
  • the N pixel unit may be an integer unit or may be a sub-pixel unit.
  • the value of N may be set to a predetermined value or may vary according to the size of a coding unit. For example, if the size of the coding unit is 8x8, N is 1, 16x16, N is 2, 32x32, N is 4, 64x64, N is 8, 128x128, N is 16, 256x256, N is 32 It can have a value of. As another example, when the size of the coding unit is 16x16 or less, N may have a value of 2, and when the size of the coding unit is 32x32 or more, N may have a value of 4. In addition, the value of N may be set to a specific value regardless of the size of the coding unit.
  • coding units 710, 730, and 750 are illustrated as being divided in a vertical direction, but this is merely for convenience of description, and the division direction may be a horizontal direction, a vertical direction, a direction having a predetermined slope, and the like. Can exist in various forms.
  • the position of the first boundary 712 may indicate the position of the boundary nearest to the upper left pixel of the coding unit 710.
  • the information representing the position of the first boundary may be expressed as 'divided reference position information'.
  • the split reference position may be represented by a distance from the origin.
  • the division reference position may also be expressed as coordinates such as (x, 0) or (y, 0).
  • the coding unit may be split based on some boundary selected from one or more boundaries that divide the coding unit. That is, when the number of boundaries for dividing the coding units is M, the coding units may be split into all partition types that can be combined into M boundaries. At this time, the intervals of the M boundaries are not necessarily equal and may be non-uniform.
  • the split reference position when the coding unit is divided into predetermined pixel units, the split reference position may be based on the position of the reference pixel selected by applying a cost function to reference pixels around the coding unit. That is, when the split position for dividing the coding unit is determined according to the process described with reference to FIGS. 4 to 5, the determined split position may be used as the split reference position in FIG. 7. According to another embodiment, a split position of a coding unit adjacent to the top or left side of the current coding unit may be set as a split reference position of the current coding unit.
  • a flag may be defined for adaptively determining a division scheme of a coding unit. For example, when the flag is '1', as described with reference to FIGS. 4 and 5, a split position of a coding unit may be determined from reference pixels adjacent to the coding unit, and the coding unit may be split based on the split position. have. On the other hand, when the flag is '0', as described with reference to FIG. 7, the coding unit may be divided into predetermined pixel units by the split reference position. According to an embodiment, a flag for adaptively determining a division scheme of a coding unit may be signaled from the image encoding apparatus 100 to the image decoding apparatus 200.
  • the encoder 110 of the image encoding apparatus 100 may use at least one of an intra mode, an inter mode, and a skip mode to perform prediction on prediction units divided from a coding unit.
  • the specific prediction mode may be performed only for coding units of a specific size or shape.
  • the prediction mode having the smallest encoding error may be selected by performing prediction on each coding unit.
  • the decoder 220 of the image decoding apparatus 200 may use at least one of an intra mode, an inter mode, and a skip mode to perform prediction on prediction units divided from a coding unit.
  • a predictive sample for the current block may be derived based on the neighboring block pixels in the picture to which the current block belongs.
  • a prediction sample based on an average or interpolation of neighboring reference samples of the current block may be derived, and
  • a reference sample existing in a specific direction with respect to the prediction target pixel among the neighboring blocks of the current block may be derived.
  • a predictive sample may be derived based on that.
  • the prediction mode applied to the current block may be determined using the prediction mode applied to the neighboring block.
  • the prediction sample for the current block can be derived based on the samples specified by the motion vector on the reference picture.
  • a prediction sample for the current block may be derived by applying any one of a skip mode, a merge mode, and an MVP mode.
  • the motion information of the neighboring block may be used as the motion information of the current block.
  • the residual (residual) between the predicted sample and the reconstructed sample is not transmitted.
  • the MVP mode difference information with the motion vector of the current block may be encoded by using the motion vector of the neighboring block as a motion vector predictor (MVP).
  • MVP motion vector predictor
  • the same prediction mode may be applied to all of the plurality of prediction units divided from the coding unit, different prediction modes may be applied to each prediction unit.
  • the prediction information of the prediction unit split from the coding unit may be stored based on the size or shape of each prediction unit. For example, when the coding unit is split in the vertical direction, each prediction information may be stored based on the Nx2N partition type. When the coding unit is split in the horizontal direction, each prediction information is stored based on the 2NxN partition type. Can be. According to another embodiment, prediction information may be stored based on the same shape as that of the prediction unit split from the coding unit. In this case, information on inter or intra prediction needs to be signaled for each prediction unit.
  • the method of splitting a coding unit proposed in the present specification may be used in combination with a partition mode (for example, a partition mode of HEVC) previously defined. Therefore, a separate flag may be defined to distinguish the use with the partition mode previously defined. For example, when the value of the flag is '0', the coding unit may be partitioned using the partition mode previously defined, and when the value of the flag is '1', the coding method of the coding unit proposed in the present specification may be used. have.
  • splitting directions of the coding units may exist in various forms, and the splitting directions may cross each other. Therefore, various partitioning forms of the prediction unit may exist in the coding unit.
  • the size of a coding unit or a transformation unit may not be precisely aligned with an outline of a picture.
  • the coding unit is automatically divided so that the coding unit can be aligned with the outline of the picture.
  • the outline of the picture is not aligned with the coding unit and thus needs to be divided into a large number of coding units.
  • prediction parameters should be transmitted as many as the number of split coding units, which may increase transmission overhead and reduce image coding efficiency.
  • FIG. 8 illustrates a process of determining whether a transform unit deviates from a picture outline according to an exemplary embodiment.
  • the transform units are right of the current picture 810. At least one of an outline and a bottom outline may be deviated.
  • the transform unit may be out of an outline of the current picture, and only an area that is not out of the outline of the current picture may be converted (or inversely transformed). Therefore, it is necessary to determine whether the current transformation unit is outside the outline of the picture.
  • the current transform unit may be one of one or more transform units divided from the coding unit.
  • the position in the picture 810 of the current transform unit 820 is the width 'W pic of the picture 810 to determine whether the current transform unit 820 is outside the outline of the picture 810. And height 'H pic '.
  • the distance between the left pixel of the picture 810 and the right pixel of the current transform unit 820 is compared with the width 'W pic ' of the picture 810, and the top pixel of the picture 810 and the current transform unit ( The distance of the bottom pixel of 820 may be compared with the height 'H pic ' of the picture 810.
  • the position of the current transformation unit 820 in the picture 810 may be defined by coordinates (x, y).
  • the position representing the upper left pixel of the current transformation unit 820 may be set as the position of the current transformation unit 820.
  • the position of the current transformation unit 820 in the picture 810 is based on the origin (0,0). It can be located at the coordinate (x, y).
  • the following equation may be used to determine whether the current transform unit 820 is outside the outline of the picture 810.
  • Equations 1 to 3 x denotes a position of the x coordinate of the current transformation unit 820 based on the origin of the picture 810, and y denotes a current transformation unit 820 based on the origin of the picture 810. Means the position of y coordinate.
  • W block means the width of the current transformation unit 820
  • H block means the height of the current transformation unit 820.
  • W pic refers to the width of the picture 810, H pic refers to the height of the picture 810.
  • Equation 1 when Equation 1 is satisfied, it is determined that the current transform unit 820 is outside the outline of the picture 810, and when Equation 2 is satisfied, the current transform unit 820 is right of the picture 810. If it is determined that it is out of the outline and satisfies Equation 3, it may be determined that the current transformation unit 820 is out of the lower outline of the picture 810.
  • the meaning that the transformation unit is out of the outline of the picture may also be interpreted as meaning that the transformation unit is over the outline of the picture.
  • FIG 9 illustrates a transform unit outside a picture outline according to an embodiment.
  • the current transform unit 910 when it is determined that the current transform unit 910 is out of the picture outline, the current transform unit 910 may be divided into various forms based on the shape of the picture outline overlapping the current transform unit 910.
  • split information about the current transform unit 910 is not signaled separately from the image encoding apparatus 100 to the image decoding apparatus 200. That is, the image encoding apparatus 100 does not transmit the split information for the transform unit outside the picture outline, and the image decoding apparatus 200 does not parse the split information for the transform unit outside the picture outline.
  • the image encoding apparatus 100 determines that the first transform unit is out of the picture outline and thus does not transmit the split information for the first transform unit
  • the second transform unit split from the first transform unit is included in the picture inner region. If it is determined to exist again, the split information may be transmitted for the second transform unit.
  • the image decoding apparatus 200 determines that the first transform unit is out of the picture outline and thus does not obtain the split information for the first transform unit
  • the second transform unit split from the first transform unit is included in the picture inner region. If it is determined to exist again, the split information may be obtained for the second transform unit.
  • the current transformation unit 910 when the current transformation unit 910 is out of the picture outline, the current transformation unit 910 may be divided into four square transformation units 920 by splitting them in the vertical and horizontal directions. In addition, according to an embodiment, the division process may be repeated until the transformed unit 920 is not separated from the picture outline.
  • the current transformation unit 910 when the current transformation unit 910 is out of the picture outline, the current transformation unit 910 may be divided into two non-square-shaped transformation units 930 in a vertical or horizontal direction.
  • the transformation unit 930 may be divided from the current transformation unit 910 so as to be completely aligned with the picture outline. If the transformation unit 930 is not aligned with the picture outline, the dividing process may be repeated until the transformation unit 930 does not leave the picture outline.
  • the current transform unit may mean one of transform units divided from the coding unit.
  • the form of the current transform unit and the transform unit split from the current transform unit may be square or non-square.
  • the current transform unit 910 when the current transform unit 910 is out of the picture outline, signaling of the split information for the current transform unit 910 may be omitted.
  • the current transformation unit 910 may be recursively divided according to a predetermined rule until it does not deviate from the picture outline.
  • Various rules for dividing a transform unit of a picture outline will be described later with reference to FIGS. 10A to 10C.
  • 10A to 10C illustrate a method of dividing a transform unit out of a picture outline, according to an exemplary embodiment.
  • the current transformation unit 1000 may deviate from outlines 1010, 1020, 1030, 1040, 1050, 1060, 1070, and 1080 of a picture in various forms.
  • FIG. 10A illustrates a case where the outline of the picture is a horizontal outline 1010 and 1020
  • FIG. 10B illustrates a case where the outline of a picture is a vertical outline 1030 and 1040.
  • FIG. 10C the outline of the picture is a corner outline ( 1050, 1060, 1070, 1080) is shown.
  • the current transformation unit 1000 deviates from the horizontal outlines 1010 and 1020 of the picture. If the current transform unit 1000 is outside the horizontal outline 1010 of the picture, the upper region of the current transform unit 1000 is the inner region 1016 of the picture and the lower region of the current transform unit 1000 is the outer region of the picture. (1018). If the current transform unit 1000 is outside the horizontal outline 1020 of the picture, the upper region of the current block 1000 is the inner region 1026 of the picture and the lower region of the current transform unit 500 is the outer region of the picture ( 1028).
  • the current transform unit 1000 when the current transform unit 1000 is out of the horizontal outlines 1010 and 1020 of the picture, the current transform unit 1000 is divided in the horizontal direction so that the two transform units 1012, 1014, 1022, 1024). In this case, the split of the current transform unit 1000 does not require separate split information.
  • a block 1012 of one of the transform units 1012, 1014 split in the horizontal direction may still be outside the horizontal outline 1010 of the picture.
  • the transformation unit 1012 that deviates from the horizontal outline 1010 of the picture may be recursively divided according to a predetermined rule without using segmentation information until it does not deviate from the horizontal outline 1010 of the picture.
  • no transform or inverse transform is performed on the transform unit 1014.
  • the boundary between two transform units 1022 and 1024 bisected in the horizontal direction may coincide with the horizontal outline 1020 of the picture.
  • the transformation unit 1022 existing inside the horizontal outline 1020 of the picture may be transformed (or inversely transformed) without being further divided, and may be transformed into a plurality of transformation units by using the partitioning information parsed from the bitstream. It may be divided.
  • the transform unit 1024 existing outside the horizontal outline 1020 of the picture corresponds to the outer region 1028 of the picture, no transform (or inverse transform) is performed on the transform unit 1024.
  • the current transformation unit 1000 deviates from the vertical outlines 1030 and 1040 of the picture. If the current transform unit 1000 is outside the vertical outline 1030 of the picture, the left region of the current transform unit 1000 is the inner region 1036 of the picture and the right region of the current transform unit 1000 is the outer region of the picture. (1038). If the current transform unit 1000 is outside the vertical outline 1040 of the picture, the left region of the current transform unit 1000 is the inner region 1046 of the picture and the right region of the current transform unit 1000 is the outer region of the picture. (1048).
  • the current transform unit 1000 when the current transform unit 1000 is outside the vertical outlines 1030 and 1040 of the picture, the current transform unit 1000 is divided in the vertical direction so that two transform units 1032, 1034, 1042, 1044). In this case, the split of the current transform unit 1000 does not require separate split information.
  • one of the transform units 1032 of the transform units 1032, 1034 divided in the vertical direction may still be outside the vertical outline 1030 of the picture.
  • the transformation unit 1032 deviating from the vertical outline 1030 of the picture may be recursively divided according to a predetermined rule without using segmentation information until it does not deviate from the vertical outline 1030 of the picture.
  • no transform or inverse transform is performed on the transform unit 1034.
  • the boundary between the transformation units 1042 and 1044 divided in the vertical direction may coincide with the vertical outline 1040 of the picture.
  • the transformation unit 1042 existing inside the vertical outline 1040 of the picture may no longer be divided, but may be transformed (or inversely transformed), and may be divided into a plurality of transformation units by using the partitioning information parsed from the bitstream. It may be divided.
  • the transform unit 1044 that is outside the vertical outline 1040 of the picture corresponds to the outer region 1048 of the picture, no transform (or inverse transform) is performed on the transform unit 1044.
  • the current transformation unit 1000 may be outside the corner outlines 1050 and 1060 of the picture. If the current transform unit 1000 is outside the edge outline 1050 of the picture, the upper left region of the current transform unit 1000 is the inner region 1056 of the picture and the remaining region of the current transform unit 1000 is the outer portion of the picture. Region 1057. If the current transform unit 1000 is outside the edge outline 1060 of the picture, the upper left region of the current transform unit 1000 is the inner region 1066 of the picture and the remaining region of the current transform unit 1000 is the outer portion of the picture. Region 1067.
  • the current transform unit 1000 when the current transform unit 1000 is outside the edge outlines 1050 and 1060 of the picture, the current transform unit 1000 is divided into horizontal and vertical directions so that the four transform units 1051, 1052, 1053, 1054, 1061, 1062, 1063, 1064). In this case, the split of the current transform unit 1000 does not require separate split information.
  • the transform unit 1051 of one of the transform units 1051, 1052, 1053, 1054 split in the horizontal and vertical directions may still be outside the edge outline 1050 of the picture.
  • the transformation unit 1051 deviating from the edge outline 1050 of the picture may be recursively divided according to a predetermined rule without using segmentation information until it does not deviate from the edge outline 1050 of the picture.
  • the transform units 1052, 1053, and 1054 that exist outside the edge outline 1050 of the picture correspond to the outer region 1057 of the picture, and thus, the transform units 1052, 1053, and 1054 may be converted to the transform units 1052, 1053, and 1054. Or inverse transform) is not performed.
  • At least one of the boundaries between transform units 1061, 1062, 1063, 1064 divided in the horizontal and vertical directions may coincide with the edge outline 1060 of the picture.
  • the transform unit 1061 existing inside the edge outline 1060 of the picture may be transformed (or inverse transformed) without being split any more, and may be transformed into a plurality of transform units by using the partitioning information parsed from the bitstream. It may be divided.
  • the transform units 1062, 1063, and 1064 that exist outside the edge outline 1060 of the picture correspond to the outer region 1067 of the picture, so that the transform units 1062, 1063, and 1064 are converted to the transform units 1062, 1063, and 1064. Or inverse transform) is not performed.
  • FIG. 11 is a flowchart illustrating an image encoding method, according to an exemplary embodiment.
  • reference pixels for dividing a coding unit among pixels adjacent to the coding unit are determined.
  • a split position indicating a position of a boundary for dividing the coding unit is determined based on at least one of a position where the pixel degree of change among the reference pixels is largest and a position of the detected edge.
  • the coding unit is split in a predetermined direction based on the split position, and a plurality of prediction units are obtained from the coding unit.
  • FIG. 12 is a flowchart illustrating an image decoding method, according to another exemplary embodiment.
  • step S1210 split reference position information indicating a reference position of at least one boundary for dividing a coding unit from the bitstream is obtained.
  • one or more boundaries are determined by dividing the coding unit from the reference position in the predetermined direction at predetermined pixel intervals based on the split reference position information.
  • a plurality of prediction units are split from coding units based on one or more boundaries.
  • FIG. 13 is a flowchart illustrating a method of decoding an image, according to another exemplary embodiment.
  • operation S1310 it is determined whether the current transformation unit deviates from the outline of the picture by comparing the position in the picture of the current transformation unit divided from the coding unit with at least one of the width and the height of the picture.
  • an inverse transform is performed on a transform unit that is no longer divided among the plurality of transform units.
  • FIGS. 14 to 27 a method of determining a data unit of an image according to an embodiment will be described with reference to FIGS. 14 to 27.
  • the division method for the coding units described with reference to FIGS. 14 to 27 may be similarly applied to the division method of the transformation unit that is the basis of transformation.
  • FIG. 14 illustrates a process of determining, by the image decoding apparatus 200, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the image decoding apparatus 200 may determine a shape of a coding unit by using block shape information, and determine in which form the coding unit is divided by using split shape information. That is, the method of dividing the coding unit indicated by the segmentation form information may be determined according to which block form the block form information used by the image decoding apparatus 200 indicates.
  • the image decoding apparatus 200 may use block shape information indicating that a current coding unit is square. For example, the image decoding apparatus 200 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split type information.
  • the decoder 220 may have the same size as the current coding unit 1400 according to the split shape information indicating that the block shape information is not divided.
  • the split coding unit 1410a may not be divided, or the split coding unit 1410b, 1410c, 1410d, etc. may be determined based on split type information indicating a predetermined division method.
  • the image decoding apparatus 200 determines two coding units 1410b dividing the current coding unit 1400 in the vertical direction, based on split type information indicating that the image is split in the vertical direction. Can be.
  • the image decoding apparatus 200 may determine two coding units 1410c dividing the current coding unit 1400 in the horizontal direction based on the split type information indicating the split in the horizontal direction.
  • the image decoding apparatus 200 may determine four coding units 1410d dividing the current coding unit 1400 in the vertical direction and the horizontal direction based on the split type information indicating that the image decoding apparatus 200 is split in the vertical direction and the horizontal direction.
  • the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG. 15 illustrates a process of determining, by the image decoding apparatus 200, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 200 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 200 may determine whether to divide the current coding unit of the non-square according to the segmentation type information or to split it by a predetermined method.
  • the image decoding apparatus 200 may not split the current coding unit 1500 according to the split shape information.
  • coding units 1510a, 1520b, 1530a, 1530b, 1530c, 1570a which do not divide the coding units 1510 or 1560 having the same size as 1550, or are divided based on the segmentation type information indicating a predetermined division method. 1570b, 1580a, 1580b, 1580c).
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 200 may determine a shape in which a coding unit is divided using split shape information.
  • the split shape information may include the number of at least one coding unit generated by splitting a coding unit. Can be represented.
  • the image decoding apparatus 200 may determine the current coding unit 1500 or 1550 based on the split type information.
  • the two coding units 1520a, 11820b, or 1570a, 1570b included in the current coding unit may be determined by dividing.
  • the image decoding apparatus 200 when the image decoding apparatus 200 divides the current coding unit 1500 or 1550 of the non-square shape based on the split shape information, the image coding apparatus 200 of the non-square current coding unit 1500 or 1550 may be used.
  • the current coding unit may be split in consideration of the position of the long side.
  • the image decoding apparatus 200 divides the current coding unit 1500 or 1550 in a direction of dividing a long side of the current coding unit 1500 or 1550 in consideration of the shape of the current coding unit 1500 or 1550. To determine a plurality of coding units.
  • the image decoding apparatus 200 may determine an odd number of coding units included in the current coding unit 1500 or 1550. For example, when the split type information indicates that the current coding unit 1500 or 1550 is divided into three coding units, the image decoding apparatus 200 may divide the current coding unit 1500 or 1550 into three coding units 1530a. , 1530b, 1530c, 1580a, 1580b, and 1580c. According to an embodiment, the image decoding apparatus 200 may determine an odd number of coding units included in the current coding unit 1500 or 1550, and not all sizes of the determined coding units may be the same.
  • the size of a predetermined coding unit 1530b or 1580b among the determined odd coding units 1530a, 1530b, 1530c, 1580a, 1580b, and 1580c may be different from other coding units 1530a, 1530c, 1580a, and 1580c. May have That is, a coding unit that may be determined by dividing the current coding unit 1500 or 1550 may have a plurality of types, and in some cases, odd number of coding units 1530a, 1530b, 1530c, 1580a, 1580b, and 1580c. Each may have a different size.
  • the image decoding apparatus 200 may determine an odd number of coding units included in the current coding unit 1500 or 1550.
  • the image decoding apparatus 200 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing.
  • the image decoding apparatus 200 may include a coding unit positioned at the center of three coding units 1530a, 1530b, 1530c, 1580a, 1580b, and 1580c generated by dividing a current coding unit 1500 or 1550.
  • the decoding process for (1530b, 1580b) may be different from other coding units 1530a, 1530c, 1580a, and 1580c.
  • the image decoding apparatus 200 restricts the coding units 1530b and 1580b from being no longer divided or only a predetermined number of times. You can limit it to split.
  • 16 illustrates a process of splitting a coding unit by the image decoding apparatus 200 based on at least one of block shape information and split shape information, according to an embodiment.
  • the image decoding apparatus 200 may determine to divide or not divide the first coding unit 1600 having a square shape into coding units based on at least one of block shape information and split shape information.
  • the image decoding apparatus 200 divides the first coding unit 1600 in the horizontal direction to divide the second coding unit. 1610 may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units.
  • the first coding unit is split
  • the second coding unit may be determined.
  • the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 200 may determine to divide or not split the determined second coding unit 1610 into coding units based on at least one of block shape information and split shape information. Referring to FIG. 16, the image decoding apparatus 200 may determine a second coding unit 1610 having a non-square shape determined by dividing the first coding unit 1600 based on at least one of block shape information and split shape information. It may be split into at least one third coding unit 1620a, 1620b, 1620c, 1620d, or the like, or may not split the second coding unit 1610.
  • the image decoding apparatus 200 may obtain at least one of the block shape information and the split shape information, and the image decoding apparatus 200 may determine the first coding unit 1600 based on at least one of the obtained block shape information and the split shape information.
  • the unit 1600 may be divided according to the divided manner. According to an embodiment, when the first coding unit 1600 is divided into the second coding unit 1610 based on at least one of the block shape information and the split shape information for the first coding unit 1600, the second coding unit 1600 may be divided into the second coding unit 1600.
  • the coding unit 1610 may also be split into third coding units (eg, 1620a, 1620b, 1620c, 1620d, etc.) based on at least one of block shape information and split shape information of the second coding unit 1610. have. That is, the coding unit may be recursively divided based on at least one of the partition shape information and the block shape information associated with each coding unit. Therefore, a square coding unit may be determined in a non-square coding unit, and a coding unit of a square shape may be recursively divided to determine a coding unit of a non-square shape. Referring to FIG.
  • a predetermined coding unit (eg, located in the center of an odd number of third coding units 1620b, 1620c, and 1620d determined by dividing a second coding unit 1610 having a non-square shape) may be included. Coding units or coding units having a square shape) may be recursively divided. According to an embodiment, the third coding unit 1620c having a square shape, which is one of odd third coding units 1620b, 1620c, and 1620d, may be divided in a horizontal direction and divided into a plurality of fourth coding units. The fourth coding unit 1240 having a non-square shape, which is one of the plurality of fourth coding units, may be divided into a plurality of coding units. For example, the fourth coding unit 1240 having a non-square shape may be divided into odd coding units 1250a, 1250b, and 1250c.
  • the image decoding apparatus 200 divides each of the third coding units 1620a, 1620b, 1620c, 1620d, etc. into coding units or based on at least one of the block shape information and the split shape information. It may be determined that the unit 1610 is not divided. According to an embodiment, the image decoding apparatus 200 may split the second coding unit 1610 having a non-square shape into an odd number of third coding units 1620b, 1620c, and 1620d. The image decoding apparatus 200 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 1620b, 1620c, and 1620d.
  • the image decoding apparatus 200 may be limited to the number of coding units 1620c positioned in the middle of the odd number of third coding units 1620b, 1620c, and 1620d, or may be divided by a set number of times. It can be limited to.
  • the image decoding apparatus 200 may include a coding unit positioned at the center of odd-numbered third coding units 1620b, 1620c, and 1620d included in the second coding unit 1610 having a non-square shape.
  • 1620c is no longer divided, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to the divided form of the second coding unit 1610), or predetermined.
  • the image decoding apparatus 200 may obtain at least one of block shape information and split shape information used to divide a current coding unit at a predetermined position in the current coding unit.
  • FIG. 17 is a diagram for a method of determining, by an image decoding apparatus 200, a predetermined coding unit among odd number of coding units, according to an exemplary embodiment.
  • at least one of the block shape information and the split shape information of the current coding unit 1700 may be a sample of a predetermined position (for example, located at the center of a plurality of samples included in the current coding unit 1700). Sample 1740).
  • a predetermined position in the current coding unit 1700 from which at least one of such block shape information and split shape information may be obtained should not be interpreted as being limited to the middle position shown in FIG. 17, and the current coding unit 1700 is located at the predetermined position.
  • the image decoding apparatus 200 may determine whether to divide or not split the current coding unit into coding units having various shapes and sizes by obtaining at least one of block shape information and split shape information obtained from a predetermined position.
  • the image decoding apparatus 200 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the image decoding apparatus 200 may divide a current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
  • FIG. 17 is a diagram for a method of determining, by an image decoding apparatus 200, a coding unit of a predetermined position among odd-numbered coding units according to an embodiment.
  • the image decoding apparatus 200 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 17, the image decoding apparatus 200 may determine an odd number of coding units 1720a, 1720b, and 1320c by dividing the current coding unit 1700. The image decoding apparatus 200 may determine the center coding unit 1720b by using information about the positions of the odd number of coding units 1720a, 1720b, and 1320c. For example, the image decoding apparatus 200 determines the positions of the coding units 1720a, 1720b, and 1320c based on information indicating the positions of predetermined samples included in the coding units 1720a, 1720b, and 1320c.
  • the coding unit 1720b positioned at may be determined.
  • the image decoding apparatus 200 may determine the location of the coding units 1720a, 1720b, and 1320c based on the information indicating the positions of the samples 1730a, 1730b, and 1730c in the upper left of the coding units 1720a, 1720b, and 1320c. By determining the position, the coding unit 1720b positioned in the center may be determined.
  • the information indicating the positions of the samples 1730a, 1730b, and 1730c in the upper left included in the coding units 1720a, 1720b, and 1320c, respectively may be located in the pictures of the coding units 1720a, 1720b, and 1320c. Or it may include information about the coordinates. According to an embodiment, the information indicating the positions of the samples 1730a, 1730b, and 1730c in the upper left included in the coding units 1720a, 1720b, and 1320c, respectively, may be included in the coding units 1720a and 1720b in the current coding unit 1700.
  • 1320c may include information indicating width or height, and the width or height may correspond to information indicating a difference between coordinates in the pictures of the coding units 1720a, 1720b, and 1320c. That is, the image decoding apparatus 200 may directly use information about the position or coordinates in the pictures of the coding units 1720a, 1720b, and 1320c, or may obtain information about the width or height of the coding unit corresponding to the difference between the coordinates. By using this, the coding unit 1720b positioned in the center can be determined.
  • the information indicating the position of the sample 1730a at the upper left of the upper coding unit 1720a may indicate (xa, ya) coordinates, and the sample 1730b at the upper left of the middle coding unit 1720b.
  • the information indicating the position of) may indicate the (xb, yb) coordinates, and the information indicating the position of the sample 1730c on the upper left of the lower coding unit 1320c may indicate the (xc, yc) coordinates.
  • the image decoding apparatus 200 may determine the center coding unit 1720b using the coordinates of the samples 1730a, 1730b, and 1730c in the upper left included in the coding units 1720a, 1720b, and 1320c, respectively.
  • a coding unit 1720b including (xb, yb), which is the coordinate of the sample 1730b located at the center. May be determined as a coding unit located in the middle of the coding units 1720a, 1720b, and 1320c determined by splitting the current coding unit 1700.
  • the coordinates indicating the positions of the samples 1730a, 1730b, and 1730c at the upper left may indicate coordinates indicating the absolute positions in the picture, and further, the positions of the samples 1730a at the upper left of the upper coding unit 1720a.
  • the (dxb, dyb) coordinate which is information indicating the relative position of the sample 1730b at the upper left of the center coding unit 1720b, and the relative position of the sample 1730c at the upper left of the lower coding unit 1320c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample are available. It should be interpreted in a way.
  • the image decoding apparatus 200 may split the current coding unit 1700 into a plurality of coding units 1720a, 1720b, and 1320c, and may determine a predetermined criterion among the coding units 1720a, 1720b, and 1320c. According to the coding unit can be selected. For example, the image decoding apparatus 200 may select coding units 1720b having different sizes from among coding units 1720a, 1720b, and 1320c.
  • the image decoding apparatus 200 may have (xa, ya) coordinates, information indicating a position of a sample 1730a on the upper left side of the upper coding unit 1720a, and a sample on the upper left side of the center coding unit 1720b.
  • Coding unit 1720a using (xb, yb) coordinates indicating information of position of 1730b and (xc, yc) coordinates indicating information of sample 1730c of upper left of lower coding unit 1320c.
  • 1720b and 1320c may determine the width or height of each.
  • the image decoding apparatus 200 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 1720a, 1720b, and 1320c, and encodes the units 1720a, 1720b, and 1320c. ) Each size can be determined.
  • the image decoding apparatus 200 may determine the width of the upper coding unit 1720a as xb-xa and the height as yb-ya. According to an embodiment, the image decoding apparatus 200 may determine the width of the central coding unit 1720b as xc-xb and the height as yc-yb. According to an embodiment, the image decoding apparatus 200 may determine the width or height of the lower coding unit using the width or height of the current coding unit, and the width and height of the upper coding unit 1720a and the center coding unit 1720b. .
  • the image decoding apparatus 200 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 1720a, 1720b, and 1320c. Referring to FIG. 17, the image decoding apparatus 200 may determine a coding unit 1720b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 1720a and the lower coding unit 1320c. However, in the above-described process of determining, by the image decoding apparatus 200, a coding unit having a different size from another coding unit, the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates. In this regard, various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 200 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 200 may determine the coding unit at a predetermined position along the horizontal direction. That is, the image decoding apparatus 200 may determine one of the coding units having different positions in the horizontal direction to limit the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 200 may determine the coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 200 may determine one of the coding units having different positions in the vertical direction, and limit the corresponding coding unit.
  • the image decoding apparatus 200 may use information indicating the positions of each of the even coding units in order to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 200 may determine an even number of coding units by dividing a current coding unit and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process thereof may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a middle position) among the odd number of coding units described above with reference to FIG.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 200 may determine the block shape information and the split shape stored in a sample included in the middle coding unit during the splitting process to determine a coding unit positioned among the coding units in which the current coding unit is divided into a plurality. At least one of the information may be used.
  • the image decoding apparatus 200 may split the current coding unit 1700 into a plurality of coding units 1720a, 1720b, and 1320c based on at least one of block shape information and split shape information.
  • a coding unit 1720b positioned in the center of the plurality of coding units 1720a, 1720b, and 1320c may be determined.
  • the image decoding apparatus 200 may determine a coding unit 1720b positioned in the center in consideration of a position where at least one of block shape information and split shape information is obtained.
  • At least one of the block shape information and the split shape information of the current coding unit 1700 may be obtained from a sample 1740 positioned in the center of the current coding unit 1700, and the block shape information and the split shape information may be obtained.
  • the coding unit 1720b including the sample 1740 is a coding unit positioned at the center. You can decide.
  • the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information, and various types of information may be used in the process of determining the coding unit located in the center. Can be.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 200 may divide a current coding unit 1700 into a plurality of coding units (eg, divided into a plurality of coding units 1720a, 1720b, and 1320c) determined by splitting the current coding unit 1700.
  • Block shape information obtained from a sample at a predetermined position (for example, a sample located in the center of the current coding unit 1700) in the current coding unit 1700 to determine a coding unit located in the center of the coding units; At least one of the partition type information may be used. .
  • the image decoding apparatus 200 may determine the sample at the predetermined position in consideration of the block block form of the current coding unit 1700, and the image decoding apparatus 200 may determine that the current coding unit 1700 is divided and determined.
  • a coding unit 1720b including a sample from which predetermined information (for example, at least one of block shape information and split shape information) may be obtained may be determined.
  • predetermined information for example, at least one of block shape information and split shape information
  • the image decoding apparatus 200 may determine a sample 1740 positioned in the center of the current coding unit 1700 as a sample from which predetermined information may be obtained.
  • the 200 may set a predetermined limit in the decoding process of the coding unit 1720b including the sample 1740.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 1720b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 1700.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 200 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of the information on the width and the height on the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 200 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 200 when the image decoding apparatus 200 divides a current coding unit into a plurality of coding units, at least one of block shape information and split shape information may be used to determine a coding unit of a predetermined position among a plurality of coding units. You can use one.
  • the image decoding apparatus 200 may obtain at least one of block shape information and split shape information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 200 may divide the current coding unit.
  • the generated plurality of coding units may be divided using at least one of split shape information and block shape information obtained from a sample of a predetermined position included in each of the plurality of coding units.
  • the coding unit may be recursively split using at least one of block shape information and split shape information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 16, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 18 is a diagram illustrating an order in which a plurality of coding units are processed when the image decoding apparatus 200 determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 200 determines the second coding units 1810a and 1810b by dividing the first coding unit 1800 in the vertical direction according to the block shape information and the split shape information.
  • the second coding unit 1850a, 1850b, 1850c, or 1850d may be determined by dividing the 1800 in the horizontal direction to determine the second coding units 1830a and 1830b, or by splitting the first coding unit 1800 in the vertical and horizontal directions. Can be determined.
  • the image decoding apparatus 200 may determine an order such that the second coding units 1810a and 1810b determined by dividing the first coding unit 1800 in the vertical direction are processed in the horizontal direction 1810c. .
  • the image decoding apparatus 200 may determine the processing order of the second coding units 1830a and 1830b determined by dividing the first coding unit 1800 in the horizontal direction, in the vertical direction 1830c.
  • the image decoding apparatus 200 may process the coding units in which the second coding units 1850a, 1850b, 1850c, and 1850d determined by dividing the first coding unit 1800 in the vertical direction and the horizontal direction are processed. It may be determined according to a predetermined order (for example, raster scan order or z scan order 1850e, etc.) in which coding units located in a next row are processed.
  • a predetermined order for example, raster scan order or z scan order 1850e, etc.
  • the image decoding apparatus 200 may recursively split coding units.
  • the image decoding apparatus 200 may determine a plurality of coding units 1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, and 1850d by dividing the first coding unit 1800.
  • Each of the determined coding units 1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, and 1850d may be recursively divided.
  • the method of dividing the plurality of coding units 1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, and 1850d may correspond to a method of dividing the first coding unit 1800.
  • the plurality of coding units 1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, and 1850d may be independently divided into a plurality of coding units.
  • the image decoding apparatus 200 may determine the second coding units 1810a and 1810b by dividing the first coding unit 1800 in the vertical direction, and further, respectively, the second coding units 1810a and 1810b. It can be decided to split independently or not.
  • the image decoding apparatus 200 may divide the second coding unit 1810a on the left side into horizontal units and split the second coding unit 1820a and 1820b into the second coding unit 1810b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 200 may independently determine the order in which the third coding units 1820a and 1820b, which are determined by splitting the second coding unit 1810a on the left side, are processed independently of the second coding unit 1810b on the right side. Since the second coding unit 1810a on the left is divided in the horizontal direction to determine the third coding units 1820a and 1820b, the third coding units 1820a and 1820b may be processed in the vertical direction 1820c.
  • the third coding unit included in the second coding unit 1810a on the left side corresponds to the horizontal direction 1810c
  • the right coding unit 1810b may be processed.
  • FIG. 19 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 200 may not process the coding units in a predetermined order, according to an exemplary embodiment.
  • the image decoding apparatus 200 may determine that the current coding unit is divided into odd coding units based on the obtained block shape information and the split shape information.
  • a first coding unit 1900 having a square shape may be divided into second coding units 1910a and 1910b having a non-square shape, and each of the second coding units 1910a and 1910b may be independently formed. It may be divided into three coding units 1920a, 1920b, 1920c, 1920d, and 1920e.
  • the image decoding apparatus 200 may determine a plurality of third coding units 1920a and 1920b by dividing the left coding unit 1910a in a horizontal direction among the second coding units, and may include the right coding unit 1910b. ) May be divided into odd third coding units 1920c, 1920d, and 1920e.
  • the image decoding apparatus 200 determines whether there are oddly divided coding units by determining whether the third coding units 1920a, 1920b, 1920c, 1920d, and 1920e may be processed in a predetermined order. You can decide. Referring to FIG. 19, the image decoding apparatus 200 may determine third coding units 1920a, 1920b, 1920c, 1920d, and 1920e by recursively dividing the first coding unit 1900.
  • the image decoding apparatus 200 may include a first coding unit 1900, a second coding unit 1910a, 1910b, or a third coding unit 1920a, 1920b, 1920c, based on at least one of block shape information and split shape information. It is possible to determine whether or not the video data is divided into odd coding units among the divided formats.
  • a coding unit located on the right side of the second coding units 1910a and 1910b may be divided into odd third coding units 1920c, 1920d, and 1920e.
  • the order in which the plurality of coding units included in the first coding unit 1900 is processed may be a predetermined order (for example, a z-scan order 1930), and the image decoding apparatus ( 200 may determine whether the third coding unit 1920c, 1920d, or 1920e determined by splitting the right second coding unit 1910b into an odd number satisfies a condition that may be processed in the predetermined order.
  • the image decoding apparatus 200 may satisfy a condition that the third coding units 1920a, 1920b, 1920c, 1920d, and 1920e included in the first coding unit 1900 may be processed in a predetermined order. Whether the at least one of the width and the height of the second coding unit (1910a, 1910b) is divided in half according to the boundary of the third coding unit (1920a, 1920b, 1920c, 1920d, 1920e). Related. For example, the third coding units 1920a and 1920b determined by dividing the height of the left second coding unit 1910a in the non-square form in half satisfy the conditions, but the right second coding unit 1910b is 3 times.
  • the third coding units 1920c, 1920d, and 1920e may be determined to not satisfy the condition, and the image decoding apparatus 200 determines that the scan sequence is disconnected in the case of dissatisfaction with the condition, and the right second coding unit 1910b is determined based on the determination result. It may be determined to be divided into an odd number of coding units. According to an embodiment, when the image decoding apparatus 200 is divided into an odd number of coding units, the image decoding apparatus 200 may set a predetermined restriction on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may divide the first coding unit 2000 based on at least one of the block shape information and the split shape information acquired through the receiver 210.
  • the first coding unit 2000 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 200 may determine the first coding unit.
  • the image decoding apparatus 200 may form a square first coding unit 2000.
  • the image decoding apparatus 200 may be configured to process the second coding units 2010a, 2010b, 2010c, 2020a, 2020b, and 2020c included in the first coding unit 2000 in a predetermined order. May be determined, and the condition is whether at least one of the width and the height of the first coding unit 2000 is divided in half according to the boundary of the second coding units 2010a, 2010b, 2010c, 2020a, 2020b, and 2020c. It is related to whether or not. Referring to FIG. 20, a boundary between second coding units 2010a, 2010b, and 2010c, which is determined by dividing a square first coding unit 2000 in a vertical direction, divides the width of the first coding unit 2000 in half.
  • the first coding unit 2000 may be determined to not satisfy a condition that may be processed in a predetermined order. Also, since the boundary between the second coding units 2020a, 2020b, and 2020c, which is determined by dividing the first coding unit 2000 having a square shape in the horizontal direction, does not divide the width of the first coding unit 2000 in half, The one coding unit 2000 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 200 may determine that the scan order is disconnected, and determine that the first coding unit 2000 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 200 when the image decoding apparatus 200 is divided into an odd number of coding units, the image decoding apparatus 200 may set a predetermined restriction on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 200 may split a first coding unit 2000 having a square shape and a first coding unit 2030 or 2050 having a non-square shape into various coding units. .
  • FIG. 21 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 2100 meets a predetermined condition, according to an exemplary embodiment. It shows that the form that can be limited.
  • the image decoding apparatus 200 may determine a square-shaped first coding unit 2100 based on at least one of block shape information and segmentation shape information acquired through the receiver 210, and may include a non-square shape first. It may be determined by dividing into two coding units 2110a, 2110b, 2120a, and 2120b. The second coding units 2110a, 2110b, 2120a, and 2120b may be split independently. Accordingly, the image decoding apparatus 200 determines whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 2110a, 2110b, 2120a, and 2120b. Can be.
  • the image decoding apparatus 200 divides the left second coding unit 2110a of the non-square shape, which is determined by dividing the first coding unit 2100 in the vertical direction, in a horizontal direction, and then uses the third coding unit ( 2112a, 2112b).
  • the right second coding unit 2110b may have the same horizontal direction as the direction in which the left second coding unit 2110a is divided. It can be limited to not be divided into.
  • the right second coding unit 2110b is split in the same direction and the third coding units 2114a and 2114b are determined, the left second coding unit 2110a and the right second coding unit 2110b are respectively horizontally aligned.
  • the third coding units 2112a, 2112b, 2114a, and 2114b may be determined.
  • the image decoding apparatus 200 divides the first coding unit 2100 into four square second coding units 2130a, 2130b, 2130c, and 2130d based on at least one of block shape information and split shape information. This is the same result as the above, which may be inefficient in terms of image decoding.
  • the image decoding apparatus 200 splits a second coding unit 2120a or 2120b having a non-square shape, determined by dividing the first coding unit 11700 in a horizontal direction, into a third coding unit. (2122a, 2122b, 2124a, 2124b) can be determined.
  • a third coding unit (2122a, 2122b, 2124a, 2124b)
  • the image decoding apparatus 200 divides one of the second coding units (for example, the upper second coding unit 2120a) in the vertical direction
  • another image coding unit for example, the lower end
  • the coding unit 2120b may restrict the upper second coding unit 2120a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 22 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 200 when the split shape information cannot be divided into four square coding units according to an embodiment.
  • the image decoding apparatus 200 divides the first coding unit 2200 based on at least one of the block shape information and the split shape information to divide the second coding units 2210a, 2210b, 2220a, 2220b, and the like. You can decide.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the image decoding apparatus 200 may not divide the first coding unit 2200 having a square shape into the second coding units 2230a, 2230b, 2230c, and 2230d having four square shapes.
  • the image decoding apparatus 200 may determine the second coding units 2210a, 2210b, 2220a, 2220b, and the like having a non-square shape based on the split shape information.
  • the image decoding apparatus 200 may independently split the non-square second coding units 2210a, 2210b, 2220a, 2220b, and the like.
  • Each of the second coding units 2210a, 2210b, 2220a, 2220b, etc. may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information 2200a. ) May be a division method corresponding to the division method.
  • the image decoding apparatus 200 may determine the third coding units 2212a and 2212b having a square shape by dividing the left second coding unit 2210a in the horizontal direction, and the right second coding unit 2210b
  • the third coding units 2214a and 2214b having a square shape may be divided by being split in the horizontal direction.
  • the image decoding apparatus 200 may divide the left second coding unit 2210a and the right second coding unit 2210b in the horizontal direction to determine the third coding units 2216a, 2216b, 2216c, and 2216d having a square shape. have.
  • the coding unit may be determined in the same form as that in which the first coding unit 2200 is divided into four square second coding units 2230a, 2230b, 2230c, and 2230d.
  • the image decoding apparatus 200 may determine the third coding units 2222a and 2222b having a square shape by dividing the upper second coding unit 2220a in the vertical direction, and the lower second coding unit 2220b. ) May be divided in the vertical direction to determine the third coding units 2224a and 2224b having a square shape. Furthermore, the image decoding apparatus 200 may determine the third coding units 2222a, 2222b, 2224a, and 2224b having a square shape by splitting both the upper second coding unit 2220a and the lower second coding unit 2220b in the vertical direction. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 2200 is divided into four square second coding units 2230a, 2230b, 2230c, and 2230d.
  • FIG. 23 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • the image decoding apparatus 200 may divide the first coding unit 2300 based on the block shape information and the split shape information.
  • the image decoding apparatus 200 may determine the first coding unit 2300.
  • a second coding unit eg, 2310a, 2310b, 2320a, 2320b, 1930a, 1930b, 1930c, 1930d, etc.
  • non-square-type second coding units 2310a, 2310b, 2320a, and 2320b which are determined by dividing the first coding unit 2300 only in the horizontal direction or the vertical direction, respectively, may include block shape information and split shape information for each. It can be divided independently based on.
  • the image decoding apparatus 200 divides the second coding units 2310a and 2310b generated by splitting the first coding unit 2300 in the vertical direction in the horizontal direction, respectively, to determine the third coding units 2316a and 2316b, 2316c and 2316d, and the second coding units 2320a and 2320b generated by dividing the first coding unit 2300 in the horizontal direction are divided in the horizontal direction, respectively, to form the third coding units 2326a, 2326b and 2326c. 2326d). Since the division process of the second coding units 2310a, 2310b, 2320a, and 2320b has been described above with reference to FIG. 21, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 18, and thus detailed descriptions thereof will be omitted. Referring to FIG. 23, the image decoding apparatus 200 splits a first coding unit 2300 having a square shape, and thus, has four square third coding units 2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, and 2326d. ) Can be determined.
  • the image decoding apparatus 200 may process a sequence of the third coding units 2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, and 2326d according to the form in which the first coding unit 2300 is divided. You can decide.
  • the image decoding apparatus 200 determines the third coding units 2316a, 2316b, 2316c, and 2316d by dividing the second coding units 2310a and 2310b generated by dividing in the vertical direction, respectively, in the horizontal direction.
  • the image decoding apparatus 200 may first process the third coding units 2316a and 2316b included in the left second coding unit 2310a in the vertical direction, and then include the right coding unit 2310b.
  • the third coding units 2316a, 2316b, 2316c, and 2316d may be processed according to the order 2317 of processing the third coding units 2316c and 2316d in the vertical direction.
  • the image decoding apparatus 200 determines the third coding units 2326a, 2326b, 2326c, and 2326d by dividing the second coding units 2320a and 2320b generated by dividing in the horizontal direction, respectively.
  • the image decoding apparatus 200 may first process the third coding units 2326a and 2326b included in the upper second coding unit 2320a in the horizontal direction, and then include the lower coding unit 2320b.
  • the third coding units 2326a, 2326b, 2326c, and 2326d may be processed according to the order 2327 for processing the third coding units 2326c and 2326d in the horizontal direction.
  • second coding units 2310a, 2310b, 2320a, and 2320b may be divided, respectively, and square third coding units 2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, and 2326d may be determined. have.
  • the second coding units 2310a and 2310b that are determined by being divided in the vertical direction and the second coding units 2320a and 2320b that are determined by being divided into the horizontal direction are divided into different forms, but are determined later.
  • the first coding unit 2300 is divided into coding units having the same shape.
  • the apparatus 200 for decoding an image recursively splits a coding unit through a different process based on at least one of the block shape information and the split shape information, and as a result, the plurality of pictures having the same shape may be determined. Coding units may be processed in different orders.
  • FIG. 24 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the image decoding apparatus 200 may determine the depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 200 may have a square shape, based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 2400 may be divided to determine a second coding unit 2402, a third coding unit 2404, or the like of a lower depth.
  • the size of the square shape of the first encoding unit 2400 if it 2Nx2N, the first second encoding unit 2402 is determined by dividing the width and height of 1 to 1/2 of the coding units 2400 have a size of NxN Can be.
  • the third coding unit 2404 determined by dividing the width and the height of the second coding unit 2402 into half the size may have a size of N / 2 ⁇ N / 2. In this case, it corresponds to 1/2 2 times the width and height of the first encoding unit 2400, a third encoding unit (2404).
  • the depth of the first coding unit 2400 is D
  • the depth of the second coding unit 2402 which is 1/2 1 times the width and the height of the first coding unit 2400, may be D + 1
  • the first coding may be performed.
  • the depth of the third coding unit 2404, which is 1/2 2 times the width and the height of the unit 2400 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ')
  • the image decoding apparatus 200 may divide the first coding unit 2410 or 2420 having a non-square shape into a second coding unit 2412 or 2422 of a lower depth
  • the third coding unit 2414 or 2424 may be determined.
  • the image decoding apparatus 200 may determine a second coding unit (for example, 2402, 2412, 2422, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 2410. That is, the image decoding apparatus 200 may divide the first coding unit 2410 in the horizontal direction to determine a second coding unit 2402 having a size of NxN or a second coding unit 2422 having a size of NxN / 2.
  • the second coding unit 2412 having the size of N / 2 ⁇ N may be determined by dividing in the horizontal direction and the vertical direction.
  • the image decoding apparatus 200 determines a second coding unit (eg, 2402, 2412, 2422, etc.) by dividing at least one of a width and a height of the 2N ⁇ N first coding unit 2420. It may be. That is, the image decoding apparatus 200 may divide the first coding unit 2420 in the vertical direction to determine a second coding unit 2402 having an NxN size or a second coding unit 2412 having an N / 2xN size.
  • the second coding unit 2422 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 200 determines a third coding unit (eg, 2404, 2414, 2424, etc.) by dividing at least one of a width and a height of the NxN sized second coding unit 2402. It may be. That is, the image decoding apparatus 200 determines the third coding unit 2404 having the size of N / 2 ⁇ N / 2 by dividing the second coding unit 2402 in the vertical direction and the horizontal direction, or N / 2 2 xN / 2 size. The third coding unit 2414 may be determined, or a third coding unit 2424 having a size of N / 2 ⁇ N / 2 2 may be determined.
  • a third coding unit eg, 2404, 2414, 2424, etc.
  • the image decoding apparatus 200 splits at least one of a width and a height of the N / 2xN sized second coding unit 2412 to form a third coding unit (for example, 2404, 2414, 2424, etc.). May be determined. That is, the image decoding apparatus 200 divides the second coding unit 2412 in the horizontal direction, so that the third coding unit 2404 having N / 2 ⁇ N / 2 size or the third coding unit having N / 2 ⁇ N / 2 2 ( The 2424 may be determined or divided into vertical and horizontal directions to determine the third coding unit 2414 having a size of N / 2 2 xN / 2.
  • the image decoding apparatus 200 splits at least one of a width and a height of the NxN / 2 sized second coding unit 2414 to form a third coding unit (eg, 2404, 2414, 2424, etc.). May be determined. That is, the image decoding apparatus 200 divides the second coding unit 2412 in the vertical direction to form a third coding unit 2404 having a size of N / 2 ⁇ N / 2 or a third coding unit having a size of N / 2 2 xN / 2.
  • the second coding unit 2424 having a size of N / 2 ⁇ N / 2 2 may be determined by determining 2414 or dividing it in the vertical direction and the horizontal direction.
  • the image decoding apparatus 200 may divide a square coding unit (for example, 2400, 2402, 2404) in a horizontal direction or a vertical direction.
  • the first coding unit 2400 having a size of 2Nx2N is divided in a vertical direction to determine a first coding unit 2410 having a size of Nx2N, or the first coding unit 2420 having a size of 2NxN is determined by splitting in a horizontal direction.
  • the depth of the coding unit determined by splitting the first coding unit 2400, 2402, or 2404 having a size of 2N ⁇ 2N into the horizontal or vertical direction is determined. May be the same as the depth of the first coding unit 2400, 2402, or 2404.
  • the width and height of the third coding unit 2414 or 2424 may correspond to 1/2 2 times of the first coding unit 2410 or 2420.
  • the depth of the first coding unit 2410 or 2420 is D
  • the depth of the second coding unit 2412 or 2414 which is 1/2 the width and height of the first coding unit 2410 or 2420, may be D + 1.
  • the depth of the third coding unit 2414 or 2424 which is 1/2 2 times the width and the height of the first coding unit 2410 or 2420, may be D + 2.
  • FIG. 25 illustrates a depth and a part index (PID) for distinguishing a coding unit, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the image decoding apparatus 200 may determine a second coding unit having various forms by dividing the first coding unit 2500 having a square shape. Referring to FIG. 25, the image decoding apparatus 200 divides the first coding unit 2500 in at least one of a vertical direction and a horizontal direction according to the split type information to form second coding units 2502a, 2502b, 2504a, and the like. 2504b, 2506a, 2506b, 2506c, 2506d). That is, the image decoding apparatus 200 may determine the second coding units 2502a, 2502b, 2504a, 2504b, 2506a, 2506b, 2506c, and 2506d based on the split shape information about the first coding unit 2500.
  • the second coding units 2502a, 2502b, 2504a, 2504b, 2506a, 2506b, 2506c, and 2506d which are determined according to split shape information about the first coding unit 2500 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 2500 having a square shape and the length of the long side of the second coding units 2502a, 2502b, 2504a and 2504b having a non-square shape are the same, the first coding unit ( 2500 and the depths of the non-square second coding units 2502a, 2502b, 2504a, and 2504b may be regarded as D.
  • the image decoding apparatus 200 divides the first coding unit 2500 into four square coding units 2506a, 2506b, 2506c, and 2506d based on the split form information
  • the image coding apparatus 200 divides the first coding unit into a square form. Since the length of one side of the two coding units 2506a, 2506b, 2506c, and 2506d is 1/2 times the length of one side of the first coding unit 2500, the depths of the second coding units 2506a, 2506b, 2506c, and 2506d. May be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 2500.
  • the image decoding apparatus 200 divides a first coding unit 2510 having a shape having a height greater than a width in a horizontal direction according to split shape information, and thus includes a plurality of second coding units 2512a, 2512b, 2514a, 2514b, 2514c). According to an exemplary embodiment, the image decoding apparatus 200 divides a first coding unit 2520 having a width greater than a height in a vertical direction according to split shape information, thereby performing a plurality of second coding units 2522a, 2522b, 2524a, 2524b, 2524c).
  • the second coding units 2512a, 2512b, 2514a, 2514b, 2116a, 2116b, 2116c, and 2116d that are determined according to split shape information about the first coding unit 2510 or 2520 having a non-square shape may be used. Depth may be determined based on the length of the long side. For example, since the length of one side of the second coding units 2512a and 2512b having a square shape is 1/2 times the length of one side of the first coding unit 2510 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 2502a, 2502b, 2504a, and 2504b of the form are D + 1, which is one depth lower than the depth D of the first coding unit 2510 of the non-square form.
  • the image decoding apparatus 200 may divide the non-square first coding unit 2510 into odd second coding units 2514a, 2514b, and 2514c based on the split shape information.
  • the odd numbered second coding units 2514a, 2514b, and 2514c may include second coding units 2514a and 2514c having a non-square shape and second coding units 2514b having a square shape.
  • the length of the long side of the second coding units 2514a and 2514c of the non-square shape and the length of one side of the second coding unit 2514b of the square shape is 1 / time of the length of one side of the first coding unit 2510.
  • the depths of the second coding units 2514a, 2514b, and 2514c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 2510.
  • the image decoding apparatus 200 corresponds to the method of determining depths of coding units related to the first coding unit 2510 and is related to the first coding unit 2520 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 200 may determine the size ratio between the coding units when the odd-numbered split coding units are not the same size.
  • the index can be determined based on this.
  • a coding unit 2514b positioned at the center of odd-numbered split coding units 2514a, 2514b, and 2514c may have the same width as the other coding units 2514a and 2514c but have different heights. It may be twice the height of the fields (2514a, 2514c). That is, in this case, the coding unit 2514b positioned in the center may include two of the other coding units 2514a and 2514c.
  • the image decoding apparatus 200 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 200 may determine whether the image decoding apparatus 200 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 25, the image decoding apparatus 200 determines an even number of coding units 2512a and 2512b by dividing a first coding unit 2510 having a rectangular shape having a height greater than a width, or an odd number of coding units 2514a and 2514b. , 2514c). The image decoding apparatus 200 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 200 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment, when the split type information of the first coding unit 2510 having a height greater than the width is divided into three coding units, the image decoding apparatus 200 may determine the first coding unit 2510. It may be divided into three coding units 2514a, 2514b, and 2514c. The image decoding apparatus 200 may allocate an index for each of three coding units 2514a, 2514b, and 2514c. The image decoding apparatus 200 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 200 encodes a coding unit 2514b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 2510. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, when the coding units are not the same size, the image decoding apparatus 200 may determine the index based on the size ratio between the coding units. . Referring to FIG. 25, the coding unit 2514b generated by dividing the first coding unit 2510 may include the coding units 2514a and 2514c having the same width but different heights as the other coding units 2514a and 2514c.
  • the image decoding apparatus 200 may determine that the image decoding apparatus 200 is divided into a plurality of coding units including a coding unit having a different size from other coding units.
  • the image decoding apparatus 200 may have a coding unit having a different coding unit (for example, a middle coding unit) at a predetermined position among odd-numbered coding units. May split the current coding unit into another form.
  • the image decoding apparatus 200 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 200 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 26 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 200 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 200 may divide a plurality of reference data units for dividing a current picture by using split information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 200 may predetermine the minimum size that the reference data unit included in the current picture may have. Accordingly, the image decoding apparatus 200 may determine reference data units having various sizes having a minimum size or more, and determine at least one coding unit using block shape information and split shape information based on the determined reference data units. You can decide.
  • the image decoding apparatus 200 may use a reference coding unit 2600 having a square shape, or may use a reference coding unit 2602 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiver 210 of the image decoding apparatus 200 may obtain at least one of information on the shape of a reference coding unit and information on the size of the reference coding unit from each bitstream in the various data units. .
  • the process of determining at least one coding unit included in the reference coding unit 2600 having a square shape has been described above by splitting the current coding unit of FIG. 14, and included in the reference coding unit 2600 having a non-square shape. Since the process of determining at least one coding unit is described above through the process of splitting the current coding unit 1500 or 1550 of FIG. 15, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units eg, sequence, picture, slice, slice segment, maximum coding unit, etc.
  • an index for identifying the size and shape of the reference coding unit may be obtained.
  • the image decoding apparatus 200 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 200 selects at least one of the predetermined size and shape of the reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the index acquisition index. You can decide.
  • the image decoding apparatus 200 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 200 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, at least one of the block shape information and the split shape information according to various embodiments. Can be divided based on.
  • FIG. 27 illustrates a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 2700, according to an embodiment.
  • the image decoding apparatus 200 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the image decoding apparatus 200 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 200 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the receiver 210 of the image decoding apparatus 200 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 210 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 200 may at least divide the picture using the information about the size of the acquired processing block.
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 200 may determine the sizes of the processing blocks 2702 and 2712 included in the picture 2700. For example, the image decoding apparatus 200 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 27, the image decoding apparatus 200 according to an embodiment may include a horizontal size of the processing blocks 2702 and 2712 as four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit. You can decide. The image decoding apparatus 200 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 200 may determine each processing block 2702 and 2712 included in the picture 2700 based on the size of the processing block, and include the processing block 2702 and 2712 in the processing block 2702 and 2712.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 200 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order The order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 200 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 210 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 200 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the receiver 210 may obtain information on a determination order of a reference coding unit from the bitstream as information related to the processing blocks 2702 and 2712, and the image decoding apparatus 200 may process the processing block ( An order of determining at least one reference coding unit included in 2702 and 2712 may be determined, and at least one reference coding unit included in the picture 2700 may be determined according to the determination order of the coding unit.
  • the image decoding apparatus 200 may determine determination orders 2704 and 2714 of at least one reference coding unit associated with each processing block 2702 and 2712. For example, when information on the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 2702 and 2712 may be different for each processing block.
  • the reference coding units included in the processing block 2702 may be determined according to the raster scan order.
  • the reference coding unit determination order 2714 related to another processing block 2712 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 2712 may be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 200 may decode at least one determined reference coding unit according to an embodiment.
  • the image decoding apparatus 200 may decode an image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the image decoding apparatus 200 may obtain and use block shape information indicating a shape of a current coding unit or split shape information indicating a method of dividing a current coding unit from a bitstream.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the image decoding apparatus 200 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. block type information or segmentation type information included in a segment header) may be used.
  • the image decoding apparatus 200 may obtain and use syntax corresponding to the block type information or the split type information from the bit stream from the bit stream for each maximum coding unit, reference coding unit, and processing block.
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

블록을 적응적으로 분할하는 방법 및 장치가 개시된다. 개시된 일 실시예에 따른 영상 복호화 방법 및 장치는 부호화 단위에 인접한 픽셀들 중 부호화 단위의 분할을 위한 참조 픽셀들을 결정하고, 참조 픽셀들 중 픽셀 변화도가 가장 큰 위치 및 검출된 에지의 위치 중 적어도 하나에 기초하여, 부호화 단위를 분할하는 경계의 위치를 나타내는 분할 위치를 결정하고, 분할 위치를 기준으로 소정 방향으로 부호화 단위를 분할하여, 부호화 단위로부터 복수의 예측 단위를 획득하며, 복수의 예측 단위에 대해 예측을 수행한다.

Description

적응적인 블록 파티셔닝 방법 및 장치
본 명세서는 영상 부호화, 영상 복호화 방법 및 장치에 관한 것으로 보다 상세하게는 블록을 적응적으로 분할하는 방법 및 장치에 관한 것이다.
영상 데이터는 소정의 데이터 압축 표준, 예를 들면 MPEG(Moving Picture Expert Group) 표준에 따른 코덱에 의하여 부호화된 후 비트스트림의 형태로 기록매체에 저장되거나 통신 채널을 통해 전송된다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다.
영상을 압축하기 위하여 다양한 데이터 단위가 이용될 수 있으며 이러한 데이터 단위들 간에 포함관계가 존재할 수 있다. 이러한 영상 압축에 이용되는 데이터 단위의 크기를 결정하기 위해 다양한 방법에 의해 데이터 단위가 분할될 수 있으며 영상의 특성에 따라 최적화된 데이터 단위가 결정됨으로써 영상의 부호화 또는 복호화가 수행될 수 있다.
해결하고자 하는 기술적 과제는 블록을 적응적으로 분할하는 방법 및 장치를 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 일 실시예에 따른 영상 복호화 방법은 부호화 단위에 인접한 픽셀들 중 상기 부호화 단위의 분할을 위한 참조 픽셀들을 결정하는 단계; 상기 참조 픽셀들 중 픽셀 변화도(gradient)가 가장 큰 위치 및 검출된 에지(edge)의 위치 중 적어도 하나에 기초하여, 상기 부호화 단위를 분할하는 경계의 위치를 나타내는 분할 위치를 결정하는 단계; 상기 분할 위치를 기준으로 소정 방향으로 상기 부호화 단위를 분할하여, 상기 부호화 단위로부터 복수의 예측 단위를 획득하는 단계; 및 상기 복수의 예측 단위에 대해 예측을 수행하는 단계를 포함한다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 소정 방향은 상기 부호화 단위를 수직 또는 수평으로 분할하는 방향일 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 참조 픽셀들을 결정하는 단계는, 상기 부호화 단위의 상측에 인접한 픽셀들의 분산 값과 상기 부호화 단위의 좌측에 인접한 픽셀들의 분산 값을 비교하여 분산 값이 큰 픽셀들을 상기 참조 픽셀들로 결정하는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 예측을 수행하는 단계는, 상기 부호화 단위를 분할하는 경계의 위치가 정수 픽셀인 경우, 상기 경계에 대응하는 픽셀들의 예측 값은 상기 경계에 의해 분할된 예측 단위들의 평균 예측 값으로 설정하는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 예측을 수행하는 단계는, 상기 부호화 단위를 분할하는 경계의 위치가 정수 픽셀들 사이의 경계인 경우, 상기 경계에 인접하는 픽셀들의 예측 값은 상기 경계에 의해 분할된 예측 단위들의 예측 값에 기초하여 설정될 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 분할 위치를 결정하는 단계는, 상기 참조 픽셀들 중 두 개 의 분할 위치 후보들 중 하나를 선택하는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 부호화 단위의 예측 모드가 인터 모드인 경우, 상기 분할 위치는 다른 부호화 단위의 경계의 위치를 나타내는 정보와 움직임 벡터로 유도될 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 소정 방향에 대한 정보는 비트스트림으로부터 획득될 수 있다.
일 실시예에 따른 영상 복호화 방법은, 비트스트림으로부터 부호화 단위를 분할하는 하나 이상의 경계의 기준 위치를 나타내는 분할 기준 위치 정보를 획득하는 단계; 상기 분할 기준 위치 정보에 기초하여, 상기 부호화 단위를 상기 기준 위치로부터 소정 픽셀 간격 마다 소정 방향으로 분할하여 상기 하나 이상의 경계를 결정하는 단계; 상기 하나 이상의 경계에 기초하여 상기 부호화 단위로부터 복수의 예측 단위를 분할하는 단계; 및 상기 복수의 예측 단위에 대해 예측을 수행하는 단계를 포함한다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 분할 기준 위치 정보는, 상기 하나 이상의 경계 중에서 상기 부호화 단위의 좌측 상단 픽셀로부터 가장 가까운 경계의 위치를 나타낼 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 소정 픽셀 간격은 상기 부호화 단위의 크기에 기초할 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 복수의 예측 단위를 분할하는 단계는, 상기 하나 이상의 경계 중 하나의 경계를 선택하는 단계; 및 선택된 상기 하나의 경계에 기초하여 상기 부호화 단위로부터 두 개의 예측 단위를 분할하는 단계를 포함할 수 있다.
일 실시예에 따른 영상 복호화 방법은, 부호화 단위로부터 분할된 현재 변환 단위의 픽처 내 위치를 상기 픽처의 너비 및 높이 중 적어도 하나와 비교하여 상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나는지 여부를 결정하는 단계; 상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나는 경우, 상기 현재 변환 단위를 적어도 하나의 방향으로 분할하여 복수의 변환 단위들로 분할하는 단계; 상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나지 않는 경우, 비트스트림으로부터 상기 현재 변환 단위에 대한 분할 정보를 획득하고, 상기 분할 정보에 기초하여 상기 현재 변환 단위를 복수의 변환 단위들로 분할하는 단계; 및 상기 복수의 변환 단위들 중 더 이상 분할되지 않는 변환 단위에 대해 역변환을 수행하는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 방법은, 상기 복수의 변환 단위들 중 적어도 하나의 변환 단위가 상기 픽처의 외곽선을 벗어나지 않을 때까지, 상기 현재 변환 단위를 적어도 하나의 방향으로 분할하여 복수의 변환 단위들로 분할하는 단계를 재귀적으로 수행할 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나는 경우, 상기 비트스트림으로부터 상기 현재 변환 단위에 대한 상기 분할 정보가 획득되지 않을 수 있다.
도 1은 일 실시예에 따른 영상 부호화 장치의 구성을 나타낸 블록도이다.
도 2는 일 실시예에 따른 영상 복호화 장치의 구성을 나타낸 블록도이다.
도 3은 부호화 단위로부터 분할되는 예측 단위의 다양한 형태를 예시한다.
도 4는 일 실시예에 따른 부호화 단위를 적응적으로 분할하는 제 1 실시예를 도시한다.
도 5는 일 실시예에 따른 부호화 단위를 적응적으로 분할하는 제 2 실시예를 도시한다.
도 6은 일 실시예에 따라 부호화 단위를 분할하는 경계 영역을 예측하는 방법을 도시한다.
도 7은 일 실시예에 따라 부호화 단위를 소정 픽셀 단위로 분할하는 방법을 도시한다.
도 8은 일 실시예에 따라 변환 단위가 픽처 외곽선을 벗어나는지 여부를 판단하는 과정을 도시한다.
도 9는 일 실시예에 따른 픽처 외곽선을 벗어난 변환 단위를 도시한다.
도 10a 내지 10c는 일 실시예에 따른 픽처 외곽선을 벗어난 변환 단위의 분할 방법을 도시한다.
도 11은 일 실시예에 따른 영상 부호화 방법을 나타낸 플로우 차트이다.
도 12는 다른 실시예에 따른 영상 복호화 방법을 나타낸 플로우 차트이다.
도 13은 또 다른 실시예에 따른 영상 복호화 방법을 나타낸 플로우 차트이다.
도 14는 일 실시예에 따라 현재 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 15는 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 16은 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 17은 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 18은 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 19는 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 20은 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 21은 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 22는 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다.
도 23은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 24는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 25는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 26은 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 27은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
이하, "영상"은 비디오의 정지영상와 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
이하 도 1 내지 도 27을 참조하여 일 실시예에 따른 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 상술된다. 도 1 내지 도 13을 참조하여 일 실시예에 따라 블록을 적응적으로 분할하는 방법이 후술되고, 도 14 내지 도 27을 참조하여 일 실시예에 따른 영상의 데이터 단위를 결정하는 방법이 후술된다.
이하 도 1 내지 도 13을 참조하여 본 발명의 일 실시예에 따라 블록을 적응적으로 분할하는 방법이 상술된다.
도 1은 일 실시예에 따른 영상 부호화 장치(100)의 개략적인 블록도를 도시한다.
일 실시예에 따른 영상 부호화 장치(100)는 부호화부(110) 및 전송부(120)를 포함한다.
일 실시예에 따라 부호화부(110)는 부호화 단위의 최대 크기에 따라, 현재 픽처의 영상 데이터를 최대 부호화 단위로 분할할 수 있다. 각각의 최대 부호화 단위는 분할 정보에 의해 분할되는 부호화 단위들을 포함할 수 있다. 일 실시예에 따른 최대 부호화 단위에 포함된 공간 영역(spatial domain)의 영상 데이터는 분할 정보에 따라 계층적으로 분류될 수 있다. 부호화 단위의 블록 형태는 정사각형 또는 직사각형일 수 있으며, 임의의 기하학적 형태일 수 있으므로, 일정한 크기의 데이터 단위로 제한되는 것은 아니다.
부호화되는 픽처의 크기가 커짐에 따라, 더 큰 단위로 영상을 부호화하면 더 높은 영상 압축률로 영상을 부호화할 수 있다. 그러나, 부호화 단위를 크게 하고, 그 크기를 고정시켜버리면, 계속해서 변하는 영상의 특성을 반영하여 효율적으로 영상을 부호화할 수 없다.
예를 들어, 바다 또는 하늘에 대한 평탄한 영역을 부호화할 때에는 부호화 단위를 크게 할수록 압축률이 향상될 수 있으나, 사람들 또는 빌딩에 대한 복잡한 영역을 부호화할 때에는 부호화 단위를 작게 할수록 압축률이 향상된다.
이를 위해 일 실시예에 따른 부호화부(110)는 픽처 또는 슬라이스마다 상이한 크기의 최대 부호화 단위를 설정하고, 최대 부호화 단위로부터 분할되는 하나 이상의 부호화 단위의 분할 정보를 설정한다. 분할 정보에 따라 최대 부호화 단위에 포함된 부호화 단위의 크기를 가변적으로 설정할 수 있게 된다.
하나 이상의 부호화 단위의 분할 정보는 R-D 코스트(Rate-Distortion Cost) 계산에 기초해 결정될 수 있다. 분할 정보는 픽처 또는 슬라이스마다 상이하게 결정되거나, 각각의 최대 부호화 단위마다 상이하게 결정될 수도 있다.
일 실시예에 따라, 최대 부호화 단위로부터 분할되는 부호화 단위의 분할 정보는 블록 형태 및 분할 형태로 특징지어질 수 있다. 블록 형태 및 분할 형태로 부호화 단위를 결정하는 구체적인 방식에 대해서는 도 13 내지 도 27을 통해 보다 상세히 후술하기로 한다.
일 실시예에 따라, 최대 부호화 단위에 포함된 부호화 단위들은 상이한 크기의 처리 단위에 기초해 예측 또는 변환(예를 들어, 픽셀 도메인의 값들을 주파수 도메인의 값들로 변환)될 수 있다. 다시 말해, 영상 부호화 장치(100)는 영상 부호화를 위한 복수의 처리 단계들을 다양한 크기 및 다양한 형태의 처리 단위에 기초해 수행할 수 있다. 영상 데이터의 부호화를 위해서는 예측, 변환, 엔트로피 부호화 등의 처리 단계를 거치는데, 모든 단계에 걸쳐서 동일한 크기의 처리 단위가 이용될 수도 있으며, 단계별로 상이한 크기의 처리 단위를 이용할 수 있다.
일 실시예에 따라, 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있으며, 특정 예측 모드는 특정 크기 또는 형태의 부호화 단위에 대해서만 수행될 수 있다. 일 실시예에 따라, 각각의 부호화 단위에 대해 예측을 수행하여 부호화 오차가 가장 작은 예측 모드가 선택될 수 있다.
영상 부호화 장치(100)는 더 이상 분할되지 않는 부호화 단위를 기반으로 예측 부호화를 수행할 수 있다. 이하, 예측 부호화의 기반이 되는 더 이상 분할되지 않는 부호화 단위를 ‘예측 단위’라고 지칭한다.
또한, 영상 부호화 장치(100)는 부호화 단위와 다른 크기의 처리 단위에 기초해 영상 데이터를 변환할 수 있다. 부호화 단위의 변환을 위해서 부호화 단위보다 작거나 같은 크기의 데이터 단위를 기반으로 변환이 수행될 수 있다. 이하, 변환의 기초가 되는 처리 단위를 ‘변환 단위’라 한다.
부호화에 이용되는 정보는, 분할 정보 뿐만 아니라 예측 관련 정보 및 변환 관련 정보가 필요하다. 따라서, 부호화부(110)는 최소 부호화 오차를 발생시킨 분할 정보, 부호화 단위별 예측 모드, 변환을 위한 변환 단위의 크기 등을 결정할 수 있다.
일 실시예에 따라 부호화부(110)는 부호화 단위의 부호화 오차를 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용하여 측정할 수 있다.
일 실시예에 따라 전송부(120)는, 부호화부(110)에서 결정된 적어도 하나의 부호화 단위에 기초하여 부호화된 부호화 단위의 영상 데이터 및 부호화 단위별 부호화 모드에 관한 정보를 비트스트림 형태로 출력하여 복호화 장치로 전송한다.
부호화된 영상 데이터는 영상의 레지듀얼 데이터의 부호화 결과일 수 있다.
부호화 단위별 부호화 모드에 관한 정보는, 분할 정보, 블록 형태, 분할 형태, 부호화 단위별 예측 모드 정보, 변환 단위의 크기 정보 등을 포함할 수 있다.
도 2는 일 실시예에 따른 영상 복호화 장치(200)의 개략적인 블록도를 도시한다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 복호화 장치(200)는 수신부(210) 및 복호화부(220)를 포함한다.
일 실시예에 따른 수신부(210)는 영상 복호화 장치(200)가 수신한 비트스트림을 파싱하여, 부호화 단위별로 영상 데이터를 획득하여 복호화부(220)로 출력한다. 수신부(210)는 현재 픽처 또는 슬라이스에 대한 파라미터 셋 RBSP(Raw byte sequence payload)로부터 현재 픽처 또는 슬라이스에 대한 정보를 추출할 수 있다.
일 실시예에 따른 수신부(210)는 영상 복호화 장치(200)가 수신한 비트열을 파싱하여, 최대 부호화 단위의 크기, 최대 부호화 단위로부터 분할되는 부호화 단위의 분할 정보, 부호화 단위의 부호화 모드에 관한 정보를 추출한다. 분할 정보 및 부호화 모드에 관한 정보는 복호화부(220)로 출력된다. 부호화 모드에 관한 정보는, 블록 형태, 분할 형태, 부호화 단위별 예측 모드 정보, 변환 단위의 크기 정보 등을 포함할 수 있다.
일 실시예에 따른 복호화부(220)는 결정된 부호화 단위에 기초하여 각각의 부호화 단위의 영상 데이터를 복호화하여 현재 픽처를 복원한다.
최대 부호화 단위로부터 분할되는 부호화 단위의 분할 정보에 기초하여, 복호화부(220)는 최대 부호화 단위에 포함된 부호화 단위를 복호화할 수 있다. 복호화 과정은 역양자화, 역변환, 인트라 예측 및 움직임 보상을 포함하는 움직임 예측 과정을 포함할 수 있다.
일 실시예에 따른 복호화부(220)는, 부호화 단위의 변환 단위에 대한 정보에 기초해 부호화 단위마다 역양자화 및 역변환을 수행하여 잔차 데이터를 생성할 수 있다. 복호화부(220)는, 부호화 단위의 예측 모드에 대한 정보에 기초해 인트라 예측 또는 인터 예측을 수행할 수 있다. 복호화부(220)는 예측의 기반이 되는 예측 단위에 대해 예측을 수행한 후, 부호화 단위의 예측 데이터와 잔차 데이터를 이용하여 복원 데이터를 생성할 수 있다.
도 3은 부호화 단위로부터 분할되는 예측 단위의 다양한 형태를 예시한다.
일반적으로, 부호화 모드에 관한 정보로서 각각의 부호화 단위마다 파티션 타입에 관한 정보, 예측 모드에 관한 정보 등이 부호화되어 전송될 수 있다. 여기서, 파티션 타입에 대한 정보는 현재 부호화 단위의 예측 부호화를 위한 데이터 단위로서, 현재 부호화 단위의 예측 단위가 분할된 파티션의 형태에 대한 정보를 나타낼 수 있다.
도 3을 참조하면, 부호화 단위로부터 분할되는 예측 단위의 다양한 파티션 형태가 도시된다. 예를 들어, 크기 2Nx2N(단, N은 양의 정수)의 부호화 단위가 더 이상 분할되지 않는 경우, 크기 2Nx2N의 예측 단위(310)가 된다. 또한, 2Nx2N 크기의 부호화 단위로부터 2NxN 파티션 타입(320), Nx2N 파티션 타입(330), NxN 파티션 타입(340) 등의 예측 단위가 분할될 수 있다. 일 실시예에 따른 파티션 타입은 예측 단위의 높이 또는 너비가 대칭적 비율로 분할된 대칭적 파티션들뿐만 아니라, 2NxnU 파티션 타입(350), 2NxnD 파티션 타입(360), nLx2N 파티션 타입(370), nRx2N 파티션 타입(380) 등과 같은 비대칭적 파티션들도 포함할 수 있다. 즉, 예측 단위의 파티션 타입은 1:n 또는 n:1과 같이 비대칭적 비율로 분할된 파티션들, 기하학적인 형태로 분할된 파티션들, 임의적 형태의 파티션들 등을 선택적으로 포함할 수도 있다. 일반적으로 인트라 모드에서는 대칭적 파티션 타입이 이용되고 인터 모드에서는 대칭적 파티션 타입과 비대칭적 파티션 타입이 모두 이용될 수 있다.
또한, 예측 단위의 예측 모드는, 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 예를 들어 인트라 모드 및 인터 모드는, 2Nx2N, 2NxN, Nx2N, NxN 크기의 파티션에 대해서 수행될 수 있다. 또한, 스킵 모드는 2Nx2N 크기의 파티션에 대해서만 수행될 수 있다. 부호화 단위 내의 하나의 예측 단위마다 독립적으로 부호화가 수행되어 부호화 오차가 가장 작은 예측 모드가 선택될 수 있다.
그러나, 이와 같이 정의된 예측 단위의 파티션 타입에 관한 정보를 영상 부호화 장치로부터 영상 복호화 장치로 시그널링할 경우, 제한된 파티션 타입만을 이용하여 예측을 수행할 수 밖에 없으므로 실제 영상의 특성을 잘 반영하기 어렵다는 문제점이 있다.
본 명세서에서는 영상의 특성을 고려한 적응적인 블록 분할 방법을 통해 전체적인 코딩 효율을 향상시키는 방안을 제안한다.
도 4는 일 실시예에 따른 부호화 단위를 적응적으로 분할하는 제 1 실시예를 도시한다.
도 4를 참조하면, 부호화 단위(400) 주변의 참조 픽셀들(420, 430)에 대한 코스트 함수(cost function)에 기초하여 부호화 단위(400)를 분할하는 경계(410)의 위치를 나타내는 지점이 선택될 수 있다. 일 실시예에 따라, 코스트 함수는 참조 픽셀 값의 변화도(gradient)를 계산하는 함수일 수 있다. 여기서, 변화도는 인접한 참조 픽셀 값들 간의 차이로 표현될 수 있다. 참조 픽셀은 현재 부호화 단위 이전에 복원된(restored) 픽셀로서 본 실시예에서는 부호화 단위(400)의 상측 또는 좌측에 인접한 픽셀을 예시하였으나, 참조 픽셀의 위치는 스캔 순서(처리 순서)에 따라 달라질 수 있다.
예를 들어, 부호화 단위(400) 주변의 참조 픽셀들(420, 430) 중 참조 픽셀 값의 변화도가 가장 큰 위치가 참조 픽셀(412)과 참조 픽셀(414)의 경계일 수 있다. 이 경우, 참조 픽셀(412)과 참조 픽셀(414) 사이의 경계를 기준으로 소정 방향으로 부호화 단위(400)를 분할하는 경계(410)를 결정할 수 있다. 이 때, 참조 픽셀(412)과 참조 픽셀(414) 사이의 위치는 부호화 단위(400)를 분할하는 경계(410)의 위치를 나타내기 위한 기준으로서의 ‘분할 위치’가 된다. 즉, 일 실시예에 따른 분할 위치는 참조 픽셀들 중 픽셀 값의 변화도가 가장 큰 위치를 나타낼 수 있다. 한편, 분할 위치는 참조 픽셀들 중 복수의 분할 위치 후보들 중 하나로 선택될 수도 있다. 예를 들어, 변화도가 가장 큰 두 개의 분할 위치 후보들 중 하나가 선택될 수 있다. 다만, 이 때 복수의 분할 위치 후보들 중 하나를 선택하는 정보는 명시적인 정보로서 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 전송될 수 있다.
일 실시예에 따라 참조 픽셀 값의 변화도를 이용하여 부호화 단위(400)의 분할 위치를 결정하는 경우, 부호화 단위(400)를 분할하는 경계(410)는 정수 픽셀들 사이의 경계선을 나타낼 수 있다.
일 실시예에 따라, 부호화 단위(400)를 분할하는 경계(410)의 방향은 부호화 단위(400)의 상측면 또는 좌측면으로부터 직교하는 방향일 수 있다. 그러나, 경계(410)의 방향은 반드시 상기와 같은 실시예에 국한되는 것은 아니다. 다른 실시예에 따라, 경계(410)의 방향은 분할 위치를 기준으로 부호화 단위(400)의 중앙을 지나는 방향일 수 있다. 또한, 경계(410)의 방향은 분할 위치를 기준으로 특정한 각도를 가지는 직선 방향일 수도 있다. 예를 들어, 경계(410)의 방향은 분할 위치를 기준으로 부호화 단위(400)와의 각도가 45도 또는 -45도를 향하는 방향일 수 있다. 일 실시예에 따라, 경계(410)의 방향이 두 개 이상의 방향 중에서 하나로 선택되는 경우, 선택 방향에 대한 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링 될 수 있다.
한편, 부호화 단위(400)를 분할하는 경계(410)의 방향은 미리 정의될 수도 있다. 예를 들어, 경계(410)의 방향은 수직 방향 또는 수평 방향으로 미리 정해질 수 있다. 만약 경계(410)의 방향이 수직 방향으로 미리 정해진다면, 부호화 단위(400)를 분할하는 경계(410)의 위치를 결정함에 있어서, 부호화 단위(400)의 상측에 인접한 참조 픽셀들(420)만을 이용하여 변화도가 계산될 수 있다. 또한, 만약 경계(410)의 방향이 수평 방향으로 미리 정해진다면, 부호화 단위(400)를 분할하는 경계(410)의 위치를 결정함에 있어서, 부호화 단위(400)의 좌측에 인접한 참조 픽셀들(430)만을 이용하여 변화도가 계산될 수도 있다.
다른 실시예로서, 부호화 단위(400)를 분할하는 경계(410)의 방향에 대한 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링될 수도 있다.
또 다른 실시예에 따라, 경계(410)의 방향을 결정함에 있어서, 부호화 단위(400) 주변의 참조 픽셀들(420, 430) 중에서 분산 값이 큰 방향의 참조 픽셀만이 이용될 수도 있다. 예를 들어, 부호화 단위(400)의 상측에 인접한 참조 픽셀들(420)의 분산 값과 부호화 단위(400)의 좌측에 인접한 참조 픽셀들(430)의 분산 값을 비교하여 분산 값이 큰 하나 이상의 픽셀을 이용하여 경계(410)의 방향이 결정될 수도 있다.
일 실시예에 따라 분할 위치 및 경계 방향이 결정되면, 경계(410)를 따라 부호화 단위(400)가 분할되어 복수의 예측 단위가 획득될 수 있다. 그 후, 부호화 단위(400)의 예측 모드에 따라 예측 단위 별로 예측이 수행될 수 있다.
전술한 분할 위치의 결정 과정, 부호화 단위의 분할 및 예측 단위의 획득 과정은 영상 부호화 장치(100)에서 수행될 수 있다. 이 때, 부호화 단위(400)를 분할하기 위한 경계의 위치 및 방향은 부호화 단위(400)의 주변 픽셀들의 특성에 기초한다. 따라서, 영상 부호화 장치(100)는 예측 단위의 파티션 타입에 관한 정보를 별도로 생성할 필요가 없으며, 예측 단위의 크기 또는 형태에 관한 정보를 영상 복호화 장치(200)로 전송할 필요도 없다. 마찬가지로, 영상 복호화 장치(200)는 예측 단위의 파티션 타입에 관한 정보를 비트스트림으로부터 획득하지 않고도 부호화 단위(400)의 주변 픽셀들의 특성에 기초하여 예측 단위의 분할 형태 및 크기를 결정할 수 있다.
전술한 실시예에 따르면, 기존 영상 압축 기술에서 정의한 예측 단위의 파티션 타입에 국한될 필요 없이, 영상의 특성에 따른 블록의 적응적 분할이 가능해진다. 따라서, 예측 단위의 파티션 형태가 실제 영상의 특성을 반영할 수 있게 되어 전체적인 코딩 효율이 향상될 수 있다.
도 5는 일 실시예에 따른 부호화 단위를 적응적으로 분할하는 제 2 실시예를 도시한다.
도 5를 참조하면, 부호화 단위(500) 주변의 참조 픽셀들(530, 540)에 대한 코스트 함수에 기초하여 부호화 단위(500)를 분할하는 경계(520)의 위치를 나타내는 참조 픽셀(510)이 선택될 수 있다. 일 실시예에 따라, 코스트 함수는 참조 픽셀들 중 에지(edge)를 검출하는 알고리즘을 나타낼 수 있다. 여기서, 에지 검출 방식에는 공지된 다양한 에지 검출 필터(예를 들어, Sobel, Canny, Deriche, Differential, Prewitt 등의 필터)가 이용될 수 있다.
구체적인 일 예로, 부호화 단위(500) 주변의 참조 픽셀들(530, 540)에 대해 [1 2 1]/4 평탄 필터(smoothing filter)를 적용한 후, 각 참조 픽셀들에 대해 [1 0 -1] 필터(또는 [1 -1] 필터)를 적용한 값의 절대값을 코스트 함수로서 이용할 수 있다. 이 때, 에지의 검출 위치는 코스트 값이 가장 큰 픽셀의 위치일 수 있다.
예를 들어, 부호화 단위(500)의 주변 픽셀들(530, 540) 중 검출된 에지의 위치가 참조 픽셀(510)의 위치일 수 있다. 이 경우, 참조 픽셀(510)의 위치를 기준으로 소정 방향으로 부호화 단위(500)를 분할하는 경계(520)를 결정할 수 있다. 이 때, 참조 픽셀(510)의 위치는 부호화 단위(500)를 분할하는 경계(520)의 위치를 나타내기 위한 기준으로서의 ‘분할 위치’가 된다. 즉, 일 실시예에 따른 분할 위치는 참조 픽셀들 중 에지로서 검출된 참조 픽셀의 위치일 수 있다. 한편, 분할 위치는 참조 픽셀들 중 복수의 분할 위치 후보들 중 하나로 선택될 수도 있다. 예를 들어, 에지로 검출된 복수의 분할 위치 후보들 중 하나가 선택될 수 있다. 다만, 이 때 복수의 분할 위치 후보들 중 하나를 선택하는 정보는 명시적인 정보로서 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 전송될 수 있다.
일 실시예에 따라 에지 검출 알고리즘을 통해 부호화 단위(500)의 분할 위치를 결정하는 경우, 부호화 단위(500)를 분할하는 경계(520)는 정수 픽셀을 나타낼 수 있다.
일 실시예에 따라, 부호화 단위(500)를 분할하는 경계(520)의 방향은 부호화 단위(500)의 상측면 또는 좌측면으로부터 직교하는 방향일 수 있다. 그러나, 경계(520)의 방향은 반드시 상기와 같은 실시예에 국한되는 것은 아니다. 다른 실시예에 따라, 경계(520)의 방향은 분할 위치를 기준으로 부호화 단위(500)의 중앙을 지나는 방향일 수 있다. 또한, 경계(520)의 방향은 분할 위치를 기준으로 특정한 각도를 가지는 직선 방향일 수도 있다. 예를 들어, 경계(520)의 방향은 분할 위치를 기준으로 부호화 단위(500)와의 각도가 45도 또는 -45도를 향하는 방향일 수 있다. 일 실시예에 따라, 경계(520)의 방향이 두 개 이상의 방향 중에서 하나로 선택되는 경우, 선택 방향에 대한 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링 될 수 있다.
한편, 부호화 단위(500)를 분할하는 경계(520)의 방향은 미리 정의될 수도 있다. 예를 들어, 경계(520)의 방향은 수직 방향 또는 수평 방향으로 미리 정해질 수 있다. 만약 경계(520)의 방향이 수직 방향으로 미리 정해진다면, 부호화 단위(500)를 분할하는 경계(520)의 위치를 결정함에 있어서, 부호화 단위(500)의 상측에 인접한 참조 픽셀들(530)만을 이용하여 에지 검출 알고리즘이 적용될 수 있다. 또한, 만약 경계(520)의 방향이 수평 방향으로 미리 정해진다면, 부호화 단위(500)를 분할하는 경계(520)의 위치를 결정함에 있어서, 부호화 단위(500)의 좌측에 인접한 참조 픽셀들(540)만을 이용하여 에지 검출 알고리즘이 적용될 수도 있다.
다른 실시예로서, 부호화 단위(500)를 분할하는 경계(520)의 방향에 대한 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링될 수도 있다.
또 다른 실시예에 따라, 경계(520)의 방향을 결정함에 있어서, 부호화 단위(500) 주변의 참조 픽셀들(530, 540) 중에서 분산 값이 큰 방향의 참조 픽셀만이 이용될 수도 있다. 예를 들어, 부호화 단위(500)의 상측에 인접한 참조 픽셀들(530)의 분산 값과 부호화 단위(500)의 좌측에 인접한 참조 픽셀들(540)의 분산 값을 비교하여 분산 값이 큰 픽셀들만을 이용하여 경계(520)의 방향이 결정될 수도 있다.
일 실시예에 따라 분할 위치 및 경계 방향이 결정되면, 경계(520)를 따라 부호화 단위(500)가 분할되어 복수의 예측 단위가 획득될 수 있다. 그 후, 부호화 단위(500)의 예측 모드에 따라 예측 단위 별로 예측이 수행될 수 있다.
전술한 분할 위치의 결정 과정, 부호화 단위의 분할 및 예측 단위의 획득 과정은 영상 부호화 장치(100)에서 수행될 수 있다. 이 때, 부호화 단위(500)를 분할하기 위한 경계의 위치 및 방향은 부호화 단위(500)의 주변 픽셀들의 특성에 기초한다. 따라서, 영상 부호화 장치(100)는 예측 단위의 파티션 타입에 관한 정보를 별도로 생성할 필요가 없으며, 예측 단위의 크기 또는 형태에 관한 정보를 영상 복호화 장치(200)로 전송할 필요도 없다. 마찬가지로, 영상 복호화 장치(200)는 예측 단위의 파티션 타입에 관한 정보를 비트스트림으로부터 획득하지 않고도 부호화 단위(500)의 주변 픽셀들의 특성에 기초하여 예측 단위의 분할 형태 및 크기를 결정할 수 있다.
전술한 실시예에 따르면, 기존 영상 압축 기술에서 정의한 예측 단위의 파티션 타입에 국한될 필요 없이, 영상의 특성에 따른 블록의 적응적 분할이 가능해진다. 따라서, 예측 단위의 파티션 형태가 실제 영상의 특성을 반영할 수 있게 되어 전체적인 코딩 효율이 향상될 수 있다.
도 6은 일 실시예에 따라 부호화 단위를 분할하는 경계 영역을 예측하는 방법을 도시한다.
일반적으로, 부호화 단위가 파티션들로 분할되어 복수의 예측 단위가 획득되면, 각각의 예측 단위에 대해 각각의 예측 모드에 따라 인트라 예측, 움직임 보상을 포함하는 움직임 예측 과정이 수행된다. 그런데, 부호화 단위를 분할하는 경계에서 픽셀의 예측 값은 급격하게 변화할 수 있으므로, 경계 내의 픽셀들 또는 경계에 인접한 픽셀들에 대한 예측 값을 평탄화(smoothing)하는 작업이 수행될 수 있다.
도 6을 참조하면, 부호화 단위(610, 630, 650)를 분할하는 경계는 다양할 수 있다. 일 실시예에 따른 경계는 분할 위치를 중심으로 소정 방향에 위치한 정수 위치의 픽셀(614)일 수 있으며, 정수 픽셀들 사이의 경계(634, 655)일 수도 있다.
일 실시예에 따라 부호화 단위(610)의 경계(614)가 정수 픽셀일 경우, 경계(614)를 기준으로 예측 단위들(612, 616)이 분할된다. 그러나, 이 경우 어느 예측 단위들(612, 616)에도 포함되지 않는 픽셀들(즉, 부호화 단위(610) 내에서 경계(614)에 대응하는 픽셀들)이 존재하게 된다. 여기서, 경계(614)에 대응하는 픽셀들에 대한 예측을 수행하기 위해 경계(614)에 인접한 예측 단위들(612, 616)의 예측 값들이 이용될 수 있다. 예를 들어, 경계(614)에 대응하는 픽셀들의 예측 값은 경계(614)에 의해 분할된 예측 단위들(612, 616)의 평균 예측 값으로 설정될 수 있다.
일 실시예에 따라 부호화 단위(630)의 경계(634)가 정수 픽셀들 사이의 경계인 경우, 경계(634)를 기준으로 예측 단위들(632, 636)이 정확하게 분할되므로, 부호화 단위(630) 내의 모든 픽셀들은 예측 단위들(632, 636) 중 하나에 포함된다. 따라서, 부호화 단위(630)에서는 예측 단위들(632, 636)에 대한 예측을 수행하면 족하다.
다른 실시예에 따라 부호화 단위(650)의 경계(655)가 정수 픽셀들 사이의 경계인 경우, 경계(655)를 기준으로 예측 단위들(652, 658)이 분할된다. 이 때, 경계(655)에 인접한 영역을 평탄하게 표현하기 위해, 경계(655)에 인접한 픽셀들(644, 656)의 예측 값에 대해서는 예측 단위들(652, 658)의 예측 값을 이용하여 표현될 수도 있다. 예를 들어, 경계(655)에 인접한 픽셀들(644, 656)의 예측 값은 분할된 예측 단위들(652, 658)의 평균 예측 값으로 설정될 수 있다. 또 다른 예로서, 경계(656)의 한쪽 방향에 인접한 픽셀들(654)은 픽셀들(654)에 인접한 예측 단위(652)의 예측 값에 가중치를 적용하여 계산되고, 경계(656)의 다른 쪽 방향에 인접한 픽셀들(656)은 픽셀들(656)에 인접한 예측 단위(658)의 예측 값에 가중치를 적용하여 계산될 수도 있다.
전술한 바와 같이 경계를 정수 픽셀(614)로서 표현할지 또는 정수 픽셀들 사이의 경계(634, 655)로서 표현할지 여부는 명시적인 정보를 통해 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링될 수 있다. 한편, 경계를 정수 픽셀(614)로서 표현할지 또는 정수 픽셀들 사이의 경계(634, 655)로서 표현할지 여부는 명시적인 정보의 전송 없이 부호화 단위의 주변 픽셀들에 대한 정보로부터 유도될 수도 있다.
전술한 실시예에 따라, 영상 부호화 장치(100)의 부호화부(110)는 참조 픽셀들 중 픽셀 변화도가 가장 큰 위치 및 검출된 에지의 위치 중 적어도 하나에 기초하여, 부호화 단위를 분할하는 경계의 위치를 나타내는 분할 위치를 결정할 수 있다. 마찬가지로, 영상 복호화 장치(200)의 복호화부(220)에서도 참조 픽셀들 중 픽셀 변화도가 가장 큰 위치 및 검출된 에지의 위치 중 적어도 하나에 기초하여, 부호화 단위를 분할하는 경계의 위치를 나타내는 분할 위치를 결정할 수 있다. 한편, 부호화 단위의 예측 모드가 인터 예측 모드인 경우, 부호화 단위를 분할하는 경계를 표현하기 위해 움직임 벡터를 이용할 수도 있다. 경계의 위치의 이동(shift)은 움직임 벡터를 이용하여 정수 픽셀 단위, 1/2 또는 1/4 픽셀 단위로 표현될 수 있다.
도 7은 일 실시예에 따라 부호화 단위를 소정 픽셀 단위로 분할하는 방법을 도시한다.
일 실시예에 따라, 부호화 단위(710, 730, 750)는 N 픽셀 단위로 분할될 수 있다. 예를 들어 도 7을 참조하면, 8x8 크기의 부호화 단위(710)에 대해 2 픽셀 간격 마다 수직 방향으로 분할할 경우 5개의 예측 단위가 획득될 수 있다. 또한, 8x8 크기의 부호화 단위(730)에 대해 3 픽셀 간격 마다 수직 방향으로 분할할 경우 4개의 예측 단위가 획득될 수 있다. 또한, 8x8 크기의 부호화 단위(750)에 대해 4 픽셀 간격 마다 수직 방향으로 분할할 경우 3개의 예측 단위가 획득될 수 있다.
즉, N 픽셀 단위는 부호화 단위의 분할 간격을 나타낼 수 있다. N 픽셀 단위는 정수 단위일 수도 있으며, 서브-픽셀 단위일 수도 있다. 일 실시예에 따라 N의 값은 미리 결정된 값으로 설정될 수도 있으며, 부호화 단위의 크기에 따라 가변할 수도 있다. 예를 들어, 부호화 단위의 크기가 8x8 인 경우 N은 1, 16x16 인 경우 N은 2, 32x32 인 경우 N은 4, 64x64 인 경우 N 은 8, 128x128 인 경우 N은 16, 256x256 인 경우 N은 32의 값을 가질 수 있다. 또 다른 예로서, 부호화 단위의 크기가 16x16 이하에서는 N은 2의 값을 가지고, 부호화 단위의 크기가 32x32 이상에서는 N은 4의 값을 가질 수 있다. 또한, N의 값은 부호화 단위의 크기에 상관 없이 특정 값으로 설정될 수도 있다.
한편, 도 7에서는 부호화 단위(710, 730, 750)가 수직 방향으로 분할되는 것으로 예시되어 있으나, 이는 단지 설명의 편의를 위한 것일 뿐이며, 분할 방향은 수평 방향, 수직 방향, 소정 기울기를 갖는 방향 등과 같이 다양한 형태로 존재할 수 있다.
도 7에 도시된 바와 같이, 부호화 단위를 소정 픽셀 단위로 분할하는 실시예의 경우, 부호화 단위를 분할하는 하나 이상의 경계 중에서 최초 기준 위치를 나타내는 정보가 시그널링될 필요가 있다.
예를 들어, N=2 인 부호화 단위(710)에 대해서는 4개의 경계(712, 714, 716, 718)가 결정되는데, 이 때 최초의 경계(712)의 위치를 나타내는 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링 될 수 있다. 최초의 경계(712)의 위치는 부호화 단위(710)의 좌측 상단 픽셀로부터 가장 가까운 경계의 위치를 나타낼 수 있다. 최초의 경계의 위치를 나타내는 정보는 ‘분할 기준 위치 정보’로서 표현될 수 있다. 부호화 단위의 좌측 상단 픽셀의 위치를 원점(0,0)이라고 할 때, 분할 기준 위치는 원점으로부터의 거리로 표현될 수 있다. 또한, 분할 기준 위치는 (x,0) 또는 (y,0) 등과 같은 좌표로서 표현될 수도 있다.
마찬가지로, N=3 인 부호화 단위(730)에 대해서는 3개의 경계(732, 734, 736)가 결정되며, 분할 기준 위치를 나타내는 정보로서 최초의 경계(732)의 위치에 대한 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링 될 수 있다. N=4 인 부호화 단위(750)에 대해서는 2개의 경계(752, 754)가 결정되며, 분할 기준 위치를 나타내는 정보로서 최초의 경계(752)의 위치에 대한 정보가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링 될 수 있다.
다른 실시예에 따라, 부호화 단위를 분할하는 하나 이상의 경계 중에서 선택된 일부 경계에 기초하여 부호화 단위가 분할될 수도 있다. 즉, 부호화 단위를 분할하는 경계의 개수가 M 개일 때, M 개의 경계로 조합할 수 있는 모든 파티션 형태로 부호화 단위가 분할될 수도 있다. 이 때, M 개의 경계의 간격은 반드시 균등할 필요는 없으며 비균등할 수도 있다.
일 실시예에 따라 부호화 단위를 소정 픽셀 단위로 분할하는 경우, 분할 기준 위치는, 부호화 단위 주변의 참조 픽셀들에 대해 코스트 함수를 적용하여 선택된 참조 픽셀의 위치를 기반으로 할 수 있다. 즉, 도 4 내지 도 5를 참조하여 설명한 과정에 따라 부호화 단위를 분할하기 위한 분할 위치가 결정되면, 상기 결정된 분할 위치가 도 7에서의 분할 기준 위치로 사용될 수 있다. 또 다른 실시예에 따라, 현재 부호화 단위의 상측 또는 좌측에 인접한 부호화 단위의 분할 위치가 현재 부호화 단위의 분할 기준 위치로서 설정될 수도 있다.
전술한 바와 같이, 부호화 단위를 분할하는 다양한 실시예가 존재할 수 있으며, 전술한 다양한 실시예들은 서로 혼용되어 실시될 수 있다. 일 실시예에 따라, 부호화 단위의 분할 방식을 적응적으로 결정하기 위한 플래그(flag)가 정의될 수도 있다. 예를 들어, 플래그가 ‘1’이 될 경우에는 도 4 및 도 5를 통해 설명한 바와 같이 부호화 단위에 인접한 참조 픽셀들로부터 부호화 단위의 분할 위치가 결정되며 분할 위치에 기초하여 부호화 단위가 분할될 수 있다. 반면에, 플래그가 ‘0’이 될 경우에는 도 7을 통해 설명한 바와 같이 분할 기준 위치에 의해 부호화 단위가 소정 픽셀 단위로 분할될 수 있다. 일 실시예에 따라, 부호화 단위의 분할 방식을 적응적으로 결정하기 위한 플래그가 영상 부호화 장치(100)로부터 영상 복호화 장치(200)로 시그널링될 수 있다.
일 실시예에 따라 영상 부호화 장치(100)의 부호화부(110)는 부호화 단위로부터 분할된 예측 단위들에 대해 예측을 수행하기 위해 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나의 모드를 이용할 수 있다. 특정 예측 모드는 특정 크기 또는 형태의 부호화 단위에 대해서만 수행될 수도 있다. 일 실시예에 따라, 각각의 부호화 단위에 대해 예측을 수행하여 부호화 오차가 가장 작은 예측 모드가 선택될 수 있다. 마찬가지로 영상 복호화 장치(200)의 복호화부(220)는 부호화 단위로부터 분할된 예측 단위들에 대해 예측을 수행하기 위해 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나의 모드를 이용할 수 있다.
인트라 예측의 경우에, 현재 블록이 속하는 픽처 내의 주변 블록 화소를 기반으로 현재 블록에 대한 예측 샘플이 유도될 수 있다. 이때, (i) 현재 블록의 주변 참조 샘플들의 평균 혹은 인터폴레이션을 기반으로 하는 예측 샘플이 유도될 수도 있고, (ii) 현재 블록의 주변 블록들 중 예측 대상 픽셀에 대하여 특정 방향에 존재하는 참조 샘플을 기반으로 예측 샘플이 유도될 수도 있다. 또한, 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드가 결정될 수도 있다.
인터 예측의 경우에, 참조 픽처 상에서 움직임 벡터에 의해 특정되는 샘플들을 기반으로 현재 블록에 대한 예측 샘플이 유도할 수 있다. 이 때, 스킵(skip) 모드, 머지(merge) 모드 및 MVP 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플이 유도될 수 있다. 스킵 모드와 머지 모드의 경우에, 주변 블록의 움직임 정보가 현재 블록의 움직임 정보로 이용될 수 있다. 스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 복원 샘플 사이의 잔차(레지듀얼)가 전송되지 않는다. MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor: MVP)로 이용하여 현재 블록의 움직임 벡터와의 차분 정보가 부호화될 수 있다.
한편, 부호화 단위로부터 분할된 복수의 예측 단위에 대해 모두 동일한 예측 모드가 적용될 수도 있으나, 각각의 예측 단위에 대해 서로 다른 예측 모드가 적용될 수도 있다.
일 실시예에 따라 부호화 단위로부터 분할된 예측 단위의 예측 정보는 각 예측 단위의 크기 또는 형태에 기초하여 저장될 수 있다. 예를 들어, 부호화 단위가 수직 방향으로 분할된 경우 Nx2N 파티션 타입을 기반으로 각각의 예측 정보가 저장될 수 있고, 부호화 단위가 수평 방향으로 분할된 경우 2NxN 파티션 타입을 기반으로 각각의 예측 정보가 저장될 수 있다. 또 다른 실시예에 따라, 부호화 단위로부터 분할된 예측 단위의 형태와 동일한 형태를 기반으로 예측 정보가 저장될 수도 있다. 이 경우, 각각의 예측 단위마다 인터 또는 인트라 예측에 대한 정보가 시그널링될 필요가 있다.
본 명세서에서 제안하는 부호화 단위의 분할 방법은 기존에 정의된 파티션 모드(예를 들어, HEVC의 파티션 모드)와 함께 혼용되어 사용될 수도 있다. 따라서, 기존에 정의된 파티션 모드와의 사용을 구별하기 위해 별도의 플래그가 정의될 수 있다. 예를 들어, 플래그의 값이 ‘0’ 인 경우 기존에 정의된 파티션 모드를 사용하여 부호화 단위를 분할하고, 플래그의 값이 ‘1’인 경우 본 명세서에서 제안하는 부호화 단위의 분할 방법을 사용할 수 있다.
나아가, 본 명세서에서는 부호화 단위를 분할함에 있어서 하나의 방향으로 분할하는 실시예를 설명하였으나, 부호화 단위의 분할 방향은 다양한 형태로 존재할 수 있으며, 분할 방향은 서로 교차할 수도 있다. 따라서, 부호화 단위 내에서는 예측 단위의 다양한 파티셔닝 형태가 존재 가능하다.
이하에서는, 부호화 단위로부터 분할된 변환 단위가 픽처의 외곽선을 벗어나는 경우, 변환 단위를 분할하는 방법에 대해 후술하기로 한다.
영상 부호화 또는 복호화 과정에서, 부호화 단위 또는 변환 단위의 크기는 픽처의 외곽선에 정확하게 정렬(align)되지 않을 수 있다. 일반적으로, 부호화 단위가 픽처의 외곽선에 걸쳐 있을 경우, 부호화 단위가 픽처의 외곽선에 정렬될 수 있도록 자동으로 분할된다. 하지만, 부호화 단위의 크기가 큰 경우에 있어서는 픽처의 외곽선이 부호화 단위와 정렬되지 않아 상당히 많은 숫자의 부호화 단위들로 분할되어야 한다. 이 경우, 분할된 부호화 단위의 개수만큼 예측 파라미터가 전송되어야 하는데, 이는 전송 오버헤드 증가 및 영상 코딩 효율의 저하를 가져올 수 있다.
상기와 같은 문제점을 해결하기 위해, 부호화 단위가 픽처의 외곽선에 걸쳐있더라도 부호화 단위를 자동으로 분할하지 않는 대신, 변환의 기초가 되는 변환 단위만을 자동으로 분할하는 방법이 제안된다.
도 8은 일 실시예에 따라 변환 단위가 픽처 외곽선을 벗어나는지 여부를 판단하는 과정을 도시한다.
도 8을 참조하면, 현재 픽처(810)의 너비 ‘Wpic’ 및 높이 ‘Hpic’ 중 적어도 하나가 변환 단위의 너비 및/또는 높이의 배수가 아니라면, 변환 단위들이 현재 픽처(810)의 오른쪽 외곽선 및 하부 외곽선 중 적어도 하나를 벗어날 수 있다.
일 실시예에 따라 변환 단위는 현재 픽처의 외곽선을 벗어날 수도 있는데, 현재 픽처의 외곽선을 벗어나지 않은 영역만 변환(또는 역변환)될 수 있다. 따라서, 현재 변환 단위가 픽처의 외곽선을 벗어나는지 여부를 판단할 필요가 있다. 여기서, 현재 변환 단위는 부호화 단위로부터 분할된 하나 이상의 변환 단위 중 하나일 수도 있다.
일 실시예에 따라, 현재 변환 단위(820)가 픽처(810)의 외곽선을 벗어나는지 여부를 판단하기 위해 현재 변환 단위(820)의 픽처(810) 내 위치가 픽처(810)의 너비 ‘Wpic’ 및 높이 ‘Hpic’ 중 적어도 하나와 비교될 수 있다. 예를 들어, 픽처(810)의 좌측 픽셀과 현재 변환 단위(820)의 우측 픽셀의 거리가 픽처(810)의 너비 ‘Wpic’와 비교되고, 픽처(810)의 상단 픽셀과 현재 변환 단위(820)의 하단 픽셀의 거리가 픽처(810)의 높이 ‘Hpic’ 와 비교될 수 있다.
일 실시예에 따라, 픽처(810) 내 현재 변환 단위(820)의 위치가 좌표 (x,y)로 정의될 수 있다. 예를 들어, 현재 변환 단위(820)의 좌측 상단 픽셀을 나타내는 위치가 현재 변환 단위(820)의 위치로 설정될 수 있다. 또한, 픽처(810)의 좌측 상단 픽셀을 나타내는 위치의 좌표가 픽처의 원점(0,0)이라고 할 경우, 픽처(810) 내 현재 변환 단위(820)의 위치는 원점(0,0)을 기준으로 좌표(x,y)에 위치할 수 있다.
현재 변환 단위(820)가 픽처(810)의 외곽선을 벗어나는지 여부를 판단하기 위해 다음과 같은 수학식이 이용될 수 있다.
Figure PCTKR2017001523-appb-M000001
Figure PCTKR2017001523-appb-M000002
Figure PCTKR2017001523-appb-M000003
상기 수학식 1 내지 3에서 x는 픽처(810)의 원점을 기준으로 현재 변환 단위(820)의 x좌표의 위치를 의미하고, y는 픽처(810)의 원점을 기준으로 현재 변환 단위(820)의 y좌표의 위치를 의미한다. 또한, Wblock은 현재 변환 단위(820)의 너비를 의미하고, Hblock은 현재 변환 단위(820)의 높이를 의미한다. 또한, Wpic은 픽처(810)의 너비를 의미하고, Hpic은 픽처(810)의 높이를 의미한다.
일 실시예에 따라, 수학식 1을 만족하면 현재 변환 단위(820)가 픽처(810)의 외곽선을 벗어나는 것으로 판단되고, 수학식 2를 만족하면 현재 변환 단위(820)가 픽처(810)의 오른쪽 외곽선을 벗어나는 것으로 판단되며, 수학식 3을 만족하면 현재 변환 단위(820)가 픽처(810)의 하부 외곽선을 벗어나는 것으로 판단될 수 있다.
상술한 실시예에서, 변환 단위가 픽처의 외곽선을 벗어난다는 의미는 변환 단위가 픽처의 외곽선에 걸쳐있다는 의미로도 해석될 수 있다.
도 9는 일 실시예에 따른 픽처 외곽선을 벗어난 변환 단위를 도시한다.
일 실시예에 따라 현재 변환 단위(910)가 픽처 외곽선을 벗어나는 것으로 판단되면, 현재 변환 단위(910)는 현재 변환 단위(910)와 겹치는 픽처 외곽선의 형태에 기초하여 다양한 형태로 분할될 수 있다. 픽처 외곽선을 벗어나는 현재 변환 단위(910)를 분할하는 경우, 영상 부호화 장치(100)에서 영상 복호화 장치(200)로 현재 변환 단위(910)에 대한 분할 정보가 별도로 시그널링되지 않는다. 즉, 영상 부호화 장치(100)는 픽처 외곽선을 벗어나는 변환 단위에 대해 분할 정보를 전송하지 않으며, 영상 복호화 장치(200)는 픽처 외곽선을 벗어나는 변환 단위에 대해 분할 정보를 파싱하지 않는다. 한편, 영상 부호화 장치(100)는 제 1 변환 단위가 픽처 외곽선을 벗어나는 것으로 판단되어 제 1 변환 단위에 대해서는 분할 정보를 전송하지 않더라도, 제 1 변환 단위로부터 분할된 제 2 변환 단위가 픽처 내부 영역에 존재하는 것으로 다시 판단된다면 제 2 변환 단위에 대해서는 분할 정보를 전송할 수 있다. 또한, 영상 복호화 장치(200)는 제 1 변환 단위가 픽처 외곽선을 벗어나는 것으로 판단되어 제 1 변환 단위에 대해서는 분할 정보를 획득하지 않더라도, 제 1 변환 단위로부터 분할된 제 2 변환 단위가 픽처 내부 영역에 존재하는 것으로 다시 판단된다면 제 2 변환 단위에 대해서는 분할 정보를 획득할 수 있다.
일 실시예에 따라 현재 변환 단위(910)가 픽처 외곽선을 벗어나는 경우, 현재 변환 단위(910)가 수직 및 수평 방향으로 분할하여 4개의 정사각형 형태의 변환 단위(920)로 분할될 수 있다. 또한, 일 실시예에 따라 분할된 변환 단위(920)은 픽처 외곽선을 벗어나지 않을 때까지 상기 분할 과정이 반복될 수 있다.
다른 실시예에 따라 현재 변환 단위(910)가 픽처 외곽선을 벗어나는 경우, 현재 변환 단위(910)가 수직 또는 수평 방향으로 분할되어 2개의 비-정사각형 형태의 변환 단위(930)로 분할될 수 있다. 이 때, 변환 단위(930)는 픽처 외곽선과 완전하게 정렬되도록 현재 변환 단위(910)로부터 분할될 수 있다. 변환 단위(930)가 픽처 외곽선과 정렬되지 않을 경우, 상기 분할 과정이 변환 단위(930)가 픽처 외곽선을 벗어나지 않을 때까지 반복될 수 있다.
전술한 실시예에서, 현재 변환 단위는 부호화 단위로부터 분할된 변환 단위들 중 하나를 의미할 수 있다. 또한, 현재 변환 단위 및 현재 변환 단위로부터 분할되는 변환 단위의 형태는 정사각형일 수도 있고 비-정사각형일 수도 있다.
전술한 실시예에서, 현재 변환 단위(910)가 픽처 외곽선을 벗어나는 경우, 현재 변환 단위(910)에 대한 분할 정보의 시그널링이 생략될 수 있다. 이 경우, 현재 변환 단위(910)는 픽처 외곽선을 벗어나지 않게 될 때까지 소정 규칙에 따라 재귀적으로 분할될 수 있다. 픽처 외곽선의 변환 단위가 분할되는 다양한 규칙에 대해서 도 10a 내지 도 10c를 통해 상세히 후술하기로 한다.
도 10a 내지 10c는 일 실시예에 따른 픽처 외곽선을 벗어난 변환 단위의 분할 방법을 도시한다.
도 10a 내지 10c를 참조하면, 현재 변환 단위(1000)는 다양한 형태로 픽처의 외곽선(1010, 1020, 1030, 1040, 1050, 1060, 1070, 1080)을 벗어난다. 도 10a에서는 픽처의 외곽선이 수평 외곽선(1010, 1020)인 경우가 도시되고, 도 10b에서는 픽처의 외곽선이 수직 외곽선(1030, 1040)인 경우가 도시되고, 도 10c에서는 픽처의 외곽선이 모서리 외곽선(1050, 1060, 1070, 1080)인 경우가 도시된다.
도 10a를 참조하면, 현재 변환 단위(1000)는 픽처의 수평 외곽선(1010, 1020)을 벗어난다. 현재 변환 단위(1000)가 픽처의 수평 외곽선(1010)을 벗어나는 경우, 현재 변환 단위(1000)의 상부 영역은 픽처의 내부 영역(1016)이고 현재 변환 단위(1000)의 하부 영역은 픽처의 외부 영역(1018)이다. 현재 변환 단위(1000)가 픽처의 수평 외곽선(1020)을 벗어나는 경우, 현재 블록(1000)의 상부 영역은 픽처의 내부 영역(1026)이고 현재 변환 단위(500)의 하부 영역은 픽처의 외부 영역(1028)이다.
일 실시예에 따라, 현재 변환 단위(1000)가 픽처의 수평 외곽선(1010, 1020)을 벗어나는 경우, 현재 변환 단위(1000)는 수평 방향으로 분할되어 2개의 변환 단위들(1012, 1014, 1022, 1024)로 분할될 수 있다. 이 경우, 현재 변환 단위(1000)의 분할에는 별도의 분할 정보를 필요로 하지 않는다.
일 실시예에 따라, 수평 방향으로 분할된 변환 단위(1012, 1014) 중 하나의 블록(1012)는 여전히 픽처의 수평 외곽선(1010)을 벗어날 수 있다. 픽처의 수평 외곽선(1010)을 벗어나는 변환 단위(1012)는 픽처의 수평 외곽선(1010)을 벗어나지 않을 때까지 분할 정보의 이용 없이 소정 규칙에 따라 재귀적으로 분할될 수 있다. 그러나, 픽처의 수평 외곽선(1010)의 외부에 존재하는 변환 단위(1014)는 픽처의 외부 영역(1018)에 해당하므로, 변환 단위(1014)에 대해서는 변환(또는 역변환)이 수행되지 않는다.
일 실시예에 따라, 수평 방향으로 양분된 2개의 변환 단위들(1022, 1024) 사이의 경계가 픽처의 수평 외곽선(1020)과 일치할 수도 있다. 이 경우, 픽처의 수평 외곽선(1020) 내부에 존재하는 변환 단위(1022)는 더 이상 분할되지 않고 변환(또는 역변환)될 수도 있고, 비트스트림으로부터 파싱되는 분할 정보를 이용하여 복수의 변환 단위들로 분할될 수도 있다. 그러나, 픽처의 수평 외곽선(1020)의 외부에 존재하는 변환 단위(1024)는 픽처의 외부 영역(1028)에 해당하므로, 변환 단위(1024)에 대해서는 변환(또는 역변환)이 수행되지 않는다.
도 5b를 참조하면, 현재 변환 단위(1000)는 픽처의 수직 외곽선(1030, 1040)을 벗어난다. 현재 변환 단위(1000)가 픽처의 수직 외곽선(1030)을 벗어나는 경우, 현재 변환 단위(1000)의 좌측 영역은 픽처의 내부 영역(1036)이고 현재 변환 단위(1000)의 우측 영역은 픽처의 외부 영역(1038)이다. 현재 변환 단위(1000)가 픽처의 수직 외곽선(1040)을 벗어나는 경우, 현재 변환 단위(1000)의 좌측 영역은 픽처의 내부 영역(1046)이고 현재 변환 단위(1000)의 우측 영역은 픽처의 외부 영역(1048)이다.
일 실시예에 따라, 현재 변환 단위(1000)가 픽처의 수직 외곽선(1030, 1040)을 벗어나는 경우, 현재 변환 단위(1000)는 수직 방향으로 분할되어 2개의 변환 단위들(1032, 1034, 1042, 1044)로 분할될 수 있다. 이 경우, 현재 변환 단위(1000)의 분할에는 별도의 분할 정보를 필요로 하지 않는다.
일 실시예에 따라, 수직 방향으로 분할된 변환 단위들(1032, 1034) 중 하나의 변환 단위(1032)는 여전히 픽처의 수직 외곽선(1030)을 벗어날 수 있다. 픽처의 수직 외곽선(1030)을 벗어나는 변환 단위(1032)는 픽처의 수직 외곽선(1030)을 벗어나지 않을 때까지 분할 정보의 이용 없이 소정 규칙에 따라 재귀적으로 분할될 수 있다. 그러나, 픽처의 수직 외곽선(1030)의 외부에 존재하는 변환 단위(1034)는 픽처의 외부 영역(1038)에 해당하므로, 변환 단위(1034)에 대해서는 변환(또는 역변환)이 수행되지 않는다.
일 실시예에 따라, 수직 방향으로 분할된 변환 단위들(1042, 1044) 사이의 경계가 픽처의 수직 외곽선(1040)과 일치할 수도 있다. 이 경우, 픽처의 수직 외곽선(1040) 내부에 존재하는 변환 단위(1042)는 더 이상 분할되지 않고 변환(또는 역변환)될 수도 있고, 비트스트림으로부터 파싱되는 분할 정보를 이용하여 복수의 변환 단위들로 분할될 수도 있다. 그러나, 픽처의 수직 외곽선(1040)의 외부에 존재하는 변환 단위(1044)는 픽처의 외부 영역(1048)에 해당하므로, 변환 단위(1044)에 대해서는 변환(또는 역변환)이 수행되지 않는다.
도 10c를 참조하면, 현재 변환 단위(1000)는 픽처의 모서리 외곽선(1050, 1060)을 벗어날 수 있다. 현재 변환 단위(1000)가 픽처의 모서리 외곽선(1050)을 벗어나는 경우, 현재 변환 단위(1000)의 좌측 상부 영역은 픽처의 내부 영역(1056)이고 현재 변환 단위(1000)의 나머지 영역은 픽처의 외부 영역(1057)이다. 현재 변환 단위(1000)가 픽처의 모서리 외곽선(1060)을 벗어나는 경우, 현재 변환 단위(1000)의 좌측 상부 영역은 픽처의 내부 영역(1066)이고 현재 변환 단위(1000)의 나머지 영역은 픽처의 외부 영역(1067)이다.
일 실시예에 따라, 현재 변환 단위(1000)가 픽처의 모서리 외곽선(1050, 1060)을 벗어나는 경우, 현재 변환 단위(1000)는 수평 및 수직 방향으로 분할되어 4개의 변환 단위들(1051, 1052, 1053, 1054, 1061, 1062, 1063, 1064)로 분할될 수 있다. 이 경우, 현재 변환 단위(1000)의 분할에는 별도의 분할 정보를 필요로 하지 않는다.
일 실시예에 따라, 수평 및 수직 방향으로 분할된 변환 단위들(1051, 1052, 1053, 1054) 중 하나의 변환 단위(1051)는 여전히 픽처의 모서리 외곽선(1050)을 벗어날 수 있다. 픽처의 모서리 외곽선(1050)을 벗어나는 변환 단위(1051)는 픽처의 모서리 외곽선(1050)을 벗어나지 않을 때까지 분할 정보의 이용 없이 소정 규칙에 따라 재귀적으로 분할될 수 있다. 그러나, 픽처의 모서리 외곽선(1050)의 외부에 존재하는 변환 단위들(1052, 1053, 1054)은 픽처의 외부 영역(1057)에 해당하므로, 변환 단위들(1052, 1053, 1054)에 대해서는 변환(또는 역변환)이 수행되지 않는다.
일 실시예에 따라, 수평 및 수직 방향으로 분할된 변환 단위들(1061, 1062, 1063, 1064) 사이의 경계들 중 적어도 하나가 픽처의 모서리 외곽선(1060)과 일치할 수도 있다. 이 경우, 픽처의 모서리 외곽선(1060) 내부에 존재하는 변환 단위(1061)는 더 이상 분할되지 않고 변환(또는 역변환)될 수도 있고, 비트스트림으로부터 파싱되는 분할 정보를 이용하여 복수의 변환 단위들로 분할될 수도 있다. 그러나, 픽처의 모서리 외곽선(1060)의 외부에 존재하는 변환 단위들(1062, 1063, 1064)은 픽처의 외부 영역(1067)에 해당하므로, 변환 단위들(1062, 1063, 1064)에 대해서는 변환(또는 역변환)이 수행되지 않는다.
도 11은 일 실시예에 따른 영상 부호화 방법을 나타낸 플로우 차트이다.
단계 S1110에서, 부호화 단위에 인접한 픽셀들 중 부호화 단위의 분할을 위한 참조 픽셀들이 결정된다.
단계 S1120에서, 참조 픽셀들 중 픽셀 변화도가 가장 큰 위치 및 검출된 에지의 위치 중 적어도 하나에 기초하여, 부호화 단위를 분할하는 경계의 위치를 나타내는 분할 위치가 결정된다.
단계 S1130에서, 분할 위치를 기준으로 소정 방향으로 부호화 단위를 분할하여, 부호화 단위로부터 복수의 예측 단위가 획득된다.
단계 S1140에서, 복수의 예측 단위에 대해 예측이 수행된다.
도 12는 다른 실시예에 따른 영상 복호화 방법을 나타낸 플로우 차트이다.
단계 S1210에서, 비트스트림으로부터 부호화 단위를 분할하는 하나 이상의 경계의 기준 위치를 나타내는 분할 기준 위치 정보가 획득된다.
단계 S1220에서, 분할 기준 위치 정보에 기초하여, 부호화 단위를 기준 위치로부터 소정 픽셀 간격 마다 소정 방향으로 분할하여 하나 이상의 경계가 결정된다.
단계 S1230에서, 하나 이상의 경계에 기초하여 부호화 단위로부터 복수의 예측 단위가 분할된다.
단계 S1240에서, 복수의 예측 단위에 대해 예측이 수행된다.
도 13은 또 다른 실시예에 따른 영상 복호화 방법을 나타낸 플로우 차트이다.
단계 S1310에서, 부호화 단위로부터 분할된 현재 변환 단위의 픽처 내 위치를 픽처의 너비 및 높이 중 적어도 하나와 비교하여 현재 변환 단위가 픽처의 외곽선을 벗어나는지 여부가 결정된다.
단계 S1320에서, 현재 변환 단위가 픽처의 외곽선을 벗어나는 경우, 현재 변환 단위가 적어도 하나의 방향으로 분할되어 복수의 변환 단위들로 분할된다.
단계 S1330에서, 현재 변환 단위가 픽처의 외곽선을 벗어나지 않는 경우, 비트스트림으로부터 현재 변환 단위에 대한 분할 정보를 획득하고, 분할 정보에 기초하여 현재 변환 단위가 복수의 변환 단위들로 분할된다.
단계 S1340에서, 복수의 변환 단위들 중 더 이상 분할되지 않는 변환 단위에 대해 역변환이 수행된다.
이하, 도 14 내지 도 27을 참조하여 일 실시예에 따른 영상의 데이터 단위를 결정하는 방법이 상술된다. 도 14 내지 도 27에서 설명되는 부호화 단위에 대한 분할 방법은 변환의 기초가 되는 변환 단위의 분할 방법에도 동일하게 적용될 수 있다.
도 14는 일 실시예에 따라 영상 복호화 장치(200)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(200)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
일 실시예에 따라, 영상 복호화 장치(200)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(200)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 14를 참조하면, 현재 부호화 단위(1400)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(220)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(1400)와 동일한 크기를 가지는 부호화 단위(1410a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(1410b, 1410c, 1410d 등)를 결정할 수 있다.
도 14를 참조하면 영상 복호화 장치(200)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1400)를 수직방향으로 분할한 두개의 부호화 단위(1410b)를 결정할 수 있다. 영상 복호화 장치(200)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1400)를 수평방향으로 분할한 두개의 부호화 단위(1410c)를 결정할 수 있다. 영상 복호화 장치(200)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1400)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(1410d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 15는 일 실시예에 따라 영상 복호화 장치(200)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(200)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 15를 참조하면, 현재 부호화 단위(1500 또는 1550)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(200)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(1500 또는 1550)와 동일한 크기를 가지는 부호화 단위(1510 또는 1560)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(1520a, 1520b, 1530a, 1530b, 1530c, 1570a, 1570b, 1580a, 1580b, 1580c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 15를 참조하면 분할 형태 정보가 두개의 부호화 단위로 현재 부호화 단위(1500 또는 1550)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(200)는 분할 형태 정보에 기초하여 현재 부호화 단위(1500 또는 1550)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(1520a, 11820b, 또는 1570a, 1570b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(1500 또는 1550)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(1500 또는 1550)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(200)는 현재 부호화 단위(1500 또는 1550)의 형태를 고려하여 현재 부호화 단위(1500 또는 1550)의 긴 변을 분할하는 방향으로 현재 부호화 단위(1500 또는 1550)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(200)는 현재 부호화 단위(1500 또는 1550)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(1500 또는 1550)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(200)는 현재 부호화 단위(1500 또는 1550)를 3개의 부호화 단위(1530a, 1530b, 1530c, 1580a, 1580b, 1580c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위(1500 또는 1550)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(1530a, 1530b, 1530c, 1580a, 1580b, 1580c) 중 소정의 부호화 단위(1530b 또는 1580b)의 크기는 다른 부호화 단위(1530a, 1530c, 1580a, 1580c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(1500 또는 1550)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(1530a, 1530b, 1530c, 1580a, 1580b, 1580c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(200)는 현재 부호화 단위(1500 또는 1550)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(200)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 15를 참조하면 영상 복호화 장치(200)는 현재 부호화 단위(1500 또는 1550)가 분할되어 생성된 3개의 부호화 단위(1530a, 1530b, 1530c, 1580a, 1580b, 1580c)들 중 중앙에 위치하는 부호화 단위(1530b, 1580b)에 대한 복호화 과정을 다른 부호화 단위(1530a, 1530c, 1580a, 1580c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(200)는 중앙에 위치하는 부호화 단위(1530b, 1580b)에 대하여는 다른 부호화 단위(1530a, 1530c, 1580a, 1580c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 16은 일 실시예에 따라 영상 복호화 장치(200)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1600)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(1600)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(200)는 제1 부호화 단위(1600)를 수평 방향으로 분할하여 제2 부호화 단위(1610)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 결정된 제2 부호화 단위(1610)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 16를 참조하면 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1600)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(1610)를 적어도 하나의 제3 부호화 단위(1620a, 1620b, 1620c, 1620d 등)로 분할하거나 제2 부호화 단위(1610)를 분할하지 않을 수 있다. 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(200)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1600)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 1610)를 분할할 수 있으며, 제2 부호화 단위(1610)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1600)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(1600)가 제1 부호화 단위(1600)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(1610)로 분할된 경우, 제2 부호화 단위(1610) 역시 제2 부호화 단위(1610)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 1620a, 1620b, 1620c, 1620d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다. 도 16을 참조하면, 비-정사각형 형태의 제2 부호화 단위(1610)가 분할되어 결정되는 홀수개의 제3 부호화 단위(1620b, 1620c, 1620d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(1620b, 1620c, 1620d) 중 하나인 정사각형 형태의 제3 부호화 단위(1620c)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위 중 하나인 비-정사각형 형태의 제4 부호화 단위(1240)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(1240)는 홀수개의 부호화 단위(1250a, 1250b, 1250c)로 다시 분할될 수도 있다.
부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(1620a, 1620b, 1620c, 1620d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(1610)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(200)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(1610)를 홀수개의 제3 부호화 단위(1620b, 1620c, 1620d)로 분할할 수 있다. 영상 복호화 장치(200)는 홀수개의 제3 부호화 단위(1620b, 1620c, 1620d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(200)는 홀수개의 제3 부호화 단위(1620b, 1620c, 1620d) 중 가운데에 위치하는 부호화 단위(1620c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 16를 참조하면, 영상 복호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(1610)에 포함되는 홀수개의 제3 부호화 단위(1620b, 1620c, 1620d)들 중 가운데에 위치하는 부호화 단위(1620c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(1610)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(1620c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(1620c)가 다른 부호화 단위(1620b, 1620d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 17은 일 실시예에 따라 영상 복호화 장치(200)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다. 도 17을 참조하면, 현재 부호화 단위(1700)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(1700)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(1740))에서 획득될 수 있다. 다만 이러한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(1700) 내의 소정 위치가 도 17에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(1700)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(200)는 소정 위치로부터 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(200) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
도 17은 일 실시예에 따라 영상 복호화 장치(200)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 17을 참조하면, 영상 복호화 장치(200)는 현재 부호화 단위(1700)를 분할하여 홀수개의 부호화 단위들(1720a, 1720b, 1320c)을 결정할 수 있다. 영상 복호화 장치(200)는 홀수개의 부호화 단위들(1720a, 1720b, 1320c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(1720b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(200)는 부호화 단위들(1720a, 1720b, 1320c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(1720a, 1720b, 1320c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(1720b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(200)는 부호화 단위들(1720a, 1720b, 1320c)의 좌측 상단의 샘플(1730a, 1730b, 1730c)의 위치를 나타내는 정보에 기초하여 부호화 단위(1720a, 1720b, 1320c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(1720b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(1720a, 1720b, 1320c)에 각각 포함되는 좌측 상단의 샘플(1730a, 1730b, 1730c)의 위치를 나타내는 정보는 부호화 단위(1720a, 1720b, 1320c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(1720a, 1720b, 1320c)에 각각 포함되는 좌측 상단의 샘플(1730a, 1730b, 1730c)의 위치를 나타내는 정보는 현재 부호화 단위(1700)에 포함되는 부호화단위(1720a, 1720b, 1320c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(1720a, 1720b, 1320c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(200)는 부호화 단위(1720a, 1720b, 1320c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(1720b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(1720a)의 좌측 상단의 샘플(1730a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(1720b)의 좌측 상단의 샘플(1730b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(1320c)의 좌측 상단의 샘플(1730c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(200)는 부호화 단위(1720a, 1720b, 1320c)에 각각 포함되는 좌측 상단의 샘플(1730a, 1730b, 1730c)의 좌표를 이용하여 가운데 부호화 단위(1720b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(1730a, 1730b, 1730c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(1730b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(1720b)를 현재 부호화 단위(1700)가 분할되어 결정된 부호화 단위(1720a, 1720b, 1320c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(1730a, 1730b, 1730c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(1720a)의 좌측 상단의 샘플(1730a)의 위치를 기준으로, 가운데 부호화 단위(1720b)의 좌측 상단의 샘플(1730b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(1320c)의 좌측 상단의 샘플(1730c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위(1700)를 복수개의 부호화 단위(1720a, 1720b, 1320c)로 분할할 수 있고, 부호화 단위(1720a, 1720b, 1320c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(200)는 부호화 단위(1720a, 1720b, 1320c) 중 크기가 다른 부호화 단위(1720b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 상단 부호화 단위(1720a)의 좌측 상단의 샘플(1730a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(1720b)의 좌측 상단의 샘플(1730b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(1320c)의 좌측 상단의 샘플(1730c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(1720a, 1720b, 1320c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(200)는 부호화 단위(1720a, 1720b, 1320c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(1720a, 1720b, 1320c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(200)는 상단 부호화 단위(1720a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 가운데 부호화 단위(1720b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(1720a) 및 가운데 부호화 단위(1720b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(200)는 결정된 부호화 단위(1720a, 1720b, 1320c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 17을 참조하면, 영상 복호화 장치(200)는 상단 부호화 단위(1720a) 및 하단 부호화 단위(1320c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(1720b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(200)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(200)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(200)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(200)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 17에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(200)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다.
도 17을 참조하면 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(1700)를 복수개의 부호화 단위들(1720a, 1720b, 1320c)로 분할할 수 있으며, 복수개의 부호화 단위들(1720a, 1720b, 1320c) 중 가운데에 위치하는 부호화 단위(1720b)를 결정할 수 있다. 나아가 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(1720b)를 결정할 수 있다. 즉, 현재 부호화 단위(1700)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(1700)의 가운데에 위치하는 샘플(1740)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(1700)가 복수개의 부호화 단위들(1720a, 1720b, 1320c)로 분할된 경우 상기 샘플(1740)을 포함하는 부호화 단위(1720b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 17을 참조하면, 영상 복호화 장치(200)는 현재 부호화 단위(1700)가 분할되어 결정된 복수개의 부호화 단위들(1720a, 1720b, 1320c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(1700) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(1700)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(200)는 현재 부호화 단위(1700)의 블록 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(200)는 현재 부호화 단위(1700)가 분할되어 결정되는 복수개의 부호화 단위(1720a, 1720b, 1320c)들 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(1720b)를 결정하여 소정의 제한을 둘 수 있다. 도 17을 참조하면 일 실시예에 따라 영상 복호화 장치(200)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(1700)의 가운데에 위치하는 샘플(1740)을 결정할 수 있고, 영상 복호화 장치(200)는 이러한 샘플(1740)이 포함되는 부호화 단위(1720b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(1720b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(1700)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(200)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(200)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(200)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 16를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 18은 일 실시예에 따라 영상 복호화 장치(200)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(1800)를 수직 방향으로 분할하여 제2 부호화 단위(1810a, 1810b)를 결정하거나 제1 부호화 단위(1800)를 수평 방향으로 분할하여 제2 부호화 단위(1830a, 1830b)를 결정하거나 제1 부호화 단위(1800)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(1850a, 1850b, 1850c, 1850d)를 결정할 수 있다.
도 18을 참조하면, 영상 복호화 장치(200)는 제1 부호화 단위(1800)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(1810a, 1810b)를 수평 방향(1810c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(200)는 제1 부호화 단위(1800)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(1830a, 1830b)의 처리 순서를 수직 방향(1830c)으로 결정할 수 있다. 영상 복호화 장치(200)는 제1 부호화 단위(1800)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(1850a, 1850b, 1850c, 1850d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(1850e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 18을 참조하면, 영상 복호화 장치(200)는 제1 부호화 단위(1800)를 분할하여 복수개의 부호화 단위들(1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, 1850d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, 1850d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, 1850d)을 분할하는 방법은 제1 부호화 단위(1800)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(1810a, 1810b, 1830a, 1830b, 1850a, 1850b, 1850c, 1850d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 18를 참조하면 영상 복호화 장치(200)는 제1 부호화 단위(1800)를 수직 방향으로 분할하여 제2 부호화 단위(1810a, 1810b)를 결정할 수 있고, 나아가 제2 부호화 단위(1810a, 1810b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 좌측의 제2 부호화 단위(1810a)를 수평 방향으로 분할하여 제3 부호화 단위(1820a, 1820b)로 분할할 수 있고, 우측의 제2 부호화 단위(1810b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(200)는 좌측의 제2 부호화 단위(1810a)가 분할되어 결정된 제3 부호화 단위(1820a, 1820b)가 처리되는 순서를 우측의 제2 부호화 단위(1810b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(1810a)가 수평 방향으로 분할되어 제3 부호화 단위(1820a, 1820b)가 결정되었으므로 제3 부호화 단위(1820a, 1820b)는 수직 방향(1820c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(1810a) 및 우측의 제2 부호화 단위(1810b)가 처리되는 순서는 수평 방향(1810c)에 해당하므로, 좌측의 제2 부호화 단위(1810a)에 포함되는 제3 부호화 단위(1820a, 1820b)가 수직 방향(1820c)으로 처리된 후에 우측 부호화 단위(1810b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 19는 일 실시예에 따라 영상 복호화 장치(200)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 19를 참조하면 정사각형 형태의 제1 부호화 단위(1900)가 비-정사각형 형태의 제2 부호화 단위(1910a, 1910b)로 분할될 수 있고, 제2 부호화 단위(1910a, 1910b)는 각각 독립적으로 제3 부호화 단위(1920a, 1920b, 1920c, 1920d, 1920e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 제2 부호화 단위 중 좌측 부호화 단위(1910a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(1920a, 1920b)를 결정할 수 있고, 우측 부호화 단위(1910b)는 홀수개의 제3 부호화 단위(1920c, 1920d, 1920e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 제3 부호화 단위들(1920a, 1920b, 1920c, 1920d, 1920e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 19를 참조하면, 영상 복호화 장치(200)는 제1 부호화 단위(1900)를 재귀적으로 분할하여 제3 부호화 단위(1920a, 1920b, 1920c, 1920d, 1920e)를 결정할 수 있다. 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(1900), 제2 부호화 단위(1910a, 1910b) 또는 제3 부호화 단위(1920a, 1920b, 1920c, 1920d, 1920e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(1910a, 1910b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(1920c, 1920d, 1920e)로 분할될 수 있다. 제1 부호화 단위(1900)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(1930))가 될 수 있고, 영상 복호화 장치(200)는 우측 제2 부호화 단위(1910b)가 홀수개로 분할되어 결정된 제3 부호화 단위(1920c, 1920d, 1920e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 제1 부호화 단위(1900)에 포함되는 제3 부호화 단위(1920a, 1920b, 1920c, 1920d, 1920e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(1920a, 1920b, 1920c, 1920d, 1920e)의 경계에 따라 제2 부호화 단위(1910a, 1910b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(1910a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(1920a, 1920b)는 조건을 만족하지만, 우측 제2 부호화 단위(1910b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(1920c, 1920d, 1920e)들의 경계가 우측 제2 부호화 단위(1910b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(1920c, 1920d, 1920e)는 조건을 만족하지 못하는 것으로 결정될 수 있고, 영상 복호화 장치(200)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(1910b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 20은 일 실시예에 따라 영상 복호화 장치(200)가 제1 부호화 단위(2000)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. 일 실시예에 따라 영상 복호화 장치(200)는 수신부(210)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2000)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(2000)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 20을 참조하면, 블록 형태 정보가 제1 부호화 단위(2000)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(200)는 제1 부호화 단위(2000)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(2000)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(2000)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(2010a, 2010b, 2010c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(2020a, 2020b, 2020c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 제1 부호화 단위(2000)에 포함되는 제2 부호화 단위(2010a, 2010b, 2010c, 2020a, 2020b, 2020c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(2010a, 2010b, 2010c, 2020a, 2020b, 2020c)의 경계에 따라 제1 부호화 단위(2000)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 20을 참조하면 정사각형 형태의 제1 부호화 단위(2000)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(2010a, 2010b, 2010c)들의 경계가 제1 부호화 단위(2000)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(2000)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(2000)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(2020a, 2020b, 2020c)들의 경계가 제1 부호화 단위(2000)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(2000)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(200)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(2000)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(200)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 20을 참조하면, 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(2000), 비-정사각형 형태의 제1 부호화 단위(2030 또는 2050)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 21은 일 실시예에 따라 영상 복호화 장치(200)가 제1 부호화 단위(2100)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 수신부(210)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(2100)를 비-정사각형 형태의 제2 부호화 단위(2110a, 2110b, 2120a, 2120b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(2110a, 2110b, 2120a, 2120b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(200)는 제2 부호화 단위(2110a, 2110b, 2120a, 2120b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 수직 방향으로 제1 부호화 단위(2100)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(2110a)를 수평 방향으로 분할하여 제3 부호화 단위(2112a, 2112b)를 결정할 수 있다. 다만 영상 복호화 장치(200)는 좌측 제2 부호화 단위(2110a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(2110b)는 좌측 제2 부호화 단위(2110a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(2110b)가 동일한 방향으로 분할되어 제3 부호화 단위(2114a, 2114b)가 결정된 경우, 좌측 제2 부호화 단위(2110a) 및 우측 제2 부호화 단위(2110b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(2112a, 2112b, 2114a, 2114b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(200)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2100)를 4개의 정사각형 형태의 제2 부호화 단위(2130a, 2130b, 2130c, 2130d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 수평 방향으로 제1 부호화 단위(11700)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(2120a 또는 2120b)를 수직 방향으로 분할하여 제3 부호화 단위(2122a, 2122b, 2124a, 2124b)를 결정할 수 있다. 다만 영상 복호화 장치(200)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(2120a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(2120b))는 상단 제2 부호화 단위(2120a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 22는 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(200)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2200)를 분할하여 제2 부호화 단위(2210a, 2210b, 2220a, 2220b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(2200)를 4개의 정사각형 형태의 제2 부호화 단위(2230a, 2230b, 2230c, 2230d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(2210a, 2210b, 2220a, 2220b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(2210a, 2210b, 2220a, 2220b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(2210a, 2210b, 2220a, 2220b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2200)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(200)는 좌측 제2 부호화 단위(2210a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2212a, 2212b)를 결정할 수 있고, 우측 제2 부호화 단위(2210b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2214a, 2214b)를 결정할 수 있다. 나아가 영상 복호화 장치(200)는 좌측 제2 부호화 단위(2210a) 및 우측 제2 부호화 단위(2210b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2216a, 2216b, 2216c, 2216d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(2200)가 4개의 정사각형 형태의 제2 부호화 단위(2230a, 2230b, 2230c, 2230d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(200)는 상단 제2 부호화 단위(2220a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2222a, 2222b)를 결정할 수 있고, 하단 제2 부호화 단위(2220b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2224a, 2224b)를 결정할 수 있다. 나아가 영상 복호화 장치(200)는 상단 제2 부호화 단위(2220a) 및 하단 제2 부호화 단위(2220b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2222a, 2222b, 2224a, 2224b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(2200)가 4개의 정사각형 형태의 제2 부호화 단위(2230a, 2230b, 2230c, 2230d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 23은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(2300)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(2300)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(200)는 제1 부호화 단위(2300)를 분할하여 제2 부호화 단위(예를 들면, 2310a, 2310b, 2320a, 2320b, 1930a, 1930b, 1930c, 1930d 등)를 결정할 수 있다. 도 23를 참조하면 제1 부호화 단위2300)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(2310a, 2310b, 2320a, 2320b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(200)는 제1 부호화 단위(2300)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(2310a, 2310b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(2316a, 2316b, 2316c, 2316d)를 결정할 수 있고, 제1 부호화 단위(2300)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(2320a, 2320b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(2326a, 2326b, 2326c, 2326d)를 결정할 수 있다. 이러한 제2 부호화 단위(2310a, 2310b, 2320a, 2320b)의 분할 과정은 도 21과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 18과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 23을 참조하면 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(2300)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, 2326d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 제1 부호화 단위(2300)가 분할되는 형태에 따라 제3 부호화 단위(2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, 2326d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(2310a, 2310b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(2316a, 2316b, 2316c, 2316d)를 결정할 수 있고, 영상 복호화 장치(200)는 좌측 제2 부호화 단위(2310a)에 포함되는 제3 부호화 단위(2316a, 2316b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(2310b)에 포함되는 제3 부호화 단위(2316c, 2316d)를 수직 방향으로 처리하는 순서(2317)에 따라 제3 부호화 단위(2316a, 2316b, 2316c, 2316d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(2320a, 2320b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(2326a, 2326b, 2326c, 2326d)를 결정할 수 있고, 영상 복호화 장치(200)는 상단 제2 부호화 단위(2320a)에 포함되는 제3 부호화 단위(2326a, 2326b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(2320b)에 포함되는 제3 부호화 단위(2326c, 2326d)를 수평 방향으로 처리하는 순서(2327)에 따라 제3 부호화 단위(2326a, 2326b, 2326c, 2326d)를 처리할 수 있다.
도 23을 참조하면, 제2 부호화 단위(2310a, 2310b, 2320a, 2320b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, 2326d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(2310a, 2310b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(2320a, 2320b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(2316a, 2316b, 2316c, 2316d, 2326a, 2326b, 2326c, 2326d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(2300)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 24는 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(200)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 24를 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(200)는 정사각형 형태인 제1 부호화 단위(2400)를 분할하여 하위 심도의 제2 부호화 단위(2402), 제3 부호화 단위(2404) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(2400)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(2400)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(2402)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(2402)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(2404)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(2404)의 너비 및 높이는 제1 부호화 단위(2400)의 1/22배에 해당한다. 제1 부호화 단위(2400)의 심도가 D인 경우 제1 부호화 단위(2400)의 너비 및 높이의 1/21배인 제2 부호화 단위(2402)의 심도는 D+1일 수 있고, 제1 부호화 단위(2400)의 너비 및 높이의 1/22배인 제3 부호화 단위(2404)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(200)는 비-정사각형 형태인 제1 부호화 단위(2410 또는 2420)를 분할하여 하위 심도의 제2 부호화 단위(2412 또는 2422), 제3 부호화 단위(2414 또는 2424) 등을 결정할 수 있다.
영상 복호화 장치(200)는 Nx2N 크기의 제1 부호화 단위(2410)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 2402, 2412, 2422 등)를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 제1 부호화 단위(2410)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(2402) 또는 NxN/2 크기의 제2 부호화 단위(2422)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(2412)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(200)는 2NxN 크기의 제1 부호화 단위(2420) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 2402, 2412, 2422 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제1 부호화 단위(2420)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(2402) 또는 N/2xN 크기의 제2 부호화 단위(2412)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(2422)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(200)는 NxN 크기의 제2 부호화 단위(2402) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2404, 2414, 2424 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제2 부호화 단위(2402)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2404)를 결정하거나 N/22xN/2 크기의 제3 부호화 단위(2414)를 결정하거나 N/2xN/22 크기의 제3 부호화 단위(2424)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 N/2xN 크기의 제2 부호화 단위(2412)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2404, 2414, 2424 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제2 부호화 단위(2412)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2404) 또는 N/2xN/22 크기의 제3 부호화 단위(2424)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/22xN/2 크기의 제3 부호화 단위(2414)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 NxN/2 크기의 제2 부호화 단위(2414)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2404, 2414, 2424 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제2 부호화 단위(2412)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2404) 또는 N/22xN/2 크기의 제3 부호화 단위(2414)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/22크기의 제3 부호화 단위(2424)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 정사각형 형태의 부호화 단위(예를 들면, 2400, 2402, 2404)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(2400)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(2410)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(2420)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(2400, 2402 또는 2404)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(2400, 2402 또는 2404)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(2414 또는 2424)의 너비 및 높이는 제1 부호화 단위(2410 또는 2420)의 1/22배에 해당할 수 있다. 제1 부호화 단위(2410 또는 2420)의 심도가 D인 경우 제1 부호화 단위(2410 또는 2420)의 너비 및 높이의 1/2배인 제2 부호화 단위(2412 또는 2414)의 심도는 D+1일 수 있고, 제1 부호화 단위(2410 또는 2420)의 너비 및 높이의 1/22배인 제3 부호화 단위(2414 또는 2424)의 심도는 D+2일 수 있다.
도 25는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(2500)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 25를 참조하면, 영상 복호화 장치(200)는 분할 형태 정보에 따라 제1 부호화 단위(2500)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(2502a, 2502b, 2504a, 2504b, 2506a, 2506b, 2506c, 2506d)를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 제1 부호화 단위(2500)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(2502a, 2502b, 2504a, 2504b, 2506a, 2506b, 2506c, 2506d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(2500)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(2502a, 2502b, 2504a, 2504b, 2506a, 2506b, 2506c, 2506d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(2500)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(2502a, 2502b, 2504a, 2504b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(2500)와 비-정사각형 형태의 제2 부호화 단위(2502a, 2502b, 2504a, 2504b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(200)가 분할 형태 정보에 기초하여 제1 부호화 단위(2500)를 4개의 정사각형 형태의 제2 부호화 단위(2506a, 2506b, 2506c, 2506d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(2506a, 2506b, 2506c, 2506d)의 한 변의 길이는 제1 부호화 단위(2500)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(2506a, 2506b, 2506c, 2506d)의 심도는 제1 부호화 단위(2500)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 높이가 너비보다 긴 형태의 제1 부호화 단위(2510)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(2512a, 2512b, 2514a, 2514b, 2514c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 너비가 높이보다 긴 형태의 제1 부호화 단위(2520)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(2522a, 2522b, 2524a, 2524b, 2524c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(2510 또는 2520)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(2512a, 2512b, 2514a, 2514b, 2116a, 2116b, 2116c, 2116d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(2512a, 2512b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(2510)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(2502a, 2502b, 2504a, 2504b)의 심도는 비-정사각형 형태의 제1 부호화 단위(2510)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(200)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(2510)를 홀수개의 제2 부호화 단위(2514a, 2514b, 2514c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(2514a, 2514b, 2514c)는 비-정사각형 형태의 제2 부호화 단위(2514a, 2514c) 및 정사각형 형태의 제2 부호화 단위(2514b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(2514a, 2514c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(2514b)의 한 변의 길이는 제1 부호화 단위(2510)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(2514a, 2514b, 2514c)의 심도는 제1 부호화 단위(2510)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(200)는 제1 부호화 단위(2510)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(2520)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 25를 참조하면, 홀수개로 분할된 부호화 단위들(2514a, 2514b, 2514c) 중 가운데에 위치하는 부호화 단위(2514b)는 다른 부호화 단위들(2514a, 2514c)와 너비는 동일하지만 높이가 다른 부호화 단위들(2514a, 2514c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(2514b)는 다른 부호화 단위들(2514a, 2514c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(2514b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(2514c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 25를 참조하면 영상 복호화 장치(200)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(2510)를 분할하여 짝수개의 부호화 단위(2512a, 2512b)를 결정하거나 홀수개의 부호화 단위(2514a, 2514b, 2514c)를 결정할 수 있다. 영상 복호화 장치(200)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(2510)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(200)는 제1 부호화 단위(2510)를 3개의 부호화 단위(2514a, 2514b, 2514c)로 분할할 수 있다. 영상 복호화 장치(200)는 3개의 부호화 단위(2514a, 2514b, 2514c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(200)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(200)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(2514b)를, 제1 부호화 단위(2510)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 25를 참조하면, 제1 부호화 단위(2510)가 분할되어 생성된 부호화 단위(2514b)는 다른 부호화 단위들(2514a, 2514c)와 너비는 동일하지만 높이가 다른 부호화 단위들(2514a, 2514c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(2514b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(2514c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(200)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(200)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(200)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 26은 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(200)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 26을 참조하면, 영상 복호화 장치(200)는 정사각형 형태의 기준 부호화 단위(2600)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(2602)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)의 수신부(210)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(2600)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 14의 현재 부호화 단위가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(2600)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 15의 현재 부호화 단위(1500 또는 1550)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(210)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(200)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(200)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(200)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 27은 일 실시예에 따라 픽쳐(2700)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(200)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(200)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)의 수신부(210)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(210)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(200)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 픽쳐(2700)에 포함되는 프로세싱 블록(2702, 2712)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(200)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 27을 참조하면, 영상 복호화 장치(200)는 일 실시예에 따라 프로세싱 블록(2702, 2712)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(200)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(200)는 프로세싱 블록의 크기에 기초하여 픽쳐(2700)에 포함되는 각각의 프로세싱 블록(2702, 2712)을 결정할 수 있고, 프로세싱 블록(2702, 2712)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(210)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(200)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(210)는 비트스트림으로부터 프로세싱 블록(2702, 2712)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(200)는 상기 프로세싱 블록(2702, 2712)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(2700)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 27을 참조하면, 영상 복호화 장치(200)는 각각의 프로세싱 블록(2702, 2712)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(2704, 2714)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(2702, 2712)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(2702)과 관련된 기준 부호화 단위 결정 순서(2704)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(2702)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(2712)과 관련된 기준 부호화 단위 결정 순서(2714)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(2712)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
영상 복호화 장치(200)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(200)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(200)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(200)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 정보에 대응하는 신택스를 비트스트림으로부터 획득하여 이용할 수 있다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (15)

  1. 부호화 단위에 인접한 픽셀들 중 상기 부호화 단위의 분할을 위한 참조 픽셀들을 결정하는 단계;
    상기 참조 픽셀들 중 픽셀 변화도(gradient)가 가장 큰 위치 및 검출된 에지(edge)의 위치 중 적어도 하나에 기초하여, 상기 부호화 단위를 분할하는 경계의 위치를 나타내는 분할 위치를 결정하는 단계;
    상기 분할 위치를 기준으로 소정 방향으로 상기 부호화 단위를 분할하여, 상기 부호화 단위로부터 복수의 예측 단위를 획득하는 단계; 및
    상기 복수의 예측 단위에 대해 예측을 수행하는 단계를 포함하는, 영상 복호화 방법.
  2. 제 1 항에 있어서,
    상기 소정 방향은 상기 부호화 단위를 수직 또는 수평으로 분할하는 방향인, 영상 복호화 방법.
  3. 제 1 항에 있어서,
    상기 참조 픽셀들을 결정하는 단계는,
    상기 부호화 단위의 상측에 인접한 픽셀들의 분산 값과 상기 부호화 단위의 좌측에 인접한 픽셀들의 분산 값을 비교하여 분산 값이 큰 픽셀들을 상기 참조 픽셀들로 결정하는 단계를 포함하는, 영상 복호화 방법.
  4. 제 1 항에 있어서,
    상기 예측을 수행하는 단계는,
    상기 부호화 단위를 분할하는 경계의 위치가 정수 픽셀인 경우, 상기 경계에 대응하는 픽셀들의 예측 값은 상기 경계에 의해 분할된 예측 단위들의 평균 예측 값으로 설정하는 단계를 포함하는, 영상 복호화 방법.
  5. 제 1 항에 있어서,
    상기 예측을 수행하는 단계는,
    상기 부호화 단위를 분할하는 경계의 위치가 정수 픽셀들 사이의 경계인 경우, 상기 경계에 인접하는 픽셀들의 예측 값은 상기 경계에 의해 분할된 예측 단위들의 예측 값에 기초하여 설정되는, 영상 복호화 방법.
  6. 제 1 항에 있어서,
    상기 분할 위치를 결정하는 단계는,
    상기 참조 픽셀들 중 두 개의 분할 위치 후보들 중 하나를 선택하는 단계를 포함하는, 영상 복호화 방법.
  7. 제 1 항에 있어서,
    상기 부호화 단위의 예측 모드가 인터 모드인 경우, 상기 분할 위치는 다른 부호화 단위의 경계의 위치를 나타내는 정보와 움직임 벡터로 유도되는, 영상 복호화 방법.
  8. 제 1 항에 있어서,
    상기 소정 방향에 대한 정보는 비트스트림으로부터 획득되는, 영상 복호화 방법.
  9. 비트스트림으로부터 부호화 단위를 분할하는 하나 이상의 경계의 기준 위치를 나타내는 분할 기준 위치 정보를 획득하는 단계;
    상기 분할 기준 위치 정보에 기초하여, 상기 부호화 단위를 상기 기준 위치로부터 소정 픽셀 간격마다 소정 방향으로 분할하여 상기 하나 이상의 경계를 결정하는 단계;
    상기 하나 이상의 경계에 기초하여 상기 부호화 단위로부터 복수의 예측 단위를 분할하는 단계; 및
    상기 복수의 예측 단위에 대해 예측을 수행하는 단계를 포함하는, 영상 복호화 방법.
  10. 제 9 항에 있어서,
    상기 분할 기준 위치 정보는, 상기 하나 이상의 경계 중에서 상기 부호화 단위의 좌측 상단 픽셀로부터 가장 가까운 경계의 위치를 나타내는, 영상 복호화 방법.
  11. 제 9 항에 있어서,
    상기 소정 픽셀 간격은 상기 부호화 단위의 크기에 기초하는, 영상 복호화 방법.
  12. 제 9 항에 있어서,
    상기 복수의 예측 단위를 분할하는 단계는,
    상기 하나 이상의 경계 중 하나의 경계를 선택하는 단계; 및
    선택된 상기 하나의 경계에 기초하여 상기 부호화 단위로부터 두 개의 예측 단위를 분할하는 단계를 포함하는, 영상 복호화 방법.
  13. 부호화 단위로부터 분할된 현재 변환 단위의 픽처 내 위치를 상기 픽처의 너비 및 높이 중 적어도 하나와 비교하여 상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나는지 여부를 결정하는 단계;
    상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나는 경우, 상기 현재 변환 단위를 적어도 하나의 방향으로 분할하여 복수의 변환 단위들로 분할하는 단계;
    상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나지 않는 경우, 비트스트림으로부터 상기 현재 변환 단위에 대한 분할 정보를 획득하고, 상기 분할 정보에 기초하여 상기 현재 변환 단위를 복수의 변환 단위들로 분할하는 단계; 및
    상기 복수의 변환 단위들 중 더 이상 분할되지 않는 변환 단위에 대해 역변환을 수행하는 단계를 포함하는, 영상 복호화 방법.
  14. 제 13 항에 있어서,
    상기 방법은,
    상기 복수의 변환 단위들 중 적어도 하나의 변환 단위가 상기 픽처의 외곽선을 벗어나지 않을 때까지, 상기 현재 변환 단위를 적어도 하나의 방향으로 분할하여 복수의 변환 단위들로 분할하는 단계를 재귀적으로 수행하는, 영상 복호화 방법.
  15. 제 13 항에 있어서,
    상기 현재 변환 단위가 상기 픽처의 외곽선을 벗어나는 경우, 상기 비트스트림으로부터 상기 현재 변환 단위에 대한 상기 분할 정보가 획득되지 않는, 영상 복호화 방법.
PCT/KR2017/001523 2016-02-16 2017-02-13 적응적인 블록 파티셔닝 방법 및 장치 WO2017142262A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020187016337A KR20180107083A (ko) 2016-02-16 2017-02-13 적응적인 블록 파티셔닝 방법 및 장치
EP17753423.7A EP3396955A4 (en) 2016-02-16 2017-02-13 METHOD AND DEVICE FOR ADAPTIVE BLOCK PARTITIONING
US15/998,659 US20210211699A1 (en) 2016-02-16 2017-02-13 Adaptive block partitioning method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662295684P 2016-02-16 2016-02-16
US62/295,684 2016-02-16

Publications (1)

Publication Number Publication Date
WO2017142262A1 true WO2017142262A1 (ko) 2017-08-24

Family

ID=59625258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/001523 WO2017142262A1 (ko) 2016-02-16 2017-02-13 적응적인 블록 파티셔닝 방법 및 장치

Country Status (4)

Country Link
US (1) US20210211699A1 (ko)
EP (1) EP3396955A4 (ko)
KR (1) KR20180107083A (ko)
WO (1) WO2017142262A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280839A (zh) * 2018-02-27 2018-07-13 北京尚睿通教育科技股份有限公司 一种作业图像定位与分割方法及其装置
WO2019047763A1 (en) * 2017-09-08 2019-03-14 Mediatek Inc. METHODS AND APPARATUSES FOR PROCESSING IMAGES IN AN IMAGE OR VIDEO ENCODING SYSTEM
WO2019114225A1 (zh) * 2017-12-14 2019-06-20 腾讯科技(深圳)有限公司 编码单元划分确定方法及装置、计算设备及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130315312A1 (en) * 2011-11-21 2013-11-28 Hiroshi Amano Image processing apparatus and image processing method
KR20140077989A (ko) * 2011-11-11 2014-06-24 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 분할 코딩을 이용한 효과적인 예측
KR20140139459A (ko) * 2014-10-29 2014-12-05 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치
KR20150003133A (ko) * 2009-12-01 2015-01-08 (주)휴맥스 홀딩스 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
JP2015027022A (ja) * 2013-07-29 2015-02-05 Kddi株式会社 動画像符号化装置、動画像符号化方法、およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101366093B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
EP2081155B1 (en) * 2008-01-21 2011-11-16 Telefonaktiebolaget LM Ericsson (publ) Prediction-based image processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150003133A (ko) * 2009-12-01 2015-01-08 (주)휴맥스 홀딩스 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
KR20140077989A (ko) * 2011-11-11 2014-06-24 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 분할 코딩을 이용한 효과적인 예측
US20130315312A1 (en) * 2011-11-21 2013-11-28 Hiroshi Amano Image processing apparatus and image processing method
JP2015027022A (ja) * 2013-07-29 2015-02-05 Kddi株式会社 動画像符号化装置、動画像符号化方法、およびプログラム
KR20140139459A (ko) * 2014-10-29 2014-12-05 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3396955A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019047763A1 (en) * 2017-09-08 2019-03-14 Mediatek Inc. METHODS AND APPARATUSES FOR PROCESSING IMAGES IN AN IMAGE OR VIDEO ENCODING SYSTEM
US10911757B2 (en) 2017-09-08 2021-02-02 Mediatek Inc. Methods and apparatuses of processing pictures in an image or video coding system
WO2019114225A1 (zh) * 2017-12-14 2019-06-20 腾讯科技(深圳)有限公司 编码单元划分确定方法及装置、计算设备及可读存储介质
US11190766B2 (en) 2017-12-14 2021-11-30 Tencent Technology (Shenzhen) Company Limited Method and apparatus for determining division of coding unit, computing device, and readable storage medium
CN108280839A (zh) * 2018-02-27 2018-07-13 北京尚睿通教育科技股份有限公司 一种作业图像定位与分割方法及其装置

Also Published As

Publication number Publication date
EP3396955A4 (en) 2019-04-24
US20210211699A1 (en) 2021-07-08
KR20180107083A (ko) 2018-10-01
EP3396955A1 (en) 2018-10-31

Similar Documents

Publication Publication Date Title
WO2017122997A1 (ko) 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2017090993A1 (ko) 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
WO2017105097A1 (ko) 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
WO2018070550A1 (ko) 픽처 외곽선의 부호화 단위를 부호화 또는 복호화하는 방법 및 장치
WO2018070554A1 (ko) 루마 블록 및 크로마 블록을 부호화 또는 복호화하는 방법 및 장치
WO2018124653A1 (ko) 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치
WO2014003423A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2011019253A2 (en) Method and apparatus for encoding video in consideration of scanning order of coding units having hierarchical structure, and method and apparatus for decoding video in consideration of scanning order of coding units having hierarchical structure
WO2011021838A2 (en) Method and apparatus for encoding video, and method and apparatus for decoding video
WO2018066958A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017105141A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019235891A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019182295A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018105759A1 (ko) 영상 부호화/복호화 방법 및 이를 위한 장치
WO2018056701A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018093184A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019245261A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2018182184A1 (ko) 부호화 트리 유닛 및 부호화 유닛의 처리를 수행하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
WO2019098464A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017142262A1 (ko) 적응적인 블록 파티셔닝 방법 및 장치
WO2018194189A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2017188784A2 (ko) 영상 신호 부호화/복호화 방법 및 장치
WO2019177331A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2021141477A1 (ko) 머지 후보들의 최대 개수 정보를 포함하는 시퀀스 파라미터 세트를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2018012893A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17753423

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20187016337

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2017753423

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017753423

Country of ref document: EP

Effective date: 20180727

NENP Non-entry into the national phase

Ref country code: DE