WO2019135655A1 - 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 - Google Patents

영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 Download PDF

Info

Publication number
WO2019135655A1
WO2019135655A1 PCT/KR2019/000223 KR2019000223W WO2019135655A1 WO 2019135655 A1 WO2019135655 A1 WO 2019135655A1 KR 2019000223 W KR2019000223 W KR 2019000223W WO 2019135655 A1 WO2019135655 A1 WO 2019135655A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
clipping
image
encoding
encoding unit
Prior art date
Application number
PCT/KR2019/000223
Other languages
English (en)
French (fr)
Inventor
박민우
박민수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2019135655A1 publication Critical patent/WO2019135655A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Definitions

  • the method and apparatus according to an exemplary embodiment may encode or decode an image using various types of encoding units included in an image.
  • the method and apparatus according to one embodiment includes an adaptive clipping method and apparatus.
  • Various data units may be used to compress the image and there may be a containment relationship between these data units.
  • a data unit can be divided by various methods, and an optimized data unit is determined according to characteristics of an image, so that an image can be encoded or decoded.
  • the sub-decoding efficiency can be improved by determining a value based on the minimum value or the maximum value as a parameter for performing adaptive clipping on the original image of the current image and performing adaptive clipping .
  • the sub-decoding efficiency can be improved.
  • signaling a parameter for performing adaptive clipping information indicating the value of one of the sample values of a sample region of the image sample range is signaled, thereby reducing the amount of information of the parameter transmitted.
  • quantization of sample values in a sample range and signaling information indicating a sample value of one of the quantized sample values can reduce the amount of information of a parameter transmitted.
  • Readable recording medium on which a program for implementing the method according to various embodiments is recorded.
  • a video decoding method includes obtaining information from a bitstream to determine a clipping minimum or maximum value to be used for adaptive clipping, determining, in a predetermined data unit, Performing adaptive clipping on at least one of a predicted value of the sample, a restored value of the current sample obtained based on the predicted value of the current sample, and a value filtered based on the restored value of the current sample ; And restoring an image including the current image based on the clipping value, wherein the clipping minimum value or the maximum value used for the adaptive clipping is a minimum value of the original image of the current image, And is a value based on a maximum value.
  • the information for determining the clipping minimum value or the maximum value to be used for the adaptive clipping obtained from the bitstream may indicate one of the values included in a predetermined partial range of the sample range according to the bit depth of the current sample .
  • the information for determining a clipping minimum value or a maximum value to be used for adaptive clipping obtained from the bitstream may represent a value quantized with respect to a minimum value or a maximum value of the original image.
  • the value based on the minimum value or the maximum value of the original image of the current image may be a value obtained by inverse-quantizing a value obtained by quantizing the minimum value or the maximum value of the original image.
  • a value based on a minimum value or a maximum value of the original image of the current image is obtained by inversely quantizing a value quantized based on the bit depth of the current sample with respect to a minimum value or a maximum value of the original image based on the bit depth of the current sample Lt; / RTI >
  • the predetermined data unit may be a slice, a picture, or a sequence unit.
  • the information for determining the clipping minimum value or the maximum value to be used in the adaptive clipping is information indicating whether the clipping minimum value or the maximum value to be used in the adaptive clipping is a predetermined value in relation to the original image,
  • the value based on the minimum value or the maximum value of the original image may be a predetermined value in association with the original image.
  • the adaptive clipping may be selectively performed on a component basis or a process basis of the current image.
  • the filtered values of the restored values of the current sample are subjected to deblocking filtering, sample adaptive offset filtering, adaptive loop filtering, noise suppression, Suppression filtering, and / or Bilateral filtering.
  • a video decoding apparatus obtains information for determining a clipping minimum value or a maximum value to be used for adaptive clipping from a bit stream and, at a predetermined data unit, Performing adaptive clipping on at least one of a predicted value of the current sample, a reconstructed value of the current sample obtained based on the predicted value of the current sample, and a filtered value of the reconstructed value of the current sample,
  • the clipping minimum value or the maximum value used for the adaptive clipping includes at least one processor for restoring an image including the current image by using a value obtained by performing clipping on the current image, Or a value based on a maximum value.
  • the image encoding method is a method for encoding a predicted value of a current sample in a current image obtained by a prediction process, a restoration value of the current sample obtained based on a predicted value of the current sample, Performing adaptive clipping on at least one of the values filtered for the value; Encoding an image including the current image based on the adaptive clipping value; And generating a bitstream including information about the encoded image and information for determining a clipping minimum or maximum value used for the adaptive clipping, wherein the clipping minimum value or maximum value used for the adaptive clipping
  • the value may be a value based on the minimum value or the maximum value of the original image of the current image.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may represent one of values included in a predetermined partial range of the sample range according to the bit depth of the current sample.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may represent a value quantized with respect to the minimum value or the maximum value of the original image.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may indicate a value quantized based on the bit depth of the current sample with respect to the minimum value or the maximum value of the original image.
  • the filtered values of the restored values of the current sample are subjected to deblocking filtering, sample adaptive offset filtering, adaptive loop filtering, noise suppression, Suppression filtering, and / or Bilateral filtering.
  • Readable recording medium on which a program for implementing the method according to various embodiments is recorded.
  • FIG. 1A shows a block diagram of an image decoding apparatus according to various embodiments.
  • FIG. 1B shows a flow diagram of a video decoding method according to various embodiments.
  • FIG. 1C shows a block diagram of an image decoding unit according to various embodiments.
  • FIG. 1D shows a block diagram of an image decoding apparatus according to various embodiments.
  • FIG. 2A shows a block diagram of an image encoding apparatus according to various embodiments.
  • FIG. 2B shows a flowchart of the image encoding method according to various embodiments.
  • FIG. 2C shows a block diagram of an image decoding unit according to various embodiments.
  • FIG. 2D illustrates a block diagram of an image encoding apparatus according to various embodiments.
  • FIG. 3 illustrates a process in which an image decoding apparatus determines at least one encoding unit by dividing a current encoding unit according to an embodiment.
  • FIG. 4 illustrates a process in which an image decoding apparatus determines at least one encoding unit by dividing a non-square encoding unit according to an embodiment.
  • FIG. 5 illustrates a process in which an image decoding apparatus divides an encoding unit based on at least one of block type information and split mode mode information according to an embodiment.
  • FIG. 6 illustrates a method for an image decoding apparatus to determine a predetermined encoding unit among odd number of encoding units according to an embodiment.
  • FIG. 7 illustrates a sequence in which a plurality of coding units are processed when an image decoding apparatus determines a plurality of coding units by dividing a current coding unit according to an exemplary embodiment.
  • FIG. 8 illustrates a process of determining that the current encoding unit is divided into odd number of encoding units when the image decoding apparatus can not process the encoding units in a predetermined order according to an embodiment.
  • FIG. 9 illustrates a process in which an image decoding apparatus determines at least one encoding unit by dividing a first encoding unit according to an embodiment.
  • FIG. 10 illustrates a case where the second encoding unit is limited in a case where the non-square type second encoding unit determined by dividing the first encoding unit by the image decoding apparatus satisfies a predetermined condition according to an embodiment Lt; / RTI >
  • FIG. 11 illustrates a process in which an image decoding apparatus divides a square-shaped encoding unit when the split mode information can not be divided into four square-shaped encoding units according to an embodiment.
  • FIG. 12 illustrates that the processing order among a plurality of coding units may be changed according to a division process of a coding unit according to an exemplary embodiment.
  • FIG. 13 illustrates a process of determining the depth of an encoding unit according to a change in type and size of an encoding unit when a plurality of encoding units are determined by recursively dividing an encoding unit according to an embodiment.
  • FIG. 14 illustrates a depth index (hereinafter referred to as a PID) for classifying a depth and a coding unit that can be determined according to the type and size of coding units according to an exemplary embodiment.
  • a PID depth index
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 16 shows a processing block serving as a reference for determining a determination order of a reference encoding unit included in a picture according to an embodiment.
  • FIG. 17 is a diagram for explaining a method of signaling using a clipping minimum value or a maximum value used in adaptive clipping according to an embodiment using a part of a region within a sample.
  • 18 is a diagram for explaining a method of signaling using a quantized value for a clipping minimum value or a maximum value used for adaptive clipping according to an embodiment.
  • 19 is a diagram for explaining a method of signaling using a clipping minimum value or a maximum value used in adaptive clipping according to an embodiment using a partial area within a range of a sample and a quantized value in the area.
  • a video decoding method includes obtaining information from a bitstream to determine a clipping minimum or maximum value to be used for adaptive clipping, determining, in a predetermined data unit, Performing adaptive clipping on at least one of a predicted value of the sample, a restored value of the current sample obtained based on the predicted value of the current sample, and a value filtered based on the restored value of the current sample ; And restoring an image including the current image based on the clipping value, wherein the clipping minimum value or the maximum value used for the adaptive clipping is a minimum value of the original image of the current image, And is a value based on a maximum value.
  • a video decoding apparatus obtains information for determining a clipping minimum value or a maximum value to be used for adaptive clipping from a bit stream and, at a predetermined data unit, Performing adaptive clipping on at least one of a predicted value of the current sample, a reconstructed value of the current sample obtained based on the predicted value of the current sample, and a filtered value of the reconstructed value of the current sample,
  • the clipping minimum value or the maximum value used for the adaptive clipping includes at least one processor for restoring an image including the current image by using a value obtained by performing clipping on the current image, Or a value based on a maximum value.
  • the image encoding method is a method for encoding a predicted value of a current sample in a current image obtained by a prediction process, a restoration value of the current sample obtained based on a predicted value of the current sample, Performing adaptive clipping on at least one of the values filtered for the value; Encoding an image including the current image based on the adaptive clipping value; And generating a bitstream including information about the encoded image and information for determining a clipping minimum or maximum value used for the adaptive clipping, wherein the clipping minimum value or maximum value used for the adaptive clipping
  • the value may be a value based on the minimum value or the maximum value of the original image of the current image.
  • Readable recording medium on which a program for implementing the method according to various embodiments is recorded.
  • part used in the specification means software or hardware component, and "part " However, “part” is not meant to be limited to software or hardware. “Part” may be configured to reside on an addressable storage medium and may be configured to play back one or more processors.
  • part (s) refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.
  • the functions provided in the components and “parts " may be combined into a smaller number of components and” parts " or further separated into additional components and “parts ".
  • processor may be embodied in a processor and memory.
  • the term “processor” should be broadly interpreted to include a general purpose processor, a central processing unit (CPU), a microprocessor, a digital signal processor (DSP), a controller, a microcontroller, a state machine, In some circumstances, a “processor” may refer to an application specific integrated circuit (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA)
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • processor refers to a combination of processing devices, such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in conjunction with a DSP core, It can also be called.
  • memory should be broadly interpreted to include any electronic component capable of storing electronic information.
  • the terminology memory may be any suitable memory such as random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase- May refer to various types of processor-readable media such as erasable programmable read-only memory (PROM), flash memory, magnetic or optical data storage devices, registers, and the like.
  • RAM random access memory
  • ROM read-only memory
  • NVRAM non-volatile random access memory
  • PROM programmable read-only memory
  • erase- May to various types of processor-readable media such as erasable programmable read-only memory (PROM), flash memory, magnetic or optical data storage devices, registers, and the like.
  • a memory is said to be in electronic communication with a processor if the processor can read information from and / or write information to the memory.
  • the memory integrated in the processor is in electronic communication with the processor.
  • the "image” may be a static image such as a still image of a video or a dynamic image such as a moving image, i.e., the video itself.
  • sample means data to be processed as data assigned to a sampling position of an image.
  • pixel values in the image of the spatial domain, and transform coefficients on the transform domain may be samples.
  • a unit including at least one of these samples may be defined as a block.
  • FIGS. 3 to 16 An image encoding apparatus, an image decoding apparatus, an image encoding method, and an image decoding method will be described below with reference to FIGS. 1 to 19, according to an embodiment.
  • FIGS. 3 to 16 a method of determining a data unit of an image according to an embodiment will be described, and adaptively clipping is performed according to an embodiment with reference to FIGS. 1-2 and 17-19 A video encoding or decoding method and apparatus are described.
  • FIG. 1 An image encoding / decoding method and apparatus for adaptively clipping based on various types of encoding units according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2.
  • FIG. 1 An image encoding / decoding method and apparatus for adaptively clipping based on various types of encoding units according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2.
  • FIG. 1 An image encoding / decoding method and apparatus for adaptively clipping based on various types of encoding units according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2.
  • FIG. 1A shows a block diagram of an image decoding apparatus according to various embodiments.
  • the image decoding apparatus 100 may include an acquisition unit 105, a clipping unit 110, and an image decoding unit 115.
  • the obtaining unit 105, the clipping performing unit 110, and the image decoding unit 115 may include at least one processor.
  • the acquiring unit 105, the clipping performing unit 110, and the image decoding unit 115 may include a memory for storing instructions to be executed by at least one processor.
  • the image decoding unit 115 may be implemented in hardware separate from the obtaining unit 105 and the clipping performing unit 110 or may include an obtaining unit 105 and a clipping performing unit 110.
  • the acquiring unit 105 may acquire information for determining a clipping minimum value or a maximum value to be used for adaptive clipping from the bitstream.
  • the clipping minimum or maximum value used for adaptive clipping may be a value based on the minimum or maximum value of the original image of the current image.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may indicate one of values included in a predetermined subset of the sample ranges according to the bit depth of the current sample. For example, if the bit depth of the current sample is 8, the sample range according to the bit depth of the current sample may be 0 to 255.
  • the information for determining the clipping minimum value used for the adaptive clipping may be information indicating a value of one of 0 to 64 which is a predetermined partial range of the sample range of 0 to 255.
  • the information for determining the clipping maximum value used for the adaptive clipping may be information indicating a value of one of 191 to 255 which is a predetermined partial range of the sample range of 0 to 255.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may represent a quantized value for the minimum value or the maximum value of the original image of the current image.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may indicate a value obtained by bit-shifting the minimum value or the maximum value of the original image of the current image by two to the right.
  • the bit shifting number may correspond to the quantization step.
  • the quantization step value may be 2 ⁇ (bit shifting number). This will be described later in detail with reference to FIG.
  • the information for determining the clipping minimum value or the maximum value used for adaptive clipping may represent a value quantized with respect to the minimum value or the maximum value of the original image of the current image based on the bit depth of the current sample .
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping is (BIT_DEPTH-8 + 2), which is the minimum value or the maximum value of the original image of the current image based on the bit depth (BIT_DEPTH) Can be expressed as a bit-shifted value.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping is obtained by bit-shifting the minimum value or the maximum value of the original image by 2 If the current image is a 10-bit image having a bit depth of 10, the information for determining the minimum clipping value or the maximum clipping amount used for adaptive clipping is set to a minimum value or a maximum value of the original image of 4 Can be expressed as a bit-shifted value.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may be information about a minimum value or a maximum value of the original image of the current image among the values included in a predetermined partial range of the sample range according to the bit depth of the current sample.
  • the quantized value can be expressed. This will be described later in detail with reference to FIG.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may be fixed length coding information.
  • the information for determining the clipping minimum or maximum value used for the adaptive clipping may be information on a standard that follows the original image of the current image.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may be information indicating whether the standard following the original image of the current image is BT.707 or BT.2020. That is, the clipping performing unit 110 may determine a clipping minimum value or a maximum value to be used for adaptive clipping based on a range of sample values allowed in the standard that the current image follows, and perform adaptive clipping.
  • the clipping minimum or maximum value used for adaptive clipping may be a predetermined value in relation to the original image of the current image.
  • the clipping performing unit 110 performs adaptive clipping on the R, G, B, and Y image components
  • the clipping minimum value used can be determined to be 16, and the clipping maximum value can be determined to be 235.
  • the clipping performing unit 110 may determine a clipping minimum value used for adaptive clipping to be 16 and a clipping maximum value to be 240 for the Cb and Cr image components.
  • the clipping performing unit 110 may use the R, G, B, and Y image components for adaptive clipping
  • the clipping minimum value can be determined to be 64
  • the clipping maximum value can be determined to be 940.
  • the clipping performing unit 110 can determine the minimum clipping value used for the adaptive clipping and the maximum clipping value for the Cb and Cr image components to be 64 and 960, respectively.
  • the obtaining unit 105 may obtain information for determining a clipping minimum value or a maximum value to be used for adaptive clipping for each predetermined data unit.
  • the predetermined data unit may be a sequence, a picture, or a slice unit.
  • the acquiring unit 105 may acquire information for determining a clipping minimum value or a maximum value used for adaptive clipping for each sequence unit. That is, the acquiring unit 105 acquires information for determining a clipping minimum value or a maximum value used for adaptive clipping for each sequence unit, and the clipping performing unit 110 performs clipping using a clipping minimum value used for adaptive clipping The maximum value can be determined.
  • the information for determining the clipping minimum value or the maximum value used for the adaptive clipping may be information about one clipping minimum value or one clipping maximum value used in sequence units.
  • the information for determining the clipping minimum value or the maximum value used for adaptive clipping may be a plurality of clipping minimum values or a plurality of clipping maximum values that can be used in a sequence unit.
  • the clipping performing unit 110 determines a clipping minimum value or a clipping maximum value of one of a plurality of clipping minimum values or a plurality of clipping maximum values on a picture or slice basis, and performs adaptive clipping on the basis of the determined clipping minimum value or clipping maximum value. Can be performed.
  • the obtaining unit 105 may obtain index information indicating one clipping minimum value or one clipping maximum value among a plurality of clipping minimum values or a plurality of clipping maximum values from the bit stream for each picture or slice unit.
  • the acquiring unit 105 may acquire information indicating whether to perform adaptive clipping for each sequence unit, and the clipping performing unit 110 may perform adaptive clipping based on the acquired information.
  • the obtaining unit 105 obtains information indicating whether to perform adaptive clipping on a picture-by-picture or slice-by-slice basis, and the clipping performing unit 110 performs adaptive clipping Can be performed. In this case, when the adaptive clipping is performed for each sequence unit, the obtaining unit 105 may obtain information indicating whether adaptive clipping is performed on a picture-by-picture or slice-by-slice basis.
  • the clipping performing unit 110 may determine a clipping minimum value or a maximum clipping value to be used for adaptive clipping based on information for determining a clipping minimum value or a maximum value to be used for the adaptive clipping obtained from the bit stream.
  • the clipping performing unit 110 may perform adaptive clipping based on the minimum value or the maximum value used for clipping.
  • the clipping performing unit 110 performs a clipping operation on at least one of the predicted value of the current sample in the current image obtained by the prediction process, the restored value of the current sample obtained based on the predicted value of the current sample, Adaptive clipping can be performed on the data.
  • the clipping performing unit 110 may perform adaptive clipping according to the following Equation (1).
  • p (i, j) is a value for the sample of the (i, j) coordinate in the image, and may mean a target value on which adaptive clipping is performed.
  • the value for the sample of the (i, j) coordinate in the image is obtained from the predicted value of the sample of the (i, j) coordinate obtained by the prediction process and the predicted value of the sample of the (i, j) ) Coordinate of the sample, or a value filtered for the reconstruction value of the sample of the (i, j) coordinate.
  • the Clip3 (x, y, z) function can be a function that outputs x when z ⁇ x, outputs y when z> y, and outputs z otherwise.
  • p '(i, j) may be a value for a sample of (i, j) coordinates in the image where adaptive clipping is performed.
  • clip_min is one of the parameters used for adaptive clipping and is the clipping minimum used for adaptive clipping.
  • clip_min may not be a predetermined value but may be a value based on the minimum value of the original image of the current image. For example, it may be the minimum value of the original image of the current image.
  • clip_min may be a value obtained by performing inverse quantization on a value obtained by quantizing the minimum value of the original image of the current image.
  • clip_max is one of the parameters used for adaptive clipping and is the maximum value used for adaptive clipping. At this time, clip_max may not be a predetermined value but may be a value based on the maximum value of the original image of the current image. For example, clip_max may be the maximum value of the original image of the current image. Alternatively, clip_max may be a value obtained by performing inverse quantization on a value obtained by quantizing the maximum value of the original image of the current image.
  • the clip_min or clip_max may be determined for each predetermined data unit. For example, clip_min or clip_max may be determined for each sequence unit, picture unit, or slice unit. That is, the obtaining unit 105 obtains clip_min or clip_max information from a sequence header, a picture header, or a slice header of the bitstream, and the clipping performing unit 110 obtains clip_min or clip_max based on the obtained clip_min or clip_max information. clip_max can be determined.
  • the clipping performing unit 110 may perform adaptive clipping on the predicted value of the current sample in the current image obtained by the prediction process. For example, the clipping performing unit 110 may perform adaptive clipping on the intra prediction value of the current sample in the current image obtained by the intra prediction process. Alternatively, the clipping performing unit 110 may perform adaptive clipping on the inter-prediction value of the current sample in the current image obtained by the inter prediction process. At this time, the clipping performing unit 110 may perform adaptive clipping in both the intra prediction process and the inter prediction process, or may selectively perform adaptive clipping only in one of the prediction processes. At this time, the clipping performing unit 110 may determine whether to selectively perform adaptive clipping in at least one process for each predetermined data unit.
  • the clipping performing unit 110 may perform filtering on the predicted value of the current sample, and perform adaptive clipping on the filtered value.
  • the clipping performing unit 110 may perform adaptive clipping on the restored value of the current sample.
  • the clipping performing unit 110 may perform adaptive clipping on the restoration value of the current sample obtained by the prediction process and the dequantization / inverse transformation process.
  • the clipping performing unit 110 performs adaptive clipping on the restored value of the current sample obtained based on the intra prediction value of the current sample obtained in the intra prediction process and the residual value of the current sample obtained by the inverse quantization / Can be performed.
  • the clipping performing unit 110 performs adaptive clipping on the reconstructed values of the current sample obtained based on the inter-prediction value of the current sample obtained in the inter prediction process and the residual value of the current sample obtained by the inverse quantization / inverse transformation process Can be performed.
  • the clipping performing unit 110 may perform adaptive clipping on the restored value of the current sample obtained based on the intra prediction value of the current sample obtained in the intra prediction process without the residual value of the current sample.
  • the clipping performing unit 110 may perform adaptive clipping on the restored value of the current sample obtained based on the inter-prediction value of the current sample obtained in the inter prediction process without the residual value of the current sample.
  • the clipping performing unit 110 may perform adaptive clipping in all the processes performed to obtain the restoration value of the current sample, but is not limited thereto, and selectively performs adaptive clipping only in at least one of the processes can do.
  • the clipping performing unit 110 obtains information on whether or not to perform adaptive clipping selectively in at least one process from a predetermined data unit, and based on the information, selects at least one process only in at least one process It is possible to determine whether to perform adaptive clipping.
  • the clipping performing unit 110 may perform filtering on the restored values of the current sample and perform adaptive clipping on the filtered values.
  • the clipping unit 110 may perform deblocking filtering, SAO filtering, adaptive loop filtering, noise suppression filtering (Noise Filtering) on the restored values of the current sample, Suppresion Filtering and / or Bilateral Filtering to obtain a filtered value.
  • Clipping performing unit 110 may perform adaptive clipping on the filtered value. At this time, the clipping performing unit 110 may selectively perform adaptive clipping only in at least one of the processes performed to obtain the filtered value.
  • the clipping performing unit 110 obtains information on whether or not to perform adaptive clipping selectively in at least one process from a predetermined data unit, and based on the information, selects at least one process only in at least one process It is possible to determine whether to perform adaptive clipping.
  • the clipping performing unit 110 may perform adaptive clipping on all R, G, and B image components.
  • the image decoding unit 115 may restore the image including the current image based on the value output from the clipping performing unit 110. [ If the clipped value is the predicted value of the current sample, the image decoding unit 115 can restore the current image using the predicted value of the clipped current sample. If the clipped value is the restored value of the current sample, the image decoding unit 115 may restore the current image using the restored value of the clipped current sample. If the clipped value is the filtered value of the restored value of the current sample, the image decoding unit 115 may recover the current image or the image to be decoded next to the current image using the filtered value.
  • FIG. 1B shows a flow diagram of a video decoding method according to various embodiments.
  • the video decoding apparatus 100 may receive information for determining a clipping minimum value or a maximum value to be used for adaptive clipping from the bitstream.
  • step S115 the image decoding apparatus 100 can restore the image including the current image based on the clipped value.
  • FIG. 1C shows a block diagram of an image decoding unit 6000 according to various embodiments.
  • the image decoding unit 6000 performs operations to encode image data in the image decoding unit 115 of the image decoding apparatus 100.
  • the entropy decoding unit 6150 parses the encoded image data to be decoded and the encoding information necessary for decoding from the bitstream 6050.
  • the encoded image data is a quantized transform coefficient
  • the inverse quantization unit 6200 and the inverse transform unit 6250 reconstruct the residue data from the quantized transform coefficients.
  • the intra prediction unit 6400 performs intra prediction on a block-by-block basis.
  • the clipping performing unit 110 of FIG. 1C may perform adaptive clipping on the intra prediction value of the current sample generated by performing the intra prediction process in the intra prediction unit 6400. FIG.
  • the inter-prediction unit 6350 performs inter-prediction using the reference image obtained in the reconstruction picture buffer 6300 for each block.
  • the clipping performing unit 110 of FIG. 1C may perform adaptive clipping on the inter-predicted value of the current sample generated by performing the inter-prediction process in the inter-prediction unit 6350.
  • the spatial data for the block of the current image can be restored by adding the prediction data and residue data for each block generated by the intra prediction unit 6400 or the inter prediction unit 6350.
  • the clipping performing unit 110 of FIG. 1C may perform adaptive clipping on the restored value of the current sample included in the data of the reconstructed spatial region.
  • the image decoding unit 6000 can perform the virtual filtering on the current sample included in the data of the spatial domain of the block of the current image.
  • the clipping performing unit 110 of FIG. 1C may perform adaptive clipping on the values subjected to the virtual filtering.
  • the deblocking unit 6450 and the SAO performing unit 6500 may perform loop filtering including deblocking filtering and SAO filtering on the data in the reconstructed spatial region to output the filtered reconstructed image 6600.
  • the image decoding unit 6000 may perform the adaptive loop filtering or noise suppression filtering on the data of the reconstructed spatial region to output the reconstructed image 6600.
  • restored images stored in the restored picture buffer 6300 can be output as a reference image.
  • the clipping performing unit 110 of FIG. 1C may perform adaptive clipping on the value of at least one of the deblocking filtering, the SAO filtering, the adaptive loop filtering, and the noise suppression filtering.
  • the stepwise operations of the image decoding unit 6000 may be performed on a block-by-block basis.
  • FIG. 1D shows a block diagram of an image decoding apparatus 100 according to an embodiment.
  • the image decoding apparatus 100 may include a memory 120 and at least one processor 125 connected to the memory 120.
  • the operations of the image decoding apparatus 100 according to an embodiment may be operated as individual processors or may be operated under the control of a central processor.
  • the memory 120 of the video decoding apparatus 100 can store data received from the outside and data generated by the processor.
  • the processor 125 of the video decoding apparatus 100 receives information for determining a clipping minimum value or a maximum value to be used for adaptive clipping from the bitstream, Performing adaptive clipping on at least one of a predicted value of the sample, a reconstructed value of the current sample acquired based on the predicted value of the current sample, and a filtered value of the reconstructed value of the current sample, The image including the image can be restored.
  • FIG. 2A shows a block diagram of an image encoding apparatus according to various embodiments.
  • the image encoding apparatus 150 may include a clipping performing unit 155 and an image encoding unit 160.
  • the clipping performing unit 155 and the image encoding unit 160 may include at least one processor.
  • the clipping performing unit 155 and the image encoding unit 160 may include a memory for storing instructions to be executed by at least one processor.
  • the image encoding unit 160 may be implemented as hardware separate from the clipping performing unit 155 or the image encoding unit 160 may include a clipping performing unit 155.
  • the content of the operation performed by the clipping performing unit 155 corresponds to the content of the operation performed by the clipping performing unit 110 of the video decoding apparatus 100, and thus a detailed description thereof will be omitted.
  • the clipping performing unit 110 of the video decoding apparatus 100 performs adaptive clipping based on the information for determining the clipping minimum value or the maximum value used in the adaptive clipping obtained by the obtaining unit 105 .
  • the clipping performing unit 155 of the image coding apparatus 150 determines a clipping minimum value or a maximum value used for adaptive clipping using a value based on a minimum value or a maximum value of the original image of the current image, Those skilled in the art will readily understand that there is a difference in that it performs adaptive clipping based on the clipping minimum or maximum used.
  • the image encoding unit 160 may encode an image including a current image based on the value generated by the clipping performing unit 110 by performing adaptive clipping.
  • the image encoding unit 160 may generate a bitstream including information on the encoded image and information for determining a clipping minimum value or a maximum value used for adaptive clipping.
  • FIG. 2B shows a flowchart of the image encoding method according to various embodiments.
  • the image encoding apparatus 150 may encode an image including the current image based on the value obtained by performing adaptive clipping.
  • the image encoding apparatus 150 may generate a bitstream including information on the encoded image and information for determining a clipping minimum value or a maximum value used for adaptive clipping.
  • FIG. 2C shows a block diagram of an image encoding unit according to various embodiments.
  • the image encoding unit 7000 performs operations to encode image data in the image encoding unit 160 of the image encoding device 150.
  • the intra predictor 7200 performs intraprediction on a block-by-block basis among the current image 7050
  • the inter-prediction unit 7150 performs intra prediction on the current image 7050 and the reference image obtained from the reconstructed picture buffer 7100 To perform inter prediction.
  • the clipping performing unit 155 of FIG. 2C may perform adaptive clipping on the intra prediction value of the current sample generated by performing the intra prediction process in the intra prediction unit 7200.
  • FIG. The clipping performing unit 155 of FIG. 2C may perform adaptive clipping on the inter-predicted value of the current sample generated by performing the intra-prediction process in the inter-prediction unit 7150.
  • the transform unit 7250 generates residue data by subtracting the prediction data for each block output from the intra prediction unit 7200 or the inter prediction unit 7150 from the data for the block to be encoded of the current image 7050,
  • quantization unit 7300 may perform conversion and quantization on the residue data and output the quantized transform coefficients on a block-by-block basis.
  • the inverse quantization unit 7450 and the inverse transformation unit 7500 can perform inverse quantization and inverse transformation on the quantized transform coefficients to restore the residue data in the spatial domain. Residue data of the reconstructed spatial region is reconstructed into spatial domain data for a block of the current image 7050 by adding predictive data for each block output from the intra predictor 7200 or the inter predictor 7150 .
  • the clipping performing unit 155 of FIG. 2C may perform adaptive clipping on the restored value of the current sample included in the reconstructed spatial region data.
  • the image encoding unit 7000 can perform the virtual filtering on the current samples included in the data of the spatial region for the block of the current image.
  • the clipping performing unit 110 of FIG. 1C may perform adaptive clipping on the values subjected to the virtual filtering.
  • the deblocking unit 7550 and the SAO performing unit 7600 perform in-loop filtering on the data of the reconstructed spatial region to generate a filtered reconstructed image.
  • the image encoding unit 7000 may perform adaptive loop filtering or noise suppression filtering on the data of the reconstructed spatial region to generate a reconstructed image.
  • the generated restored image is stored in the restored picture buffer 7100.
  • the restored images stored in the restored picture buffer 7100 can be used as a reference image.
  • the clipping performing unit 155 of FIG. 2C may perform adaptive clipping on the values for which at least one of deblocking filtering, SAO filtering, adaptive loop filtering, and noise suppression filtering has been performed.
  • the entropy encoding unit 7350 entropy-codes the quantized transform coefficients, and the entropy-encoded coefficients can be output as a bitstream 7400.
  • the stepwise operations of the image encoding unit 7000 according to various embodiments may be performed for each block.
  • FIG. 2D illustrates a block diagram of an image encoding apparatus 150 according to an embodiment.
  • the image encoding apparatus 150 may include at least one processor 170 connected to the memory 165 and the memory 165.
  • the operations of the image encoding apparatus 150 may operate as separate processors or may be operated under the control of a central processor.
  • the memory 165 of the image encoding apparatus 150 can store data received from the outside and data generated by the processor.
  • the processor 170 of the image encoding apparatus 150 calculates a predicted value of the current sample in the current image obtained by the prediction process, a restoration value of the current sample obtained based on the predicted value of the current sample, Adaptive clipping is performed on at least one of the values filtered for the restored value, the image including the current image is encoded based on the value for which the adaptive clipping has been performed, and information about the encoded image and adaptive clipping And may generate a bitstream that includes information for determining the clipping minimum or maximum value to be used.
  • one picture may be divided into one or more slices.
  • One slice may be a sequence of one or more Coding Tree Units (CTUs).
  • CTUs Coding Tree Units
  • CTB maximum coding block
  • the maximum coding block means an NxN block including NxN samples (N is an integer). Each color component may be divided into one or more maximum encoding blocks.
  • the maximum encoding unit is the maximum encoding block of the luma sample and the two maximum encoding blocks of the chroma samples corresponding thereto, Samples, and chroma samples.
  • the maximum encoding unit is a unit including syntax structures used for encoding the maximum encoded block and monochrome samples of the monochrome sample.
  • the maximum encoding unit is a unit including syntax structures used for encoding the pictures and the samples of the picture.
  • One maximum coding block may be divided into MxN coding blocks (M, N is an integer) including MxN samples.
  • a coding unit is a coding unit that encodes two coding blocks of a luma sample coding block and corresponding chroma samples and luma samples and chroma samples Is a unit that includes syntax structures used for decoding.
  • the encoding unit is a unit including syntax blocks used for encoding the mono chrome samples and the encoded block of the monochrome sample.
  • an encoding unit is a unit including syntax structures used for encoding the pictures and the samples of the picture.
  • the maximum encoding block and the maximum encoding unit are concepts that are distinguished from each other, and the encoding block and the encoding unit are conceptually distinguished from each other. That is, the (maximum) coding unit means a data structure including a (maximum) coding block including a corresponding sample and a corresponding syntax structure.
  • a (maximum) encoding unit or a (maximum) encoding block refers to a predetermined size block including a predetermined number of samples.
  • the image can be divided into a maximum coding unit (CTU).
  • the size of the maximum encoding unit may be determined based on information obtained from the bitstream.
  • the shape of the largest encoding unit may have a square of the same size.
  • the present invention is not limited thereto.
  • the maximum size of a luma encoded block from the bitstream can be obtained.
  • the maximum size of a luma encoding block indicated by information on the maximum size of a luma encoding block may be one of 16x16, 32x32, 64x64, 128x128, and 256x256.
  • information on the maximum size and luma block size difference of a luma coding block that can be divided into two from the bitstream can be obtained.
  • the information on the luma block size difference may indicate the size difference between the luma maximum encoding unit and the maximum luma encoding block that can be divided into two. Therefore, when the information on the maximum size of the luma coding block obtained from the bitstream and capable of being divided into two pieces is combined with information on the luma block size difference, the size of the luma maximum coding unit can be determined. Using the size of the luma maximum encoding unit, the size of the chroma maximum encoding unit can also be determined.
  • the size of the chroma block may be half the size of the luma block
  • the size of the chroma maximum encoding unit may be the size of the luma maximum encoding unit It can be half the size.
  • the maximum size of the luma coding block capable of binary division can be variably determined.
  • the maximum size of a luma coding block capable of ternary splitting can be fixed.
  • the maximum size of a luma coding block capable of ternary partitioning on an I slice is 32x32
  • the maximum size of a luma coding block capable of ternary partitioning on a P slice or B slice can be 64x64.
  • the maximum encoding unit may be hierarchically divided in units of encoding based on division mode information obtained from the bitstream.
  • division mode information at least one of information indicating whether a quad split is performed, information indicating whether or not the division is multi-division, division direction information, and division type information may be obtained from the bitstream.
  • information indicating whether a quad split is present may indicate whether the current encoding unit is quad-split (QUAD_SPLIT) or not quad-split.
  • the information indicating whether the current encoding unit is multi-divided may indicate whether the current encoding unit is no longer divided (NO_SPLIT) or binary / ternary divided.
  • the division direction information indicates that the current encoding unit is divided into either the horizontal direction or the vertical direction.
  • the division type information indicates that the current encoding unit is divided into binary division) or ternary division.
  • the division mode of the current encoding unit can be determined according to the division direction information and the division type information.
  • the division mode when the current coding unit is divided into the horizontal direction is divided into binary horizontal division (SPLIT_BT_HOR), ternary horizontal division (SPLIT_TT_HOR) when tiled in the horizontal direction, and division mode in the case of binary division in the vertical direction.
  • the binary vertical division (SPLIT_BT_VER) and the division mode in the case of ternary division in the vertical direction can be determined to be the ternary vertical division (SPLIT_BT_VER).
  • the image decoding apparatus 100 can obtain the split mode mode information from the bit stream in one bin string.
  • the form of the bit stream received by the video decoding apparatus 100 may include a fixed length binary code, a unary code, a truncated unary code, and a predetermined binary code.
  • An empty string is a binary sequence of information. The empty string may consist of at least one bit.
  • the image decoding apparatus 100 can obtain the split mode mode information corresponding to the bin string based on the split rule.
  • the video decoding apparatus 100 can determine whether or not to divide the encoding unit into quad, division, or division direction and division type based on one bin string.
  • the encoding unit may be less than or equal to the maximum encoding unit.
  • the maximum encoding unit is also one of the encoding units since it is the encoding unit having the maximum size.
  • the encoding unit determined in the maximum encoding unit has the same size as the maximum encoding unit. If the division type mode information for the maximum encoding unit indicates division, the maximum encoding unit may be divided into encoding units. In addition, if division type mode information for an encoding unit indicates division, encoding units can be divided into smaller-sized encoding units.
  • the division of the image is not limited to this, and the maximum encoding unit and the encoding unit may not be distinguished. The division of encoding units will be described in more detail with reference to FIG. 3 to FIG.
  • one or more prediction blocks for prediction from the encoding unit can be determined.
  • the prediction block may be equal to or smaller than the encoding unit.
  • one or more conversion blocks for conversion from an encoding unit may be determined.
  • the conversion block may be equal to or smaller than the encoding unit.
  • the shapes and sizes of the transform block and the prediction block may not be related to each other.
  • prediction can be performed using an encoding unit as an encoding unit as a prediction block.
  • conversion can be performed using the encoding unit as a conversion block as a conversion block.
  • the current block and the neighboring blocks of the present disclosure may represent one of a maximum encoding unit, an encoding unit, a prediction block, and a transform block.
  • the current block or the current encoding unit is a block in which decoding or encoding is currently proceeding, or a block in which the current segmentation is proceeding.
  • the neighboring block may be a block restored before the current block.
  • the neighboring blocks may be spatially or temporally contiguous from the current block.
  • the neighboring block may be located at one of the left lower side, the left side, the upper left side, the upper side, the upper right side, the right side, and the lower right side of the current block.
  • FIG. 3 illustrates a process in which the image decoding apparatus 100 determines at least one encoding unit by dividing a current encoding unit according to an embodiment.
  • the block shape may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN, or Nx8N.
  • N may be a positive integer.
  • the block type information is information indicating at least one of a ratio, or a size, of a shape, direction, width, and height of an encoding unit.
  • the shape of the encoding unit may include a square and a non-square. If the width and height of the encoding unit are the same (i.e., the block type of the encoding unit is 4Nx4N), the image decoding apparatus 100 can determine the block type information of the encoding unit as a square. The image decoding apparatus 100 can determine the shape of the encoding unit as a non-square.
  • the image decoding apparatus 100 When the width and height of the encoding unit are different (i.e., the block type of the encoding unit is 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN, or Nx8N), the image decoding apparatus 100
  • the block type information of the encoding unit can be determined as a non-square.
  • the image decoding apparatus 100 sets the width and height ratio of the block type information of the coding unit to 1: 2, 2: 1, 1: 4, 4: , 8: 1, 1:16, 16: 1, 1:32, 32: 1.
  • the video decoding apparatus 100 can determine whether the coding unit is the horizontal direction or the vertical direction. Further, the image decoding apparatus 100 can determine the size of the encoding unit based on at least one of the width of the encoding unit, the length of the height, and the width.
  • the image decoding apparatus 100 may determine the type of the encoding unit using the block type information, and may determine the type of the encoding unit to be divided using the division type mode information. That is, the division method of the coding unit indicated by the division type mode information can be determined according to which block type the block type information used by the video decoding apparatus 100 represents.
  • the image decoding apparatus 100 can obtain the split mode information from the bit stream. However, the present invention is not limited thereto, and the image decoding apparatus 100 and the image encoding apparatus 150 can determine the promised divided mode information based on the block type information.
  • the video decoding apparatus 100 can determine the promised divided mode mode information for the maximum encoding unit or the minimum encoding unit. For example, the image decoding apparatus 100 may determine the division type mode information as a quad split with respect to the maximum encoding unit. Also, the video decoding apparatus 100 can determine the division type mode information to be "not divided" for the minimum encoding unit. Specifically, the image decoding apparatus 100 can determine the size of the maximum encoding unit to be 256x256.
  • the video decoding apparatus 100 can determine the promised division mode information in advance by quad division.
  • Quad partitioning is a split mode mode that bisects both the width and the height of the encoding unit.
  • the image decoding apparatus 100 can obtain a 128x128 encoding unit from the 256x256 maximum encoding unit based on the division type mode information. Also, the image decoding apparatus 100 can determine the size of the minimum encoding unit to be 4x4.
  • the image decoding apparatus 100 can obtain the division type mode information indicating "not divided" for the minimum encoding unit.
  • the image decoding apparatus 100 may use block type information indicating that the current encoding unit is a square type. For example, the image decoding apparatus 100 can determine whether to divide a square encoding unit according to division type mode information, vertically or horizontally, four encoding units, or the like.
  • the decoding unit 120 decodes the same size as the current encoding unit 300 according to the split mode mode information indicating that the current block is not divided 310c, 310d, 310e, 310f, etc.) based on the division type mode information indicating the predetermined division method without dividing the coding unit 310a having the division type mode information 310b, 310c, 310d, 310e, 310f or the like.
  • the image decoding apparatus 100 includes two encoding units 310b, which are obtained by dividing a current encoding unit 300 in the vertical direction, based on division mode information indicating that the image is divided vertically according to an embodiment You can decide.
  • the image decoding apparatus 100 can determine two encoding units 310c in which the current encoding unit 300 is divided in the horizontal direction based on the division type mode information indicating that the image is divided in the horizontal direction.
  • the image decoding apparatus 100 can determine four coding units 310d in which the current coding unit 300 is divided into the vertical direction and the horizontal direction based on the division type mode information indicating that the image is divided into the vertical direction and the horizontal direction.
  • the image decoding apparatus 100 includes three encoding units 310e obtained by dividing the current encoding unit 300 in the vertical direction on the basis of the division mode mode information indicating that the image is divided ternary in the vertical direction according to an embodiment You can decide.
  • the image decoding apparatus 100 can determine the three encoding units 310f in which the current encoding unit 300 is divided in the horizontal direction based on the division mode mode information indicating that the image is divided tangentially in the horizontal direction.
  • a division type in which a square coding unit can be divided should not be limited to the above-described type, and various types of division mode information can be included.
  • the predetermined divisional form in which the square encoding unit is divided will be described in detail by way of various embodiments below.
  • FIG. 4 illustrates a process in which the image decoding apparatus 100 determines at least one encoding unit by dividing a non-square encoding unit according to an embodiment.
  • the image decoding apparatus 100 may use block type information indicating that the current encoding unit is a non-square format.
  • the image decoding apparatus 100 may determine whether to divide the non-square current encoding unit according to the division mode mode information or not in a predetermined method. 4, if the block type information of the current encoding unit 400 or 450 indicates a non-square shape, the image decoding apparatus 100 determines whether the current encoding unit 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, 440a, , 440a, , 440a, , 440a, , 440a, , 440a, , 440a, , 470b, 480a, 480b, 480c.
  • the predetermined division method in which the non-square coding unit is divided will be described in detail through various
  • the image decoding apparatus 100 may determine the type in which the encoding unit is divided using the division type mode information.
  • the division type mode information may include at least one of the encoding units Can be expressed. 4 when the division type mode information indicates that the current encoding unit 400 or 450 is divided into two encoding units, the image decoding apparatus 100 determines the current encoding unit 400 or 450 based on the division type mode information, 450) to determine two encoding units 420a, 420b, or 470a, 470b included in the current encoding unit.
  • the video decoding apparatus 100 divides the current coding unit 400 or 450 into non- The current encoding unit can be divided in consideration of the position of the long side of the encoding unit 400 or 450.
  • the image decoding apparatus 100 divides the current encoding unit 400 or 450 in the direction of dividing the long side of the current encoding unit 400 or 450 in consideration of the shape of the current encoding unit 400 or 450 So that a plurality of encoding units can be determined.
  • the video decoding apparatus 100 when the division type mode information indicates that an encoding unit is divided into an odd number of blocks (ternary division), the video decoding apparatus 100 performs an odd number encoding The unit can be determined. For example, when the division type mode information indicates that the current encoding unit 400 or 450 is divided into three encoding units, the image decoding apparatus 100 converts the current encoding unit 400 or 450 into three encoding units 430a, 430b, 430c, 480a, 480b, and 480c.
  • the ratio of the width and height of the current encoding unit 400 or 450 may be 4: 1 or 1: 4. If the ratio of width to height is 4: 1, the length of the width is longer than the length of the height, so the block type information may be horizontal. If the ratio of width to height is 1: 4, the block type information may be vertical because the length of the width is shorter than the length of the height.
  • the image decoding apparatus 100 may determine to divide the current encoding unit into odd number blocks based on the division type mode information. The image decoding apparatus 100 can determine the division direction of the current encoding unit 400 or 450 based on the block type information of the current encoding unit 400 or 450.
  • the image decoding apparatus 100 can determine the encoding units 430a, 430b, and 430c by dividing the current encoding unit 400 in the horizontal direction. Also, when the current encoding unit 450 is in the horizontal direction, the image decoding apparatus 100 can determine the encoding units 480a, 480b, and 480c by dividing the current encoding unit 450 in the vertical direction.
  • the image decoding apparatus 100 may determine an odd number of encoding units included in the current encoding unit 400 or 450, and the sizes of the determined encoding units may not be the same. For example, the size of a predetermined encoding unit 430b or 480b among the determined odd number of encoding units 430a, 430b, 430c, 480a, 480b, and 480c is different from the size of the other encoding units 430a, 430c, 480a, and 480c .
  • an encoding unit that can be determined by dividing the current encoding unit (400 or 450) may have a plurality of types of sizes, and an odd number of encoding units (430a, 430b, 430c, 480a, 480b, 480c) May have different sizes.
  • the image decoding apparatus 100 may determine an odd number of encoding units included in the current encoding unit 400 or 450, Furthermore, the image decoding apparatus 100 may set a predetermined restriction on at least one of the odd number of encoding units generated by division.
  • the image decoding apparatus 100 includes an encoding unit 430a, 430b, 430c, 480a, 480b, and 480c, which are generated by dividing a current encoding unit 400 or 450, The decoding process for the coding units 430b and 480b may be different from the coding units 430a, 430c, 480a, and 480c.
  • the coding units 430b and 480b positioned at the center are restricted so as not to be further divided unlike the other coding units 430a, 430c, 480a, and 480c, It can be limited to be divided.
  • FIG. 5 illustrates a process in which the image decoding apparatus 100 divides an encoding unit based on at least one of block type information and split mode mode information according to an embodiment.
  • the image decoding apparatus 100 may determine to divide or not divide the first encoding unit 500 of a square shape into encoding units based on at least one of the block type information and the division mode mode information .
  • the image decoding apparatus 100 divides the first encoding unit 500 in the horizontal direction, The unit 510 can be determined.
  • the first encoding unit, the second encoding unit, and the third encoding unit used according to an embodiment are terms used to understand the relation before and after the division between encoding units.
  • the second encoding unit can be determined, and if the second encoding unit is divided, the third encoding unit can be determined.
  • the relationship between the first coding unit, the second coding unit and the third coding unit used can be understood to be in accordance with the above-mentioned characteristic.
  • the image decoding apparatus 100 may determine that the determined second encoding unit 510 is not divided or divided into encoding units based on the division mode information. Referring to FIG. 5, the image decoding apparatus 100 divides a second encoding unit 510 of a non-square shape determined by dividing a first encoding unit 500 based on division mode information into at least one third encoding 520a, 520b, 520c, 520d, etc., or the second encoding unit 510 may not be divided.
  • the image decoding apparatus 100 can obtain the division type mode information and the image decoding apparatus 100 divides the first encoding unit 500 based on the obtained division type mode information to generate a plurality of second encoding And the second encoding unit 510 may be divided according to the manner in which the first encoding unit 500 is divided based on the division type mode information. According to one embodiment, when the first encoding unit 500 is divided into the second encoding units 510 based on the division type mode information for the first encoding unit 500, the second encoding units 510 (E.g., 520a, 520b, 520c, 520d, etc.) based on the split mode mode information for the second encoding unit 510.
  • the second encoding units 510 E.g., 520a, 520b, 520c, 520d, etc.
  • the encoding unit may be recursively divided based on the division mode information associated with each encoding unit. Therefore, a square encoding unit may be determined in a non-square encoding unit, and a non-square encoding unit may be determined by dividing the square encoding unit recursively.
  • predetermined encoding units for example, An encoding unit or a square-shaped encoding unit
  • the square-shaped third coding unit 520b which is one of the odd-numbered third coding units 520b, 520c, and 520d, may be divided in the horizontal direction and divided into a plurality of fourth coding units.
  • the non-square fourth encoding unit 530b or 530d which is one of the plurality of fourth encoding units 530a, 530b, 530c, and 530d, may be further divided into a plurality of encoding units.
  • the fourth encoding unit 530b or 530d in the non-square form may be divided again into odd number of encoding units.
  • a method which can be used for recursive division of an encoding unit will be described later in various embodiments.
  • the image decoding apparatus 100 may divide each of the third encoding units 520a, 520b, 520c, and 520d into encoding units based on the division type mode information. Also, the image decoding apparatus 100 may determine that the second encoding unit 510 is not divided based on the division type mode information. The image decoding apparatus 100 may divide the non-square second encoding unit 510 into odd third encoding units 520b, 520c and 520d according to an embodiment. The image decoding apparatus 100 may set a predetermined restriction on a predetermined third encoding unit among odd numbered third encoding units 520b, 520c, and 520d.
  • the image decoding apparatus 100 may limit the number of encoding units 520c located in the middle among odd numbered third encoding units 520b, 520c, and 520d to no longer be divided, or be divided into a set number of times .
  • the image decoding apparatus 100 includes an encoding unit (not shown) located in the middle among odd third encoding units 520b, 520c, and 520d included in the second encoding unit 510 in the non- 520c may not be further divided or may be limited to being divided into a predetermined division form (for example, divided into four coding units only or divided into a form corresponding to a form in which the second coding units 510 are divided) (For example, dividing only n times, n > 0).
  • a predetermined division form for example, divided into four coding units only or divided into a form corresponding to a form in which the second coding units 510 are divided
  • the above restriction on the coding unit 520c positioned at the center is merely an example and should not be construed to be limited to the above embodiments and the coding unit 520c positioned at the center is not limited to the coding units 520b and 520d Quot;), < / RTI > which can be decoded differently.
  • the image decoding apparatus 100 may acquire division mode information used for dividing a current encoding unit at a predetermined position in a current encoding unit.
  • FIG. 6 illustrates a method by which the image decoding apparatus 100 determines a predetermined encoding unit among odd number of encoding units according to an embodiment.
  • the division type mode information of the current encoding units 600 and 650 includes information on a sample at a predetermined position among a plurality of samples included in the current encoding units 600 and 650 (for example, 640, 690).
  • the predetermined position in the current coding unit 600 in which at least one of the division mode information can be obtained should not be limited to the center position shown in FIG. 6, and the predetermined position should be included in the current coding unit 600 (E.g., top, bottom, left, right, top left, bottom left, top right or bottom right, etc.)
  • the image decoding apparatus 100 may determine division mode mode information obtained from a predetermined position and divide the current encoding unit into the encoding units of various types and sizes.
  • the image decoding apparatus 100 may select one of the encoding units.
  • the method for selecting one of the plurality of encoding units may be various, and description of these methods will be described later in various embodiments.
  • the image decoding apparatus 100 may divide the current encoding unit into a plurality of encoding units and determine a predetermined encoding unit.
  • the image decoding apparatus 100 may use information indicating the positions of odd-numbered encoding units in order to determine an encoding unit located in the middle among odd-numbered encoding units. 6, the image decoding apparatus 100 divides the current encoding unit 600 or the current encoding unit 650 into odd number of encoding units 620a, 620b, 620c or odd number of encoding units 660a, 660b, and 660c. The image decoding apparatus 100 may use the information on the positions of the odd-numbered encoding units 620a, 620b, and 620c or the odd-numbered encoding units 660a, 660b, and 660c, (660b).
  • the image decoding apparatus 100 determines the positions of the encoding units 620a, 620b, and 620c based on information indicating the positions of predetermined samples included in the encoding units 620a, 620b, and 620c,
  • the encoding unit 620b located in the encoding unit 620b can be determined.
  • the video decoding apparatus 100 encodes the encoding units 620a, 620b, and 620c based on information indicating the positions of the upper left samples 630a, 630b, and 630c of the encoding units 620a, 620b, and 620c,
  • the encoding unit 620b located in the center can be determined.
  • Information indicating the positions of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c according to one embodiment is stored in the pictures of the coding units 620a, 620b, and 620c Or information about the position or coordinates of the object.
  • Information indicating the positions of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c according to one embodiment is stored in the coding units 620a , 620b, and 620c, and the width or height may correspond to information indicating the difference between the coordinates of the encoding units 620a, 620b, and 620c in the picture.
  • the image decoding apparatus 100 directly uses the information on the position or the coordinates in the picture of the coding units 620a, 620b, and 620c or the information on the width or height of the coding unit corresponding to the difference value between the coordinates
  • the encoding unit 620b located in the center can be determined.
  • the information indicating the position of the upper left sample 630a of the upper coding unit 620a may indicate the coordinates (xa, ya) and the upper left sample 530b of the middle coding unit 620b May indicate the coordinates (xb, yb), and the information indicating the position of the upper left sample 630c of the lower coding unit 620c may indicate the coordinates (xc, yc).
  • the video decoding apparatus 100 can determine the center encoding unit 620b using the coordinates of the upper left samples 630a, 630b, and 630c included in the encoding units 620a, 620b, and 620c.
  • the coding unit 620b including (xb, yb) coordinates of the sample 630b located at the center, Can be determined as a coding unit located in the middle of the coding units 620a, 620b, and 620c determined by dividing the current coding unit 600.
  • the coordinates indicating the positions of the samples 630a, 630b and 630c in the upper left corner may indicate the coordinates indicating the absolute position in the picture
  • the position of the upper left sample 630a of the upper coding unit 620a may be (Dxb, dyb), which is information indicating the relative position of the sample 630b at the upper left of the middle encoding unit 620b, and the relative position of the sample 630c at the upper left of the lower encoding unit 620c
  • Information dyn (dxc, dyc) coordinates may also be used.
  • the method of determining the coding unit at a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be limited to the above-described method, and various arithmetic Should be interpreted as a method.
  • the image decoding apparatus 100 may divide the current encoding unit 600 into a plurality of encoding units 620a, 620b, and 620c and may encode a predetermined one of the encoding units 620a, 620b, and 620c
  • the encoding unit can be selected according to the criterion. For example, the image decoding apparatus 100 can select an encoding unit 620b having a different size from among the encoding units 620a, 620b, and 620c.
  • the image decoding apparatus 100 may include (xa, ya) coordinates, which is information indicating the position of the upper left sample 630a of the upper encoding unit 620a, a sample of the upper left sample of the middle encoding unit 620b (Xc, yc) coordinates, which is information indicating the position of the lower-stage coding unit 630b and the position of the upper-left sample 630c of the lower-stage coding unit 620c, , 620b, and 620c, respectively.
  • the image decoding apparatus 100 encodes the encoding units 620a and 620b using the coordinates (xa, ya), (xb, yb), (xc, yc) indicating the positions of the encoding units 620a, 620b and 620c , And 620c, respectively.
  • the image decoding apparatus 100 may determine the width of the upper encoding unit 620a as the width of the current encoding unit 600.
  • the image decoding apparatus 100 can determine the height of the upper encoding unit 620a as yb-ya.
  • the image decoding apparatus 100 may determine the width of the middle encoding unit 620b as the width of the current encoding unit 600 according to an embodiment.
  • the image decoding apparatus 100 can determine the height of the middle encoding unit 620b as yc-yb.
  • the image decoding apparatus 100 may determine the width or height of the lower coding unit by using the width or height of the current coding unit and the width and height of the upper coding unit 620a and the middle coding unit 620b .
  • the image decoding apparatus 100 may determine an encoding unit having a different size from other encoding units based on the widths and heights of the determined encoding units 620a, 620b, and 620c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 620b as a coding unit at a predetermined position while having a size different from that of the upper coding unit 620a and the lower coding unit 620c.
  • the process of determining the encoding unit having a size different from that of the other encoding units by the video decoding apparatus 100 may be the same as that of the first embodiment in which the encoding unit of a predetermined position is determined using the size of the encoding unit determined based on the sample coordinates .
  • Various processes may be used for determining the encoding unit at a predetermined position by comparing the sizes of the encoding units determined according to predetermined sample coordinates.
  • the video decoding apparatus 100 determines the position (xd, yd) which is the information indicating the position of the upper left sample 670a of the left encoding unit 660a and the position (xd, yd) of the sample 670b at the upper left of the middle encoding unit 660b 660b and 660c using the (xf, yf) coordinates, which is information indicating the (xe, ye) coordinate which is the information indicating the position of the right encoding unit 660c and the position of the sample 670c at the upper left of the right encoding unit 660c, Each width or height can be determined.
  • the image decoding apparatus 100 encodes the encoded units 660a and 660b using the coordinates (xd, yd), (xe, ye), (xf, yf) indicating the positions of the encoding units 660a, 660b and 660c And 660c, respectively.
  • the image decoding apparatus 100 may determine the width of the left encoding unit 660a as xe-xd. The image decoding apparatus 100 can determine the height of the left encoding unit 660a as the height of the current encoding unit 650. [ According to an embodiment, the image decoding apparatus 100 may determine the width of the middle encoding unit 660b as xf-xe. The image decoding apparatus 100 can determine the height of the middle encoding unit 660b as the height of the current encoding unit 600.
  • the image decoding apparatus 100 may determine that the width or height of the right encoding unit 660c is less than the width or height of the current encoding unit 650 and the width and height of the left encoding unit 660a and the middle encoding unit 660b . ≪ / RTI > The image decoding apparatus 100 may determine an encoding unit having a different size from the other encoding units based on the widths and heights of the determined encoding units 660a, 660b, and 660c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 660b as a coding unit at a predetermined position while having a size different from that of the left coding unit 660a and the right coding unit 660c.
  • the process of determining the encoding unit having a size different from that of the other encoding units by the video decoding apparatus 100 may be the same as that of the first embodiment in which the encoding unit of a predetermined position is determined using the size of the encoding unit determined based on the sample coordinates .
  • Various processes may be used for determining the encoding unit at a predetermined position by comparing the sizes of the encoding units determined according to predetermined sample coordinates.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the left upper end, and information about the position of any sample included in the coding unit can be interpreted as being available.
  • the image decoding apparatus 100 can select a coding unit at a predetermined position among the odd number of coding units determined by dividing the current coding unit considering the type of the current coding unit. For example, if the current coding unit is a non-square shape having a width greater than the height, the image decoding apparatus 100 can determine a coding unit at a predetermined position along the horizontal direction. That is, the image decoding apparatus 100 may determine one of the encoding units which are located in the horizontal direction and limit the encoding unit. If the current coding unit is a non-square shape having a height greater than the width, the image decoding apparatus 100 can determine a coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 100 may determine one of the encoding units having different positions in the vertical direction and set a restriction on the encoding unit.
  • the image decoding apparatus 100 may use information indicating positions of even-numbered encoding units in order to determine an encoding unit at a predetermined position among the even-numbered encoding units.
  • the image decoding apparatus 100 can determine an even number of encoding units by dividing the current encoding unit (binary division) and determine a predetermined encoding unit using information on the positions of the even number of encoding units. A concrete procedure for this is omitted because it may be a process corresponding to a process of determining a coding unit of a predetermined position (e.g., the middle position) among the odd number of coding units described with reference to FIG.
  • the video decoding apparatus 100 may determine the block type information stored in the sample included in the middle coding unit, Mode information can be used.
  • the image decoding apparatus 100 may divide the current encoding unit 600 into a plurality of encoding units 620a, 620b, and 620c based on the division type mode information, 620a, 620b, and 620c among the encoding units 620a and 620b. Furthermore, the image decoding apparatus 100 can determine the encoding unit 620b positioned at the center in consideration of the position at which the split mode information is obtained.
  • the division type mode information of the current encoding unit 600 can be obtained in the sample 640 positioned in the middle of the current encoding unit 600, and the current encoding unit 600 can be obtained based on the division type mode information
  • the encoding unit 620b including the sample 640 may be determined as a middle encoding unit.
  • the information used for determining the coding unit located in the middle should not be limited to the division type mode information, and various kinds of information can be used in the process of determining the coding unit located in the middle.
  • predetermined information for identifying a coding unit at a predetermined position may be obtained from a predetermined sample included in a coding unit to be determined.
  • the image decoding apparatus 100 includes a plurality of encoding units 620a, 620b, and 620c that are determined by dividing a current encoding unit 600, Obtained from a sample at a predetermined position in the current coding unit 600 (for example, a sample located in the middle of the current coding unit 600) in order to determine the coding mode, Can be used.
  • the image decoding apparatus 100 can determine the sample at the predetermined position in consideration of the block form of the current encoding unit 600, and the image decoding apparatus 100 can determine a plurality of It is possible to determine a coding unit 620b including a sample from which predetermined information (for example, divided mode information) can be obtained among the number of coding units 620a, 620b, and 620c .
  • the image decoding apparatus 100 may determine a sample 640 located in the center of a current encoding unit 600 as a sample from which predetermined information can be obtained, The coding unit 100 may limit the coding unit 620b including the sample 640 to a predetermined limit in the decoding process.
  • the position of the sample from which the predetermined information can be obtained should not be construed to be limited to the above-mentioned position, but may be interpreted as samples at arbitrary positions included in the encoding unit 620b to be determined for limiting.
  • the position of a sample from which predetermined information can be obtained may be determined according to the type of the current encoding unit 600.
  • the block type information can determine whether the current encoding unit is a square or a non-square, and determine the position of a sample from which predetermined information can be obtained according to the shape.
  • the video decoding apparatus 100 may use at least one of the information on the width of the current coding unit and the information on the height to position at least one of the width and the height of the current coding unit in half The sample can be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 selects one of the samples adjacent to the boundary dividing the longer side of the current encoding unit into halves by a predetermined Can be determined as a sample from which the information of < / RTI >
  • the image decoding apparatus 100 may use the division mode information to determine a predetermined unit of the plurality of encoding units.
  • the image decoding apparatus 100 may acquire division type mode information from a sample at a predetermined position included in an encoding unit, and the image decoding apparatus 100 may include a plurality of encoding units
  • the units may be divided using the division mode information obtained from the sample at a predetermined position included in each of the plurality of encoding units. That is, the coding unit can be recursively divided using the division type mode information obtained in the sample at the predetermined position contained in each of the coding units. Since the recursive division process of the encoding unit has been described with reference to FIG. 5, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 can determine at least one encoding unit by dividing the current encoding unit, and the order in which the at least one encoding unit is decoded is determined as a predetermined block (for example, ). ≪ / RTI >
  • FIG. 7 illustrates a sequence in which a plurality of coding units are processed when the image decoding apparatus 100 determines a plurality of coding units by dividing the current coding unit according to an embodiment.
  • the image decoding apparatus 100 may determine the second encoding units 710a and 710b by dividing the first encoding unit 700 in the vertical direction according to the division type mode information,
  • the second encoding units 730a and 730b may be determined by dividing the first encoding unit 700 in the horizontal direction or the second encoding units 750a, 750b, 750c, and 750d by dividing the first encoding unit 700 in the vertical direction and the horizontal direction have.
  • the image decoding apparatus 100 may determine the order in which the second encoding units 710a and 710b determined by dividing the first encoding unit 700 in the vertical direction are processed in the horizontal direction 710c .
  • the image decoding apparatus 100 may determine the processing order of the second encoding units 730a and 730b determined by dividing the first encoding unit 700 in the horizontal direction as the vertical direction 730c.
  • the image decoding apparatus 100 processes the encoding units located in one row of the second encoding units 750a, 750b, 750c and 750d determined by dividing the first encoding unit 700 in the vertical direction and the horizontal direction, (For example, a raster scan order or a z scan order 750e) in which the encoding units located in the next row are processed.
  • the image decoding apparatus 100 may recursively divide encoding units. 7, the image decoding apparatus 100 may determine a plurality of encoding units 710a, 710b, 730a, 730b, 750a, 750b, 750c and 750d by dividing the first encoding unit 700, The determined plurality of encoding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d can be recursively divided.
  • the method of dividing the plurality of encoding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be a method corresponding to the method of dividing the first encoding unit 700.
  • the plurality of encoding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be independently divided into a plurality of encoding units.
  • the image decoding apparatus 100 may determine the second encoding units 710a and 710b by dividing the first encoding unit 700 in the vertical direction, and may further determine the second encoding units 710a and 710b Can be determined not to divide or separate independently.
  • the image decoding apparatus 100 may divide the second encoding unit 710a on the left side in the horizontal direction into the third encoding units 720a and 720b and the second encoding units 710b ) May not be divided.
  • the processing order of the encoding units may be determined based on the division process of the encoding units.
  • the processing order of the divided coding units can be determined based on the processing order of the coding units immediately before being divided.
  • the image decoding apparatus 100 can determine the order in which the third encoding units 720a and 720b determined by dividing the second encoding unit 710a on the left side are processed independently of the second encoding unit 710b on the right side.
  • the third encoding units 720a and 720b may be processed in the vertical direction 720c because the second encoding units 710a on the left side are divided in the horizontal direction and the third encoding units 720a and 720b are determined.
  • the order in which the left second encoding unit 710a and the right second encoding unit 710b are processed corresponds to the horizontal direction 710c
  • the right encoding unit 710b can be processed after the blocks 720a and 720b are processed in the vertical direction 720c.
  • the above description is intended to explain the process sequence in which encoding units are determined according to the encoding units before division. Therefore, it should not be construed to be limited to the above-described embodiments, It should be construed as being used in various ways that can be handled independently in sequence.
  • FIG. 8 illustrates a process of determining that the current encoding unit is divided into odd number of encoding units when the image decoding apparatus 100 can not process the encoding units in a predetermined order according to an embodiment.
  • the image decoding apparatus 100 may determine that the current encoding unit is divided into odd number of encoding units based on the obtained division mode mode information.
  • the first encoding unit 800 in the form of a square may be divided into second non-square encoding units 810a and 810b, and the second encoding units 810a and 810b may be independently 3 encoding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 100 can determine the plurality of third encoding units 820a and 820b by dividing the left encoding unit 810a of the second encoding unit in the horizontal direction, and the right encoding unit 810b Can be divided into an odd number of third encoding units 820c, 820d, and 820e.
  • the image decoding apparatus 100 determines whether or not the third encoding units 820a, 820b, 820c, 820d, and 820e can be processed in a predetermined order and determines whether there are odd- You can decide. Referring to FIG. 8, the image decoding apparatus 100 may recursively divide the first encoding unit 800 to determine the third encoding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 100 may further include a first encoding unit 800, a second encoding unit 810a and 810b or a third encoding unit 820a, 820b, 820c , 820d, and 820e are divided into odd number of coding units among the divided types. For example, an encoding unit located on the right of the second encoding units 810a and 810b may be divided into odd third encoding units 820c, 820d, and 820e.
  • the order in which the plurality of coding units included in the first coding unit 800 are processed may be a predetermined order (for example, a z-scan order 830) 100 can determine whether the third encoding units 820c, 820d, and 820e determined by dividing the right second encoding unit 810b into odd numbers satisfy the condition that the third encoding units 820c, 820d, and 820e can be processed according to the predetermined order.
  • a predetermined order for example, a z-scan order 830
  • the image decoding apparatus 100 satisfies a condition that third encoding units 820a, 820b, 820c, 820d, and 820e included in the first encoding unit 800 can be processed in a predetermined order And it is determined whether or not at least one of the widths and heights of the second encoding units 810a and 810b is divided in half according to the boundaries of the third encoding units 820a, 820b, 820c, 820d, and 820e, .
  • the third encoding units 820a and 820b which are determined by dividing the height of the left second encoding unit 810a in the non-square shape by half, can satisfy the condition.
  • the boundaries of the third encoding units 820c, 820d, and 820e determined by dividing the right second encoding unit 810b into three encoding units do not divide the width or height of the right second encoding unit 810b in half ,
  • the third encoding units 820c, 820d, and 820e may be determined as not satisfying the condition.
  • the image decoding apparatus 100 may determine that the scan order is disconnection in the case of such unsatisfactory condition and determine that the right second encoding unit 810b is divided into odd number of encoding units based on the determination result.
  • the image decoding apparatus 100 may limit a coding unit of a predetermined position among the divided coding units when the coding unit is divided into odd number of coding units. Since the embodiment has been described above, a detailed description thereof will be omitted.
  • FIG. 9 illustrates a process in which the image decoding apparatus 100 determines at least one encoding unit by dividing a first encoding unit 900 according to an embodiment.
  • the image decoding apparatus 100 may divide the first encoding unit 900 based on the division type mode information acquired through a receiver (not shown).
  • the first coding unit 900 in the form of a square may be divided into four coding units having a square form, or may be divided into a plurality of non-square coding units.
  • the image decoding apparatus 100 transmits the first encoding unit 900 And may be divided into a plurality of non-square encoding units.
  • the video decoding apparatus 100 determines whether or not the first coding unit 900 can be divided into the second encoding units 910a, 910b, and 910c divided in the vertical direction as the odd number of encoding units or the second encoding units 920a, 920b, and 920c determined in the horizontal direction.
  • the image decoding apparatus 100 may be configured such that the second encoding units 910a, 910b, 910c, 920a, 920b, and 920c included in the first encoding unit 900 are processed in a predetermined order And the condition is that at least one of the width and the height of the first encoding unit 900 is divided in half according to the boundaries of the second encoding units 910a, 910b, 910c, 920a, 920b, and 920c .
  • the boundaries of the second encoding units 910a, 910b, and 910c which are determined by vertically dividing the first encoding unit 900 in a square shape, are divided in half by the width of the first encoding unit 900
  • the first encoding unit 900 can be determined as not satisfying a condition that can be processed in a predetermined order.
  • the boundaries of the second encoding units 920a, 920b, and 920c which are determined by dividing the first encoding unit 900 in the horizontal direction into the horizontal direction, can not divide the width of the first encoding unit 900 in half, 1 encoding unit 900 may be determined as not satisfying a condition that can be processed in a predetermined order.
  • the image decoding apparatus 100 may determine that the scan sequence is disconnection in the case of such unsatisfactory condition and determine that the first encoding unit 900 is divided into odd number of encoding units based on the determination result. According to an embodiment, the image decoding apparatus 100 may limit a coding unit of a predetermined position among the divided coding units when the coding unit is divided into odd number of coding units. Since the embodiment has been described above, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine the encoding units of various types by dividing the first encoding unit.
  • the image decoding apparatus 100 may divide a first coding unit 900 in a square form and a first coding unit 930 or 950 in a non-square form into various types of coding units .
  • the image decoding apparatus 100 may convert the first encoding unit 1000 in a square form into a second encoding unit 1010a in a non-square form on the basis of the division type mode information acquired through a receiver (not shown) , 1010b, 1020a, and 1020b.
  • the second encoding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the image decoding apparatus 100 can determine whether to divide or not divide the image into a plurality of encoding units based on the division type mode information associated with each of the second encoding units 1010a, 1010b, 1020a, and 1020b.
  • the image decoding apparatus 100 divides the left second encoding unit 1010a in a non-square form determined by dividing the first encoding unit 1000 in the vertical direction into a horizontal direction, 1012a, and 1012b.
  • the right-side second encoding unit 1010b is arranged in the horizontal direction in the same manner as the direction in which the left second encoding unit 1010a is divided, As shown in Fig.
  • the left second encoding unit 1010a and the right second encoding unit 1010b are arranged in the horizontal direction
  • the third encoding units 1012a, 1012b, 1014a, and 1014b can be determined by being independently divided. However, this is the same result that the image decoding apparatus 100 divides the first encoding unit 1000 into four square-shaped second encoding units 1030a, 1030b, 1030c, and 1030d based on the split mode information, It may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 divides a second encoding unit 1020a or 1020b in a non-square form determined by dividing a first encoding unit 1000 in a horizontal direction into a vertical direction, (1022a, 1022b, 1024a, 1024b).
  • the image decoding apparatus 100 may be configured to encode the second encoding unit (for example, The encoding unit 1020b) can be restricted such that the upper second encoding unit 1020a can not be divided vertically in the same direction as the divided direction.
  • FIG. 11 illustrates a process in which the image decoding apparatus 100 divides a square-shaped encoding unit when the split mode information can not be divided into four square-shaped encoding units according to an embodiment.
  • the image decoding apparatus 100 may determine the second encoding units 1110a, 1110b, 1120a, and 1120b by dividing the first encoding unit 1100 based on the division type mode information.
  • the division type mode information may include information on various types in which an encoding unit can be divided, but information on various types may not include information for division into four square units of encoding units. According to the division type mode information, the image decoding apparatus 100 can not divide the first encoding unit 1100 in the square form into the second encoding units 1130a, 1130b, 1130c, and 1130d in the four square form.
  • the image decoding apparatus 100 may determine the non-square second encoding units 1110a, 1110b, 1120a, and 1120b based on the split mode information.
  • the image decoding apparatus 100 may independently divide the non-square second encoding units 1110a, 1110b, 1120a, and 1120b, respectively.
  • Each of the second encoding units 1110a, 1110b, 1120a, 1120b, etc. may be divided in a predetermined order through a recursive method, which is a method of dividing the first encoding unit 1100 based on the split mode information May be a corresponding partitioning method.
  • the image decoding apparatus 100 can determine the third encoding units 1112a and 1112b in the form of a square by dividing the left second encoding unit 1110a in the horizontal direction and the right second encoding unit 1110b It is possible to determine the third encoding units 1114a and 1114b in the form of a square by being divided in the horizontal direction. Furthermore, the image decoding apparatus 100 may divide the left second encoding unit 1110a and the right second encoding unit 1110b in the horizontal direction to determine the third encoding units 1116a, 1116b, 1116c, and 1116d in the form of a square have. In this case, the encoding unit can be determined in the same manner as the first encoding unit 1100 is divided into the four second square encoding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 can determine the third encoding units 1122a and 1122b in the form of a square by dividing the upper second encoding unit 1120a in the vertical direction, and the lower second encoding units 1120b May be divided in the vertical direction to determine the third encoding units 1124a and 1124b in the form of a square. Further, the image decoding apparatus 100 may divide the upper second encoding unit 1120a and the lower second encoding unit 1120b in the vertical direction to determine the square-shaped third encoding units 1126a, 1126b, 1126a, and 1126b have. In this case, the encoding unit can be determined in the same manner as the first encoding unit 1100 is divided into the four second square encoding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that the processing order among a plurality of coding units may be changed according to a division process of a coding unit according to an exemplary embodiment.
  • the image decoding apparatus 100 may divide the first encoding unit 1200 based on the division type mode information. If the block type is square and the division type mode information indicates that the first encoding unit 1200 is divided into at least one of a horizontal direction and a vertical direction, the image decoding apparatus 100 may generate the first encoding unit 1200 (For example, 1210a, 1210b, 1220a, 1220b, etc.) can be determined by dividing the second coding unit. Referring to FIG. 12, the non-square second encoding units 1210a, 1210b, 1220a, and 1220b, which are determined by dividing the first encoding unit 1200 only in the horizontal direction or the vertical direction, Can be divided independently.
  • the image decoding apparatus 100 divides the second encoding units 1210a and 1210b, which are generated by dividing the first encoding unit 1200 in the vertical direction, in the horizontal direction, and outputs the third encoding units 1216a, 1216b, 1216c and 1216d can be determined and the second encoding units 1220a and 1220b generated by dividing the first encoding unit 1200 in the horizontal direction are divided in the horizontal direction and the third encoding units 1226a, , 1226d. Since the process of dividing the second encoding units 1210a, 1210b, 1220a, and 1220b has been described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may process an encoding unit in a predetermined order.
  • the features of the processing of the encoding unit in the predetermined order have been described in detail with reference to FIG. 7, and a detailed description thereof will be omitted. 12, the image decoding apparatus 100 divides a first encoding unit 1200 of a square shape into 4 pieces of fourth encoding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d Can be determined.
  • the image decoding apparatus 100 may process the third encoding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to the form in which the first encoding unit 1200 is divided You can decide.
  • the image decoding apparatus 100 divides the generated second encoding units 1210a and 1210b in the vertical direction and divides them in the horizontal direction to determine third encoding units 1216a, 1216b, 1216c, and 1216d And the image decoding apparatus 100 first processes the third encoding units 1216a and 1216c included in the left second encoding unit 1210a in the vertical direction and then processes the third encoding units 1216a and 1216c included in the second right encoding unit 1210b The third encoding units 1216a, 1216b, 1216c, and 1216d can be processed according to the order 1217 of processing the third encoding units 1216b and 1216d in the vertical direction.
  • the image decoding apparatus 100 divides the second encoding units 1220a and 1220b generated in the horizontal direction into vertical directions to determine the third encoding units 1226a, 1226b, 1226c and 1226d And the image decoding apparatus 100 first processes the third encoding units 1226a and 1226b included in the upper second encoding unit 1220a in the horizontal direction and then encodes the third encoding units 1226a and 1226b included in the lower second encoding unit 1220b The third encoding units 1226a, 1226b, 1226c, and 1226d may be processed in accordance with an order 1227 for processing the third encoding units 1226c and 1226d in the horizontal direction.
  • the second encoding units 1210a, 1210b, 1220a, and 1220b are divided to determine the third encoding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d, have.
  • the second encoding units 1210a and 1210b determined to be divided in the vertical direction and the second encoding units 1220a and 1220b determined to be divided in the horizontal direction are divided into different formats, but the third encoding units 1216a , 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d, the result is that the first encoding unit 1200 is divided into the same type of encoding units. Accordingly, the image decoding apparatus 100 recursively divides an encoding unit through a different process based on division mode information, thereby eventually determining the same type of encoding units, It can be processed in order.
  • FIG. 13 illustrates a process of determining the depth of an encoding unit according to a change in type and size of an encoding unit when a plurality of encoding units are determined by recursively dividing an encoding unit according to an embodiment.
  • the image decoding apparatus 100 may determine the depth of a coding unit according to a predetermined criterion.
  • a predetermined criterion may be a length of a long side of a coding unit.
  • the depth of the current encoding unit is smaller than the depth of the encoding unit before being divided it can be determined that the depth is increased by n.
  • an encoding unit with an increased depth is expressed as a lower-depth encoding unit.
  • the image decoding apparatus 100 may generate a square 1 encoding unit 1300 can be divided to determine the second encoding unit 1302, the third encoding unit 1304, etc. of the lower depth. If the size of the first encoding unit 1300 in the form of a square is 2Nx2N, the second encoding unit 1302 determined by dividing the width and height of the first encoding unit 1300 by 1/2 may have a size of NxN have.
  • the third encoding unit 1304 determined by dividing the width and height of the second encoding unit 1302 by a half size may have a size of N / 2xN / 2.
  • the width and height of the third encoding unit 1304 correspond to 1/4 of the first encoding unit 1300. If the depth of the first encoding unit 1300 is D, the depth of the second encoding unit 1302, which is half the width and height of the first encoding unit 1300, may be D + 1, The depth of the third encoding unit 1304, which is one fourth of the width and height of the third encoding unit 1300, may be D + 2.
  • block type information indicating a non-square shape for example, block type information is' 1: NS_VER 'indicating that the height is a non-square having a width greater than the width or' 2 >
  • the image decoding apparatus 100 divides the first coding unit 1310 or 1320 in a non-square form into a second coding unit 1312 or 1322 of a lower depth, The third encoding unit 1314 or 1324, or the like.
  • the image decoding apparatus 100 may determine a second coding unit (for example, 1302, 1312, 1322, etc.) by dividing at least one of the width and the height of the first coding unit 1310 of Nx2N size. That is, the image decoding apparatus 100 can determine the second encoding unit 1302 of NxN size or the second encoding unit 1322 of NxN / 2 size by dividing the first encoding unit 1310 in the horizontal direction, It is also possible to determine the second encoding unit 1312 of N / 2xN size by dividing it in the horizontal direction and the vertical direction.
  • a second coding unit for example, 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of a 2NxN first encoding unit 1320 to determine a second encoding unit (e.g., 1302, 1312, 1322, etc.) It is possible. That is, the image decoding apparatus 100 can determine the second encoding unit 1302 of NxN size or the second encoding unit 1312 of N / 2xN size by dividing the first encoding unit 1320 in the vertical direction, The second encoding unit 1322 of the NxN / 2 size may be determined by dividing the image data in the horizontal direction and the vertical direction.
  • a second encoding unit e.g. 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 divides at least one of the width and the height of the second encoding unit 1302 of NxN size to determine a third encoding unit (for example, 1304, 1314, 1324, etc.) It is possible. That is, the image decoding apparatus 100 determines the third encoding unit 1304 of N / 2xN / 2 size by dividing the second encoding unit 1302 in the vertical direction and the horizontal direction, or determines the third encoding unit 1304 of N / 4xN / 3 encoding unit 1314 or a third encoding unit 1324 of N / 2xN / 4 size.
  • a third encoding unit for example, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 may divide at least one of the width and the height of the second encoding unit 1312 of N / 2xN size into a third encoding unit (e.g., 1304, 1314, 1324, etc.) . That is, the image decoding apparatus 100 divides the second encoding unit 1312 in the horizontal direction to generate a third encoding unit 1304 of N / 2xN / 2 or a third encoding unit 1324 of N / 2xN / 4 size ) Or may be divided in the vertical and horizontal directions to determine the third encoding unit 1314 of N / 4xN / 2 size.
  • a third encoding unit e.g. 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of the width and the height of the second encoding unit 1322 of NxN / 2 size to generate a third encoding unit 1304, 1314, 1324, . That is, the image decoding apparatus 100 divides the second encoding unit 1322 in the vertical direction to generate a third encoding unit 1304 of N / 2xN / 2 or a third encoding unit 1314 of N / 4xN / 2 size ) Or may be divided in the vertical and horizontal directions to determine the third encoding unit 1324 of N / 2xN / 4 size.
  • the image decoding apparatus 100 may divide a square-shaped encoding unit (for example, 1300, 1302, and 1304) into a horizontal direction or a vertical direction.
  • a square-shaped encoding unit for example, 1300, 1302, and 1304
  • the first encoding unit 1300 having a size of 2Nx2N is divided in the vertical direction to determine a first encoding unit 1310 having a size of Nx2N or the first encoding unit 1310 having a size of 2NxN to determine a first encoding unit 1320 having a size of 2NxN .
  • the depth of the encoding unit when the depth is determined based on the length of the longest side of the encoding unit, the depth of the encoding unit, which is determined by dividing the first encoding unit 1300 of 2Nx2N size in the horizontal direction or the vertical direction, May be the same as the depth of the unit (1300).
  • the width and height of the third encoding unit 1314 or 1324 may correspond to one fourth of the first encoding unit 1310 or 1320.
  • the depth of the first coding unit 1310 or 1320 is D
  • the depth of the second coding unit 1312 or 1322 which is half the width and height of the first coding unit 1310 or 1320 is D +
  • the depth of the third encoding unit 1314 or 1324, which is one fourth of the width and height of the first encoding unit 1310 or 1320 may be D + 2.
  • FIG. 14 illustrates a depth index (hereinafter referred to as a PID) for classifying a depth and a coding unit that can be determined according to the type and size of coding units according to an exemplary embodiment.
  • a PID depth index
  • the image decoding apparatus 100 may divide the first encoding unit 1400 in a square form to determine various types of second encoding units. 14, the image decoding apparatus 100 divides the first encoding unit 1400 into at least one of a vertical direction and a horizontal direction according to the division type mode information, and outputs the second encoding units 1402a, 1402b, and 1404a , 1404b, 1406a, 1406b, 1406c, 1406d. That is, the image decoding apparatus 100 can determine the second encoding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split mode mode information for the first encoding unit 1400 .
  • the second encoding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d which are determined according to the split mode mode information for the first encoded unit 1400 in the form of a square.
  • the depth of field can be determined based on the depth. For example, since the length of one side of the first encoding unit 1400 in the square form is the same as the length of long sides of the second encoding units 1402a, 1402b, 1404a, and 1404b in the non-square form, 1400) and the non-square type second encoding units 1402a, 1402b, 1404a, 1404b are denoted by D in the same manner.
  • the video decoding apparatus 100 divides the first encoding unit 1400 into four square-shaped second encoding units 1406a, 1406b, 1406c, and 1406d based on the split mode information, Since the length of one side of the second coding units 1406a, 1406b, 1406c and 1406d is half the length of one side of the first coding unit 1400, the length of one side of the second coding units 1406a, 1406b, 1406c and 1406d The depth may be a depth of D + 1 which is one depth lower than D, which is the depth of the first encoding unit 1400.
  • the image decoding apparatus 100 divides a first encoding unit 1410 having a height greater than a width in a horizontal direction according to division mode information, and generates a plurality of second encoding units 1412a, 1412b, and 1414a , 1414b, and 1414c.
  • the image decoding apparatus 100 divides a first encoding unit 1420 of a shape whose width is longer than a height in a vertical direction according to the division mode information to generate a plurality of second encoding units 1422a, 1422b, and 1424a , 1424b, and 1424c.
  • 1422a, 1422b, 1424a, 1422b, 1424b, 1424b, 1424b, 1424b, 1424b, 1424c can be determined in depth based on the length of the long side. For example, since the length of one side of the square-shaped second encoding units 1412a and 1412b is 1/2 times the length of one side of the non-square first encoding unit 1410 whose height is longer than the width, The depth of the second encoding units 1412a and 1412b of the form is D + 1 which is one depth lower than the depth D of the first encoding unit 1410 of the non-square form.
  • the image decoding apparatus 100 may divide the non-square first encoding unit 1410 into odd second encoding units 1414a, 1414b, and 1414c based on the division type mode information.
  • the odd number of second encoding units 1414a, 1414b and 1414c may include non-square second encoding units 1414a and 1414c and a square second encoding unit 1414b.
  • the length of the long sides of the non-square type second encoding units 1414a and 1414c and the length of one side of the second encoding unit 1414b in the square form are set to 1/10 of the length of one side of the first encoding unit 1410
  • the depth of the second encoding units 1414a, 1414b, and 1414c may be a depth of D + 1 which is one depth lower than D, which is the depth of the first encoding unit 1410.
  • the image decoding apparatus 100 is connected to the first encoding unit 1420 in the form of a non-square shape whose width is longer than the height in a manner corresponding to the scheme for determining the depths of the encoding units associated with the first encoding unit 1410 The depth of the encoding units can be determined.
  • the image decoding apparatus 100 determines an index (PID) for distinguishing the divided coding units. If the odd-numbered coding units are not the same size, The index can be determined based on the index. 14, an encoding unit 1414b positioned at the center among the odd-numbered encoding units 1414a, 1414b, and 1414c has the same width as other encoding units 1414a and 1414c, Lt; / RTI > 1414a and 1414c. That is, in this case, the encoding unit 1414b positioned in the middle may include two of the other encoding units 1414a and 1414c.
  • PID index
  • the coding unit 1414c positioned next to the coding unit 1414c may be three days in which the index is increased by two. That is, there may be a discontinuity in the value of the index.
  • the image decoding apparatus 100 may determine whether odd-numbered encoding units are not the same size based on the presence or absence of an index discontinuity for distinguishing between the divided encoding units.
  • the image decoding apparatus 100 may determine whether the image is divided into a specific division form based on an index value for distinguishing a plurality of coding units divided from the current coding unit. 14, the image decoding apparatus 100 divides a first coding unit 1410 of a rectangular shape whose height is longer than the width to determine an even number of coding units 1412a and 1412b or an odd number of coding units 1414a and 1414b , And 1414c.
  • the image decoding apparatus 100 may use an index (PID) indicating each coding unit in order to distinguish each of the plurality of coding units.
  • the PID may be obtained at a sample of a predetermined position of each coding unit (e.g., the upper left sample).
  • the image decoding apparatus 100 may determine a coding unit of a predetermined position among the coding units determined by using the index for classifying the coding unit.
  • the image decoding apparatus 100 encodes the first encoding unit 1410, Can be divided into three coding units 1414a, 1414b and 1414c.
  • the image decoding apparatus 100 can assign an index to each of the three encoding units 1414a, 1414b, and 1414c.
  • the image decoding apparatus 100 may compare the indexes of the respective encoding units in order to determine the middle encoding unit among the encoding units divided into odd numbers.
  • the image decoding apparatus 100 encodes an encoding unit 1414b having an index corresponding to a middle value among the indices based on the indices of the encoding units by encoding the middle position among the encoding units determined by dividing the first encoding unit 1410 Can be determined as a unit.
  • the image decoding apparatus 100 may determine an index based on a size ratio between coding units when the coding units are not the same size in determining the index for dividing the divided coding units .
  • the coding unit 1414b generated by dividing the first coding unit 1410 is divided into coding units 1414a and 1414c having the same width as the other coding units 1414a and 1414c but different in height Can be double the height.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of encoding units including encoding units having different sizes from other encoding units.
  • the image decoding apparatus 100 determines that the encoding unit (for example, the middle encoding unit) at a predetermined position among the odd number of encoding units is different from the encoding units You can split the current encoding unit into a form.
  • the image decoding apparatus 100 may determine an encoding unit having a different size by using an index (PID) for the encoding unit.
  • PID index
  • the index and the size or position of the encoding unit at a predetermined position to be determined are specific for explaining an embodiment, and thus should not be construed to be limited thereto, and various indexes, positions and sizes of encoding units can be used Should be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit in which a recursive division of an encoding unit starts.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • a predetermined data unit may be defined as a unit of data in which an encoding unit begins to be recursively segmented using segmentation mode information. That is, it may correspond to a coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit is referred to as a reference data unit for convenience of explanation.
  • the reference data unit may represent a predetermined size and shape.
  • the reference encoding unit may comprise samples of MxN.
  • M and N may be equal to each other, or may be an integer represented by a multiplier of 2. That is, the reference data unit may represent a square or a non-square shape, and may be divided into an integer number of encoding units.
  • the image decoding apparatus 100 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing the current picture into pieces using the split mode information for each reference data unit.
  • the segmentation process of the reference data unit may correspond to the segmentation process using a quad-tree structure.
  • the image decoding apparatus 100 may determine in advance a minimum size that the reference data unit included in the current picture can have. Accordingly, the image decoding apparatus 100 can determine reference data units of various sizes having a size larger than a minimum size, and can determine at least one encoding unit using the split mode information based on the determined reference data unit .
  • the image decoding apparatus 100 may use a square-shaped reference encoding unit 1500 or a non-square-shaped reference encoding unit 1502.
  • the type and size of the reference encoding unit may include various data units (e.g., a sequence, a picture, a slice, a slice segment a slice segment, a maximum encoding unit, and the like).
  • a receiver (not shown) of the video decoding apparatus 100 may acquire at least one of information on the type of the reference encoding unit and information on the size of the reference encoding unit from the bitstream for each of the various data units have.
  • the process of determining at least one encoding unit included in the reference type encoding unit 1500 is described in detail in the process of dividing the current encoding unit 300 of FIG. 3, and the non- Is determined in the process of dividing the current encoding unit 400 or 450 of FIG. 4, so that a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may include an index for identifying the size and type of the reference encoding unit Can be used. That is, a receiving unit (not shown) receives a predetermined condition (for example, a data unit having a size equal to or smaller than a slice) among the various data units (e.g., sequence, picture, slice, slice segment, ), It is possible to obtain only an index for identification of the size and type of the reference encoding unit for each slice, slice segment, maximum encoding unit, and the like.
  • a predetermined condition for example, a data unit having a size equal to or smaller than a slice
  • the various data units e.g., sequence, picture, slice, slice segment,
  • the image decoding apparatus 100 can determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the information on the type of the reference encoding unit and the information on the size of the reference encoding unit are obtained from the bitstream for each relatively small data unit and used, the use efficiency of the bitstream may not be good. Therefore, Information on the size of the reference encoding unit and information on the size of the reference encoding unit can be acquired and used. In this case, at least one of the size and the type of the reference encoding unit corresponding to the index indicating the size and type of the reference encoding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the size and the type of the reference encoding unit in accordance with the index, thereby obtaining at least one of the size and the type of the reference encoding unit included in the data unit, You can decide.
  • the image decoding apparatus 100 may use at least one reference encoding unit included in one maximum encoding unit. That is, the maximum encoding unit for dividing an image may include at least one reference encoding unit, and the encoding unit may be determined through a recursive division process of each reference encoding unit. According to an exemplary embodiment, at least one of the width and the height of the maximum encoding unit may correspond to at least one integer multiple of the width and height of the reference encoding unit. According to an exemplary embodiment, the size of the reference encoding unit may be a size obtained by dividing the maximum encoding unit n times according to a quadtree structure.
  • the image decoding apparatus 100 can determine the reference encoding unit by dividing the maximum encoding unit n times according to the quad-tree structure, and determine the reference encoding unit based on the block type information and the split mode information Can be divided based on one.
  • FIG. 16 shows a processing block serving as a reference for determining a determination order of a reference encoding unit included in a picture 1600 according to an embodiment.
  • the image decoding apparatus 100 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference encoding unit for dividing an image, and at least one reference encoding unit included in the processing block may be determined in a specific order. That is, the order of determination of at least one reference encoding unit determined in each processing block may correspond to one of various kinds of order in which the reference encoding unit can be determined, and the reference encoding unit determination order determined in each processing block May be different for each processing block.
  • the order of determination of the reference encoding unit determined for each processing block is a raster scan, a Z scan, an N scan, an up-right diagonal scan, a horizontal scan a horizontal scan, and a vertical scan. However, the order that can be determined should not be limited to the scan orders.
  • the image decoding apparatus 100 may obtain information on the size of the processing block and determine the size of the at least one processing block included in the image.
  • the image decoding apparatus 100 may obtain information on the size of the processing block from the bitstream to determine the size of the at least one processing block included in the image.
  • the size of such a processing block may be a predetermined size of a data unit represented by information on the size of the processing block.
  • a receiver (not shown) of the image decoding apparatus 100 may acquire information on the size of a processing block from a bitstream for each specific data unit.
  • information on the size of a processing block can be obtained from a bitstream in units of data such as an image, a sequence, a picture, a slice, a slice segment, and the like. That is, the receiving unit (not shown) may obtain the information on the size of the processing block from the bitstream for each of the plurality of data units, and the image decoding apparatus 100 divides the picture using the information on the size of the obtained processing block
  • the size of the at least one processing block may be determined, and the size of the processing block may be an integer multiple of the reference encoding unit.
  • the image decoding apparatus 100 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600.
  • the video decoding apparatus 100 can determine the size of the processing block based on information on the size of the processing block obtained from the bitstream.
  • the image decoding apparatus 100 according to an exemplary embodiment of the present invention may be configured such that the horizontal size of the processing blocks 1602 and 1612 is four times the horizontal size of the reference encoding unit, four times the vertical size of the reference encoding unit, You can decide.
  • the image decoding apparatus 100 may determine an order in which at least one reference encoding unit is determined in at least one processing block.
  • the video decoding apparatus 100 may determine each processing block 1602, 1612 included in the picture 1600 based on the size of the processing block, and may include in the processing blocks 1602, 1612 The determination order of at least one reference encoding unit is determined.
  • the determination of the reference encoding unit may include determining the size of the reference encoding unit according to an embodiment.
  • the image decoding apparatus 100 may obtain information on a determination order of at least one reference encoding unit included in at least one processing block from a bitstream, So that the order in which at least one reference encoding unit is determined can be determined.
  • the information on the decision order can be defined in the order or direction in which the reference encoding units are determined in the processing block. That is, the order in which the reference encoding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 100 may obtain information on a determination order of a reference encoding unit from a bitstream for each specific data unit.
  • a receiving unit (not shown) may acquire information on a determination order of a reference encoding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information on the determination order of the reference encoding unit indicates the reference encoding unit determination order in the processing block, the information on the determination order can be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 100 may determine at least one reference encoding unit based on the determined order according to an embodiment.
  • the receiving unit may obtain information on the reference encoding unit determination order from the bitstream as information related to the processing blocks 1602 and 1612, and the video decoding apparatus 100 may acquire information It is possible to determine the order of determining at least one reference encoding unit included in the reference frames 1602 and 1612 and determine at least one reference encoding unit included in the picture 1600 according to the determination order of the encoding units.
  • the image decoding apparatus 100 may determine a determination order 1604 and 1614 of at least one reference encoding unit associated with each of the processing blocks 1602 and 1612.
  • the reference encoding unit determination order associated with each processing block 1602, 1612 may be different for each processing block. If the reference encoding unit determination order 1604 related to the processing block 1602 is a raster scan order, the reference encoding unit included in the processing block 1602 can be determined according to the raster scan order. On the other hand, when the reference encoding unit determination order 1614 related to the other processing block 1612 is a reverse order of the raster scan order, the reference encoding unit included in the processing block 1612 can be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 100 may decode the determined at least one reference encoding unit according to an embodiment.
  • the image decoding apparatus 100 can decode an image based on the reference encoding unit determined through the above-described embodiment.
  • the method of decoding the reference encoding unit may include various methods of decoding the image.
  • the image decoding apparatus 100 may obtain block type information indicating a type of a current encoding unit or divided mode type information indicating a method of dividing a current encoding unit from a bitstream.
  • the split mode information may be included in a bitstream associated with various data units.
  • the video decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, a slice segment header slice segment type mode information included in the segment header can be used.
  • the image decoding apparatus 100 may obtain a syntax element corresponding to the maximum encoding unit, the reference encoding unit, the block type information from the bitstream or the split mode information for each processing block from the bitstream and use the obtained syntax element.
  • the image decoding apparatus 100 can determine the division rule of the image.
  • the division rule may be predetermined between the video decoding apparatus 100 and the video encoding apparatus 150.
  • the image decoding apparatus 100 can determine the division rule of the image based on the information obtained from the bit stream.
  • the video decoding apparatus 100 includes a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header
  • the partitioning rule can be determined based on the information obtained from at least one.
  • the video decoding apparatus 100 may determine the division rule differently according to a frame, a slice, a temporal layer, a maximum encoding unit, or an encoding unit.
  • the image decoding apparatus 100 can determine the division rule based on the block type of the encoding unit.
  • the block shape may include the size, shape, width and height ratio, direction of the encoding unit.
  • the image encoding apparatus 150 and the image decoding apparatus 100 may determine in advance that the division rule is determined based on the block type of the encoding unit.
  • the present invention is not limited thereto.
  • the image decoding apparatus 100 can determine the segmentation rule based on the information obtained from the bit stream received from the image encoding apparatus 150.
  • the shape of the encoding unit may include a square and a non-square. If the width and height of the encoding unit are the same, the image decoding apparatus 100 can determine the shape of the encoding unit as a square. Also, . If the lengths of the widths and heights of the coding units are not the same, the image decoding apparatus 100 can determine the shape of the coding unit to be non-square.
  • the size of the encoding unit may include various sizes of 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ..., 256x256.
  • the size of the encoding unit can be classified according to the length of the longer side of the encoding unit, the length or the width of the shorter side.
  • the video decoding apparatus 100 may apply the same division rule to the coding units classified into the same group. For example, the image decoding apparatus 100 may classify encoding units having the same long side length into the same size. In addition, the image decoding apparatus 100 can apply the same division rule to coding units having the same long side length.
  • the ratio of the width and height of the encoding unit may include 1: 2, 2: 1, 1: 4, 4: 1, 1: 8, 8: 1, 1:16 or 16: 1.
  • the direction of the encoding unit may include a horizontal direction and a vertical direction.
  • the horizontal direction may indicate the case where the length of the width of the encoding unit is longer than the length of the height.
  • the vertical direction can indicate the case where the width of the encoding unit is shorter than the length of the height.
  • the image decoding apparatus 100 may adaptively determine the segmentation rule based on the size of the encoding unit.
  • the image decoding apparatus 100 may determine the allowable division mode differently based on the size of the encoding unit. For example, the image decoding apparatus 100 can determine whether division is allowed based on the size of an encoding unit.
  • the image decoding apparatus 100 can determine the dividing direction according to the size of the coding unit.
  • the video decoding apparatus 100 can determine an allowable division type according to the size of a coding unit.
  • Determination of the division rule based on the size of the encoding unit may be a predetermined division rule between the image encoding device 150 and the image decoding device 100.
  • the video decoding apparatus 100 can determine the division rule based on the information obtained from the bit stream.
  • the image decoding apparatus 100 can adaptively determine the division rule based on the position of the encoding unit.
  • the image decoding apparatus 100 may adaptively determine the segmentation rule based on the position occupied by the encoding unit in the image.
  • the image decoding apparatus 100 can determine the division rule so that the encoding units generated by different division paths do not have the same block form.
  • the present invention is not limited thereto, and coding units generated by different division paths may have the same block form.
  • the coding units generated by different division paths may have different decoding processing orders. Since the decoding procedure has been described with reference to FIG. 12, a detailed description thereof will be omitted.
  • FIG. 17 is a diagram for explaining a method of signaling using a clipping minimum value or a maximum value used in adaptive clipping according to an embodiment using a part of a region within a sample.
  • Information indicating a sample value of one of the sample values of the partial region 1710 or the partial region 1715 in the sample range 1705 may be determined as information related to the clipping minimum value or the maximum value.
  • the image encoding device 150 outputs information indicating the minimum clipping value among the sample values of 0 to s (where s is an integer) included in the partial area 1710 to the clipping minimum value Information (Clip_min signal ).
  • the image encoding device 150 may determine the minimum clipping value as s and transmit information indicating s.
  • the image encoding apparatus 150 may output information indicating a clipping maximum value among sample values of t ⁇ 255 (t is an integer) included in a partial region 1715 It can be determined as information (Clip_max signal ) about the clipping maximum value.
  • the image encoding device 150 may determine the clipping maximum value as t and transmit information indicating t.
  • the value of the information (Clip_max signal) on clipping the maximum value may be a value different from the original clipping a maximum value (Clip_max).
  • the image encoding apparatus 150 may determine to be in accordance with the larger value of t from the sample within the sample value range of 255 ⁇ t larger the value of the information (Clip_max signal) on clipping the maximum value from zero. If that is, the clipping when the value of the maximum value information (Clip_max signal) relating to zero, clipping the maximum value (Clip_max) may be a t, the value of the information (Clip_max signal) on clipping a maximum value of 255-t, The clipping maximum value (Clip_max) may be 255. As shown in FIG.
  • the image encoding apparatus 150 may calculate the value of the Clip_max signal (Clip_max signal ) about the clipping maximum value as the sample value decreases from 255 within the sample value range of t ⁇ 255, Can be determined to be larger than zero. As shown in FIG. 17, when the value of the Clip_max signal about the clipping maximum value is 0, the clipping maximum value Clip_max may be 255 and the value of the Clip_max signal about the clipping maximum value may be 255 255-t, the clipping maximum value Clip_max may be t.
  • the video encoding apparatus 150 and the video decoding apparatus 100 described the signaling using only a part of the sample within the range of the clipping minimum value or the maximum value used for the adaptive clipping.
  • the video encoding apparatus 150 and the video decoding apparatus 100 reduce the information amount of the parameter for the adaptive clipping transmitted by signaling using only a partial region of the sample with respect to the clipping minimum value or the maximum value used for the adaptive clipping .
  • 18 is a diagram for explaining a method of signaling using a quantized value for a clipping minimum value or a maximum value used for adaptive clipping according to an embodiment.
  • the sample value of the sample range 1805 may be quantized and information indicating one sample value of the quantized sample values may be determined as information on the clipping minimum value or the maximum value.
  • the image encoding apparatus 150 quantizes the sample value based on the quantization step 1810 and outputs one of the quantized sample values as a sample value Information (Clip_min quan or Clip_max quan ) regarding the clipping minimum value or the maximum value.
  • the minimum value or the maximum value of the original image is not determined as it is but the inverse quantized value of the quantized value based on the minimum value or the maximum value of the original image may be determined as the clipping minimum value or the maximum value.
  • the image encoding apparatus 150 does not determine the clipping minimum value to be 3, but rather a value obtained by dequantizing the quantized value (0) based on the quantization step 1810 0) can be determined as the clipping minimum value.
  • the image encoding apparatus 150 determines the value of information Clip_min quan about the transmitted minimum clipping value to be 0 and the image decoding apparatus 100 obtains a value (0) obtained by dequantizing it based on the quantization step 1810 Can be determined as the clipping minimum value.
  • the image encoding device 150 does not determine the clipping maximum value to be 250, but rather a value obtained by dequantizing the quantized value 61 based on the quantization step 1810 247) can be determined as the clipping minimum value.
  • the image encoding apparatus 150 determines the value of information Clip_min quan to be transmitted to be 61 and the image decoding apparatus 100 decodes the value 247 obtained by dequantizing the information based on the quantization step 1810, Can be determined as the clipping minimum value.
  • the current image is an 8-bit image
  • the image encoding apparatus 150 encodes the information regarding the clipping minimum value or the maximum value
  • 8 bits are required to express the clipping minimum value or the maximum value
  • Information indicating one sample value of the quantized sample values is determined as information related to the clipping minimum value or the maximum value and if it is fixed length encoded, 6 bits having 2 bits reduced are required to represent the clipping minimum value or the maximum value .
  • the image encoding apparatus 150 can determine a minimum clipping value or a maximum value (Clip_min quan or Clip_max quan ) transmitted according to Equation (2).
  • min is the minimum value of the original image
  • max can be the maximum value of the original image
  • the image encoding apparatus 150 can determine the clipping minimum value or the maximum clipping amount actually used based on Clip_min quan or Clip_max quan determined in Equation (2) according to the following Equation (3). Also, the video decoding apparatus 100 may determine whether Clip_min quan obtained from the bitstream according to Equation (3) The clipping minimum value or the maximum clipping amount actually used can be determined based on Clip_max quan .
  • the image encoding apparatus 150 can determine information indicating one sample value of the quantized sample values based on the bit depth of the current image as information related to the clipping minimum value or the maximum value.
  • the bit depth of the current image is BIT_DEPTH
  • the image encoding apparatus 150 can determine a clipping minimum value or a maximum value (Clip_min quan or Clip_max quan ) to be transmitted as follows.
  • min is the minimum value of the original image
  • max can be the maximum value of the original image
  • the image encoding apparatus 150 may determine the clipping minimum value or the maximum clipping value actually used based on Clip_min quan or Clip_max quan determined in Equation (5) according to the following equation (5). Also, the video decoding apparatus 100 may be configured to determine the Clip_min quan obtained from the bitstream according to Equation (5) The clipping minimum value or the maximum clipping amount actually used can be determined based on Clip_max quan .
  • the image encoding apparatus 150 and the image decoding apparatus 100 have described the signaling using only the quantized sample value with respect to the clipping minimum value or the maximum value used for the adaptive clipping.
  • the image encoding apparatus 150 and the image decoding apparatus 100 can reduce the information amount of the parameter for the adaptive clipping transmitted by signaling using only the quantized sample value with respect to the clipping minimum value or the maximum value used for the adaptive clipping .
  • 19 is a diagram for explaining a method of signaling using a clipping minimum value or a maximum value used in adaptive clipping according to an embodiment using a partial area within a range of a sample and a quantized value in the area.
  • a partial area 1910 or a partial area 1920 of the sample range 1905 is quantized on the basis of the quantization steps 1915 and 1925 and information indicating one sample value of the quantized sample values is set to a clipping minimum value or a maximum value Can be determined by information on
  • the image coding apparatus 150 divides the information indicating the minimum clipping value among the sample values of 0 to s (where s is an integer) included in the partial area 1910, Information (Clip_min quan ). At this time, if the value larger than s is determined as the minimum value of the original image of the current image, the image encoding device 150 may determine the minimum clipping value as s and transmit information indicating s. 17, in order to transmit information on the minimum clipping value, which is a parameter used for adaptive clipping, to the image decoding apparatus 100, the image encoding apparatus 150 may generate a sample And the information indicating the sample value of one of the quantized sample values can be determined as information on the clipping minimum value.
  • the minimum value of the original image is not determined as it is, but a value obtained by inversely quantizing the quantized value based on the minimum value of the original image in the partial area 1910 may be determined as the clipping minimum value.
  • the image encoding device 150 when the minimum value of the original image is 3, the image encoding device 150 does not determine the clipping minimum value to be 3, but rather a value obtained by dequantizing the quantized value (0) based on the quantization step 1915 0) can be determined as the clipping minimum value.
  • the image coding apparatus 150 determines the value of information Clip_min quan about the transmitted minimum clipping value to be 0 and the image decoding apparatus 100 obtains the value (0) obtained by dequantizing it based on the quantization step 1915 Can be determined as the clipping minimum value.
  • the image coding apparatus 150 in order to signal the clipping maximum value Clip_max, the image coding apparatus 150 outputs information indicating the maximum clipping value among t ⁇ 255 (t is an integer) sample values included in the partial region 1920 It can be determined as information (Clip_max quan ) about the clipping maximum value. At this time, if the value smaller than t is determined as the maximum value of the original image of the current image, the image encoding device 150 may determine the clipping maximum value as t and transmit information indicating t.
  • the sample value may be quantized and information indicating a sample value of one of the quantized sample values may be determined as information on the clipping maximum value.
  • the maximum value of the original image may not be determined as it is, but a value obtained by inversely quantizing the quantized value based on the maximum value of the original image in the partial area 1920 may be determined as the clipping maximum value.
  • the image encoding apparatus 150 when the maximum value of the original image is 250, the image encoding apparatus 150 does not determine the clipping maximum value to be 250, but instead quantizes the quantized value 1 based on the quantization step 1925
  • the value 251 can be determined as the clipping maximum value.
  • the image encoding apparatus 150 determines the value of the information Clip_max quan about the transmitted clipping maximum value to be 1 and the image decoding apparatus 100 decodes the value 251 obtained by dequantizing it based on the quantization step 1925, Can be determined as a clipping maximum value.
  • Clip_min quan information about the transmitted clipping minimum value indicates 0 and information (Clip_max quan ) about the transmitted clipping maximum value indicates 0
  • Clip_min quan information about the transmitted clipping maximum value indicates 0
  • Clip_max quan information about the transmitted clipping maximum value indicates 0
  • the present invention is not limited to this, and if Clip_min is 0, which is the minimum value of the sample range according to the bit depth, information on a separate clipping minimum value may not be signaled. That is, if Clip_min is determined to be 0, the image encoding apparatus 150 may perform clipping with Clip_min set to 0, or may not perform adaptive clipping using the clipping minimum value.
  • the image encoding apparatus 150 does not transmit information on the minimum clipping value, and the video decoding apparatus 100 determines that Clip_min is 0 and performs clipping or does not perform adaptive clipping using the minimum clipping value have. If Clip_min is a minimum value of the sample range according to the bit depth, 0, it may not signal information regarding the separate clipping minimum value. In addition, if the Clip_max is determined to be 255, the image encoding apparatus 150 may perform clipping with Clip_max set to 255, or may not perform adaptive clipping using the clipping maximum value. At this time, the image encoding apparatus 150 does not transmit information on the clipping maximum value. In this case, the image decoding apparatus 100 determines Clip_max to be 0 and performs clipping, or performs adaptive clipping . ≪ / RTI >
  • the image encoding apparatus 150 assigns the value of the information about the clipping minimum value to be transmitted, 0 can be allocated, and the next value 4 can be assigned as 0. If the image encoding apparatus 150 allocates the value of the information on the clipping maximum value to be transmitted, it can allocate the previous value 251 to 0, except 255. [
  • the image coding apparatus 150 calculates the clipping minimum value or the maximum value Clip_min Or Clip_max).
  • min is the minimum value of the original image
  • max can be the maximum value of the original image.
  • the image coding apparatus 150 calculates the following Equation (7): Clip_min Or a clipping minimum value (Clip_min quan ) or a maximum value (Clip_max quan ) signaled based on Clip_max.
  • the image encoding apparatus 150 can determine the clipping minimum value or the maximum value Clip_min or Clip_max actually used according to Equation (8). Also, the video decoding apparatus 100 may obtain the Clip_min quan obtained from the bitstream according to Equation (8) The clipping minimum value or the maximum value (Clip_min or Clip_max) actually used can be determined based on Clip_max quan .
  • the sub-decoding efficiency can be improved by determining a value based on the minimum value or the maximum value as a parameter for performing adaptive clipping on the original image of the current image and performing adaptive clipping .
  • the sub-decoding efficiency can be improved.
  • signaling a parameter for performing adaptive clipping information indicating the value of one of the sample values of a sample region of the image sample range is signaled, thereby reducing the amount of information of the parameter transmitted.
  • quantization of sample values in a sample range and signaling information indicating a sample value of one of the quantized sample values can reduce the amount of information of a parameter transmitted.
  • the above-described embodiments of the present disclosure can be embodied in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium.
  • the computer readable recording medium includes a storage medium such as a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM, DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하고, 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값 및 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하고, 클리핑이 수행된 값에 기초하여 현재 영상을 포함하는 영상을 복원하는 영상 복호화 방법이 개시된다. 이때, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값일 수 있다.

Description

영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
일 실시예에 따른 방법 및 장치는 영상에 포함되는 다양한 형태의 부호화 단위를 이용하여, 영상을 부호화 또는 복호화할 수 있다. 일 실시예에 따른 방법 및 장치는 적응적 클리핑 방법 및 장치를 포함한다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다. 예를 들면, 부호화 하려는 영상을 임의적 방법으로 처리하는 과정을 통한 효율적 영상 압축 방법이 실시되고 있다.
영상을 압축하기 위하여 다양한 데이터 단위가 이용될 수 있으며 이러한 데이터 단위들 간에 포함관계가 존재할 수 있다. 이러한 영상 압축에 이용되는 데이터 단위의 크기를 결정하기 위해 다양한 방법에 의해 데이터 단위가 분할될 수 있으며 영상의 특성에 따라 최적화된 데이터 단위가 결정됨으로써 영상의 부호화 또는 복호화가 수행될 수 있다.
본 개시의 다양한 실시예에 의하면, 현재 영상의 원 영상에 최소값 또는 최대값에 기초한 값을 적응적 클리핑을 수행하기 위한 파라메터로 결정하고, 적응적 클리핑을 수행함으로써, 부복호화 효율을 향상시킬 수 있다. 특히, 소정의 데이터 단위, 프로세스 단위 또는 영상 성분 단위로 선별적으로 적응적 클리핑을 수행함으로써 부복호화 효율을 향상시킬 수 있다. 또한, 적응적 클리핑을 수행하기 위한 파라메터를 시그널링할때, 영상의 샘플 범위 중 일부 영역의 샘플값 중 하나의 샘플값을 나타내는 정보를 시그널링함으로써 전송되는 파라메터의 정보량을 줄일 수 있다. 또한, 적응적 클리핑을 수행하기 위한 파라메터를 시그널링할때, 샘플 범위의 샘플값들을 양자화하고, 양자화된 샘플값들 중 하나의 샘플값을 나타내는 정보를 시그널링함으로써 전송되는 파라메터의 정보량을 줄일 수 있다.
다양한 실시예에 따른 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
물론, 다양한 실시예의 기술적 과제들은 이상에서 언급한 특징으로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당해 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 특징으로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당해 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예에 따른 비디오 복호화 방법은 비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하는 단계;소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하는 단계; 및 상기 클리핑이 수행된 값에 기초하여 상기 현재 영상을 포함하는 영상을 복원하는 단계를 포함하고, 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값인 것을 특징으로 한다.
상기 비트스트림으로부터 획득된 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 현재 샘플의 비트뎁스에 따른 샘플 범위 중 소정의 일부 범위에 포함된 값 중 하나의 값을 나타낼 수 있다.
상기 비트스트림으로부터 획득된 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보는, 상기 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타낼 수 있다.
상기 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값은 상기 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 역양자화한 값일 수 있다.
상기 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값은 상기 원 영상의 최소값 또는 최대값에 대해 상기 현재 샘플의 비트 뎁스에 기초하여 양자화한 값을 상기 현재 샘플의 비트 뎁스에 기초하여 역양자화한 값일 수 있다.
상기 소정의 데이터 단위는 슬라이스, 픽처 또는 시퀀스(sequence) 단위일 수 있다.
상기 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값이 상기 원 영상과 관련하여 미리 결정된 값인지를 나타내는 정보이고, 상기 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값은 상기 원 영상과 관련하여 미리 결정된 값일 수 있다.
상기 적응적 클리핑(adaptive clipping)은 상기 현재 영상의 성분(component) 단위 또는 프로세스(process) 단위로 선택적으로 수행될 수 있다.
상기 현재 샘플의 복원값에 대해 필터링된 값은 상기 현재 샘플의 복원값에 대해 디블로킹 필터링(Deblocking filtering), SAO(Sample Adaptive Offset) 필터링, 어뎁티드 루프(Adaptive Loop) 필터링, 노이즈 서프레션(Noise Suppression) 필터링, 및 바이러터럴(Bilateral) 필터링 중 적어도 하나를 수행하여 획득된 값일 수 있다.
다양한 실시예에 따른 비디오 복호화 장치는 비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하고, 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값 에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하고, 상기 클리핑이 수행된 값을 이용하여 상기 현재 영상을 포함하는 영상을 복원하는 적어도 하나의 프로세서를 포함하고, 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값일 수 있다.
다양한 실시예에 따른 영상 부호화 방법은 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하는 단계; 상기 적응적 클리핑이 수행된 값에 기초하여 상기 현재 영상을 포함하는 영상을 부호화하는 단계; 및 상기 부호화된 영상에 관한 정보 및 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 포함하는 비트스트림을 생성하는 단계를 포함하고, 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값일 수 있다.
상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 현재 샘플의 비트뎁스에 따른 샘플 범위 중 소정의 일부 범위에 포함된 값 중 하나의 값을 나타낼 수 있다.
상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타낼 수 있다.
상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 원 영상의 최소값 또는 최대값에 대해 상기 현재 샘플의 비트 뎁스에 기초하여 양자화한 값을 나타낼 수 있다.
상기 현재 샘플의 복원값에 대해 필터링된 값은 상기 현재 샘플의 복원값에 대해 디블로킹 필터링(Deblocking filtering), SAO(Sample Adaptive Offset) 필터링, 어뎁티드 루프(Adaptive Loop) 필터링, 노이즈 서프레션(Noise Suppression) 필터링, 및 바이러터럴(Bilateral) 필터링 중 적어도 하나를 수행하여 획득된 값일 수 있다.
다양한 실시예에 따른 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
도 1a는 다양한 실시예에 따른 영상 복호화 장치의 블록도를 도시한다.
도 1b는 다양한 실시예에 따른 영상 복호화 방법의 흐름도를 도시한다.
도 1c는 다양한 실시예에 따른 영상 복호화부의 블록도를 도시한다.
도 1d는 다양한 실시예에 따른 영상 복호화 장치의 블록도를 도시한다.
도 2a는 다양한 실시예에 따른 영상 부호화 장치의 블록도를 도시한다.
도 2b는 다양한 실시예에 따른 영상 부호화 방법의 흐름도를 도시한다.
도 2c는 다양한 실시예에 따른 영상 복호화부의 블록도를 도시한다.
도 2d는 다양한 실시예에 따른 영상 부호화 장치의 블록도를 도시한다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 7은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 8은 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
도 9는 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 17은 일 실시예에 따른 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 샘플의 범위 내 일부 영역을 이용하여 시그널링하는 방법을 설명하기 위한 도면이다.
도 18은 일 실시예에 따른 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 양자화된 값을 이용하여 시그널링하는 방법을 설명하기 위한 도면이다.
도 19는 일 실시예에 따른 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 샘플의 범위 내 일부 영역 및 그 영역 내 양자화된 값을 이용하여 시그널링하는 방법을 설명하기 위한 도면이다.
다양한 실시예에 따른 비디오 복호화 방법은 비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하는 단계;소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하는 단계; 및 상기 클리핑이 수행된 값에 기초하여 상기 현재 영상을 포함하는 영상을 복원하는 단계를 포함하고, 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값인 것을 특징으로 한다.
다양한 실시예에 따른 비디오 복호화 장치는 비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하고, 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값 에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하고, 상기 클리핑이 수행된 값을 이용하여 상기 현재 영상을 포함하는 영상을 복원하는 적어도 하나의 프로세서를 포함하고, 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값일 수 있다.
다양한 실시예에 따른 영상 부호화 방법은 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하는 단계; 상기 적응적 클리핑이 수행된 값에 기초하여 상기 현재 영상을 포함하는 영상을 부호화하는 단계; 및 상기 부호화된 영상에 관한 정보 및 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 포함하는 비트스트림을 생성하는 단계를 포함하고, 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값일 수 있다.
다양한 실시예에 따른 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신, 및 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA), 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.
용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들, 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리에 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
이하, "영상"은 비디오의 정지영상와 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
이하 도 1 내지 도 19를 참조하여 일 실시예에 따라 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 상술된다. 도 3 내지 도 16을 참조하여 일 실시예에 따라 영상의 데이터 단위를 결정하는 방법이 설명되고, 도 1-2 및 도 17 내지 도 19를 참조하여 일 실시예에 따라 적응적으로 클리핑을 수행하는 영상 부호화 또는 복호화 방법 및 장치가 설명된다.
이하 도 1 및 도 2를 참조하여 본 개시의 일 실시예에 따라 다양한 형태의 부호화 단위에 기초하여 적응적으로 클리핑을 수행하기 위한 영상 부호화/복호화 방법 및 장치가 상술된다.
도 1a는 다양한 실시예에 따른 영상 복호화 장치의 블록도를 도시한다.
다양한 실시예에 따른 영상 복호화 장치(100)는 획득부(105), 클리핑 수행부(110) 및 영상 복호화부(115)를 포함할 수 있다.
획득부(105), 클리핑 수행부(110) 및 영상 복호화부(115)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 획득부(105), 클리핑 수행부(110) 및 영상 복호화부(115)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다. 영상 복호화부(115)는 획득부(105), 클리핑 수행부(110)와 별도의 하드웨어로 구현되거나, 획득부(105), 클리핑 수행부(110)를 포함할 수 있다.
획득부(105)는 비트스트림으로부터 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득할 수 있다. 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값일 수 있다. 예를 들어, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 샘플의 비트뎁스에 따른 샘플 범위 중 소정의 일부 범위에 포함된 값 중 하나를 나타낼 수 있다. 일 예로, 현재 샘플의 비트 뎁스가 8인 경우, 현재 샘플의 비트뎁스에 따른 샘플 범위는 0~255일 수 있다. 이때, 적응적 클리핑에 이용되는 클리핑 최소값을 결정하기 위한 정보는 샘플 범위인 0~255 중 소정의 일부 범위인 0~64 중 하나의 값을 나타내는 정보일 수 있다. 또한, 적응적 클리핑에 이용되는 클리핑 최대값을 결정하기 위한 정보는 샘플 범위인 0~255 중 소정의 일부 범위인 191~255 중 하나의 값을 나타내는 정보일 수 있다. 이와 관련하여 도 17을 참조하여 상세히 후술하도록 하겠다.
또는, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타낼 수 있다. 예를 들어, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 원 영상의 최소값 또는 최대값을 2만큼 오른쪽으로 비트쉬프팅한 값을 나타낼 수 있다. 이때, 비트쉬프팅 수는 양자화 스텝에 대응될 수 있다. 예를 들어, 양자화 스텝 값은 2^(비트쉬프팅 수)일 수 있다. 이와 관련하여 도 18을 참조하여 상세히 후술하도록 하겠다.
또는, 예를 들어, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 샘플의 비트뎁스에 기초하여 현재 영상의 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타낼 수 있다. 예를 들어, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 비트 뎁스(BIT_DEPTH)에 기초하여 현재 영상의 원 영상의 최소값 또는 최대값을 (BIT_DEPTH-8+2)만큼 비트쉬프팅한 값을 나타낼 수 있다. 즉, 현재영상이 그 비트뎁스가 8인 8비트 영상인 경우, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 원 영상의 최소값 또는 최대값을 2만큼 비트쉬프팅한 값을 나타낼 수 있고, 현재영상이 그 비트뎁스가 10인 10비트 영상인 경우, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 원 영상의 최소값 또는 최대값을 4만큼 비트쉬프팅한 값을 나타낼 수 있다.
또는, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 샘플의 비트뎁스에 따른 샘플 범위 중 소정의 일부 범위에 포함된 값 중 현재 영상의 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타낼 수 있다. 이와 관련하여 도 19를 참조하여 상세히 후술하도록 하겠다.
한편, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 고정 길이 부호화(Fixed length coding)된 정보일 수 있다.
또는, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 원 영상이 따르는 표준(Standard)에 관한 정보일 수 있다. 예를 들어, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 현재 영상의 원 영상이 따르는 표준이 BT.707 또는 BT.2020인지 여부를 나타내는 정보일 수 있다. 즉, 클리핑 수행부(110)는 현재 영상이 따르는 표준에서 허용하는 샘플값의 범위에 기초하여 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하고, 적응적 클리핑을 수행할 수 있다. 따라서, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상과 관련하여 미리 결정된 값일 수 있다. 예를 들어, 현재 영상의 시퀀스(Sequence)가 BT.707 표준을 따르는 경우, 현재 영상이 8비트 영상이라면, 클리핑 수행부(110)는 R,G,B,Y 영상 성분에 대해서는 적응적 클리핑에 이용되는 클리핑 최소값을 16으로, 클리핑 최대값을 235로 결정할 수 있다. 클리핑 수행부(110)는 Cb, Cr 영상 성분에 대해서는 적응적 클리핑에 이용되는 클리핑 최소값을 16으로, 클리핑 최대값을 240으로 결정할 수 있다.
또는, 현재 영상의 시퀀스(Sequence)가 BT.707 표준을 따르는 경우, 현재 영상이 10비트 영상이라면, 클리핑 수행부(110)는 R,G,B,Y 영상 성분에 대해서는 적응적 클리핑에 이용되는 클리핑 최소값을 64로, 클리핑 최대값을 940으로 결정할 수 있다. 클리핑 수행부(110)는 Cb, Cr 영상 성분에 대해서는 적응적 클리핑에 이용되는 클리핑 최소값을 64로, 클리핑 최대값을 960으로 결정할 수 있다.
획득부(105)는 소정의 데이터 단위마다 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득할 수 있다. 이때, 소정의 데이터 단위는 시퀀스, 픽처 또는 슬라이스 단위일 수 있다.
예를 들어, 획득부(105)는 시퀀스 단위마다 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득할 수 있다. 즉, 획득부(105)는 시퀀스 단위마다 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하고, 클리핑 수행부(110)는 시퀀스 단위로 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정할 수 있다. 이때, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 시퀀스 단위에서 이용되는 하나의 클리핑 최소값 또는 하나의 클리핑 최대값에 관한 정보일 수 있다.
또는, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 시퀀스 단위에서 이용될 수 있는 복수의 클리핑 최소값 또는 복수의 클리핑 최대값에 관한 정보일 수 있다. 클리핑 수행부(110)는 픽처 또는 슬라이스 단위로 복수의 클리핑 최소값 또는 복수의 클리핑 최대값 중 하나의 클리핑 최소값 또는 하나의 클리핑 최대값을 결정하고, 결정된 클리핑 최소값 또는 클리핑 최대값에 기초하여 적응적 클리핑을 수행할 수 있다. 이때, 획득부(105)는 픽처 또는 슬라이스 단위마다 비트스트림으로부터 복수의 클리핑 최소값 또는 복수의 클리핑 최대값 중 하나의 클리핑 최소값 또는 하나의 클리핑 최대값을 나타내는 인덱스 정보를 획득할 수 있다.
또는, 예를 들어, 획득부(105)는 픽처 단위 또는 슬라이스 단위마다 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득할 수 있다. 즉, 획득부(105)는 픽처 단위 또는 슬라이스 단위마다 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하고, 클리핑 수행부(110)는 픽처 단위 또는 슬라이스 단위로 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정할 수 있다.
또한, 획득부(105)는 시퀀스 단위마다 적응적 클리핑을 수행하는지 여부를 나타내는 정보를 획득하고, 클리핑 수행부(110)는 획득된 정보에 기초하여 적응적 클리핑을 수행할 수 있다.
또한, 획득부(105)는 픽처 단위 또는 슬라이스 단위마다 적응적 클리핑을 수행하는지 여부를 나타내는 정보를 획득하고, 클리핑 수행부(110)는 획득된 정보에 기초하여 픽처 단위 또는 슬라이스 단위로 적응적 클리핑을 수행할 수 있다. 이때, 획득부(105)는 시퀀스 단위마다 적응적 클리핑을 수행하는 경우, 픽처 단위 또는 슬라이스 단위마다 적응적 클리핑을 수행하는지 여부를 나타내는 정보를 획득할 수 있다.
클리핑 수행부(110)는 비트스트림으로부터 획득된 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보에 기초하여 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정할 수 있다. 클리핑 수행부(110)는 클리핑에 이용되는 최소값 또는 최대값에 기초하여 적응적 클리핑을 수행할 수 있다.
클리핑 수행부(110)는 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값, 현재 샘플의 복원값에 대해 필터링된 값 중 적어도 하나에 대해 적응적 클리핑을 수행할 수 있다.
클리핑 수행부(110)는 다음과 같은 수학식 1에 따라, 적응적 클리핑을 수행할 수 있다.
Figure PCTKR2019000223-appb-img-000001
이때, p(i,j)는 영상 내 (i,j) 좌표의 샘플에 대한 값으로, 적응적 클리핑이 수행되는 대상값을 의미할 수 있다. 영상 내 (i,j) 좌표의 샘플에 대한 값은 예측 프로세스에 의해 획득된 (i,j) 좌표의 샘플의 예측값, (i,j) 좌표의 샘플의 예측값에 기초하여 획득된 (i,j) 좌표의 샘플의 복원값, (i,j) 좌표의 샘플의 복원값에 대해 필터링된 값 중 하나일 수 있다. Clip3(x,y,z)함수는 z<x인 경우, x를 출력하고, z>y인 경우, y를 출력하고, 그밖의 경우 z를 출력하는 함수일 수 있다. p'(i,j)는 적응적 클리핑이 수행된 영상 내 (i,j) 좌표의 샘플에 대한 값일 수 있다.
clip_min은 적응적 클리핑에 이용되는 파라메터 중 하나로, 적응적 클리핑에 이용되는 클리핑 최소값이다. 이때, clip_min은 소정의 값이 아니라, 현재 영상의 원 영상의 최소값에 기초한 값일 수 있다. 예를 들어, 현재 영상의 원 영상의 최소값 그 자체일 수 있다. 또는, clip_min은 현재 영상의 원 영상의 최소값에 대해 양자화를 수행한 값에 역양자화를 수행한 값일 수 있다.
clip_max는 적응적 클리핑에 이용되는 파라메터 중 하나로, 적응적 클리핑에 이용되는 최대값이다. 이때, clip_max는 소정의 값이 아니라, 현재 영상의 원 영상의 최대값에 기초한 값일 수 있다. 예를 들어, clip_max는 현재 영상의 원 영상의 최대값 그 자체일 수 있다. 또는, clip_max는 현재 영상의 원 영상의 최대값에 대해 양자화를 수행한 값에 역양자화를 수행한 값일 수 있다.
clip_min 또는 clip_max는 소정의 데이터 단위마다 결정될 수 있다. 예를 들어, clip_min 또는 clip_max는 시퀀스 단위, 픽처 단위 또는 슬라이스 단위마다 결정될 수 있다. 즉, 획득부(105)는 비트스트림의 시퀀스 헤더, 픽처 헤더 또는 슬라이스 헤더로부터 clip_min 또는 clip_max에 관한 정보를 획득하고, 클리핑 수행부(110)는 획득된 clip_min 또는 clip_max에 관한 정보를 기초로 clip_min 또는 clip_max를 결정할 수 있다.
클리핑 수행부(110)는 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값에 대해 적응적 클리핑을 수행할 수 있다. 예를 들어, 클리핑 수행부(110)는 인트라 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 인트라 예측값에 대해 적응적 클리핑을 수행할 수 있다. 또는, 클리핑 수행부(110)는 인터 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 인터 예측값에 대해 적응적 클리핑을 수행할 수 있다. 이때, 클리핑 수행부(110)는 인트라 예측 프로세스 및 인터 예측 프로세스 모두에서 적응적 클리핑을 수행하거나, 둘 중 하나의 예측 프로세스에서만 선별적으로 적응적 클리핑을 수행할 수 있다. 이때, 클리핑 수행부(110)는 소정의 데이터 단위마다 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할지 여부를 결정할 수 있다.
또는, 클리핑 수행부(110)는 현재 샘플의 예측값에 대하여 필터링을 수행하고, 필터링된 값에 대해 적응적 클리핑을 수행할 수 있다.
클리핑 수행부(110)는 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다. 예를 들어, 클리핑 수행부(110)는 예측 프로세스 및 역양자화/역변환 프로세스에 의해 획득된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다. 클리핑 수행부(110)는 인트라 예측 프로세스에서 획득된 현재 샘플의 인트라 예측값 및 역양자화/역변환 프로세스에 의해 획득된 현재 샘플의 레지듀얼값에 기초하여 획득된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다. 클리핑 수행부(110)는 인터 예측 프로세스에서 획득된 현재 샘플의 인터 예측값 및 역양자화/역변환 프로세스에 의해 획득된 현재 샘플의 레지듀얼값에 기초하여 획득된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다.
클리핑 수행부(110)는 현재 샘플의 레지듀얼 값 없이 인트라 예측 프로세스에서 획득된 현재 샘플의 인트라 예측값에 기초하여 획득된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다. 클리핑 수행부(110)는 현재 샘플의 레지듀얼 값 없이 인터 예측 프로세스에서 획득된 현재 샘플의 인터 예측값에 기초하여 획득된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다.
클리핑 수행부(110)는 현재 샘플의 복원값을 획득하기 위해 수행되는 모든 프로세스에서 적응적 클리핑을 수행할 수 있으나, 이에 제한되지 않고, 그 중 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할 수 있다.
이때, 클리핑 수행부(110)는 소정의 데이터 단위로부터 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할지 여부에 관한 정보를 획득하고, 이에 기초하여 소정의 데이터 단위마다 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할지 여부를 결정할 수 있다.
클리핑 수행부(110)는 현재 샘플의 복원값에 대해 필터링을 수행하고, 필터링된 값에 대해 적응적 클리핑을 수행할 수 있다. 예를 들어, 클리핑 수행부(110)는 현재 샘플의 복원값에 대해 디블로킹 필터링(Deblocking Filtering), SAO 필터링(Sample Adpative Offset Filtering), 어뎁티드 루프(Adaptive Loop Filtering), 노이즈 서프레션 필터링(Noise Suppresion Filtering) 및 바이러터럴 필터링(Bilateral Filtering) 중 적어도 하나를 수행하여 필터링된 값을 획득할 수 있다. 클리핑 수행부(110)는 필터링된 값에 대해 적응적 클리핑을 수행할 수 있다. 이때, 클리핑 수행부(110)는 필터링된 값을 획득하기 위해 수행되는 프로세스들 중 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할 수 있다.
이때, 클리핑 수행부(110)는 소정의 데이터 단위로부터 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할지 여부에 관한 정보를 획득하고, 이에 기초하여 소정의 데이터 단위마다 적어도 하나의 프로세스에서만 선별적으로 적응적 클리핑을 수행할지 여부를 결정할 수 있다.
또한, 클리핑 수행부(110)는 영상 성분 단위로 선별적으로 적응적 클리핑을 수행할 수 있다. 예를 들어, 현재 영상의 포맷이 YUV 포맷인 경우, Y,U,V 영상 성분에 대해 적응적 클리핑을 수행할 수 있다. 또는, 클리핑 수행부(110)는 Y 영상 성분에 대해 적응적 클리핑을 수행하고, U, V 성분에 대해 적응적 클리핑을 수행하지 않을 수 있다. 이때, 클리핑 수행부(110)는 복수의 영상 성분 중 적어도 하나의 영상 성분에 대해서만 선별적으로 적응적 클리핑을 수행할지 여부에 관한 정보를 획득하고, 이에 기초하여 복수의 영상 성분 중 적어도 하나의 영상 성분에 대해서만 선별적으로 적응적 클리핑을 수행할지 여부를 결정할 수 있다.
또는, 예를 들어, 현재 영상의 포맷이 RGB 포맷인 경우, 클리핑 수행부(110)는 모든 R,G,B 영상 성분에 대해 각각 적응적 클리핑을 수행할 수 있다.
영상 복호화부(115)는 클리핑 수행부(110)에서 출력된 값에 기초하여 현재 영상을 포함하는 영상을 복원할 수 있다. 클리핑이 수행된 값이 현재 샘플의 예측값인 경우, 영상 복호화부(115)는 클리핑 수행된 현재 샘플의 예측값을 이용하여 현재 영상을 복원할 수 있다. 클리핑 수행된 값이 현재 샘플의 복원값인 경우, 영상 복호화부(115)는 클리핑 수행된 현재 샘플의 복원값을 이용하여 현재 영상을 복원할 수 있다. 클리핑 수행된 값이 현재 샘플의 복원값에 대해 필터링된 값인 경우, 영상 복호화부(115)는 필터링된 값을 이용하여 현재 영상 또는 현재 영상 다음에 복호화되는 영상을 복원할 수 있다.
도 1b는 다양한 실시예에 따른 영상 복호화 방법의 흐름도를 도시한다.
S105 단계에서, 영상 복호화 장치(100)는 비트스트림으로부터 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 수신할 수 있다.
S110 단계에서, 영상 복호화 장치(100)는 소정의 데이터 단위에서 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값 및 현재 샘플의 복원값에 대해 필터링된 값 중 적어도 하나에 대해 적응적 클리핑을 수행할 수 있다.
S115 단계에서, 영상 복호화 장치(100)는 클리핑이 수행된 값에 기초하여 현재 영상을 포함하는 영상을 복원할 수 있다.
도 1c 는 다양한 실시예에 따른 영상 복호화부(6000)의 블록도를 도시한다.
다양한 실시예에 따른 영상 복호화부(6000)는, 영상 복호화 장치(100)의 영상 복호화부(115)에서 영상 데이터를 부호화하는데 거치는 작업들을 수행한다.
도 1c를 참조하면, 엔트로피 복호화부(6150)는 비트스트림(6050)으로부터 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화 정보를 파싱한다. 부호화된 영상 데이터는 양자화된 변환계수로서, 역양자화부(6200) 및 역변환부(6250)는 양자화된 변환 계수로부터 레지듀 데이터를 복원한다.
인트라 예측부(6400)는 블록 별로 인트라 예측을 수행한다. 도 1c의 클리핑 수행부(110)는 인트라 예측부(6400)에서 인트라 예측 프로세스를 수행하여 생성된 현재 샘플의 인트라 예측값에 대해 적응적 클리핑을 수행할 수 있다.
인터 예측부(6350)는 블록 별로 복원 픽처 버퍼(6300)에서 획득된 참조 영상을 이용하여 인터 예측을 수행한다.
도 1c의 클리핑 수행부(110)는 인터 예측부(6350)에서 인터 예측 프로세스를 수행하여 생성된 현재 샘플의 인터 예측값에 대해 적응적 클리핑을 수행할 수 있다.
인트라 예측부(6400) 또는 인터 예측부(6350)에서 생성된 각 블록에 대한 예측 데이터와 레지듀 데이터가 더해짐으로써 현재 영상의 블록에 대한 공간 영역의 데이터가 복원될 수 있다.
도 1c의 클리핑 수행부(110)는 복원된 공간 영역의 데이터에 포함된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다.
또한, 영상 복호화부(6000)는 현재 영상의 블록에 대한 공간 영역의 데이터에 포함된 현재 샘플에 대해 바이러터럴 필터링을 수행할 수 있다. 도 1c의 클리핑 수행부(110)는 바이러터럴 필터링이 수행된 값에 대해 적응적 클리핑을 수행할 수 있다.
디블로킹부(6450) 및 SAO 수행부(6500)는 복원된 공간 영역의 데이터에 대해 디블로킹 필터링 및 SAO 필터링을 포함하는 루프 필터링을 수행하여 필터링된 복원 영상(6600)을 출력할 수 있다. 또한, 영상 복호화부(6000)는 복원된 공간 영역의 데이터에 대해 어댑티드 루프 필터링 또는 노이즈 서페션 필터링을 수행하여 복원 영상(6600)을 출력할 수 있다. 또한, 복원 픽쳐 버퍼(6300)에 저장된 복원 영상들은 참조 영상으로서 출력될 수 있다.
도 1c의 클리핑 수행부(110)는 디블로킹 필터링, SAO 필터링, 어댑티드 루프 필터링 및 노이즈 서페션 필터링 중 적어도 하나의 필터링이 수행된 값에 대해 적응적 클리핑을 수행할 수 있다.
영상 복호화 장치(100)의 복호화부(미도시)에서 영상 데이터를 복호화하기 위해, 다양한 실시예에 따른 영상 복호화부(6000)의 단계별 작업들이 블록별로 수행될 수 있다.
도 1d는 일 실시예에 따른 영상 복호화 장치(100)의 블록도를 도시한다.
일 실시예에 따른 영상 복호화 장치(100)는 메모리(120) 및 메모리(120)에 접속된 적어도 하나의 프로세서(125)를 포함할 수 있다. 일 실시예에 따른 영상 복호화 장치(100)의 동작들은 개별적인 프로세서로서 작동하거나, 중앙 프로세서의 제어에 의해 작동될 수 있다. 또한, 영상 복호화 장치(100)의 메모리(120)는, 외부로부터 수신한 데이터와, 프로세서에 의해 생성된 데이터를 저장할 수 있다. 영상 복호화 장치(100)의 프로세서(125)는 비트스트림으로부터 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 수신하고, 소정의 데이터 단위에서 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값 및 현재 샘플의 복원값에 대해 필터링된 값 중 적어도 하나에 대해 적응적 클리핑을 수행하고, 클리핑이 수행된 값에 기초하여 현재 영상을 포함하는 영상을 복원할 수 있다.
도 2a는 다양한 실시예에 따른 영상 부호화 장치의 블록도를 도시한다.
다양한 실시예에 따른 영상 부호화 장치(150)는 클리핑 수행부(155) 및 영상 부호화부(160)를 포함할 수 있다.
클리핑 수행부(155) 및 영상 부호화부(160)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 클리핑 수행부(155) 및 영상 부호화부(160)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다. 영상 부호화부(160)는 클리핑 수행부(155)와 별도의 하드웨어로 구현되거나, 영상 부호화부(160)는 클리핑 수행부(155)를 포함할 수 있다.
클리핑 수행부(155)는 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값 및 현재 샘플의 복원값에 대해 필터링된 값 중 적어도 하나에 대해 적응적 클리핑을 수행할 수 있다. 클리핑 수행부(155)가 수행하는 작업의 내용은 영상 복호화 장치(100)의 클리핑 수행부(110)에서 수행되는 작업의 내용에 대응되므로 자세한 설명은 생략한다. 다만, 영상 복호화 장치(100)의 클리핑 수행부(110)는 획득부(105)에서 획득된 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보에 기초하여 적응적 클리핑이 수행되는 반면, 영상 부호화 장치(150)의 클리핑 수행부(155)는 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값을 이용하여 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하고, 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 기초하여 적응적 클리핑을 수행한다는 점에서 그 차이가 있음을 당업자는 용이하게 이해할 수 있다.
영상 부호화부(160)는 클리핑 수행부(110)에서 적응적 클리핑이 수행되어 생성된 값에 기초하여 현재 영상을 포함하는 영상을 부호화할 수 있다. 영상 부호화부(160)는 부호화된 영상에 관한 정보 및 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 포함하는 비트스트림을 생성할 수 있다.
도 1a를 참조하여, 영상 복호화 장치(100)와 관련하여 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보에 관한 설명을 한 바 있으므로, 비트스트림에 포함되는 정보인 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보에 관한 자세한 설명은 생략한다.
도 2b는 다양한 실시예에 따른 영상 부호화 방법의 흐름도를 도시한다.
S150 단계에서, 영상 부호화 장치(150)는 소정의 데이터 단위에서 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값, 현재 샘플의 복원값에 대해 필터링된 값 중 적어도 하나에 대해 적응적 클리핑을 수행할 수 있다.
S155 단계에서, 영상 부호화 장치(150)는 적응적 클리핑이 수행된 값에 기초하여 현재 영상을 포함하는 영상을 부호화할 수 있다.
S160 단계에서, 영상 부호화 장치(150)는 부호화된 영상에 관한 정보 및 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 포함하는 비트스트림을 생성할 수 있다.
도 2c는 다양한 실시예에 따른 영상 부호화부의 블록도를 도시한다.
다양한 실시예에 따른 영상 부호화부(7000)는, 영상 부호화 장치(150)의 영상 부호화부(160)에서 영상 데이터를 부호화하는데 거치는 작업들을 수행한다.
즉, 인트라 예측부(7200)는 현재 영상(7050) 중 블록별로 인트라 예측을 수행하고, 인터 예측부(7150)는 블록별로 현재 영상(7050) 및 복원 픽처 버퍼(7100)에서 획득된 참조 영상을 이용하여 인터 예측을 수행한다.
도 2c의 클리핑 수행부(155)는 인트라 예측부(7200)에서 인트라 예측 프로세스를 수행하여 생성된 현재 샘플의 인트라 예측값에 대해 적응적 클리핑을 수행할 수 있다. 또한, 도 2c의 클리핑 수행부(155)는 인터 예측부(7150)에서 인트라 예측 프로세스를 수행하여 생성된 현재 샘플의 인터 예측값에 대해 적응적 클리핑을 수행할 수 있다.
인트라 예측부(7200) 또는 인터 예측부(7150)로부터 출력된 각 블록에 대한 예측 데이터를 현재 영상(7050)의 인코딩되는 블록에 대한 데이터로부터 빼줌으로써 레지듀 데이터를 생성하고, 변환부(7250) 및 양자화부(7300)는 레지듀 데이터에 대해 변환 및 양자화를 수행하여 블록별로 양자화된 변환 계수를 출력할 수 있다.
역양자화부(7450), 역변환부(7500)는 양자화된 변환 계수에 대해 역양자화 및 역변환을 수행하여 공간 영역의 레지듀 데이터를 복원할 수 있다. 복원된 공간 영역의 레지듀 데이터는 인트라 예측부(7200) 또는 인터 예측부(7150)로부터 출력된 각 블록에 대한 예측 데이터와 더해짐으로써 현재 영상(7050)의 블록에 대한 공간 영역의 데이터로 복원된다.
도 2c의 클리핑 수행부(155)는 복원된 공간 영역의 데이터에 포함된 현재 샘플의 복원값에 대해 적응적 클리핑을 수행할 수 있다.
또한, 영상 부호화부(7000)는 현재 영상의 블록에 대한 공간 영역의 데이터에 포함된 현재 샘플에 대해 바이러터럴 필터링을 수행할 수 있다. 도 1c의 클리핑 수행부(110)는 바이러터럴 필터링이 수행된 값에 대해 적응적 클리핑을 수행할 수 있다.
디블로킹부(7550) 및 SAO 수행부(7600)는 복원된 공간 영역의 데이터에 대해 인루프 필터링을 수행하여, 필터링된 복원 영상을 생성한다.
또한, 영상 부호화부(7000)는 복원된 공간 영역의 데이터에 대해 어댑티드 루프 필터링 또는 노이즈 서페션 필터링을 수행하여 복원 영상을 생성할 수 있다. 생성된 복원 영상은 복원 픽쳐 버퍼(7100)에 저장된다. 또한, 복원 픽쳐 버퍼(7100)에 저장된 복원 영상들은 참조 영상으로서 이용될 수 있다.
도 2c의 클리핑 수행부(155)는 디블로킹 필터링, SAO 필터링, 어댑티드 루프 필터링 및 노이즈 서페션 필터링 중 적어도 하나의 필터링이 수행된 값에 대해 적응적 클리핑을 수행할 수 있다.
엔트로피 부호화부(7350)는 양자화된 변환 계수에 대해 엔트로피 부호화하고, 엔트로피 부호화된 계수가 비트스트림(7400)으로 출력될 수 있다.
다양한 실시예에 따른 영상 부호화부(7000)가 영상 부호화 장치(150)에 적용되기 위해서, 다양한 실시예에 따른 영상 부호화부(7000)의 단계별 작업들이 블록별로 수행될 수 있다.
도 2d는 일 실시예에 따른 영상 부호화 장치(150)의 블록도를 도시한다.
일 실시예에 따른 영상 부호화 장치(150)는 메모리(165) 및 메모리(165)에 접속된 적어도 하나의 프로세서(170)를 포함할 수 있다. 일 실시예에 따른 영상 부호화 장치(150)의 동작들은 개별적인 프로세서로서 작동하거나, 중앙 프로세서의 제어에 의해 작동될 수 있다. 또한, 영상 부호화 장치(150)의 메모리(165)는, 외부로부터 수신한 데이터와, 프로세서에 의해 생성된 데이터를 저장할 수 있다.
영상 부호화 장치(150)의 프로세서(170)는 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 현재 샘플의 복원값 및 현재 샘플의 복원값에 대해 필터링된 값 중 적어도 하나에 대해 적응적 클리핑을 수행하고, 적응적 클리핑이 수행된 값에 기초하여 현재 영상을 포함하는 영상을 부호화하고, 부호화된 영상에 관한 정보 및 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 포함하는 비트스트림을 생성할 수 있다.
이하에서는 본 개시의 일 실시예에 따라 부호화 단위의 분할에 대하여 자세히 설명한다.
먼저 하나의 픽처 (Picture)는 하나 이상의 슬라이스로 분할될 수 있다. 하나의 슬라이스는 하나 이상의 최대 부호화 단위(Coding Tree Unit; CTU)의 시퀀스일 수 있다. 최대 부호화 단위 (CTU)와 대비되는 개념으로 최대 부호화 블록 (Coding Tree Block; CTB)이 있다.
최대 부호화 블록(CTB)은 NxN개의 샘플들을 포함하는 NxN 블록을 의미한다(N은 정수). 각 컬러 성분은 하나 이상의 최대 부호화 블록으로 분할될 수 있다.
픽처가 3개의 샘플 어레이(Y, Cr, Cb 성분별 샘플 어레이)를 가지는 경우에 최대 부호화 단위(CTU)란, 루마 샘플의 최대 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 최대 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 모노크롬 픽처인 경우에 최대 부호화 단위란, 모노크롬 샘플의 최대 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽처인 경우에 최대 부호화 단위란, 해당 픽처와 픽처의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
하나의 최대 부호화 블록(CTB)은 MxN개의 샘플들을 포함하는 MxN 부호화 블록(coding block)으로 분할될 수 있다 (M, N은 정수).
픽처가 Y, Cr, Cb 성분별 샘플 어레이를 가지는 경우에 부호화 단위(Coding Unit; CU)란, 루마 샘플의 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 모노크롬 픽처인 경우에 부호화 단위란, 모노크롬 샘플의 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽처인 경우에 부호화 단위란, 해당 픽처와 픽처의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
위에서 설명한 바와 같이, 최대 부호화 블록과 최대 부호화 단위는 서로 구별되는 개념이며, 부호화 블록과 부호화 단위는 서로 구별되는 개념이다. 즉, (최대) 부호화 단위는 해당 샘플을 포함하는 (최대) 부호화 블록과 그에 대응하는 신택스 구조를 포함하는 데이터 구조를 의미한다. 하지만 당업자가 (최대) 부호화 단위 또는 (최대) 부호화 블록가 소정 개수의 샘플들을 포함하는 소정 크기의 블록을 지칭한다는 것을 이해할 수 있으므로, 이하 명세서에서는 최대 부호화 블록과 최대 부호화 단위, 또는 부호화 블록과 부호화 단위를 특별한 사정이 없는 한 구별하지 않고 언급한다.
영상은 최대 부호화 단위(Coding Tree Unit; CTU)로 분할될 수 있다. 최대 부호화 단위의 크기는 비트스트림으로부터 획득된 정보에 기초하여 결정될 수 있다. 최대 부호화 단위의 모양은 동일 크기의 정사각형을 가질 수 있다. 하지만 이에 한정되는 것은 아니다.
예를 들어, 비트스트림으로부터 루마 부호화 블록의 최대 크기에 대한 정보가 획득될 수 있다. 예를 들어, 루마 부호화 블록의 최대 크기에 대한 정보가 나타내는 루마 부호화 블록의 최대 크기는 16x16, 32x32, 64x64, 128x128, 256x256 중 하나일 수 있다.
예를 들어, 비트스트림으로부터 2분할이 가능한 루마 부호화 블록의 최대 크기와 루마 블록 크기 차이에 대한 정보가 획득될 수 있다. 루마 블록 크기 차이에 대한 정보는 루마 최대 부호화 단위와 2분할이 가능한 최대 루마 부호화 블록 간의 크기 차이를 나타낼 수 있다. 따라서, 비트스트림으로부터 획득된 2분할이 가능한 루마 부호화 블록의 최대 크기에 대한 정보와 루마 블록 크기 차이에 대한 정보를 결합하면, 루마 최대 부호화 단위의 크기가 결정될 수 있다. 루마 최대 부호화 단위의 크기를 이용하면 크로마 최대 부호화 단위의 크기도 결정될 수 있다. 예를 들어, 컬러 포맷에 따라 Y: Cb : Cr 비율이 4:2:0 이라면, 크로마 블록의 크기는 루마 블록의 크기의 절반일 수 있고, 마찬가지로 크로마 최대 부호화 단위의 크기는 루마 최대 부호화 단위의 크기의 절반일 수 있다.
일 실시예에 따르면, 바이너리 분할(binary split)이 가능한 루마 부호화 블록의 최대 크기에 대한 정보는 비트스트림으로부터 획득하므로, 바이너리 분할이 가능한 루마 부호화 블록의 최대 크기는 가변적으로 결정될 수 있다. 이와 달리, 터너리 분할(ternary split)이 가능한 루마 부호화 블록의 최대 크기는 고정될 수 있다. 예를 들어, I 슬라이스에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 32x32이고, P 슬라이스 또는 B 슬라이스에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 64x64일 수 있다.
또한 최대 부호화 단위는 비트스트림으로부터 획득된 분할 형태 모드 정보에 기초하여 부호화 단위로 계층적으로 분할될 수 있다. 분할 형태 모드 정보로서, 쿼드분할(quad split) 여부를 나타내는 정보, 다분할 여부를 나타내는 정보, 분할 방향 정보 및 분할 타입 정보 중 적어도 하나가 비트스트림으로부터 획득될 수 있다.
예를 들어, 쿼드분할(quad split) 여부를 나타내는 정보는 현재 부호화 단위가 쿼드분할(QUAD_SPLIT)될지 또는 쿼드분할되지 않을지를 나타낼 수 있다.
현재 부호화 단위가 쿼드분할지되 않으면, 다분할 여부를 나타내는 정보는 현재 부호화 단위가 더 이상 분할되지 않을지(NO_SPLIT) 아니면 바이너리/터너리 분할될지 여부를 나타낼 수 있다.
현재 부호화 단위가 바이너리 분할되거나 터너리 분할되면, 분할 방향 정보는 현재 부호화 단위가 수평 방향 또는 수직 방향 중 하나로 분할됨을 나타낸다.
현재 부호화 단위가 수평 또는 수직 방향으로 분할되면 분할 타입 정보는 현재 부호화 단위를 바이너리 분할) 또는 터너리 분할로 분할함을 나타낸다.
분할 방향 정보 및 분할 타입 정보에 따라, 현재 부호화 단위의 분할 모드가 결정될 수 있다. 현재 부호화 단위가 수평 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수평 분할(SPLIT_BT_HOR), 수평 방향으로 터너리 분할되는 경우의 터너리 수평 분할(SPLIT_TT_HOR), 수직 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수직 분할 (SPLIT_BT_VER) 및 수직 방향으로 터너리 분할되는 경우의 분할 모드는 터너리 수직 분할 (SPLIT_BT_VER)로 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 하나의 빈스트링으로부터 획득할 수 있다. 영상 복호화 장치(100)가 수신한 비트스트림의 형태는 Fixed length binary code, Unary code, Truncated unary code, 미리 결정된 바이너리 코드 등을 포함할 수 있다. 빈스트링은 정보를 2진수의 나열로 나타낸 것이다. 빈스트링은 적어도 하나의 비트로 구성될 수 있다. 영상 복호화 장치(100)는 분할 규칙에 기초하여 빈스트링에 대응하는 분할 형태 모드 정보를 획득할 수 있다. 영상 복호화 장치(100)는 하나의 빈스트링에 기초하여, 부호화 단위를 쿼드분할할지 여부, 분할하지 않을지 또는 분할 방향 및 분할 타입을 결정할 수 있다.
부호화 단위는 최대 부호화 단위보다 작거나 같을 수 있다. 예를 들어 최대 부호화 단위도 최대 크기를 가지는 부호화 단위이므로 부호화 단위의 하나이다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할되지 않음을 나타내는 경우, 최대 부호화 단위에서 결정되는 부호화 단위는 최대 부호화 단위와 같은 크기를 가진다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할됨을 나타내는 경우 최대 부호화 단위는 부호화 단위들로 분할 될 수 있다. 또한 부호화 단위에 대한 분할 형태 모드 정보가 분할을 나타내는 경우 부호화 단위들은 더 작은 크기의 부호화 단위들로 분할 될 수 있다. 다만, 영상의 분할은 이에 한정되는 것은 아니며 최대 부호화 단위 및 부호화 단위는 구별되지 않을 수 있다. 부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다.
또한 부호화 단위로부터 예측을 위한 하나 이상의 예측 블록이 결정될 수 있다. 예측 블록은 부호화 단위와 같거나 작을 수 있다. 또한 부호화 단위로부터 변환을 위한 하나 이상의 변환 블록이 결정될 수 있다. 변환 블록은 부호화 단위와 같거나 작을 수 있다.
변환 블록과 예측 블록의 모양 및 크기는 서로 관련 없을 수 있다.
다른 실시예로, 부호화 단위가 예측 블록으로서 부호화 단위를 이용하여 예측이 수행될 수 있다. 또한 부호화 단위가 변환 블록으로서 부호화 단위를 이용하여 변환이 수행될 수 있다.
부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다. 본 개시의 현재 블록 및 주변 블록은 최대 부호화 단위, 부호화 단위, 예측 블록 및 변환 블록 중 하나를 나타낼 수 있다. 또한, 현재 블록 또는 현재 부호화 단위는 현재 복호화 또는 부호화가 진행되는 블록 또는 현재 분할이 진행되고 있는 블록이다. 주변 블록은 현재 블록 이전에 복원된 블록일 수 있다. 주변 블록은 현재 블록으로부터 공간적 또는 시간적으로 인접할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측, 우하측 중 하나에 위치할 수 있다.
도 3은 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
블록 형태는 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(즉, 부호화 단위의 블록 형태가 4Nx4N 인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 너비 및 높이의 길이가 다른 경우(즉, 부호화 단위의 블록 형태가 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 1:32, 32:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이 또는 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 모드 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 모드 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 획득할 수 있다. 하지만 이에 한정되는 것은 아니며, 영상 복호화 장치(100) 및 영상 부호화 장치(150)는 블록 형태 정보에 기초하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 영상 복호화 장치(100)는 최대 부호화 단위 또는 최소 부호화 단위에 대하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 예를 들어 영상 복호화 장치(100)는 최대 부호화 단위에 대하여 분할 형태 모드 정보를 쿼드 분할(quad split)로 결정할 수 있다. 또한, 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 분할 형태 모드 정보를 "분할하지 않음"으로 결정할 수 있다. 구체적으로 영상 복호화 장치(100)는 최대 부호화 단위의 크기를 256x256으로 결정할 수 있다. 영상 복호화 장치(100)는 미리 약속된 분할 형태 모드 정보를 쿼드 분할로 결정할 수 있다. 쿼드 분할은 부호화 단위의 너비 및 높이를 모두 이등분하는 분할 형태 모드이다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 256x256 크기의 최대 부호화 단위로부터 128x128 크기의 부호화 단위를 획득할 수 있다. 또한 영상 복호화 장치(100)는 최소 부호화 단위의 크기를 4x4로 결정할 수 있다. 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 "분할하지 않음"을 나타내는 분할 형태 모드 정보를 획득할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(120)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(310a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d, 310e, 310f 등)를 결정할 수 있다.
도 3을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 두 개의 부호화 단위(310b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 두 개의 부호화 단위(310c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(310d)를 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 터너리(ternary) 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 세 개의 부호화 단위(310e)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 터너리 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 세 개의 부호화 단위(310f)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 모드 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 4는 일 실시예에 따라 영상 복호화 장치(100)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 결정하거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 따라 기초하여 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 모드 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 4를 참조하면 분할 형태 모드 정보가 두 개의 부호화 단위로 현재 부호화 단위(400 또는 450)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 영상 복호화 장치(100)는 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위를 분할(터너리 분할)하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 모드 정보가 3개의 부호화 단위로 현재 부호화 단위(400 또는 450)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다.
일 실시예에 따라, 현재 부호화 단위(400 또는 450)의 너비 및 높이의 비율이 4:1 또는 1:4 일 수 있다. 너비 및 높이의 비율이 4:1 인 경우, 너비의 길이가 높이의 길이보다 길므로 블록 형태 정보는 수평 방향일 수 있다. 너비 및 높이의 비율이 1:4 인 경우, 너비의 길이가 높이의 길이보다 짧으므로 블록 형태 정보는 수직 방향일 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위를 홀수개의 블록으로 분할할 것을 결정할 수 있다. 또한 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 블록 형태 정보에 기초하여 현재 부호화 단위(400 또는 450)의 분할 방향을 결정할 수 있다. 예를 들어 현재 부호화 단위(400)가 수직 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400)를 수평 방향으로 분할 하여 부호화 단위(430a, 430b, 430c)를 결정할 수 있다. 또한 현재 부호화 단위(450)가 수평 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(450)를 수직 방향으로 분할 하여 부호화 단위(480a, 480b, 480c)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 복호화 장치(100)가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 모드 정보가 수평 방향으로 제1 부호화 단위(500)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(510)를 분할 형태 모드 정보에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 분할 형태 모드 정보에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 모드 정보에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다.
도 5를 참조하면, 비-정사각형 형태의 제2 부호화 단위(510)가 분할되어 결정되는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 하나인 정사각형 형태의 제3 부호화 단위(520b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(530a, 530b, 530c, 530d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다.
도 5를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 분할 형태 모드 정보를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치(100)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 6을 참조하면, 현재 부호화 단위(600, 650)의 분할 형태 모드 정보는 현재 부호화 단위(600, 650)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(640, 690))에서 획득될 수 있다. 다만 이러한 분할 형태 모드 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(600) 내의 소정 위치가 도 6에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(600)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 분할 형태 모드 정보를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600) 또는 현재 부호화 단위(650)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b)또는 가운데 부호화 단위(660b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화 단위들(620a, 620b, 620c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위들(620a, 620b, 620c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 크기를 결정할 수 있다. 일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 좌측 상단의 샘플(670a)의 위치를 나타내는 정보인 (xd, yd) 좌표, 가운데 부호화 단위(660b)의 좌측 상단의 샘플(670b)의 위치를 나타내는 정보인 (xe, ye) 좌표, 우측 부호화 단위(660c)의 좌측 상단의 샘플(670c)의 위치를 나타내는 정보인 (xf, yf) 좌표를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(660a, 660b, 660c)의 위치를 나타내는 좌표인 (xd, yd), (xe, ye), (xf, yf)를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 너비를 xe-xd로 결정할 수 있다. 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 높이를 현재 부호화 단위(650)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 너비를 xf-xe로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 높이를 현재 부호화 단위(600)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 우측 부호화 단위(660c)의 너비 또는 높이는 현재 부호화 단위(650)의 너비 또는 높이와 좌측 부호화 단위(660a) 및 가운데 부호화 단위(660b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(660a, 660b, 660c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 좌측 부호화 단위(660a) 및 우측 부호화 단위(660c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(660b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할(바이너리 분할)하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나를 이용할 수 있다.
도 6을 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 분할 형태 모드 정보가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 분할 형태 모드 정보는 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)에서 획득될 수 있으며, 상기 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)가 복수개의 부호화 단위들(620a, 620b, 620c)로 분할된 경우 상기 샘플(640)을 포함하는 부호화 단위(620b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 분할 형태 모드 정보로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정된 복수개의 부호화 단위들(620a, 620b, 620c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(600) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(600)의 가운데에 위치하는 샘플)에서 획득되는 분할 형태 모드 정보를 이용할 수 있다. 즉, 영상 복호화 장치(100)는 현재 부호화 단위(600)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정되는 복수개의 부호화 단위들(620a, 620b, 620c) 중, 소정의 정보(예를 들면, 분할 형태 모드 정보)가 획득될 수 있는 샘플이 포함된 부호화 단위(620b)를 결정하여 소정의 제한을 둘 수 있다. 도 6을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(640)이 포함되는 부호화 단위(620b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(620b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(600)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 분할 형태 모드 정보를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 모드 정보를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 분할 형태 모드 정보를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 5를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7는 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정하거나 제1 부호화 단위(700)를 수평 방향으로 분할하여 제2 부호화 단위(730a, 730b)를 결정하거나 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(750a, 750b, 750c, 750d)를 결정할 수 있다.
도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(710a, 710b)를 수평 방향(710c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(730a, 730b)의 처리 순서를 수직 방향(730c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(750a, 750b, 750c, 750d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(750e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 분할하여 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 분할하는 방법은 제1 부호화 단위(700)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 7를 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정할 수 있고, 나아가 제2 부호화 단위(710a, 710b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)를 수평 방향으로 분할하여 제3 부호화 단위(720a, 720b)로 분할할 수 있고, 우측의 제2 부호화 단위(710b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)가 분할되어 결정된 제3 부호화 단위(720a, 720b)가 처리되는 순서를 우측의 제2 부호화 단위(710b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(710a)가 수평 방향으로 분할되어 제3 부호화 단위(720a, 720b)가 결정되었으므로 제3 부호화 단위(720a, 720b)는 수직 방향(720c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(710a) 및 우측의 제2 부호화 단위(710b)가 처리되는 순서는 수평 방향(710c)에 해당하므로, 좌측의 제2 부호화 단위(710a)에 포함되는 제3 부호화 단위(720a, 720b)가 수직 방향(720c)으로 처리된 후에 우측 부호화 단위(710b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 8는 일 실시예에 따라 영상 복호화 장치(100)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 분할 형태 모드 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 8를 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(820a, 820b, 820c, 820d, 820e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 8를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(800)를 재귀적으로 분할하여 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(800), 제2 부호화 단위(810a, 810b) 또는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(810a, 810b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할될 수 있다. 제1 부호화 단위(800)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(830))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(810b)가 홀수개로 분할되어 결정된 제3 부호화 단위(820c, 820d, 820e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(800)에 포함되는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)의 경계에 따라 제2 부호화 단위(810a, 810b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(810a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(820a, 820b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(810b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(820c, 820d, 820e)들의 경계가 우측 제2 부호화 단위(810b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(820c, 820d, 820e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(810b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 9은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(900)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(미도시)를 통해 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9을 참조하면, 제1 부호화 단위(900)는 정사각형이고 분할 형태 모드 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 모드 정보가 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(900)에 포함되는 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)의 경계에 따라 제1 부호화 단위(900)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 9를 참조하면 정사각형 형태의 제1 부호화 단위(900)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(910a, 910b, 910c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(900)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(920a, 920b, 920c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(900)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 9을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900), 비-정사각형 형태의 제1 부호화 단위(930 또는 950)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(미도시)를 통해 획득한 분할 형태 모드 정보에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 분할 형태 모드 정보에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(100)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 모드 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 모드 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 모드 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1126a, 1126b, 1126a, 1126b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태가 정사각형이고, 분할 형태 모드 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 분할 형태 모드 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 11과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216b, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/4배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/2배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/4배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(1322)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1322)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/4배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1322)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/4배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 모드 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 모드 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a, 1424b, 1424c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 모드 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 모드 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 분할 형태 모드 정보를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 모드 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 분할 형태 모드 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(미도시)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1502)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(미도시)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(미도시)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(미도시)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(100)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 프로세싱 블록의 크기에 기초하여 픽쳐(1600)에 포함되는 각각의 프로세싱 블록(1602, 1612)을 결정할 수 있고, 프로세싱 블록(1602, 1612)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(미도시)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(미도시)는 비트스트림으로부터 프로세싱 블록(1602, 1612)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(100)는 상기 프로세싱 블록(1602, 1612)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1600)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(100)는 각각의 프로세싱 블록(1602, 1612)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1604, 1614)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1602, 1612)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1602)과 관련된 기준 부호화 단위 결정 순서(1604)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1602)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1612)과 관련된 기준 부호화 단위 결정 순서(1614)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1612)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(100)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 모드 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 분할 형태 모드 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 분할 형태 모드 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 모드 정보에 대응하는 신택스 엘리먼트를 비트스트림으로부터 획득하여 이용할 수 있다.
이하 본 개시의 일 실시예에 따른 분할 규칙을 결정하는 방법에 대하여 자세히 설명한다.
영상 복호화 장치(100)는 영상의 분할 규칙을 결정할 수 있다. 분할 규칙은 영상 복호화 장치(100) 및 영상 부호화 장치(150) 사이에 미리 결정되어 있을 수 있다. 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여 영상의 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header) 중 적어도 하나로부터 획득된 정보에 기초하여 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 프레임, 슬라이스, 템포럴 레이어(Temporal layer), 최대 부호화 단위 또는 부호화 단위에 따라 다르게 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 수 있다. 블록 형태는 부호화 단위의 크기, 모양, 너비 및 높이의 비율, 방향을 포함할 수 있다. 영상 부호화 장치(150) 및 영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 것을 미리 결정할 수 있다. 하지만 이에 한정되는 것은 아니다. 영상 복호화 장치(100)는 영상 부호화 장치(150)로부터 수신된 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 정사각형으로 결정할 수 있다. 또한, . 부호화 단위의 너비 및 높이의 길이가 같지 않은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 크기는 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ... , 256x256의 다양한 크기를 포함할 수 있다. 부호화 단위의 크기는 부호화 단위의 긴변의 길이, 짧은 변의 길이또는 넓이에 따라 분류될 수 있다. 영상 복호화 장치(100)는 동일한 그룹으로 분류된 부호화 단위에 동일한 분할 규칙을 적용할 수 있다. 예를 들어 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위를 동일한 크기로 분류할 수 있다. 또한 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위에 대하여 동일한 분할 규칙을 적용할 수 있다.
부호화 단위의 너비 및 높이의 비율은 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16 또는 16:1 등을 포함할 수 있다. 또한, 부호화 단위의 방향은 수평 방향 및 수직 방향을 포함할 수 있다. 수평 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 긴 경우를 나타낼 수 있다. 수직 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 짧은 경우를 나타낼 수 있다.
영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 허용가능한 분할 형태 모드를 다르게 결정할 수 있다. 예를 들어, 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할이 허용되는지 여부를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 분할 방향을 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 허용가능한 분할 타입을 결정할 수 있다.
부호화 단위의 크기에 기초하여 분할 규칙을 결정하는 것은 영상 부호화 장치(150) 및 영상 복호화 장치(100) 사이에 미리 결정된 분할 규칙일 수 있다. 또한, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위가 영상에서 차지하는 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다.
또한, 영상 복호화 장치(100)는 서로 다른 분할 경로로 생성된 부호화 단위가 동일한 블록 형태를 가지지 않도록 분할 규칙을 결정할 수 있다. 다만 이에 한정되는 것은 아니며 서로 다른 분할 경로로 생성된 부호화 단위는 동일한 블록 형태를 가질 수 있다. 서로 다른 분할 경로로 생성된 부호화 단위들은 서로 다른 복호화 처리 순서를 가질 수 있다. 복호화 처리 순서에 대해서는 도 12와 함께 설명하였으므로 자세한 설명은 생략한다.
이하 도 17 내지 도 19를 참조하여, 적응적 클리핑을 수행하는 영상 부호화/복호화 방법 및 장치에 대하여 자세히 설명한다.
도 17은 일 실시예에 따른 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 샘플의 범위 내 일부 영역을 이용하여 시그널링하는 방법을 설명하기 위한 도면이다.
도 17을 참조하면, 영상 부호화 장치(150)는 적응적 클리핑에 이용되는 파라메터인 클리핑 최소값 또는 최대값에 관한 정보를 영상 복호화 장치(100)로 전송하기 위해, 현재 영상이 8비트 영상인 경우의 샘플 범위(1705) 중 일부 영역(1710) 또는 일부 영역(1715)의 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값 또는 최대값에 관한 정보로 결정할 수 있다. 예를 들어, 클리핑 최소값(Clip_min)을 시그널링하기 위해 영상 부호화 장치(150)는 일부 영역(1710)에 포함된 0~s(s는 정수)의 샘플값 중 클리핑 최소값을 나타내는 정보를 클리핑 최소값 에 관한 정보(Clip_min signal)로 결정할 수 있다. 이때, 영상 부호화 장치(150)는 s보다 큰 값이 현재 영상의 원 영상의 최소값으로 결정된 경우, 클리핑 최소값을 s로 결정하고, s를 나타내는 정보를 전송할 수 있다.
또한, 예를 들어, 클리핑 최대값(Clip_max)을 시그널링하기 위해 영상 부호화 장치(150)는 일부 영역(1715)에 포함된 t~255(t는 정수)의 샘플값 중 클리핑 최대값을 나타내는 정보를 클리핑 최대값에 관한 정보(Clip_max signal)로 결정할 수 있다. 이때, 영상 부호화 장치(150)는 t보다 작은 값이 현재 영상의 원 영상의 최대값으로 결정된 경우, 클리핑 최대값을 t로 결정하고, t를 나타내는 정보를 전송할 수 있다. 구체적으로, 클리핑 최대값에 관한 정보(Clip_max signal)의 값은 실제 클리핑 최대값(Clip_max)와 다른 값일 수 있다. 예를 들어, 영상 부호화 장치(150)는 t~255의 샘플값 범위 내에서 샘플값이 t에서부터 커짐에 따라 클리핑 최대값에 관한 정보(Clip_max signal)의 값을 0에서부터 커지도록 결정할 수 있다. 즉, 클리핑 최대값에 관한 정보(Clip_max signal)의 값이 0인 경우, 클리핑 최대값(Clip_max)은 t일 수 있고, 클리핑 최대값에 관한 정보(Clip_max signal)의 값이 255-t인 경우, 클리핑 최대값(Clip_max)은 255일 수 있다. 다만 이에 제한되지 않고, 도 17에서 도시된 바와 같이, 영상 부호화 장치(150)는 t~255의 샘플값 범위 내에서 255에서부터 샘플값이 작아짐에 따라 클리핑 최대값에 관한 정보(Clip_max signal)의 값을 0에서부터 커지도록 결정할 수 있다. 도 17에서 도시된 바와 같이, 클리핑 최대값에 관한 정보(Clip_max signal)의 값이 0인 경우, 클리핑 최대값(Clip_max)은 255일 수 있고, 클리핑 최대값에 관한 정보(Clip_max signal)의 값이 255-t인 경우, 클리핑 최대값(Clip_max)은 t일 수 있다.
이상 도 17을 참조하여 영상 부호화 장치(150) 및 영상 복호화 장치(100)는 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 샘플의 범위 내 일부 영역만을 이용하여 시그널링하는 내용을 설명하였다. 영상 부호화 장치(150) 및 영상 복호화 장치(100)는 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해 샘플의 범위 내 일부 영역만을 이용하여 시그널링함으로써 전송하는 적응적 클리핑에 대한 파라메터의 정보량을 줄일 수 있다.
도 18은 일 실시예에 따른 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 양자화된 값을 이용하여 시그널링하는 방법을 설명하기 위한 도면이다.
도 18을 참조하면, 영상 부호화 장치(150)는 적응적 클리핑에 이용되는 파라메터인 클리핑 최소값 또는 최대값에 관한 정보를 영상 복호화 장치(100)로 전송하기 위해, 현재 영상이 8비트 영상인 경우의 샘플 범위(1805)의 샘플값을 양자화하고, 양자화된 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값 또는 최대값에 관한 정보로 결정할 수 있다. 예를 들어, 클리핑 최소값 또는 최대값(Clip_min 또는 Clip_max)을 시그널링하기 위해 영상 부호화 장치(150)는 샘플값을 양자화 스텝(1810)에 기초하여 양자화하고, 양자화된 샘플값들 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값 또는 최대값에 관한 정보(Clip_min quan 또는 Clip_max quan)로 결정할 수 있다. 이때, 원 영상의 최소값 또는 최대값 그대로 결정되는 것이 아니라 원 영상의 최소값 또는 최대값에 기초하여 양자화된 값이 역양자화된 값이 클리핑 최소값 또는 최대값으로 결정될 수 있다. 예를 들어, 원 영상의 최소값이 3인 경우, 영상 부호화 장치(150)는 클리핑 최소값을 3으로 결정하는 것이 아니고, 양자화 스텝(1810)에 기초하여 양자화된 값(0)을 역양자화한 값(0)을 클리핑 최소값으로 결정할 수 있다. 영상 부호화 장치(150)는 전송하는 클리핑 최소값에 관한 정보(Clip_min quan)의 값을 0으로 결정하고, 영상 복호화 장치(100)는 이를 양자화 스텝(1810)에 기초하여 역양자화한 값(0)을 클리핑 최소값으로 결정할 수 있다. 또는, 원 영상의 최대값이 250인 경우, 영상 부호화 장치(150)는 클리핑 최대값을 250으로 결정하는 것이 아니고, 양자화 스텝(1810)에 기초하여 양자화된 값(61)을 역양자화한 값(247)을 클리핑 최소값으로 결정할 수 있다. 영상 부호화 장치(150)는 전송하는 클리핑 최대값에 관한 정보(Clip_min quan)의 값을 61로 결정하고, 영상 복호화 장치(100)는 이를 양자화 스텝(1810)에 기초하여 역양자화한 값(247)을 클리핑 최소값으로 결정할 수 있다.
따라서, 예를 들어, 현재 영상이 8비트 영상인 경우, 영상 부호화 장치(150)가 클리핑 최소값 또는 최대값에 관한 정보를 고정 길이 부호화한다면, 클리핑 최소값 또는 최대값을 표현하기 위해 8비트가 필요하지만, 양자화된 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값 또는 최대값에 관한 정보로 결정하고, 이를 고정 길이 부호화한다면 클리핑 최소값 또는 최대값을 표현하기 위해 2비트가 줄어든 6비트가 필요하게 된다.
영상 부호화 장치(150)는 현재 영상이 8비트 영상이고, 양자화 스텝을 4로 하는 경우, 하기 수학식 2에 따라 전송되는 클리핑 최소값 또는 최대값(Clip_min quan 또는 Clip_max quan)을 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000002
이때, min은 원 영상의 최소값이고, max는 원 영상의 최대값일 수 있다.
영상 부호화 장치(150)는 하기 수학식 3에 따라, 수학식 2에서 결정된 Clip_min quan 또는 Clip_max quan 를 기초로 실제 이용하는 클리핑 최소값 또는 최대값을 결정할 수 있다. 또한, 영상 복호화 장치(100)는 하기 수학식 3에 따라 비트스트림으로부터 획득된 Clip_min quan 또는 Clip_max quan 를 기초로 실제 이용하는 클리핑 최소값 또는 최대값을 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000003
한편, 영상 부호화 장치(150)는 현재 영상의 비트뎁스에 기초하여 양자화된 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값 또는 최대값에 관한 정보로 결정할 수 있다. 영상 부호화 장치(150)는 현재 영상의 비트뎁스가 BIT_DEPTH인 경우, 하기 에 따라 전송되는 클리핑 최소값 또는 최대값(Clip_min quan 또는 Clip_max quan)을 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000004
이때, min은 원 영상의 최소값이고, max는 원 영상의 최대값일 수 있다.
영상 부호화 장치(150)는 하기 수학식 5에 따라, 수학식 5에서 결정된 Clip_min quan 또는 Clip_max quan 를 기초로 실제 이용하는 클리핑 최소값 또는 최대값을 결정할 수 있다. 또한, 영상 복호화 장치(100)는 하기 수학식 5에 따라 비트스트림으로부터 획득된 Clip_min quan 또는 Clip_max quan 를 기초로 실제 이용하는 클리핑 최소값 또는 최대값을 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000005
이상 도 18을 참조하여, 영상 부호화 장치(150) 및 영상 복호화 장치(100)는 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해 양자화된 샘플값만을 이용하여 시그널링하는 내용을 설명하였다. 영상 부호화 장치(150) 및 영상 복호화 장치(100)는 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해 양자화된 샘플값만을 이용하여 시그널링함으로써 전송하는 적응적 클리핑에 대한 파라메터의 정보량을 줄일 수 있다.
도 19는 일 실시예에 따른 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대해, 샘플의 범위 내 일부 영역 및 그 영역 내 양자화된 값을 이용하여 시그널링하는 방법을 설명하기 위한 도면이다.
도 19를 참조하면, 영상 부호화 장치(150)는 적응적 클리핑에 이용되는 파라메터인 클리핑 최소값 또는 최대값에 관한 정보를 영상 복호화 장치(100)로 전송하기 위해, 현재 영상이 8비트 영상인 경우의 샘플 범위(1905) 중 일부 영역(1910) 또는 일부 영역(1920)을 양자화 스텝(1915,1925)에 기초하여 양자화하고, 양자화된 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값 또는 최대값에 관한 정보로 결정할 수 있다.
예를 들어, 클리핑 최소값(Clip_min)을 시그널링하기 위해 영상 부호화 장치(150)는 일부 영역(1910)에 포함된 0~s(s는 정수)의 샘플값 중 클리핑 최소값을 나타내는 정보를 클리핑 최소값에 관한 정보(Clip_min quan)로 결정할 수 있다. 이때, 영상 부호화 장치(150)는 s보다 큰 값이 현재 영상의 원 영상의 최소값으로 결정된 경우, 클리핑 최소값을 s로 결정하고, s를 나타내는 정보를 전송할 수 있다. 다만, 도 17을 참조하여 설명한 것과 달리, 영상 부호화 장치(150)는 적응적 클리핑에 이용되는 파라메터인 클리핑 최소값에 관한 정보를 영상 복호화 장치(100)로 전송하기 위해, 일부 영역(1910)의 샘플값을 양자화하고, 양자화된 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최소값에 관한 정보로 결정할 수 있다.
이때, 원 영상의 최소값 그대로 결정되는 것이 아니라, 일부 영역(1910) 내에서 원 영상의 최소값에 기초하여 양자화된 값이 역양자화된 값이 클리핑 최소값으로 결정될 수 있다.
예를 들어, 원 영상의 최소값이 3인 경우, 영상 부호화 장치(150)는 클리핑 최소값을 3으로 결정하는 것이 아니고, 양자화 스텝(1915)에 기초하여 양자화된 값(0)을 역양자화한 값(0)을 클리핑 최소값으로 결정할 수 있다. 영상 부호화 장치(150)는 전송하는 클리핑 최소값에 관한 정보(Clip_min quan)의 값을 0으로 결정하고, 영상 복호화 장치(100)는 이를 양자화 스텝(1915)에 기초하여 역양자화한 값(0)을 클리핑 최소값으로 결정할 수 있다.
또한, 예를 들어, 클리핑 최데값(Clip_max)을 시그널링하기 위해 영상 부호화 장치(150)는 일부 영역(1920)에 포함된 t~255(t는 정수)의 샘플값 중 클리핑 최대값을 나타내는 정보를 클리핑 최대값에 관한 정보(Clip_max quan)로 결정할 수 있다. 이때, 영상 부호화 장치(150)는 t보다 작은 값이 현재 영상의 원 영상의 최대값으로 결정된 경우, 클리핑 최대값을 t로 결정하고, t를 나타내는 정보를 전송할 수 있다. 다만, 도 17을 참조하여 설명한 것과 달리, 영상 부호화 장치(150)는 적응적 클리핑에 이용되는 파라메터인 클리핑 최대값에 관한 정보를 영상 복호화 장치(100)로 전송하기 위해, 일부 영역(1920)의 샘플값을 양자화하고, 양자화된 샘플값 중 하나의 샘플값을 나타내는 정보를 클리핑 최대값에 관한 정보로 결정할 수 있다.
이때, 원 영상의 최대값 그대로 결정되는 것이 아니라, 일부 영역(1920) 내에서 원 영상의 최대값에 기초하여 양자화된 값이 역양자화된 값이 클리핑 최대값으로 결정될 수 있다.
예를 들어, 원 영상의 최대값이 250인 경우, 영상 부호화 장치(150)는 클리핑 최대값을 250으로 결정하는 것이 아니고, 양자화 스텝(1925)에 기초하여 양자화된 값(1)을 역양자화한 값(251)을 클리핑 최대값으로 결정할 수 있다. 영상 부호화 장치(150)는 전송하는 클리핑 최대값에 관한 정보(Clip_max quan)의 값을 1로 결정하고, 영상 복호화 장치(100)는 이를 양자화 스텝(1925)에 기초하여 역양자화한 값(251)을 클리핑 최대값으로 결정할 수 있다.
도 19를 참조하면, Clip_min이 0이고, Clip_max가 255인 경우,전송되는 클리핑 최소값에 관한 정보(Clip_min quan)가 0을 나타내고, 전송되는 클리핑 최대값에 관한 정보(Clip_max quan)가 0을 나타낼 수 있으나, 이에 제한되지 않고, Clip_min이 비트뎁스에 따른 샘플 범위의 최소값인 0인 경우에는 별도의 클리핑 최소값에 관한 정보를 시그널링하지 않을 수 있다. 즉, 영상 부호화 장치(150)는 Clip_min이 0으로 결정된다면, Clip_min을 0으로 하여 클리핑을 수행하거나, 클리핑 최소값을 이용하여 적응적 클리핑을 수행하지 않을 수 있다. 이때, 영상 부호화 장치(150)는 클리핑 최소값에 관한 정보를 전송하지 않고, 영상 복호화 장치(100)는 Clip_min을 0으로 결정하여 클리핑을 수행하거나, 클리핑 최소값을 이용하여 적응적 클리핑을 수행하지 않을 수 있다. Clip_min이 비트뎁스에 따른 샘플 범위의 최소값인 0인 경우에는 별도의 클리핑 최소값에 관한 정보를 시그널링하지 않을 수 있다. 또한, 영상 부호화 장치(150)는 Clip_max가 255로 결정된다면, Clip_max를 255으로 하여 클리핑을 수행하거나, 클리핑 최대값을 이용하여 적응적 클리핑을 수행하지 않을 수 있다. 이때, 영상 부호화 장치(150)는 클리핑 최대값에 관한 정보를 전송하지 않고, 이 경우, 영상 복호화 장치(100)는 Clip_max을 0으로 결정하여 클리핑을 수행하거나, 클리핑 최대값을 이용하여 적응적 클리핑을 수행하지 않을 수 있다.
이 경우, 영상 부호화 장치(150)가 전송하기 위한 클리핑 최소값에 관한 정보의 값을 할당한다면, 0을 제외하고, 그 다음 값(4)을 0으로 할당할 수 있다. 또한, 영상 부호화 장치(150)가 전송하기 위한 클리핑 최대값에 관한 정보의 값을 할당한다면, 255를 제외하고, 그 전 값(251)을 0으로 할당할 수 있다.
영상 부호화 장치(150)는 하기 수학식 6에 따라 실제 이용되는 클리핑 최소값 또는 최대값(Clip_min 또는 Clip_max)을 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000006
이때, min은 원 영상의 최소값이고, max는 원 영상의 최대값일 수 있다. 수학식 6에서 4는 양자화 스탭의 개수(2^4=16)을 의미할 수 있다.
영상 부호화 장치(150)는 하기 수학식 7에 따라, 수학식 6에서 결정된 Clip_min 또는 Clip_max 를 기초로 시그널링되는 클리핑 최소값(Clip_min quan) 또는 최대값(Clip_max quan)를 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000007
영상 부호화 장치(150)는 하기 수학식 8에 따라 실제 이용하는 클리핑 최소값 또는 최대값(Clip_min 또는 Clip_max)을 결정할 수 있다. 또한, 영상 복호화 장치(100)는 하기 수학식 8에 따라 비트스트림으로부터 획득된 Clip_min quan 또는 Clip_max quan 를 기초로 실제 이용하는 클리핑 최소값 또는 최대값(Clip_min 또는 Clip_max)을 결정할 수 있다.
Figure PCTKR2019000223-appb-img-000008
이상, 도 19를 참조하여 영상 부호화 장치(150) 및 영상 복호화 장치(100)가 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대하여, 현재 영상의 샘플 범위 내 일부 영역의 샘플값만을 이용하고, 특히, 일부 영역의 샘플값을 양자화하고, 양자화된 샘플값만을 이용하여 시그널링하는 내용을 설명하였다. 영상 부호화 장치(150) 및 영상 복호화 장치(100)는 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값에 대하여, 현재 영상의 샘플 범위 내 일부 영역의 샘플값만을 이용하고, 특히, 일부 영역의 샘플값을 양자화하고, 양자화된 샘플값만을 이용하여 시그널링함으로써 전송하는 적응적 클리핑에 대한 파라메터의 정보량을 줄일 수 있다.
본 개시의 다양한 실시예에 의하면, 현재 영상의 원 영상에 최소값 또는 최대값에 기초한 값을 적응적 클리핑을 수행하기 위한 파라메터로 결정하고, 적응적 클리핑을 수행함으로써, 부복호화 효율을 향상시킬 수 있다. 특히, 소정의 데이터 단위, 프로세스 단위 또는 영상 성분 단위로 선별적으로 적응적 클리핑을 수행함으로써 부복호화 효율을 향상시킬 수 있다. 또한, 적응적 클리핑을 수행하기 위한 파라메터를 시그널링할때, 영상의 샘플 범위 중 일부 영역의 샘플값 중 하나의 샘플값을 나타내는 정보를 시그널링함으로써 전송되는 파라메터의 정보량을 줄일 수 있다. 또한, 적응적 클리핑을 수행하기 위한 파라메터를 시그널링할때, 샘플 범위의 샘플값들을 양자화하고, 양자화된 샘플값들 중 하나의 샘플값을 나타내는 정보를 시그널링함으로써 전송되는 파라메터의 정보량을 줄일 수 있다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시가 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (15)

  1. 비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하는 단계;
    소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하는 단계; 및
    상기 클리핑이 수행된 값에 기초하여 상기 현재 영상을 포함하는 영상을 복원하는 단계를 포함하고,
    상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값인 것을 특징으로 하는 영상 복호화 방법.
  2. 제 1 항에 있어서,
    상기 비트스트림으로부터 획득된 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 현재 샘플의 비트뎁스에 따른 샘플 범위 중 소정의 일부 범위에 포함된 값 중 하나의 값을 나타내는 것을 특징으로 하는 영상 복호화 방법.
  3. 제 1 항에 있어서,
    상기 비트스트림으로부터 획득된 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보는, 상기 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타내는 것을 특징으로 하는 영상 복호화 방법.
  4. 제 3 항에 있어서,
    상기 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값은 상기 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 역양자화한 값인 것을 특징으로 하는 영상 복호화 방법.
  5. 제 4 항에 있어서,
    상기 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값은 상기 원 영상의 최소값 또는 최대값에 대해 상기 현재 샘플의 비트 뎁스에 기초하여 양자화한 값을 상기 현재 샘플의 비트 뎁스에 기초하여 역양자화한 값인 것을 특징으로 하는 영상 복호화 방법.
  6. 제 1 항에 있어서,
    상기 소정의 데이터 단위는 슬라이스, 픽처 또는 시퀀스(sequence) 단위인 것을 특징으로 하는 영상 복호화 방법.
  7. 제 1 항에 있어서,
    상기 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값이 상기 원 영상과 관련하여 미리 결정된 값인지를 나타내는 정보이고,
    상기 현재 영상의 원 영상의 최소값 또는 최대값에 기초한 값은 상기 원 영상과 관련하여 미리 결정된 값인 것을 특징으로 하는 영상 복호화 방법.
  8. 제 1 항에 있어서,
    상기 적응적 클리핑(adaptive clipping)은 상기 현재 영상의 성분(component) 단위 또는 프로세스(process) 단위로 선택적으로 수행되는 것을 특징으로 하는 영상 복호화 방법.
  9. 제 1 항에 있어서,
    상기 현재 샘플의 복원값에 대해 필터링된 값은 상기 현재 샘플의 복원값에 대해 디블로킹 필터링(Deblocking filtering), SAO(Sample Adaptive Offset) 필터링, 어뎁티드 루프(Adaptive Loop) 필터링, 노이즈 서프레션(Noise Suppression) 필터링, 및 바이러터럴(Bilateral) 필터링 중 적어도 하나를 수행하여 획득된 값인 것을 특징으로 하는 영상 복호화 방법.
  10. 비트스트림으로부터, 적응적 클리핑에 이용될 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 획득하고,
    소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값 에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하고, 상기 클리핑이 수행된 값을 이용하여 상기 현재 영상을 포함하는 영상을 복원하는 적어도 하나의 프로세서를 포함하고,
    상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값인 것을 특징으로 하는 영상 복호화 장치.
  11. 소정의 데이터 단위에서, 예측 프로세스에 의해 획득된 현재 영상 내 현재 샘플의 예측값, 현재 샘플의 예측값에 기초하여 획득된 상기 현재 샘플의 복원값 및 상기 현재 샘플의 복원값에 대해 필터링(filtering)된 값 중 적어도 하나에 대해 적응적 클리핑(adaptive clipping)을 수행하는 단계;
    상기 적응적 클리핑이 수행된 값에 기초하여 상기 현재 영상을 포함하는 영상을 부호화하는 단계; 및
    상기 부호화된 영상에 관한 정보 및 상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보를 포함하는 비트스트림을 생성하는 단계를 포함하고,
    상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값은 현재 영상의 원 영상(original image)의 최소값 또는 최대값에 기초한 값인 것을 특징으로 하는 영상 부호화 방법.
  12. 제 11 항에 있어서,
    상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 현재 샘플의 비트뎁스에 따른 샘플 범위 중 소정의 일부 범위에 포함된 값 중 하나의 값을 나타내는 것을 특징으로 하는 영상 부호화 방법.
  13. 제 11 항에 있어서,
    상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 원 영상의 최소값 또는 최대값에 대해 양자화한 값을 나타내는 것을 특징으로 하는 영상 부호화 방법.
  14. 제 13 항에 있어서,
    상기 적응적 클리핑에 이용되는 클리핑 최소값 또는 최대값을 결정하기 위한 정보는 상기 원 영상의 최소값 또는 최대값에 대해 상기 현재 샘플의 비트 뎁스에 기초하여 양자화한 값을 나타내는 것을 특징으로 하는 영상 부호화 방법.
  15. 제 11 항에 있어서,
    상기 현재 샘플의 복원값에 대해 필터링된 값은 상기 현재 샘플의 복원값에 대해 디블로킹 필터링(Deblocking filtering), SAO(Sample Adaptive Offset) 필터링, 어뎁티드 루프(Adaptive Loop) 필터링, 노이즈 서프레션(Noise Suppression) 필터링, 및 바이러터럴(Bilateral) 필터링 중 적어도 하나를 수행하여 획득된 값인 것을 특징으로 하는 영상 부호화 방법.
PCT/KR2019/000223 2018-01-08 2019-01-07 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 WO2019135655A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862614985P 2018-01-08 2018-01-08
US62/614,985 2018-01-08

Publications (1)

Publication Number Publication Date
WO2019135655A1 true WO2019135655A1 (ko) 2019-07-11

Family

ID=67144243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000223 WO2019135655A1 (ko) 2018-01-08 2019-01-07 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2019135655A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220394246A1 (en) * 2019-01-25 2022-12-08 Hfi Innovation Inc. Method and Apparatus for Non-Linear Adaptive Loop Filtering in Video Coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101128533B1 (ko) * 2007-10-30 2012-03-27 니폰덴신뎅와 가부시키가이샤 화상 부호화 방법 및 복호 방법, 그들의 장치, 그들의 프로그램과 프로그램을 기록한 기록매체
KR20130050896A (ko) * 2011-11-07 2013-05-16 삼성전자주식회사 비디오 복호화 과정에서 역양자화 및 역변환의 데이터를 클리핑하는 역변환 방법 및 그 장치
US9154778B2 (en) * 2010-05-10 2015-10-06 Mediatek Inc. Method and apparatus of adaptive loop filtering
KR101708029B1 (ko) * 2011-06-30 2017-02-17 삼성전자주식회사 고정소수점 변환을 위한 비트뎁스 조절을 수반하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
KR101721815B1 (ko) * 2013-06-28 2017-03-30 블랙베리 리미티드 고충실도 코더로 저충실도 코딩을 에뮬레이트하는 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101128533B1 (ko) * 2007-10-30 2012-03-27 니폰덴신뎅와 가부시키가이샤 화상 부호화 방법 및 복호 방법, 그들의 장치, 그들의 프로그램과 프로그램을 기록한 기록매체
US9154778B2 (en) * 2010-05-10 2015-10-06 Mediatek Inc. Method and apparatus of adaptive loop filtering
KR101708029B1 (ko) * 2011-06-30 2017-02-17 삼성전자주식회사 고정소수점 변환을 위한 비트뎁스 조절을 수반하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
KR20130050896A (ko) * 2011-11-07 2013-05-16 삼성전자주식회사 비디오 복호화 과정에서 역양자화 및 역변환의 데이터를 클리핑하는 역변환 방법 및 그 장치
KR101721815B1 (ko) * 2013-06-28 2017-03-30 블랙베리 리미티드 고충실도 코더로 저충실도 코딩을 에뮬레이트하는 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220394246A1 (en) * 2019-01-25 2022-12-08 Hfi Innovation Inc. Method and Apparatus for Non-Linear Adaptive Loop Filtering in Video Coding
US11909965B2 (en) * 2019-01-25 2024-02-20 Hfi Innovation Inc. Method and apparatus for non-linear adaptive loop filtering in video coding

Similar Documents

Publication Publication Date Title
WO2021006692A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2020040619A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2017138791A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019172676A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019066384A1 (ko) 크로스-성분 예측에 의한 비디오 복호화 방법 및 장치, 크로스-성분 예측에 의한 비디오 부호화 방법 및 장치
WO2020027551A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2017142327A1 (ko) 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치
WO2019143093A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019135558A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020076130A1 (ko) 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 방법, 및 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 장치
WO2019216712A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019066472A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020130712A1 (ko) 삼각 예측 모드를 이용하는 영상 부호화 장치 및 영상 복호화 장치, 및 이에 의한 영상 부호화 방법 및 영상 복호화 방법
WO2021141451A1 (ko) 양자화 파라미터를 획득하기 위한 비디오 복호화 방법 및 장치, 양자화 파라미터를 전송하기 위한 비디오 부호화 방법 및 장치
WO2019009502A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2019066514A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019209028A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2020013627A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020117010A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020101429A1 (ko) 양방향 예측을 이용한 영상의 부호화 및 복호화 방법, 및 영상의 부호화 및 복호화 장치
WO2019216710A1 (ko) 영상의 부호화 및 복호화를 위한 영상의 분할 방법 및 장치
WO2017195945A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019009666A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19735777

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19735777

Country of ref document: EP

Kind code of ref document: A1