WO2018056603A1 - 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치 - Google Patents

영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치 Download PDF

Info

Publication number
WO2018056603A1
WO2018056603A1 PCT/KR2017/009547 KR2017009547W WO2018056603A1 WO 2018056603 A1 WO2018056603 A1 WO 2018056603A1 KR 2017009547 W KR2017009547 W KR 2017009547W WO 2018056603 A1 WO2018056603 A1 WO 2018056603A1
Authority
WO
WIPO (PCT)
Prior art keywords
reference samples
block
peripheral reference
current block
samples
Prior art date
Application number
PCT/KR2017/009547
Other languages
English (en)
French (fr)
Inventor
박내리
임재현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CN201780058198.0A priority Critical patent/CN109792529A/zh
Priority to US16/331,371 priority patent/US20190200021A1/en
Priority to KR1020197005823A priority patent/KR20190029737A/ko
Priority to JP2019515789A priority patent/JP6781340B2/ja
Priority to EP17853317.0A priority patent/EP3503553A4/en
Publication of WO2018056603A1 publication Critical patent/WO2018056603A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to an image coding technique, and more particularly, to an illumination compensation based inter prediction method and apparatus in an image coding system.
  • the demand for high resolution and high quality images such as high definition (HD) images and ultra high definition (UHD) images is increasing in various fields.
  • the higher the resolution and the higher quality of the image data the more information or bit rate is transmitted than the existing image data. Therefore, the image data can be transmitted by using a medium such as a conventional wired / wireless broadband line or by using a conventional storage medium. In the case of storage, the transmission cost and the storage cost are increased.
  • a high efficiency image compression technique is required to effectively transmit, store, and reproduce high resolution, high quality image information.
  • An object of the present invention is to provide a method and apparatus for improving image coding efficiency.
  • Another technical problem of the present invention is to provide a method and apparatus for improving prediction performance.
  • Another technical problem of the present invention is to provide a method and apparatus for improving inter prediction performance based on illuminance compensation.
  • Another technical problem of the present invention is to provide a method of efficiently deriving a parameter for illuminance compensation while reducing the data amount of additional information for illuminance compensation.
  • an inter prediction method performed by an encoding apparatus includes detecting a reference block for a current block, deriving a motion vector of the current block, IC parameters based on first peripheral reference samples of the reference block and second peripheral reference samples of the current block.
  • the IC parameter comprises a scaling factor a and an offset b, performing IC for reference samples of the reference block based on the scaling factor and offset to derive predictive samples for the current block. And encoding and outputting the prediction information.
  • an encoding apparatus for inter prediction detects a reference block for the current block, derives a motion vector of the current block, and extracts an IC parameter based on first peripheral reference samples of the reference block and second peripheral reference samples of the current block.
  • an entropy encoding unit for encoding and outputting prediction information.
  • an inter prediction method performed by a decoding apparatus includes deriving a motion vector of a current block, deriving a reference block for the current block based on the motion vector, first peripheral reference samples of the reference block and a second peripheral reference of the current block. Deriving an IC parameter based on samples, wherein the IC parameter comprises a scaling factor a and an offset b, and performing an IC on reference samples of the reference block based on the scaling factor and offset to perform the current block. Deriving predictive samples for.
  • a decoding apparatus for inter prediction derives a motion vector of a current block and derives a reference block for the current block based on the motion vector, wherein the reference block is located in a reference picture, the first peripheral reference samples of the reference block and Derive an IC parameter based on the second peripheral reference samples of the current block, wherein the IC parameter includes a scaling factor a and an offset b, and for reference samples of the reference block based on the scaling factor and offset And a memory configured to perform an IC to derive prediction samples for the current block, and a memory to store the reference picture.
  • the inter prediction performance can be efficiently increased while reducing the data amount of additional information through illumination compensation based on the block structure.
  • the amount of data required for residual information can be reduced, and the overall coding efficiency can be improved.
  • FIG. 1 is a diagram schematically illustrating a configuration of a video encoding apparatus to which the present invention may be applied.
  • FIG. 2 is a diagram schematically illustrating a configuration of a video decoding apparatus to which the present invention may be applied.
  • QTBT Quad Tree Binary Tree
  • FIG. 4 shows examples of prediction with or without illuminance compensation (IC).
  • 5 is an example showing peripheral reference samples used for IC parameter derivation.
  • FIG. 6 is an example illustrating peripheral reference samples used for IC parameter derivation.
  • FIG. 7 shows an example of peripheral reference samples for IC parameter derivation used for a non-square block.
  • peripheral reference samples 8 shows an example of peripheral reference samples including upper right and lower left peripheral reference samples for IC parameter derivation used for a non-square block.
  • FIG. 10 illustratively illustrates IC application according to various criteria in accordance with the present invention.
  • FIG. 11 schematically illustrates an example of an inter prediction method in image encoding according to the present invention.
  • FIG 12 schematically illustrates an example of an inter prediction method in image decoding according to the present invention.
  • each configuration in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions, it does not mean that each configuration is implemented by separate hardware or separate software.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • a picture generally refers to a unit representing one image in a specific time zone
  • a slice sICe is a unit constituting a part of a picture in coding.
  • One picture may be composed of a plurality of slices, and if necessary, the picture and the slice may be mixed with each other.
  • a pixel or a pel may refer to a minimum unit constituting one picture (or image). Also, 'sample' may be used as a term corresponding to a pixel.
  • a sample may generally represent a pixel or a value of a pixel, and may only represent pixel / pixel values of the luma component, or only pixel / pixel values of the chroma component.
  • a unit represents the basic unit of image processing.
  • the unit may include at least one of a specific region of the picture and information related to the region.
  • the unit may be used interchangeably with terms such as block or area in some cases.
  • an M ⁇ N block may represent a set of samples or transform coefficients composed of M columns and N rows.
  • FIG. 1 is a diagram schematically illustrating a configuration of a video encoding apparatus to which the present invention may be applied.
  • the video encoding apparatus 100 may include a picture divider 105, a predictor 110, a residual processor 120, an adder 140, a filter 150, and a memory 160. It may include.
  • the residual processing unit 120 may include a subtraction unit 121, a conversion unit 122, a quantization unit 123, a reordering unit 124, an inverse quantization unit 125, and an inverse conversion unit 126.
  • the picture divider 105 may divide the input picture into at least one processing unit.
  • the processing unit may be called a coding unit (CU).
  • the coding unit may be recursively split from the largest coding unit (LCU) according to a quad-tree binary-tree (QTBT) structure.
  • LCU largest coding unit
  • QTBT quad-tree binary-tree
  • one coding unit may be divided into a plurality of coding units of a deeper depth based on a quad tree structure and / or a binary tree structure.
  • the quad tree structure may be applied first and the binary tree structure may be applied later.
  • the binary tree structure may be applied first.
  • the coding procedure according to the present invention may be performed based on the final coding unit that is no longer split.
  • the maximum coding unit may be used as the final coding unit immediately based on coding efficiency according to the image characteristic, or if necessary, the coding unit is recursively divided into coding units of lower depths and optimized.
  • a coding unit of size may be used as the final coding unit.
  • the coding procedure may include a procedure of prediction, transform, and reconstruction, which will be described later.
  • the processing unit may include a coding unit (CU) prediction unit (PU) or a transform unit (TU).
  • the coding unit may be split from the largest coding unit (LCU) into coding units of deeper depths along the quad tree structure.
  • LCU largest coding unit
  • the maximum coding unit may be used as the final coding unit immediately based on coding efficiency according to the image characteristic, or if necessary, the coding unit is recursively divided into coding units of lower depths and optimized.
  • a coding unit of size may be used as the final coding unit. If a smallest coding unit (SCU) is set, the coding unit may not be split into smaller coding units than the minimum coding unit.
  • the final coding unit refers to a coding unit that is the basis of partitioning or partitioning into a prediction unit or a transform unit.
  • the prediction unit is a unit partitioning from the coding unit and may be a unit of sample prediction. In this case, the prediction unit may be divided into sub blocks.
  • the transform unit may be divided along the quad tree structure from the coding unit, and may be a unit for deriving a transform coefficient and / or a unit for deriving a residual signal from the transform coefficient.
  • a coding unit may be called a coding block (CB)
  • a prediction unit is a prediction block (PB)
  • a transform unit may be called a transform block (TB).
  • a prediction block or prediction unit may mean a specific area in the form of a block within a picture, and may include an array of prediction samples.
  • a transform block or a transform unit may mean a specific area in a block form within a picture, and may include an array of transform coefficients or residual samples.
  • the prediction unit 110 may perform a prediction on a block to be processed (hereinafter, referred to as a current block) and generate a predicted block including prediction samples of the current block.
  • the unit of prediction performed by the prediction unit 110 may be a coding block, a transform block, or a prediction block.
  • the prediction unit 110 may determine whether intra prediction or inter prediction is applied to the current block. As an example, the prediction unit 110 may determine whether intra prediction or inter prediction is applied on a CU basis.
  • the prediction unit 110 may derive a prediction sample for the current block based on reference samples outside the current block in the picture to which the current block belongs (hereinafter, referred to as the current picture). In this case, the prediction unit 110 may (i) derive the prediction sample based on the average or interpolation of neighboring reference samples of the current block, and (ii) the neighbor reference of the current block.
  • the prediction sample may be derived based on a reference sample present in a specific (prediction) direction with respect to the prediction sample among the samples. In case of (i), it may be called non-directional mode or non-angle mode, and in case of (ii), it may be called directional mode or angular mode.
  • the prediction mode may have, for example, 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
  • the prediction unit 110 may determine the prediction mode applied to the current block by using the prediction mode applied to the neighboring block.
  • the prediction unit 110 may derive the prediction sample for the current block based on the sample specified by the motion vector on the reference picture.
  • the prediction unit 110 may apply one of a skip mode, a merge mode, and a motion vector prediction (MVP) mode to derive a prediction sample for the current block.
  • the prediction unit 110 may use the motion information of the neighboring block as the motion information of the current block.
  • the skip mode unlike the merge mode, the difference (residual) between the prediction sample and the original sample is not transmitted.
  • the MVP mode the motion vector of the current block may be derived using the motion vector of the neighboring block as a motion vector predictor.
  • the neighboring block may include a spatial neighboring block existing in the current picture and a temporal neighboring block present in the reference picture.
  • a reference picture including the temporal neighboring block may be called a collocated picture (colPic).
  • the motion information may include a motion vector and a reference picture index.
  • Information such as prediction mode information and motion information may be encoded (entropy) and output in the form of a bitstream.
  • the highest picture on the reference picture list may be used as the reference picture.
  • Reference pictures included in a reference picture list may be sorted based on a difference in a picture order count (POC) between a current picture and a corresponding reference picture.
  • POC picture order count
  • the subtraction unit 121 generates a residual sample which is a difference between the original sample and the prediction sample.
  • residual samples may not be generated as described above.
  • the transform unit 122 generates transform coefficients by transforming the residual sample in units of transform blocks.
  • the transform unit 122 may perform the transform according to the size of the transform block and the prediction mode applied to the coding block or the prediction block that spatially overlaps the transform block. For example, if intra prediction is applied to the coding block or the prediction block that overlaps the transform block, and the transform block is a 4 ⁇ 4 residual array, the residual sample is configured to perform a discrete sine transform (DST) transform kernel.
  • the residual sample may be transformed using a discrete cosine transform (DCT) transform kernel.
  • DST discrete sine transform
  • DCT discrete cosine transform
  • the quantization unit 123 may quantize the transform coefficients to generate quantized transform coefficients.
  • the reordering unit 124 rearranges the quantized transform coefficients.
  • the reordering unit 124 may reorder the quantized transform coefficients in the form of a block into a one-dimensional vector form through a coefficient scanning method. Although the reordering unit 124 has been described in a separate configuration, the reordering unit 124 may be part of the quantization unit 123.
  • the entropy encoding unit 130 may perform entropy encoding on the quantized transform coefficients.
  • Entropy encoding may include, for example, encoding methods such as exponential Golomb, context-adaptive variable length coding (CAVLC), context-adaptive binary arithmetic coding (CABAC), and the like.
  • the entropy encoding unit 130 may encode information necessary for video reconstruction other than the quantized transform coefficient (for example, a value of a syntax element) together or separately. Entropy encoded information may be transmitted or stored in units of network abstraction layer (NAL) units in the form of bitstreams.
  • NAL network abstraction layer
  • the inverse quantization unit 125 inverse quantizes the quantized values (quantized transform coefficients) in the quantization unit 123, and the inverse transformer 126 inverse transforms the inverse quantized values in the inverse quantization unit 125 to obtain a residual sample.
  • the adder 140 reconstructs the picture by combining the residual sample and the predictive sample.
  • the residual sample and the predictive sample may be added in units of blocks to generate a reconstructed block.
  • the adder 140 may be part of the predictor 110.
  • the adder 140 may be called a restoration unit or a restoration block generation unit.
  • the filter unit 150 may apply a deblocking filter and / or a sample adaptive offset to the reconstructed picture. Through deblocking filtering and / or sample adaptive offset, the artifacts of the block boundaries in the reconstructed picture or the distortion in the quantization process can be corrected.
  • the sample adaptive offset may be applied on a sample basis and may be applied after the process of deblocking filtering is completed.
  • the filter unit 150 may apply an adaptive loop filter (ALF) to the reconstructed picture. ALF may be applied to the reconstructed picture after the deblocking filter and / or sample adaptive offset is applied.
  • ALF adaptive loop filter
  • the memory 160 may store reconstructed pictures (decoded pictures) or information necessary for encoding / decoding.
  • the reconstructed picture may be a reconstructed picture after the filtering process is completed by the filter unit 150.
  • the stored reconstructed picture may be used as a reference picture for (inter) prediction of another picture.
  • the memory 160 may store (reference) pictures used for inter prediction.
  • pictures used for inter prediction may be designated by a reference picture set or a reference picture list.
  • FIG. 2 is a diagram schematically illustrating a configuration of a video decoding apparatus to which the present invention may be applied.
  • the video decoding apparatus 200 may include an entropy decoding unit 210, a residual processor 220, a predictor 230, an adder 240, a filter 250, and a memory 260. It may include.
  • the residual processor 220 may include a rearrangement unit 221, an inverse quantization unit 222, and an inverse transform unit 223.
  • the video decoding apparatus 200 may reconstruct the video in response to a process in which the video information is processed in the video encoding apparatus.
  • the video decoding apparatus 200 may perform video decoding using a processing unit applied in the video encoding apparatus.
  • the processing unit block of video decoding may be, for example, a coding unit, and in another example, a coding unit, a prediction unit, or a transform unit.
  • the coding unit may be split along the quad tree structure and / or binary tree structure from the largest coding unit.
  • the prediction unit and the transform unit may be further used in some cases, in which case the prediction block is a block derived or partitioned from the coding unit and may be a unit of sample prediction. At this point, the prediction unit may be divided into subblocks.
  • the transform unit may be divided along the quad tree structure from the coding unit, and may be a unit for deriving a transform coefficient or a unit for deriving a residual signal from the transform coefficient.
  • the entropy decoding unit 210 may parse the bitstream and output information necessary for video reconstruction or picture reconstruction. For example, the entropy decoding unit 210 decodes information in a bitstream based on a coding method such as exponential Golomb coding, CAVLC, or CABAC, quantized values of syntax elements necessary for video reconstruction, and residual coefficients. Can be output.
  • a coding method such as exponential Golomb coding, CAVLC, or CABAC, quantized values of syntax elements necessary for video reconstruction, and residual coefficients. Can be output.
  • the CABAC entropy decoding method receives a bin corresponding to each syntax element in a bitstream, and decodes syntax element information and decoding information of neighboring and decoding target blocks or information of symbols / bins decoded in a previous step.
  • the context model may be determined using the context model, the probability of occurrence of a bin may be predicted according to the determined context model, and arithmetic decoding of the bin may be performed to generate a symbol corresponding to the value of each syntax element. have.
  • the CABAC entropy decoding method may update the context model by using the information of the decoded symbol / bin for the context model of the next symbol / bean after determining the context model.
  • the information related to the prediction among the information decoded by the entropy decoding unit 210 is provided to the prediction unit 230, and the residual value on which the entropy decoding has been performed by the entropy decoding unit 210, that is, the quantized transform coefficient, is used as a reordering unit ( 221 may be input.
  • the reordering unit 221 may rearrange the quantized transform coefficients in a two-dimensional block form.
  • the reordering unit 221 may perform reordering in response to coefficient scanning performed by the encoding apparatus.
  • the rearrangement unit 221 has been described in a separate configuration, but the rearrangement unit 221 may be part of the inverse quantization unit 222.
  • the inverse quantization unit 222 may dequantize the quantized transform coefficients based on the (inverse) quantization parameter and output the transform coefficients.
  • information for deriving a quantization parameter may be signaled from the encoding apparatus.
  • the inverse transform unit 223 may inversely transform transform coefficients to derive residual samples.
  • the prediction unit 230 may perform prediction on the current block and generate a predicted block including prediction samples for the current block.
  • the unit of prediction performed by the prediction unit 230 may be a coding block, a transform block, or a prediction block.
  • the prediction unit 230 may determine whether to apply intra prediction or inter prediction based on the information about the prediction.
  • a unit for determining which of intra prediction and inter prediction is to be applied and a unit for generating a prediction sample may be different.
  • the unit for generating a prediction sample in inter prediction and intra prediction may also be different.
  • whether to apply inter prediction or intra prediction may be determined in units of CUs.
  • a prediction mode may be determined and a prediction sample may be generated in PU units
  • intra prediction a prediction mode may be determined in PU units and a prediction sample may be generated in TU units.
  • the prediction unit 230 may derive the prediction sample for the current block based on the neighbor reference samples in the current picture.
  • the prediction unit 230 may derive the prediction sample for the current block by applying the directional mode or the non-directional mode based on the neighbor reference samples of the current block.
  • the prediction mode to be applied to the current block may be determined using the intra prediction mode of the neighboring block.
  • the prediction unit 230 may derive the prediction sample for the current block based on the sample specified on the reference picture by the motion vector on the reference picture.
  • the prediction unit 230 may apply any one of a skip mode, a merge mode, and an MVP mode to derive a prediction sample for the current block.
  • motion information required for inter prediction of the current block provided by the video encoding apparatus for example, information about a motion vector, a reference picture index, and the like may be obtained or derived based on the prediction information.
  • the motion information of the neighboring block may be used as the motion information of the current block.
  • the neighboring block may include a spatial neighboring block and a temporal neighboring block.
  • the prediction unit 230 may construct a merge candidate list using motion information of available neighboring blocks, and may use information indicated by the merge index on the merge candidate list as a motion vector of the current block.
  • the merge index may be signaled from the encoding device.
  • the motion information may include a motion vector and a reference picture. When the motion information of the temporal neighboring block is used in the skip mode and the merge mode, the highest picture on the reference picture list may be used as the reference picture.
  • the difference (residual) between the prediction sample and the original sample is not transmitted.
  • the motion vector of the current block may be derived using the motion vector of the neighboring block as a motion vector predictor.
  • the neighboring block may include a spatial neighboring block and a temporal neighboring block.
  • a merge candidate list may be generated by using a motion vector of a reconstructed spatial neighboring block and / or a motion vector corresponding to a Col block, which is a temporal neighboring block.
  • the motion vector of the candidate block selected from the merge candidate list is used as the motion vector of the current block.
  • the information about the prediction may include a merge index indicating a candidate block having an optimal motion vector selected from candidate blocks included in the merge candidate list.
  • the prediction unit 230 may derive the motion vector of the current block by using the merge index.
  • a motion vector predictor candidate list may be generated using a motion vector of a reconstructed spatial neighboring block and / or a motion vector corresponding to a Col block, which is a temporal neighboring block.
  • the prediction information may include a prediction motion vector index indicating an optimal motion vector selected from the motion vector candidates included in the list.
  • the prediction unit 230 may select the predicted motion vector of the current block from the motion vector candidates included in the motion vector candidate list using the motion vector index.
  • the prediction unit of the encoding apparatus may obtain a motion vector difference (MVD) between the motion vector of the current block and the motion vector predictor, and may encode the output vector in a bitstream form. That is, MVD may be obtained by subtracting the motion vector predictor from the motion vector of the current block.
  • the prediction unit 230 may obtain a motion vector difference included in the information about the prediction, and derive the motion vector of the current block by adding the motion vector difference and the motion vector predictor.
  • the prediction unit may also obtain or derive a reference picture index or the like indicating a reference picture from the information about the prediction.
  • the adder 240 may reconstruct the current block or the current picture by adding the residual sample and the predictive sample.
  • the adder 240 may reconstruct the current picture by adding the residual sample and the predictive sample in block units. Since the residual is not transmitted when the skip mode is applied, the prediction sample may be a reconstruction sample.
  • the adder 240 has been described in a separate configuration, the adder 240 may be part of the predictor 230. On the other hand, the adder 240 may be called a restoration unit or a restoration block generation unit.
  • the filter unit 250 may apply the deblocking filtering sample adaptive offset, and / or ALF to the reconstructed picture.
  • the sample adaptive offset may be applied in units of samples and may be applied after deblocking filtering.
  • ALF may be applied after deblocking filtering and / or sample adaptive offset.
  • the memory 260 may store reconstructed pictures (decoded pictures) or information necessary for decoding.
  • the reconstructed picture may be a reconstructed picture after the filtering process is completed by the filter unit 250.
  • the memory 260 may store pictures used for inter prediction.
  • pictures used for inter prediction may be designated by a reference picture set or a reference picture list.
  • the reconstructed picture can be used as a reference picture for another picture.
  • the memory 260 may output the reconstructed picture in an output order.
  • the coding When coding is performed on an input picture, the coding may be performed based on one processing unit.
  • the processing unit may be referred to as a coding unit (CU).
  • coding is performed in units of regions including similar information in the picture, conversion efficiency may be improved, thereby improving overall coding efficiency.
  • prediction accuracy As coding is performed in units of regions including similar information in the picture, prediction accuracy may be improved, thereby improving overall coding efficiency.
  • QT quad tree
  • splitting the CUs to include exactly similar information may be limited. In this case, dividing the picture into non-square CUs including information representing the specific object may improve coding efficiency.
  • QTBT Quad Tree Binary Tree
  • the QTBT structure may indicate a structure in which a CU (or CTU) is divided through a QT structure and divided through a binary tree (BT) structure. That is, the QTBT may represent a partition structure formed by combining the QT structure and the BT structure, and when a picture is coded in units of CTU, the CTU may be split through the QT structure, Leaf nodes may be additionally partitioned through the BT structure.
  • the leaf node may represent a CU that is no longer split in the QT structure, and the leaf node may be called an end node.
  • the QT structure may represent a structure in which a 2Nx2N size CU (or CTU) is divided into four NxN size sub-CUs, and the BT structure is a 2Nx2N size CU having two Nx2N (or nLx2N, nRx2N).
  • a sub-CU of size or a structure divided into two 2N ⁇ N (or 2N ⁇ nU, 2N ⁇ nD) sized sub CUs may be represented. Referring to (a) of FIG.
  • a CU may be divided into square CUs having a lower depth through a QT structure, and in addition, a specific CU among the square CUs may have non-square CUs having a lower depth through a BT structure. It can be divided into
  • 3B illustrates an example of syntax signaling of the QTBT structure.
  • the solid line shown in (b) of FIG. 3 may represent a QT structure, and the dotted line may represent a BT structure.
  • the syntax for the CU of the lower depth from the upper depth may be indicated from the top to the bottom.
  • the syntax for the upper left, upper right, lower left and lower right CUs may be indicated in a left to right direction.
  • the uppermost number may represent the syntax for a CU of n depth
  • the numbers in the second position from the top are CUs of n + 1 depth
  • the fourth from the top The numbers in the location may indicate the syntax for CUs of n + 3 depth.
  • numbers indicated in bold may indicate values of syntaxes for the QT structure
  • numbers not indicated in bold may indicate values of syntaxes for the BT structure.
  • a QT segmentation flag indicating whether a CU is partitioned through the QT structure may be transmitted. That is, a flag indicating whether the 2N ⁇ 2N size CU is divided into four N ⁇ N size CUs may be transmitted. For example, when the value of the QT splitting flag for the CU is 1, the CU may be divided into 4 sub-CUs, and when the value of the QT splitting flag for the CU is 0, the CU May not be divided.
  • information about a maximum CU size, a minimum CU size, a maximum depth, etc. in the QT structure may be transmitted to adjust the QT structure for the input image.
  • Information about the above-described QT structure may be transmitted for each slice type, or may be transmitted for each of image components (luminance component, chroma component, etc.).
  • information about the BT structure may be transmitted for the end node that is no longer split in the QT structure. That is, information about the BT structure for the CU corresponding to the end node in the QT structure may be transmitted.
  • the information including the information on the BT structure may be referred to as additional partition information. For example, a BT partition flag indicating whether the CU is partitioned through the BT structure, that is, whether the BT structure is applied to the CU may be transmitted.
  • the CU when the value for the BT split flag is 1, the CU may be split into two sub-CUs, and when the value for the BT split flag is 0, the CU may not be split.
  • information about a maximum CU size, a minimum CU size, a maximum depth, etc. in the BT structure may be transmitted to adjust the BT structure for the input image.
  • Information about the above-described BT structure may be transmitted for each slice type or may be transmitted for each of the image components.
  • the CU When the CU is divided through the BT structure, the CU may be divided in a horizontal or vertical direction. In which direction the CU is divided, that is, a BT partition mode index indicating the partition type of the CU may be further transmitted.
  • a predicted block including prediction samples for the current block may be generated.
  • the predicted block comprises prediction samples in the spatial domain (or pixel domain).
  • the predicted block is derived identically in the encoding apparatus and the decoding apparatus, and the encoding apparatus decodes information (residual information) about the residual between the original block and the predicted block, not the original sample value itself of the original block. Signaling to an apparatus may increase image coding efficiency.
  • the decoding apparatus may derive a residual block including residual samples based on the residual information, generate the reconstructed block including reconstructed samples by adding the residual block and the predicted block, and generate reconstructed blocks. A reconstructed picture may be generated.
  • FIG. 4 shows examples of prediction with or without illuminance compensation (IC).
  • the block 410 of the corresponding reference picture may have a high illuminance locally by a light source. This may be caused by a temporal difference between the reference pictures of the current picture, a difference between the positions of the objects of the current picture and the positions of the objects of the reference picture, and / or a difference between the positions of the reference block and the current block.
  • the encoder may use the block 410 as a reference block for inter prediction based on a rate-distortion (RD) cost, or in some cases, use other blocks in the vicinity as the reference block.
  • RD rate-distortion
  • the current block 440 may be predicted based on the reference block 430 compensated by applying the illumination compensation according to the present invention to increase the efficiency of prediction.
  • the residual between original blocks is reduced, so that data allocated to the residual signal is reduced and coding efficiency can be improved.
  • a method of increasing the efficiency of prediction by compensating for illumination in the reference block may be referred to as location illumination compensation (LIC).
  • LIC may be mixed with illumination compensation (IC).
  • an IC flag for indicating whether the IC is applied and an IC parameter for applying the IC may be used.
  • the IC parameter may include a scaling factor a and an offset b as described below.
  • whether to apply an IC may be determined in consideration of a block size or partition type, such as limited application to a CU having a specific size or a PU having a partition type of 2N ⁇ 2N.
  • the QTBT structure is used as described above, since CUs of various sizes may be used without distinguishing between CU, PU, and TU, the accuracy of prediction may be increased by applying an IC to fit the structure.
  • IC is based on a linear model, for example, can be based on the following equation (1).
  • IC parameters a and b represent scaling factors and offsets, respectively
  • x and y represent peripheral reference sample values of the reference block and peripheral reference sample values of the current block used to derive the IC parameters, respectively.
  • x and y may each represent a reference sample value in the reference block used to derive the IC parameter and a sample value of the original block in the original picture corresponding to the current block.
  • the reference block may be indicated based on the motion vector of the current block.
  • a difference between both sides of Equation 1 may be regarded as an error E, and IC parameters a and b satisfying a condition for minimizing the error may be obtained and applied to the reference block.
  • the modified (roughness compensated) reference samples may be derived by applying a scaling factor and an offset on a sample basis to the reference samples of the reference block.
  • Equation 1 Since the IC parameters a and b to be obtained in Equation 1 are values that minimize errors of both sides, the equation for obtaining the IC parameters may be expressed as follows.
  • E (a, b) represents a and b values that minimize errors, where i represents indexing of each sample, and lambda (lambda) represents a control parameter.
  • the lambda can be predetermined or can be derived based on x, for example.
  • may be set to 0 so that the rear end of Equation 2 may be omitted. The same applies to the equations described below.
  • Equation 2 can be summarized as follows.
  • the IC parameters a and b can be derived as follows.
  • N represents a normalization parameter.
  • N is Can be derived from a part.
  • N may be determined based on the size of the current block (or reference block), and may be, for example, a value such as width * width or width + width of the corresponding block. Or it may be a value such as the width or width of the block + n.
  • a sample of a reference block in a reference block and an original block in an original picture corresponding to the current block may be used to derive the IC parameter, or 2) a peripheral reference sample of the reference block and Peripheral reference samples of the current block may be used.
  • the IC parameter obtained using the relation of the neighbor samples is used.
  • the accuracy of IC parameters may be relatively lower than that of)
  • the parameters can be directly obtained without explicitly receiving IC parameters (ie, a and b) from the encoder.
  • peripheral samples in the case of obtaining the IC parameter based on the peripheral reference sample of the reference block and the peripheral reference sample of the current block, the following peripheral samples may be specifically used.
  • 5 is an example showing peripheral reference samples used for IC parameter derivation.
  • FIG. 5A illustrates a case in which left / top peripheral samples of the current block 500 and left / top peripheral samples of the reference block 510 are used as peripheral reference samples in one step.
  • the positions of the left peripheral samples are (-1,0), ..., (-1, H-1).
  • the upper peripheral samples may include (0, -1), ..., (W-1, -1).
  • H and W may represent the height and width of the current block.
  • peripheral samples adjacent to the left / upper boundary of the current block 500 and peripheral samples adjacent to the left / upper boundary of the reference block 510 may be used as peripheral reference samples.
  • FIG. 5B illustrates a case in which the left / upperipheral samples of the current block 550 and the left / upperipheral samples of the reference block 560 are used as neighboring reference samples in two sample units. .
  • the peripheral samples adjacent to the left / upper boundary of the current block 550 and the peripheral samples adjacent to the left / upper boundary of the reference block 550 are sub-sampled in units of two samples. Can be used as reference samples.
  • the division of (a) and (b) may be determined based on the size (or width / height) of the current block. For example, when the size of the block is less than or equal to 8 ⁇ 8, the neighboring samples may be used in one sample unit. When the size of the block is larger than 8 ⁇ 8, the neighboring samples may be used in the unit of 2 samples. In this way, complexity can be reduced while maintaining IC performance by adaptively determining a step of peripheral samples used for IC parameter derivation based on block size (or width / height).
  • (b) has been described based on two steps, this is an example and a step having a value greater than two may be applied. Alternatively, the step size applied to the left peripheral samples and the step size applied to the upper peripheral samples may be different.
  • the step size can be represented by a subsampling factor.
  • the type of block may vary according to the minimum size (min), maximum size (max), depth (depth) of the QuadTree, minimum size (min), maximum size (max), and depth of the BinaryTree.
  • peripheral reference samples can be used, for example, to derive IC parameters more efficiently.
  • FIG. 6 is an example illustrating peripheral reference samples used for IC parameter derivation.
  • the step sizes for the left side and the upper side may be set differently.
  • the step size may be set based on the size of the width and / or height.
  • the number of left peripheral reference samples and the number of upper peripheral reference samples used for IC parameter derivation may be equal.
  • the reference step can be adjusted by the ratio of (height / width). For example, if the width is greater than the height, the reference step can be increased in the ratio of (width / height) to the upper step, and if the width is smaller than the height, the reference step can be / Width). Specifically, for example, as shown in (a), when the reference step is 1 step, and the block width is 8 and the height is 4, the reference step is applied to the left step, and the reference step is applied to the upper step.
  • Two steps increased in proportion to (8/4) can be applied.
  • the reference step is 2 steps, the block width is 8 and the height is 4, the reference step is applied to the left step, and the reference step is applied to the upper step.
  • Four steps increased in proportion to (8/4) can be applied.
  • the reference step is 1 step, the block width is 8 and the height is 2, the reference step is applied to the left step, and the reference step is applied to the upper step.
  • Four steps increased in the ratio (8/2) can be applied.
  • the reference step is 2 steps, the block width is 8 and the height is 2, the reference step is applied to the left step, and the reference step is applied to the upper step.
  • Eight steps increased in proportion to (8/2) can be applied.
  • the left / top step size considering the size, width, and height of the non-square block may be derived as follows.
  • step Y can be calculated as step X * 16/8.
  • step X becomes 2 and step Y becomes 4 (step X * 32/16), so that the IC parameters can be derived using a total of 16 samples.
  • step X becomes 2 and step Y becomes 8 (step X * 64/8), so that the IC parameters can be derived using a total of 16 samples.
  • the accuracy of the IC parameter may be lowered and improved through the following method. .
  • the motion vector of the neighboring block is used to derive the motion vector of the current block, and the neighboring block is not only the blocks located on the left and the upper side of the current block, but also the lower left of the current block.
  • Blocks located on the side, upper right side, and upper left side may be considered. This indicates that not only the left and upper blocks of the current block but also the lower left, upper right and upper left blocks may have a high association with the current block. That is, not only the peripheral samples adjacent to the left side and the upper side, but also the left lower left, upper right side, and the upper left side samples may also reflect changes in illuminance of the current block.
  • the accuracy of the IC parameter is further improved by using not only the left peripheral samples and the upper peripheral samples adjacent to the current block, but also the lower left, upper right and / or upper left peripheral samples located in its extension line. Can increase.
  • FIG. 7 shows an example of peripheral reference samples for IC parameter derivation used for a non-square block.
  • the left and right peripheral samples adjacent to the block, as well as the left and bottom left samples or the right top edge, which are extended by the max (width, height) length, are extended.
  • Samples can be further used as peripheral reference samples.
  • the peripheral reference samples can be extended to a square size having a value of max (width, height).
  • FIG. 7 exemplarily illustrates a case where step X and step Y are 2, but the step size may be variously set according to the size, width and / or height of the block such as 1, 2, 4, and 8, and the like. As described above, it may be set differently for Step X and Step Y.
  • peripheral reference samples are extended and used for the shorter side of the width and height.
  • the left and upper peripheral samples may be extended to the lower left and upper right peripheral reference samples.
  • peripheral reference samples 8 shows an example of peripheral reference samples including upper right and lower left peripheral reference samples for IC parameter derivation used for a non-square block.
  • the number of extended samples can be set in various ways, for example, can be determined based on the ratio of width and height or min (width, height).
  • the ratio of the width and the height is 2, and in this case, the block can be extended by 2, which is half of the min (width, height). That is, two lower left peripheral reference samples and two upper right peripheral reference samples may be further used for IC parameter derivation.
  • the ratio of the width and the height of the block is 4 or 8
  • the ratio of the left peripheral reference samples and the upper peripheral reference samples for the IC parameter derivation becomes two. After adjusting the steps, you can extend the width and height.
  • two lower left peripheral reference samples and two upper right peripheral reference samples may be further used for IC parameter derivation.
  • the number of extended peripheral reference samples on the left and top sides is equally applied, but this is an example, and the number of extended samples on the left and top sides may vary according to the shape of the block.
  • left or top reference samples may be used for IC parameter derivation for a non-square block, this may rather act as an error component and lower the accuracy of the IC parameter.
  • left and top peripheral reference samples of the block instead of using the left and top peripheral reference samples of the block, only the left or top peripheral reference samples may be used depending on the shape of the block.
  • IC parameters may be derived using left and upper peripheral reference samples, and for a block having a width> height, IC parameters may be derived using upper peripheral reference samples.
  • the left peripheral reference samples can be used to derive the IC parameters.
  • the IC parameter can be derived without considering the samples of the low association surface. This method may be limited depending on the size and shape of the block and may be performed by adjusting the number of left and / or upper steps.
  • the IC flag may be transmitted for a block in which the IC is available, and in this case, whether the IC is available may be determined according to the size of the block and / or the width, height size, or ratio of the block. For example, if the size of the block is less than 16 ⁇ 16, the IC may not be available. Alternatively, the IC may not be available if the shape of the block is non-square. Alternatively, the IC may be available only when the shape of the block is 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, and may not be available otherwise.
  • the IC is available only when the shape of the block is 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, 2N ⁇ N / 2, N / 2 ⁇ 2N, and may not be available otherwise.
  • the IC flag may be transmitted depending on the size of the block and the shape of the block.
  • the current block may correspond to a CU according to the QTBT structure, and N is used to indicate the horizontal and vertical ratios, and does not indicate the partition type (mode) of the PU used when the QTBT structure is not applied.
  • FIG. 10 illustratively illustrates IC application according to various criteria in accordance with the present invention.
  • the operation disclosed in FIG. 10 may be performed by a coding apparatus, and the coding apparatus may include an encoding apparatus and a decoding apparatus.
  • the coding apparatus checks an IC condition (S1000).
  • the coding apparatus may adaptively derive reference peripheral samples in consideration of the various conditions described above in the present invention (S1010) and calculate the IC parameter S1020 based thereon.
  • the reference sample in the width direction and the height direction Step X can be set to 2 and Step Y can be set to 1 so that the number of pieces is the same, or if the ratio of height to width is 2 (ex. 4 ⁇ 8, 8 ⁇ 16, 16 ⁇ 32, etc.), the width direction Step X may be set to 1 and step Y may be set to 2 such that the number of reference samples in the and height directions are the same.
  • the ratio of width to height is 4 (ex.
  • step X can be set to 2 and step Y to 1, or if the ratio of height to width is 4 (ex. 4x16, 8x32, etc.), Step X can be set to 1 and Step Y can be set to 2.
  • the peripheral reference samples may be extended to include the lower left peripheral reference sample and the upper right peripheral reference sample as described above with reference to FIG. 8.
  • the coding apparatus applies the IC using the calculated IC parameter (S1030).
  • the coding apparatus may derive the predicted block including the illumination compensated prediction samples by applying the IC based on the calculated IC parameter.
  • FIG. 11 schematically illustrates an example of an inter prediction method in image encoding according to the present invention.
  • the method disclosed in FIG. 11 may be performed by the encoding apparatus disclosed in FIG. 1.
  • S1110 to S1130 of FIG. 11 may be performed by the prediction unit of the encoding apparatus
  • S1140 may be performed by the entropy encoding unit of the encoding apparatus.
  • the encoding apparatus detects a reference block with respect to the current block (S1100).
  • the encoding apparatus may find a reference block having an optimal rate-distortion (RD) cost on the reference picture through a motion estimation procedure.
  • RD rate-distortion
  • the encoding apparatus derives a motion vector of the current block (S1110).
  • the encoding apparatus may derive the motion vector indicating the reference block based on the position of the current block and the position of the reference block.
  • the motion vector may be signaled to the decoding apparatus according to a procedure defined according to the inter prediction mode (eg, merge mode, MVP mode) of the current block.
  • the inter prediction mode eg, merge mode, MVP mode
  • the encoding apparatus derives the first peripheral reference samples of the reference block and the second peripheral reference samples of the current block, and derives an IC parameter using the first peripheral reference samples and the second peripheral reference samples ( S1120).
  • the IC parameter may include the aforementioned scaling factor a and offset b.
  • the IC parameter may be calculated based on Equations 1 to 5 described above.
  • the first peripheral reference samples and the second peripheral reference samples may include the samples described above with reference to FIGS. 5 to 9.
  • the first peripheral reference samples include first left peripheral reference samples adjacent to a left boundary of the reference block and first upper peripheral reference samples adjacent to an upper boundary of the reference block, and the second peripheral reference samples.
  • Reference samples may include second left peripheral reference samples adjacent to a left boundary of the current block and second upper peripheral reference samples adjacent to an upper boundary of the current block.
  • the first left peripheral reference samples or the first upper peripheral reference samples are samples subsampled to step size 2 or more, and the second left peripheral reference samples or the second upper peripheral reference samples are step size 2.
  • the samples may be subsampled as described above.
  • the current block is a non-square block
  • the first step size for the first left peripheral reference samples is different from the second step size for the first upper peripheral reference samples
  • the first step size is the The step size for the second left peripheral reference samples may be the same
  • the second step size may be the same as the step size for the second upper peripheral reference samples.
  • the number of the first left peripheral reference samples and the number of the first upper peripheral reference samples may be the same
  • the number of the second left peripheral reference samples and the number of the second upper peripheral reference samples may be the same.
  • the ratio of the first step size and the second step size may be determined based on the ratio of the height and the width of the current block.
  • the first peripheral reference samples may include first lower left peripheral reference samples of the reference block or first right upper peripheral reference samples of the reference block
  • the second peripheral reference samples may include the first peripheral reference samples of the current block.
  • Two lower left peripheral reference samples or a second upper right peripheral reference sample of the current block when the width of the current block is greater than the height, the first peripheral reference samples include the first lower left peripheral reference samples, and the second peripheral reference samples are the second lower left peripheral reference samples. Can include them.
  • the sum of the number of the first left peripheral reference samples and the number of the first lower left peripheral reference samples is equal to the number of the first upper peripheral reference samples, and the number of the second left peripheral reference samples and the first number.
  • the sum of the number of two lower left peripheral reference samples may be equal to the number of the second upper peripheral reference samples.
  • the first peripheral reference samples include the first right upper peripheral reference samples
  • the second peripheral reference samples include the second upper right peripheral Reference samples may be included.
  • the sum of the number of the first upper peripheral reference samples and the number of the first right upper peripheral reference samples is equal to the number of the first left peripheral reference samples, the number of the second upper peripheral reference samples and the first number.
  • the sum of the number of two upper right peripheral reference samples may be equal to the number of the second left peripheral reference samples.
  • the first peripheral reference samples may include first lower left peripheral reference samples of the reference block and first right upper peripheral reference samples of the reference block, and the second peripheral reference samples of the current block And may include second lower left peripheral reference samples and a second upper right peripheral reference sample of the current block.
  • the number of the first lower left peripheral reference samples and the number of the first upper right peripheral reference samples may be equal to a specific number, and the specific number may be determined based on the width and the height of the current block. The specific number may be determined, for example, by half of the minimum value of the width and height of the current block.
  • the first peripheral reference samples may include only the first left peripheral reference samples adjacent to the left boundary of the reference block. have.
  • the first peripheral reference samples may include only the first upper peripheral reference samples adjacent to an upper boundary of the reference block.
  • the encoding apparatus performs illuminance compensation (IC) based on the calculated IC parameter to derive (illuminance compensated) prediction samples for the current block (S1130).
  • the encoding apparatus may apply the scaling factor and the offset b to the reference samples of the reference block to derive modified reference samples, and obtain the prediction samples based on the modified reference samples.
  • the encoding device encodes and outputs prediction information (S1140).
  • the prediction information may include information about the motion vector of the current block.
  • the information about the motion vector may include a merge index for the current block.
  • the information about the motion vector may include an MVP flag and motion vector difference (MVD) information.
  • the prediction information may include inter prediction mode information of the current block.
  • the prediction information may include an IC flag.
  • the IC flag may be signaled only when illuminance compensation (IC) is available for the current block. For example, when the current block is a block divided based on the QTBT structure, whether the IC is available may be determined based on the size, width and / or height of the current block. For example, it may be determined that the IC is available only when the size of the current block is larger than a specific size or the ratio of the width and height of the current block is smaller than 2 or 4.
  • IC illuminance compensation
  • the encoding device may encode the prediction information and output the bit stream in the form of a bitstream.
  • the bitstream may be transmitted to a decoding apparatus via a network or a storage medium.
  • FIG. 12 schematically illustrates an example of an inter prediction method in image decoding according to the present invention.
  • the method disclosed in FIG. 12 may be performed by the decoding apparatus disclosed in FIG. 2.
  • S1200 to S1230 of FIG. 12 may be performed by the prediction unit of the decoding apparatus.
  • the decoding apparatus derives a motion vector of the current block (S1200).
  • the decoding apparatus may derive the motion vector to the current block based on the prediction information obtained through the bitstream.
  • the bitstream may be received from an encoding device via a network or a storage medium.
  • the decoding apparatus generates a merge candidate list based on neighboring blocks of the current block, and derives a motion vector of a merge candidate selected from the merge candidate list as the motion vector using a merge index included in the prediction information. can do.
  • the decoding apparatus may generate a MVP candidate list based on neighboring blocks of the current block, select a specific MVP candidate based on an MVP flag included in the inter prediction information, and determine a motion vector and the motion vector of the selected MVP candidate.
  • the motion vector may be derived using MVD derived from MVD information included in prediction information.
  • the decoding apparatus derives a reference block with respect to the current block (S1210).
  • the decoding apparatus may derive the reference block based on the motion vector.
  • the decoding apparatus may derive the reference block indicated by the motion vector based on the position of the current block on the reference picture.
  • the decoding apparatus derives the first peripheral reference samples of the reference block and the second peripheral reference samples of the current block, and derives an IC parameter using the first peripheral reference samples and the second peripheral reference samples ( S1220).
  • the IC parameter may include the aforementioned scaling factor a and offset b.
  • the IC parameter may be calculated based on Equations 1 to 5 described above.
  • the first peripheral reference samples and the second peripheral reference samples may include the samples described above with reference to FIGS. 5 to 9.
  • the first peripheral reference samples include first left peripheral reference samples adjacent to a left boundary of the reference block and first upper peripheral reference samples adjacent to an upper boundary of the reference block, and the second peripheral reference samples.
  • Reference samples may include second left peripheral reference samples adjacent to a left boundary of the current block and second upper peripheral reference samples adjacent to an upper boundary of the current block.
  • the first left peripheral reference samples or the first upper peripheral reference samples are samples subsampled to step size 2 or more, and the second left peripheral reference samples or the second upper peripheral reference samples are step size 2.
  • the samples may be subsampled as described above.
  • the current block is a non-square block
  • the first step size for the first left peripheral reference samples is different from the second step size for the first upper peripheral reference samples
  • the first step size is the The step size for the second left peripheral reference samples may be the same
  • the second step size may be the same as the step size for the second upper peripheral reference samples.
  • the number of the first left peripheral reference samples and the number of the first upper peripheral reference samples may be the same
  • the number of the second left peripheral reference samples and the number of the second upper peripheral reference samples may be the same.
  • the ratio of the first step size and the second step size may be determined based on the ratio of the height and the width of the current block.
  • the first peripheral reference samples may include first lower left peripheral reference samples of the reference block or first right upper peripheral reference samples of the reference block, and the second peripheral reference samples may be generated from the current block.
  • Two lower left peripheral reference samples or a second upper right peripheral reference sample of the current block For example, when the width of the current block is greater than the height, the first peripheral reference samples include the first lower left peripheral reference samples, and the second peripheral reference samples are the second lower left peripheral reference samples. Can include them.
  • the sum of the number of the first left peripheral reference samples and the number of the first lower left peripheral reference samples is equal to the number of the first upper peripheral reference samples, and the number of the second left peripheral reference samples and the first number.
  • the sum of the number of two lower left peripheral reference samples may be equal to the number of the second upper peripheral reference samples.
  • the first peripheral reference samples include the first right upper peripheral reference samples
  • the second peripheral reference samples include the second upper right peripheral Reference samples may be included.
  • the sum of the number of the first upper peripheral reference samples and the number of the first right upper peripheral reference samples is equal to the number of the first left peripheral reference samples, the number of the second upper peripheral reference samples and the first number.
  • the sum of the number of two upper right peripheral reference samples may be equal to the number of the second left peripheral reference samples.
  • the first peripheral reference samples may include first lower left peripheral reference samples of the reference block and first right upper peripheral reference samples of the reference block, and the second peripheral reference samples of the current block And may include second lower left peripheral reference samples and a second upper right peripheral reference sample of the current block.
  • the number of the first lower left peripheral reference samples and the number of the first upper right peripheral reference samples may be equal to a specific number, and the specific number may be determined based on the width and the height of the current block. The specific number may be determined, for example, by half of the minimum value of the width and height of the current block.
  • the first peripheral reference samples may include only the first left peripheral reference samples adjacent to the left boundary of the reference block. have.
  • the first peripheral reference samples may include only the first upper peripheral reference samples adjacent to an upper boundary of the reference block.
  • the decoding apparatus performs illuminance compensation (IC) based on the calculated IC parameter to derive (illuminance compensated) prediction samples for the current block (S1230).
  • the encoding apparatus may apply the scaling factor and the offset b to the reference samples of the reference block to derive modified reference samples, and obtain the prediction samples based on the modified reference samples.
  • the prediction information may include an IC flag.
  • the decoding apparatus may determine whether the IC is applied to the current block based on the IC flag.
  • the IC flag may be signaled only when the IC is available for the current block. For example, when the current block is a block divided based on the QTBT structure, whether the IC is available may be determined based on the size, width and / or height of the current block. For example, it may be determined that the IC is available only when the size of the current block is larger than a specific size or the ratio of the width and height of the current block is smaller than 2 or 4.
  • the decoding device may receive residual information about the residual sample for the current block from the bitstream.
  • the residual information may include transform coefficients for the residual samples.
  • the decoding apparatus may derive the residual sample (or residual sample array) for the current block based on the residual information.
  • the decoding apparatus may generate reconstructed samples based on the prediction samples and the residual samples, and may derive a reconstructed block or a reconstructed picture based on the reconstructed samples. Thereafter, as described above, the decoding apparatus may apply an in-loop filtering procedure, such as a deblocking filtering and / or SAO procedure, to the reconstructed picture in order to improve subjective / objective picture quality as necessary.
  • an in-loop filtering procedure such as a deblocking filtering and / or SAO procedure
  • the above-described method according to the present invention may be implemented in software, and the encoding device and / or the decoding device according to the present invention may perform image processing of, for example, a TV, a computer, a smartphone, a set-top box, a display device, and the like. It can be included in the device.
  • the above-described method may be implemented as a module (process, function, etc.) for performing the above-described function.
  • the module may be stored in memory and executed by a processor.
  • the memory may be internal or external to the processor and may be coupled to the processor by various well known means.
  • the processor may include an application-specific integrated circuit (ASIC), other chipsets, logic circuits, and / or data processing devices.
  • the memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory card, storage medium and / or other storage device.

Abstract

본 발명에 따른 인터 예측 방법은 현재 블록의 움직임 벡터를 도출하는 단계, 상기 움직임 벡터를 기반으로 상기 현재 블록에 대한 참조 블록을 도출하는 단계, 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 IC 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하는 단계, 및 상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 단계를 포함하는 것을 특징으로 한다. 본 발명에 따르면 부가 정보의 데이터량을 줄이면서 효율적으로 인터 예측 성능을 높일 수 있다.

Description

영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치
본 발명은 영상 코딩 기술에 관한 것으로서 보다 상세하게는 영상 코딩 시스템에서 조도 보상(illumination compensation) 기반 인터 예측 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 영상 데이터를 저장하는 경우, 전송 비용과 저장 비용이 증가된다.
이에 따라, 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술이 요구된다.
본 발명의 기술적 과제는 영상 코딩 효율을 높이는 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 예측 성능을 높이는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 조도 보상 기반 인터 예측 성능을 높이는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 조도 보상을 위한 부가 정보의 데이터량을 줄이면서 상기 조도 보상을 위한 파라미터를 효율적으로 도출하는 방법을 제공함에 있다.
본 발명의 일 실시예에 따르면, 인코딩 장치에 의하여 수행되는 인터 예측 방법이 제공된다. 상기 방법은 현재 블록에 대한 참조 블록을 검출하는 단계, 상기 현재 블록의 움직임 벡터를 도출하는 단계, 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 IC 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하는 단계, 상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 단계, 및 예측 정보를 인코딩하여 출력하는 단계를 포함함을 특징으로 한다.
본 발명의 다른 일 실시예에 따르면, 인터 예측을 위한 인코딩 장치가 제공된다. 상기 인코딩 장치는 현재 블록에 대한 참조 블록을 검출하고, 상기 현재 블록의 움직임 벡터를 도출하고, 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 IC 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하고, 상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 예측부, 및 예측 정보를 인코딩하여 출력하는 엔트로피 인코딩부를 포함함을 특징으로 한다.
본 발명의 또 다른 일 실시예에 따르면, 디코딩 장치에 의하여 수행되는 인터 예측 방법이 제공된다. 상기 방법은 현재 블록의 움직임 벡터를 도출하는 단계, 상기 움직임 벡터를 기반으로 상기 현재 블록에 대한 참조 블록을 도출하는 단계, 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 IC 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하는 단계, 및 상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 또 다른 일 실시예에 따르면, 인터 예측을 위한 디코딩 장치가 제공된다. 상기 디코딩 장치는 현재 블록의 움직임 벡터를 도출하고, 상기 움직임 벡터를 기반으로 상기 현재 블록에 대한 참조 블록을 도출하되, 상기 참조 블록은 참조 픽처 내에 위치하고, 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 IC 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하고, 및 상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 예측부, 및 상기 참조 픽처를 저장하는 메모리를 포함함을 특징으로 한다.
본 발명에 따르면 블록 구조에 기반한 조도 보상을 통하여 부가 정보의 데이터량을 줄이면서 효율적으로 인터 예측 성능을 높일 수 있다.
본 발명에 따르면 레지듀얼 정보에 필요한 데이터량을 줄일 수 있고, 전반적인 코딩 효율을 높일 수 있다.
도 1은 본 발명이 적용될 수 있는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 2는 본 발명이 적용될 수 있는 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3은 QTBT(Quad Tree Binary Tree) 구조를 통하여 분할된 CU 및 상기 QTBT 구조의 시그널링 방법을 예시적으로 나타낸다.
도 4는 조도 보상(illumination compensation, IC) 유무에 따른 예측의 예들을 나타낸다.
도 5는 IC 파라미터 도출을 위하여 사용되는 주변 참조 샘플들을 나타내는 예이다.
도 6은 IC 파라미터 도출을 위하여 사용되는 주변 참조 샘플들을 나타내는 예이다.
도 7은 비정방형 블록에 대하여 사용되는 IC 파라미터 도출을 위한 주변 참조 샘플들의 예를 나타낸다.
도 8은 비정방형 블록에 대하여 사용되는 IC 파라미터 도출을 위한 우상측 및 좌하측 주변 참조 샘플들을 포함하는 주변 참조 샘플들의 예를 나타낸다.
도 9는 IC 파라미터 도출을 위한 주변 샘플들의 예를 나타낸다.
도 10은 본 발명에 따른 다양한 기준에 따른 IC 적용을 예시적으로 나타낸다.
도 11은 본 발명에 따른 영상 인코딩에서의 인터 예측 방법의 일 예를 개략적으로 나타낸다.
도 12은 본 발명에 따른 영상 디코딩에서의 인터 예측 방법의 일 예를 개략적으로 나타낸다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정 실시예에 한정하려고 하는 것이 아니다. 본 명세서에서 상용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 도는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
본 명세서에서 픽처(picture)는 일반적으로 특정 시간대의 하나의 영상을 나타내는 단위를 의미하며, 슬라이스(sICe)는 코딩에 있어서 픽처의 일부를 구성하는 단위이다. 하나의 픽처는 복수의 슬라이스로 구성될 수 있으며, 필요에 따라서 픽처 및 슬라이스는 서로 혼용되어 사용될 수 있다.
픽셀(pixel) 또는 펠(pel)은 하나의 픽처(또는 영상)을 구성하는 최소의 단위를 의미할 수 있다. 또한, 픽셀에 대응하는 용어로서 '샘플(sample)'이 사용될 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있으며, 휘도(luma) 성분의 픽셀/픽셀값만을 나타낼 수도 있고, 채도(chroma) 성분의 픽셀/픽셀 값만을 나타낼 수도 있다.
유닛(unit)은 영상 처리의 기본 단위를 나타낸다. 유닛은 픽처의 특정 영역 및 해당 영역에 관련된 정보 중 적어도 하나를 포함할 수 있다. 유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타낼 수 있다.
도 1은 본 발명이 적용될 수 있는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 1을 참조하면, 비디오 인코딩 장치(100)는 픽처 분할부(105), 예측부(110), 레지듀얼 처리부(120), 가산부(140), 필터부(150) 및 메모리(160)을 포함할 수 있다. 레지듀얼 처리부(120)는 감산부(121), 변환부(122), 양자화부(123), 재정렬부(124), 역양자화부(125) 및 역변환부(126)를 포함할 수 있다.
픽처 분할부(105)는 입력된 픽처를 적어도 하나의 처리 유닛(processing unit)으로 분할할 수 있다.
일 예로, 처리 유닛은 코딩 유닛(coding unit, CU)이라고 불릴 수 있다. 이 경우 코딩 유닛은 최대 코딩 유닛(largest coding unit, LCU)으로부터 QTBT (Quad-tree binary-tree) 구조에 따라 재귀적으로(recursively) 분할될 수 있다. 예를 들어, 하나의 코딩 유닛은 쿼드 트리 구조 및/또는 바이너리 트리 구조를 기반으로 하위(deeper) 뎁스의 복수의 코딩 유닛들로 분할될 수 있다. 이 경우 예를 들어 쿼드 트리 구조가 먼저 적용되고 바이너리 트리 구조가 나중에 적용될 수 있다. 또는 바이너리 트리 구조가 먼저 적용될 수도 있다. 더 이상 분할되지 않는 최종 코딩 유닛을 기반으로 본 발명에 따른 코딩 절차가 수행될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 여기서 코딩 절차라 함은 후술하는 예측, 변환, 및 복원 등의 절차를 포함할 수 있다.
다른 예로, 처리 유닛은 코딩 유닛(coding unit, CU) 예측 유닛(prediction unit, PU) 또는 변환 유닛(transform unit, TU)을 포함할 수도 있다. 코딩 유닛은 최대 코딩 유닛(largest coding unit, LCU)으로부터 쿼드 트리 구조를 따라서 하위(deeper) 뎁스의 코딩 유닛들로 분할(split)될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 최소 코딩 유닛(smallest coding unit, SCU)이 설정된 경우 코딩 유닛은 최소 코딩 유닛보다 더 작은 코딩 유닛으로 분할될 수 없다. 여기서 최종 코딩 유닛이라 함은 예측 유닛 또는 변환 유닛으로 파티셔닝 또는 분할되는 기반이 되는 코딩 유닛을 의미한다. 예측 유닛은 코딩 유닛으로부터 파티셔닝(partitioning)되는 유닛으로서, 샘플 예측의 유닛일 수 있다. 이 때, 예측 유닛은 서브 블록(sub block)으로 나뉠 수도 있다. 변환 유닛은 코딩 유닛으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 유닛 및/또는 변환 계수로부터 레지듀얼 신호(residual signal)를 유도하는 유닛일 수 있다. 이하, 코딩 유닛은 코딩 블록(coding block, CB), 예측 유닛은 예측 블록(prediction block, PB), 변환 유닛은 변환 블록(transform block, TB) 으로 불릴 수 있다. 예측 블록 또는 예측 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수 있고, 예측 샘플의 어레이(array)를 포함할 수 있다. 또한, 변환 블록 또는 변환 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수 있고, 변환 계수 또는 레지듀얼 샘플의 어레이를 포함할 수 있다.
예측부(110)는 처리 대상 블록(이하, 현재 블록이라 함)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(110)에서 수행되는 예측의 단위는 코딩 블록일 수 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(110)는 현재 블록에 인트라 예측이 적용되는지 인터 예측이 적용되는지를 결정할 수 있다. 일 예로, 예측부(110)는 CU 단위로 인트라 예측 또는 인터 예측이 적용되는지를 결정할 수 있다.
인트라 예측의 경우에, 예측부(110)는 현재 블록이 속하는 픽처(이하, 현재 픽처) 내의 현재 블록 외부의 참조 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이 때, 예측부(110)는 (i) 현재 블록의 주변(neighboring) 참조 샘플들의 평균(average) 혹은 인터폴레이션(interpolation)을 기반으로 예측 샘플을 유도할 수 있고, (ii) 현재 블록의 주변 참조 샘플들 중 예측 샘플에 대하여 특정 (예측) 방향에 존재하는 참조 샘플을 기반으로 상기 예측 샘플을 유도할 수도 있다. (i)의 경우는 비방향성 모드 또는 비각도 모드, (ii)의 경우는 방향성(directional) 모드 또는 각도(angular) 모드라고 불릴 수 있다. 인트라 예측에서 예측 모드는 예를 들어 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비방향성 모드는 DC 예측 모드 및 플래너 모드(Planar 모드)를 포함할 수 있다. 예측부(110)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측의 경우에, 예측부(110)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 샘플을 기반으로, 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(110)는 스킵(skip) 모드, 머지(merge) 모드, 및 MVP(motion vector prediction) 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 스킵 모드와 머지 모드의 경우에, 예측부(110)는 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 이용할 수 있다. 스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차(레지듀얼)가 전송되지 않는다. MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(Motion Vector Predictor)로 이용하여 현재 블록의 움직임 벡터 예측자로 이용하여 현재 블록의 움직임 벡터를 유도할 수 있다.
인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처(reference picture)에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일 위치 픽처(collocated picture, colPic)라고 불릴 수도 있다. 움직임 정보(motion information)는 움직임 벡터와 참조 픽처 인덱스를 포함할 수 있다. 예측 모드 정보와 움직임 정보 등의 정보는 (엔트로피) 인코딩되어 비트스트림 형태로 출력될 수 있다.
스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트(reference picture list) 상의 최상위 픽처가 참조 픽처로서 이용될 수도 있다. 참조 픽처 리스트(Picture Order Count)에 포함되는 참조 픽처들은 현재 픽처와 해당 참조 픽처 간의 POC(Picture order count) 차이 기반으로 정렬될 수 있다. POC는 픽처의 디스플레이 순서에 대응하며, 코딩 순서와 구분될 수 있다.
감산부(121)는 원본 샘플과 예측 샘플 간의 차이인 레지듀얼 샘플을 생성한다. 스킵 모드가 적용되는 경우에는, 상술한 바와 같이 레지듀얼 샘플을 생성하지 않을 수 있다.
변환부(122)는 변환 블록 단위로 레지듀얼 샘플을 변환하여 변환 계수(transform coefficient)를 생성한다. 변환부(122)는 해당 변환 블록의 사이즈와, 해당 변환 블록과 공간적으로 겹치는 코딩 블록 또는 예측 블록에 적용된 예측 모드에 따라서 변환을 수행할 수 있다. 예컨대, 상기 변환 블록과 겹치는 상기 코딩 블록 또는 상기 예측 블록에 인트라 예측이 적용되었고, 상기 변환 블록이 4×4의 레지듀얼 어레이(array)라면, 레지듀얼 샘플은 DST(Discrete Sine Transform) 변환 커널을 이용하여 변환되고, 그 외의 경우라면 레지듀얼 샘플은 DCT(Discrete Cosine Transform) 변환 커널을 이용하여 변환할 수 있다.
양자화부(123)는 변환 계수들을 양자화하여, 양자화된 변환 계수를 생성할 수 있다.
재정렬부(124)는 양자화된 변환 계수를 재정렬한다. 재정렬부(124)는 계수들 스캐닝(scanning) 방법을 통해 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있다. 여기서 재정렬부(124)는 별도의 구성으로 설명하였으나, 재정렬부(124)는 양자화부(123)의 일부일 수 있다.
엔트로피 인코딩부(130)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩은 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 인코딩 방법을 포함할 수 있다. 엔트로피 인코딩부(130)는 양자화된 변환 계수 외 비디오 복원에 필요한 정보들(예컨대 신택스 요소(syntax element)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다. 엔트로피 인코딩된 정보들은 비트스트림 형태로 NAL(network abstraction layer) 유닛 단위로 전송 또는 저장될 수 있다.
역양자화부(125)는 양자화부(123)에서 양자화된 값(양자화된 변환 계수)들을 역양자화하고, 역변환부(126)는 역양자화부(125)에서 역양자화된 값들을 역변환하여 레지듀얼 샘플을 생성한다.
가산부(140)는 레지듀얼 샘플과 예측 샘플을 합쳐서 픽처를 복원한다. 레지듀얼 샘플과 예측 샘플은 블록 단위로 더해져서 복원 블록이 생성될 수 있다. 여기서 가산부(140)는 별도의 구성으로 설명하였으나, 가산부(140)는 예측부(110)의 일부일 수 있다. 한편, 가산부(140)는 복원부 또는 복원 블록 생성부로 불릴 수도 있다.
복원된 픽처(reconstructed picture)에 대하여 필터부(150)는 디블록킹 필터 및/또는 샘플 적응적 오프셋(sample adaptive offset)을 적용할 수 있다. 디블록킹 필터링 및/또는 샘플 적응적 오프셋을 통해, 복원 픽처 내 블록 경계의 아티팩트나 양자화 과정에서의 왜곡이 보정될 수 있다. 샘플 적응적 오프셋은 샘플 단위로 적용될 수 있으며, 디블록킹 필터링의 과정이 완료된 후 적용될 수 있다. 필터부(150)는 ALF(Adaptive Loop Filter)를 복원된 픽처에 적용할 수도 있다. ALF는 디블록킹 필터 및/또는 샘플 적응적 오프셋이 적용된 후의 복원된 픽처에 대하여 적용될 수 있다.
메모리(160)는 복원 픽처(디코딩된 픽처) 또는 인코딩/디코딩에 필요한 정보를 저장할 수 있다. 여기서 복원 픽처는 상기 필터부(150)에 의하여 필터링 절차가 완료된 복원 픽처일 수 있다. 상기 저장된 복원 픽처는 다른 픽처의 (인터) 예측을 위한 참조 픽처로 활용될 수 있다. 예컨대, 메모리(160)는 인터 예측에 사용되는 (참조) 픽처들을 저장할 수 있다. 이 때, 인터 예측에 사용되는 픽처들은 참조 픽처 세트(reference picture set) 혹은 참조 픽처 리스트(reference picture list)에 의해 지정될 수 있다.
도 2는 본 발명이 적용될 수 있는 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 2를 참조하면, 비디오 디코딩 장치(200)는 엔트로피 디코딩부(210), 레지듀얼 처리부(220), 예측부(230), 가산부(240), 필터부(250) 및 메모리(260)을 포함할 수 있다. 여기서 레지듀얼 처리부(220)는 재정렬부(221), 역양자화부(222), 역변환부(223)을 포함할 수 있다.
비디오 정보를 포함하는 비트스트림이 입력되면, 비디오 디코딩 장치는(200)는 비디오 인코딩 장치에서 비디오 정보가 처리된 프로세스에 대응하여 비디오를 복원할 수 있다.
예컨대, 비디오 디코딩 장치(200)는 비디오 인코딩 장치에서 적용된 처리 유닛을 이용하여 비디오 디코딩을 수행할 수 있다. 따라서 비디오 디코딩의 처리 유닛 블록은 일 예로 코딩 유닛일 수 있고, 다른 예로 코딩 유닛, 예측 유닛 또는 변환 유닛일 수 있다. 코딩 유닛은 최대 코딩 유닛으로부터 쿼드 트리 구조 및/또는 바이너리 트리 구조를 따라서 분할될 수 있다.
예측 유닛 및 변환 유닛이 경우에 따라 더 사용될 수 있으며, 이 경우 예측 블록은 코딩 유닛으로부터 도출 또는 파티셔닝되는 블록으로서, 샘플 예측의 유닛일 수 있다. 이 때, 예측 유닛은 서브 블록으로 나뉠 수도 있다. 변환 유닛은 코딩 유닛으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 유닛 또는 변환 계수로부터 레지듀얼 신호를 유도하는 유닛일 수 있다.
엔트로피 디코딩부(210)는 비트스트림을 파싱하여 비디오 복원 또는 픽처 복원에 필요한 정보를 출력할 수 있다. 예컨대, 엔트로피 디코딩부(210)는 지수 골롬 부호화, CAVLC 또는 CABAC 등의 코딩 방법을 기초로 비트스트림 내 정보를 디코딩하고, 비디오 복원에 필요한 신택스 엘리먼트의 값, 레지듀얼에 관한 변환 계수의 양자화된 값 들을 출력할 수 있다.
보다 상세하게, CABAC 엔트로피 디코딩 방법은, 비트스트림에서 각 구문 요소에 해당하는 빈을 수신하고, 디코딩 대상 구문 요소 정보와 주변 및 디코딩 대상 블록의 디코딩 정보 혹은 이전 단계에서 디코딩된 심볼/빈의 정보를 이용하여 문맥(context) 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 디코딩(arithmetic decoding)를 수행하여 각 구문 요소의 값에 해당하는 심볼을 생성할 수 있다. 이때, CABAC 엔트로피 디코딩 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 디코딩된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다.
엔트로피 디코딩부(210)에서 디코딩된 정보 중 예측에 관한 정보는 예측부(230)로 제공되고, 엔트로피 디코딩부(210)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(221)로 입력될 수 있다.
재정렬부(221)는 양자화되어 있는 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 재정렬부(221)는 인코딩 장치에서 수행된 계수 스캐닝에 대응하여 재정렬을 수행할 수 있다. 여기서 재정렬부(221)는 별도의 구성으로 설명하였으나, 재정렬부(221)는 역양자화부(222)의 일부일 수 있다.
역양자화부(222)는 양자화되어 있는 변환 계수들을 (역)양자화 파라미터를 기반으로 역양자화하여 변환 계수를 출력할 수 있다. 이 때, 양자화 파라미터를 유도하기 위한 정보는 인코딩 장치로부터 시그널링될 수 있다.
역변환부(223)는 변환 계수들을 역변환하여 레지듀얼 샘플들을 유도할 수 있다.
예측부(230)는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(230)에서 수행되는 예측의 단위는 코딩 블록일 수도 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(230)는 상기 예측에 관한 정보를 기반으로 인트라 예측을 적용할 것인지 인터 예측을 적용할 것인지를 결정할 수 있다. 이 때, 인트라 예측과 인터 예측 중 어느 것을 적용할 것인지를 결정하는 단위와 예측 샘플을 생성하는 단위는 상이할 수 있다. 아울러, 인터 예측과 인트라 예측에 있어서 예측 샘플을 생성하는 단위 또한 상이할 수 있다. 예를 들어, 인터 예측과 인트라 예측 중 어느 것을 적용할 것인지는 CU 단위로 결정할 수 있다. 또한 예를 들어, 인터 예측에 있어서 PU 단위로 예측 모드를 결정하고 예측 샘플을 생성할 수 있고, 인트라 예측에 있어서 PU 단위로 예측 모드를 결정하고 TU 단위로 예측 샘플을 생성할 수도 있다.
인트라 예측의 경우에, 예측부(230)는 현재 픽처 내의 주변 참조 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(230)는 현재 블록의 주변 참조 샘플을 기반으로 방향성 모드 또는 비방향성 모드를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이 때, 주변 블록의 인트라 예측 모드를 이용하여 현재 블록에 적용할 예측 모드가 결정될 수도 있다.
인터 예측의 경우에, 예측부(230)는 참조 픽처 상에서 움직임 벡터에 의해 참조 픽처 상에서 특정되는 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(230)는 스킵(skip) 모드, 머지(merge) 모드 및 MVP 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이때, 비디오 인코딩 장치에서 제공된 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보는 상기 예측에 관한 정보를 기반으로 획득 또는 유도될 수 있다
스킵 모드와 머지 모드의 경우에, 주변 블록의 움직임 정보가 현재 블록의 움직임 정보로 이용될 수 있다. 이 때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
예측부(230)는 가용한 주변 블록의 움직임 정보로 머지 후보 리스트를 구성하고, 머지 인덱스가 머지 후보 리스트 상에서 지시하는 정보를 현재 블록의 움직임 벡터로 사용할 수 있다. 머지 인덱스는 인코딩 장치로부터 시그널링될 수 있다. 움직임 정보는 움직임 벡터와 참조 픽처를 포함할 수 있다. 스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트 상의 최상위 픽처가 참조 픽처로서 이용될 수 있다.
스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차이(레지듀얼)이 전송되지 않는다.
MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor)로 이용하여 현재 블록의 움직임 벡터가 유도될 수 있다. 이 때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
일 예로, 머지 모드가 적용되는 경우, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터를 이용하여, 머지 후보 리스트가 생성될 수 있다. 머지 모드에서는 머지 후보 리스트에서 선택된 후보 블록의 움직임 벡터가 현재 블록의 움직임 벡터로 사용된다. 상기 예측에 관한 정보는 상기 머지 후보 리스트에 포함된 후보 블록들 중에서 선택된 최적의 움직임 벡터를 갖는 후보 블록을 지시하는 머지 인덱스를 포함할 수 있다. 이 때, 예측부(230)는 상기 머지 인덱스를 이용하여, 현재 블록의 움직임 벡터를 도출할 수 있다.
다른 예로, MVP(Motion Vector Prediction) 모드가 적용되는 경우, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터를 이용하여, 움직임 벡터 예측자 후보 리스트가 생성될 수 있다. 즉, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터는 움직임 벡터 후보로 사용될 수 있다. 상기 예측에 관한 정보는 상기 리스트에 포함된 움직임 벡터 후보 중에서 선택된 최적의 움직임 벡터를 지시하는 예측 움직임 벡터 인덱스를 포함할 수 있다. 이 때, 예측부(230)는 상기 움직임 벡터 인덱스를 이용하여, 움직임 벡터 후보 리스트에 포함된 움직임 벡터 후보 중에서, 현재 블록의 예측 움직임 벡터를 선택할 수 있다. 인코딩 장치의 예측부는 현재 블록의 움직임 벡터와 움직임 벡터 예측자 간의 움직임 벡터 차분(MVD)을 구할 수 있고, 이를 인코딩하여 비트스트림 형태로 출력할 수 있다. 즉, MVD는 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 뺀 값으로 구해질 수 있다. 이 때, 예측부(230)는 상기 예측에 관한 정보에 포함된 움직임 벡터 차분을 획득하고, 상기 움직임 벡터 차분과 상기 움직임 벡터 예측자의 가산을 통해 현재 블록의 상기 움직임 벡터를 도출할 수 있다. 예측부는 또한 참조 픽처를 지시하는 참조 픽처 인덱스 등을 상기 예측에 관한 정보로부터 획득 또는 유도할 수 있다.
가산부(240)는 레지듀얼 샘플과 예측 샘플을 더하여 현재 블록 혹은 현재 픽처를 복원할 수 있다. 가산부(240)는 레지듀얼 샘플과 예측 샘플을 블록 단위로 더하여 현재 픽처를 복원할 수도 있다. 스킵 모드가 적용된 경우에는 레지듀얼이 전송되지 않으므로, 예측 샘플이 복원 샘플이 될 수 있다. 여기서는 가산부(240)를 별도의 구성으로 설명하였으나, 가산부(240)는 예측부(230)의 일부일 수도 있다. 한편, 가산부(240)는 복원부 또는 복원 블록 생성부로 불릴 수도 있다.
필터부(250)는 복원된 픽처에 디블록킹 필터링 샘플 적응적 오프셋, 및/또는 ALF 등을 적용할 수 있다. 이 때, 샘플 적응적 오프셋은 샘플 단위로 적용될 수 있으며, 디블록킹 필터링 이후 적용될 수도 있다. ALF는 디블록킹 필터링 및/또는 샘플 적응적 오프셋 이후 적용될 수도 있다.
메모리(260)는 복원 픽처(디코딩된 픽처) 또는 디코딩에 필요한 정보를 저장할 수 있다. 여기서 복원 픽처는 상기 필터부(250)에 의하여 필터링 절차가 완료된 복원 픽처일 수 있다. 예컨대, 메모리(260)는 인터 예측에 사용되는 픽처들을 저장할 수 있다. 이 때, 인터 예측에 사용되는 픽처들은 참조 픽처 세트 혹은 참조 픽처 리스트에 의해 지정될 수도 있다. 복원된 픽처는 다른 픽처에 대한 참조 픽처로서 이용될 수 있다. 또한, 메모리(260)는 복원된 픽처를 출력 순서에 따라서 출력할 수도 있다.
입력된 픽처에 대한 코딩이 수행되는 경우, 하나의 처리 유닛을 기반으로 상기 코딩이 수행될 수 있다. 상기 처리 유닛은 코딩 유닛(coding unit, CU)으로 나타낼 수 있다. 한편, 상기 픽처 내 유사한 정보를 포함하는 영역 단위로 코딩이 수행될수록 변환 효율이 향상될 수 있고, 이를 통하여 전반적인 코딩 효율이 향상될 수 있다. 또한, 상기 픽처 내 유사한 정보를 포함하는 영역 단위로 코딩이 수행될수록 예측 정확도가 향상될 수 있고, 이를 통하여 전반적인 코딩 효율이 향상될 수 있다. 하지만, 쿼드 트리(quad tree, QT) 구조만이 적용되어 상기 픽처가 정방형의 CU들로만 분할되는 경우, 상기 CU들이 정확하게 유사한 정보만을 포함하도록 분할하는 것은 한계가 있을 수 있다. 이러한 경우, 상기 픽처를 상기 특정 객체를 나타내는 정보를 포함하는 비정방형 CU로 분할되도록 하는 것이 보다 코딩 효율을 향상시킬 수 있다.
도 3은 QTBT(Quad Tree Binary Tree) 구조를 통하여 분할된 CU 및 상기 QTBT 구조의 시그널링 방법을 예시적으로 나타낸다.
상기 QTBT 구조는 CU(또는 CTU)가 QT 구조를 통하여 분할되고, 바이너리 트리(binary tree, BT) 구조를 통하여 분할되는 구조를 나타낼 수 있다. 즉, 상기 QTBT는 상기 QT 구조와 상기 BT 구조가 결합된 형태로 구성된 분할 구조를 나타낼 수 있고, 픽처가 CTU 단위로 코딩되는 경우, CTU는 상기 QT 구조를 통하여 분할될 수 있고, 상기 QT 구조의 리프 노드(leaf node)는 추가적으로 BT 구조를 통하여 분할될 수 있다. 여기서, 상기 리프 노드는 상기 QT 구조에서 더 이상 분할되지 않는 CU를 나타낼 수 있고, 상기 리프 노드는 말단 노드라고 불릴 수도 있다. 또한, 상기 QT 구조는 2Nx2N 사이즈의 CU(또는 CTU)가 4개의 NxN 사이즈의 서브 CU들로 분할되는 구조를 나타낼 수 있고, 상기 BT 구조는 2Nx2N 사이즈의 CU가 2개의 Nx2N (또는 nLx2N, nRx2N) 사이즈의 서브 CU들 또는, 2개의 2NxN (또는 2NxnU, 2NxnD) 사이즈의 서브 CU들로 분할되는 구조를 나타낼 수 있다. 도 3의 (a)를 참조하면 CU는 QT 구조를 통하여 하위 뎁스(depth)의 정방형 CU들로 분할될 수 있고, 추가적으로 상기 정방형 CU들 중 특정 CU는 BT 구조를 통하여 하위 뎁스의 비정방형 CU들로 분할될 수 있다.
도 3의 (b)는 상기 QTBT 구조의 신텍스 시그널링의 일 예를 나타낼 수 있다. 도 3의 (b)에 도시된 실선은 QT 구조를 나타낼 수 있고, 점선은 BT 구조를 나타낼 수 있다. 또한, 위에서 아래로 갈수록 상위 뎁스(depth)에서 하위(deeper) 뎁스의 CU에 대한 신텍스를 나타낼 수 있다. 또한, 좌에서 우로의 방향으로 좌상측, 우상측, 좌하측, 우하측 CU에 대한 신텍스를 나타낼 수 있다. 구체적으로, 가장 위의 숫자는 n 뎁스의 CU에 대한 신텍스를 나타낼 수 있고, 위에서 두번째 위치의 숫자들은 n+1 뎁스의 CU들, 위에서 세번째 위치의 숫자들은 n+2 뎁스의 CU들, 위에서 네번째 위치의 숫자들은 n+3 뎁스의 CU들에 대한 신텍스를 나타낼 수 있다. 또한, 볼드체로 표시된 숫자들은 QT 구조에 대한 신텍스들의 값들을 나타낼 수 있고, 볼드체로 표시되지 않은 숫자들은 BT 구조에 대한 신텍스들의 값들을 나타낼 수 있다.
도 3의 (b)를 참조하면 CU가 상기 QT 구조를 통하여 분할되는지 여부를 나타내는 QT 분할 플래그가 전송될 수 있다. 즉, 상기 2Nx2N 사이즈의 CU가 4개의 NxN 사이즈의 서브 CU들로 분할되는지 여부를 나타내는 플래그가 전송될 수 있다. 예를 들어, 상기 CU에 대한 상기 QT 분할 플래그의 값이 1인 경우, 상기 CU는 4개의 서브 CU들로 분할 될 수 있고, 상기 CU에 대한 상기 QT 분할 플래그의 값이 0인 경우, 상기 CU는 분할되지 않을 수 있다. 또한, 입력 영상에 대한 상기 QT 구조를 조절하기 위하여 상기 QT 구조에서의 최대 CU 사이즈, 최소 CU 사이즈, 최대 뎁스 등에 대한 정보가 전송될 수 있다. 상술한 QT 구조에 대한 정보들은 슬라이스 타입들 각각에 대하여 전송될 수 있고, 또는 영상 성분들(휘도 성분, 채도 성분 등) 각각에 대하여 전송될 수 있다. 한편, BT 구조에 대한 정보는 QT 구조에서 더 이상 분할되지 않는 말단 노드에 대하여 전송될 수 있다. 즉, 상기 QT 구조에서 말단 노드에 해당하는 CU에 대한 상기 BT 구조에 대한 정보가 전송될 수 있다. 여기서, 상기 BT 구조에 대한 정보를 포함하는 정보는 추가 분할 정보라고 불릴 수 있다. 예를 들어, 상기 CU의 상기 BT 구조를 통한 분할 여부, 즉, 상기 CU에 대한 상기 BT 구조의 적용 여부를 나타내는 BT 분할 플래그가 전송될 수 있다. 구체적으로, 상기 BT 분할 플래그에 대한 값이 1인 경우, 상기 CU는 2개의 서브 CU들로 분할될 수 있고, 상기 BT 분할 플래그에 대한 값이 0인 경우, 상기 CU는 분할되지 않을 수 있다. 또한, 입력 영상에 대한 상기 BT 구조를 조절하기 위해서 BT 구조에서의 최대 CU 사이즈, 최소 CU 사이즈, 최대 뎁스 등에 대한 정보가 전송될 수 있다. 상술한 BT 구조에 대한 정보들은 슬라이스 타입들 각각에 대하여 전송될 수 있고, 또는 영상 성분들 각각에 대하여 전송될 수 있다. 상기 CU가 상기 BT 구조를 통하여 분할되는 경우, 상기 CU는 가로 또는 세로 방향으로 분할될 수 있다. 상기 CU가 어떤 방향으로 분할되는지, 즉, 상기 CU의 분할 타입을 나타내는 BT 분할 모드 인덱스가 더 전송될 수도 있다.
한편, 상술한 바와 같이 인터 예측이 수행되는 경우, 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록을 생성할 수 있다. 여기서 상기 예측된 블록은 공간 도메인(또는 픽셀 도메인)에서의 예측 샘플들을 포함한다. 상기 예측된 블록은 인코딩 장치 및 디코딩 장치에서 동일하게 도출되며, 상기 인코딩 장치는 원본 블록의 원본 샘플 값 자체가 아닌 상기 원본 블록과 상기 예측된 블록 간의 레지듀얼에 대한 정보(레지듀얼 정보)를 디코딩 장치로 시그널링함으로써 영상 코딩 효율을 높일 수 있다. 디코딩 장치는 상기 레지듀얼 정보를 기반으로 레지듀얼 샘플들을 포함하는 레지듀얼 블록을 도출하고, 상기 레지듀얼 블록과 상기 예측된 블록을 합하여 복원 샘플들을 포함하는 복원 블록을 생성할 수 있고, 복원 블록들을 포함하는 복원 픽처를 생성할 수 있다.
한편, 영상 내에 광원이나 그림자가 존재하는 경우, 그 영향을 받는 영역에 국지적(local) 조도 변화가 발생한다. 이 경우 블록 내 객체에 대한 예측을 수행함에 있어서, 현재 픽처의 현재 블록과 참조 픽처의 참조 블록 간의 조도의 차이로 인하여 예측의 성능이 감소된다. 이는 비디오 인코딩/디코딩 과정에서 사용되는 일반적인 움직임 추정(estimation)/보상(compensation) 알고리즘에 따르면 이러한 국지적 조도 변화를 보상하지 못하기 때문이다. 반면에, 이러한 국지적 조도 변화를 보상하는 경우, 보다 정확한 예측을 수행할 수 있다.
도 4는 조도 보상(illumination compensation, IC) 유무에 따른 예측의 예들을 나타낸다.
도 4의 (a)에서, (인터) 예측의 대상이 되는 현재 픽처의 현재 블록(420)에 비하여, 대응하는 참조 픽처의 블록(410)은 광원에 의하여 국지적으로 높은 조도를 가질 수 있다. 이는 현재 픽처의 참조 픽처 간의 시간적 차이, 현재 픽처의 객체들의 위치 및 참조 픽처의 객체들의 위치 간 차이, 및/또는 참조 블록과 현재 블록의 위치 차이 등에 의하여 발생할 수 있다. 이 경우 인코더는 RD(rate-distortion) 코스트를 기반으로 상기 블록(410)을 인터 예측을 위한 참조 블록으로 사용할 수도 있고, 혹은 경우에 따라 그 주변의 다른 블록을 참조 블록으로 사용할 수도 있다. 다만, 이 경우 예측의 효율이 떨어지고 레지듀얼 신호에 많은 데이터가 할당되어야 하는 문제점이 있다.
한편, (b)와 같이, 본 발명에 따른 조도 보상을 적용하여 보상된 참조 블록(430)을 기반으로 현재 블록(440)을 예측하여 예측의 효율을 높일 수 있으며, 이 경우 예측된 현재 블록과 원본 블록 간의 레지듀얼이 감소되어, 레지듀얼 신호에 할당되는 데이터가 줄어들고 코딩 효율이 향상될 수 있다. 이와 같이 참조 블록에 조도를 보상하여 예측의 효율을 높이는 방법은 국지적 조도 보상(location illumination compensation, LIC)라고 불릴 수 있다. LIC는 IC(illumination compensation)와 혼용될 수도 있다.
IC를 위한 부가 정보로서, IC의 적용 여부를 나타내기 위한 IC 플래그, 및 IC를 적용하기 위한 IC 파라미터가 사용될 수 있다. IC 파라미터는 후술하는 바와 같이 스케일링 펙터(scailing factor) a 및 오프셋(offset) b를 포함할 수 있다. IC의 효율을 높이기 위하여는, IC를 위한 부가 정보를 최소화하면서 예측 성능을 높이는 것이 중요하다. 예를 들어, 부가 정보를 최소화하기 위하여 특정 사이즈의 CU나 2Nx2N의 파티션 타입을 갖는 PU에 대하여 제한적으로 적용하는 것과 같이 블록 사이즈 또는 파티션 타입을 고려하여 IC 적용 여부를 결정할 수도 있다. 또한, 상술한 바와 같이 QTBT 구조가 사용되는 경우, CU, PU, TU의 구분 없이 다양한 사이즈의 CU가 사용될 수 있음에 따라, 해당 구조에 적합하도록 IC를 적용하여 예측의 정확도를 높일 수 있다.
IC는 선형 모델을 기반으로 하며, 예를 들어 다음과 같은 수학식 1에 기반할 수 있다.
Figure PCTKR2017009547-appb-M000001
여기서, IC 파라미터인 a 및 b는 각각 스케일링 펙터 및 오프셋을 나타내며, x 및 y는 각각 IC 파라미터를 도출하기 위하여 사용되는 참조 블록의 주변 참조 샘플 값 및 현재 블록의 주변 참조 샘플 값을 나타낸다. 또는 x 및 y는 각각 IC 파라미터를 도출하기 위하여 사용되는 참조 블록 내의 참조 샘플 값 및 현재 블록에 대응하는 원본(original) 픽처 내 원본 블록의 샘플 값을 나타낼 수도 있다. 상기 참조 블록은 상기 현재 블록의 움직임 벡터를 기반으로 지시될 수 있다. 상기 IC 파라미터 도출 과정에서는 상기 수학식1의 양 변의 차이를 에러(E)로 볼 수 있으며, 상기 에러를 최소화 시켜주는 조건을 만족하는 IC 파라미터 a, b를 구하여, 상기 참조 블록에 적용할 수 있다. 즉, IC 파라미터가 도출된 후에는, 상기 참조 블록의 참조 샘플들에 샘플 단위로 스케일링 펙터 및 오프셋을 적용하여 수정된 (조도 보상된) 참조 샘플들을 도출할 수 있다.
상기 수학식 1에서 구하고자 하는 IC 파라미터 a, b는 결국 양변의 에러를 최소화 하는 값이므로, IC 파라미터를 구하기 위한 수학식은 다음과 같이 나타내어질 수 있다.
Figure PCTKR2017009547-appb-M000002
여기서, E(a, b)는 에러를 최소화하는 a, b 값을 나타내며, 여기서 i는 각 샘플의 인덱싱, λ(람다)는 제어 파라미터(control parameter)를 나타낸다. 상기 λ는 미리 정해질 수 있고, 또는 예를 들어, x를 기반으로 도출될 수 있다. 일 예로,
Figure PCTKR2017009547-appb-I000001
와 같이 도출될 수 있고, 다른 예로 λ가 0으로 설정되어 상기 수학식2의 후단은 생략될 수도 있다. 이는 후술하는 수학식들에서도 마찬가지이다.
상기 수학식 2를 정리하면 다음과 같이 나타낼 수 있다.
Figure PCTKR2017009547-appb-M000003
상기 수학식 3을 기반으로 상기 IC 파라미터 a, b는 다음과 같이 도출될 수 있다.
Figure PCTKR2017009547-appb-M000004
Figure PCTKR2017009547-appb-M000005
상기 수학식 4에서 N은 정규화 파라미터(normalization parameter)를 나타낸다. 여기서 N은 상기 수학식 3의
Figure PCTKR2017009547-appb-I000002
부분으로부터 도출될 수 있다. 예를 들어, N은 현재 블록(또는 참조 블록)의 사이즈를 기반으로 결정될 수 있으며, 예를 들어, 해당 블록의 너비*넓이 또는 너비+넓이와 같은 값이 될 수 있다. 또는 해당 블록의 너비 또는 넓이 + n과 같은 값 등이 될 수도 있다.
상기 IC 파라미터를 도출하기 위하여 상술한 바와 같이 1) 참조 블록 내의 참조 샘플 및 현재 블록에 대응하는 원본(original) 픽처 내 원본 블록의 샘플이 사용될 수 있고, 또는 2) 상기 참조 블록의 주변 참조 샘플 및 상기 현재 블록의 주변 참조 샘플이 사용될 수도 있다.
상기 1)과 같이 참조 블록 내의 참조 샘플 및 현재 블록에 대응하는 원본 픽처 내 원본 블록의 샘플을 기반으로 상기 IC 파라미터를 구하는 경우 상대적으로 정확한 파라미터를 구할 수 있다. 다만, 디코더 단에서는 원 픽처를 획득할 수 없으므로, 인코더 단에서 상기 IC 파라미터를 구한 후, 상기 디코더 단으로 시그널링하여야 하는바 부가 정보의 데이터량이 늘어난다.
한편, 상기 2)와 같이 상기 참조 블록의 주변 참조 샘플 및 상기 현재 블록의 주변 참조 샘플을 기반으로 상기 IC 파라미터를 구하는 경우, 이 경우 주변 샘플들의 관계를 이용하여 구한 IC 파라미터를 이용하므로, 상기 1)의 경우보다 상대적으로 IC 파라미터의 정확도가 낮아질 수 있으나, 디코더 측면에서 보았을 때, 인코더로부터 IC 파라미터(즉, a 및 b)를 명시적으로 수신하지 않고도 직접 해당 파라미터를 구할 수 있는바 코딩 효율 측면에서 장점이 있다.
본 발명에 따르면, 상기 참조 블록의 주변 참조 샘플 및 상기 현재 블록의 주변 참조 샘플을 기반으로 상기 IC 파라미터를 구하는 경우, 구체적으로 다음과 같은 주변 샘플들이 사용될 수 있다.
도 5는 IC 파라미터 도출을 위하여 사용되는 주변 참조 샘플들을 나타내는 예이다.
도 5의 (a)에서는 현재 블록(500)의 좌측/상측 주변 샘플들 및 참조 블록(510)의 좌측/상측 주변 샘플들이 1 샘플 단위(1 step)로 주변 참조 샘플들로 사용되는 경우를 나타낸다. 현재 블록(500)의 좌상단(top-left) 샘플 위치를 (0,0)이라고 할 때, 상기 좌측 주변 샘플들의 위치는 (-1,0),...,(-1,H-1)을 포함할 수 있으며 상기 상측 주변 샘플들 위치는 (0,-1),...,(W-1,-1)을 포함할 수 있다. 여기서 H 및 W는 상기 현재 블록의 높이 및 너비를 나타낼 수 있다. (a)에서는 상기 현재 블록(500)의 좌측/상측 경계에 인접한 주변 샘플들 및 상기 참조 블록(510)의 좌측/상측 경계에 인접한 주변 샘플들이 모두 주변 참조 샘플들로 사용될 수 있다.
도 5의 (b)에서는 현재 블록(550)의 좌측/상측 주변 샘플들 및 참조 블록(560)의 좌측/상측 주변 샘플들이 2샘플 단위(2 step)으로 주변 참조 샘플들로 사용되는 경우를 나타낸다. (b)에서는 상기 현재 블록(550)의 좌측/상측 경계에 인접한 주변 샘플들 및 상기 참조 블록(550)의 좌측/상측 경계에 인접한 주변 샘플들이 2 샘플 단위로 서브샘플링(sub-sampling)되어 주변 참조 샘플들로 사용될 수 있다.
일 예로, 상기 (a) 및 (b)의 구분은 현재 블록의 사이즈(또는 너비/높이)를 기반으로 결정될 수 있다. 예를 들어, 해당 블록의 사이즈가 8×8보다 작거나 같은 경우 주변 샘플들이 1 샘플 단위로 사용될 수 있고, 해당 블록의 사이즈가 8×8보다 큰 경우 주변 샘플들이 2 샘플 단위로 사용될 수 있다. 이와 같이 블록 사이즈(또는 너비/높이) 기반으로 IC 파라미터 도출을 위하여 사용되는 주변 샘플들의 스텝(step)을 적응적으로 결정함으로써 IC 성능을 유지하면서 복잡도를 감소시킬 수 있다. 비록 상기 (b)에서는 2스텝을 기반으로 설명하였으나, 이는 예시이고 2보다 큰 값의 스텝이 적용될 수 있다. 또는 좌측 주변 샘플들에 적용되는 스텝 사이즈와 상측 주변 샘플들에 적용되는 스텝 사이즈가 다를 수도 있다. 상기 스텝 사이즈는 서브샘플링 펙터로 나타내어질 수 있다.
한편, QTBT 구조가 적용되는 경우, 현재 픽처의 코딩을 위하여 다양한 비율의 비정방형 블록이 사용될 수 있으며, 예를 들어 다음 표와 같은 사이즈의 블록들이 사용될 수 있다.
Figure PCTKR2017009547-appb-T000001
블록의 종류는 QuadTree의 최소사이즈(min), 최대사이즈(max), 뎁스(depth), BinaryTree의 최소사이즈(min), 최대사이즈(max), 뎁스(depth)에 따라 달라질 수 있다.
비정방형 블록을 고려하여, 보다 효율적으로 IC 파라미터를 도출하기 위하여 예를 들어 다음과 같은 주변 참조 샘플들이 사용될 수 있다.
도 6은 IC 파라미터 도출을 위하여 사용되는 주변 참조 샘플들을 나타내는 예이다.
도 6을 참조하면, 현재 블록의 너비와 높이가 다른 경우, 좌측과 상측에 대한 스텝 사이즈가 다르게 설정될 수 있다. 이 경우, 너비 및/또는 높이의 크기를 더 기반으로 스텝 사이즈를 설정할 수 있다. 이 경우, 일 예로, IC 파라미터 도출을 위하여 사용되는 좌측 주변 참조 샘플들의 수와 상측 주변 참조 샘플들의 수가 같게 도출될 수 있다.
예를 들어, 블록의 너비와 높이가 다른 경우, min(너비, 높이)>8이면, 2스텝, 그 외의 경우 1스텝으로 기준스텝을 정하고, 너비가 높이보다 큰 경우 (너비/높이)의 비율로, 그 반대의 경우 (높이/너비)의 비율로 기준스텝을 조정할 수 있다. 예를 들어, 너비가 높이보다 큰 경우, 상측 스텝에 대하여, 상기 기준스텝을 (너비/높이)의 비율로 늘릴 수 있고, 너비가 높이보다 작은 경우, 좌측 스텝에 대하여, 상기 기준스텝을 (높이/너비)의 비율로 늘릴 수 있다. 구체적으로 예를 들어, (a)에 도시된 바와 같이 기준스텝이 1스텝이고, 블록의 너비가 8, 높이가 4인 경우, 좌측 스텝에 대하여는 기준스텝을 적용하고, 상측 스텝에 대하여는 기준스텝을 (8/4)의 비율로 늘린 2스텝이 적용될 수 있다. 또한, 예를 들어, (b)에 도시된 바와 같이 기준스텝이 2스텝이고, 블록의 너비가 8, 높이가 4인 경우, 좌측 스텝에 대하여는 기준스텝을 적용하고, 상측 스텝에 대하여는 기준스텝을 (8/4)의 비율로 늘린 4스텝이 적용될 수 있다. 또한, 예를 들어, (c)에 도시된 바와 같이 기준스텝이 1스텝이고, 블록의 너비가 8, 높이가 2인 경우, 좌측 스텝에 대하여는 기준스텝을 적용하고, 상측 스텝에 대하여는 기준스텝을 (8/2)의 비율로 늘린 4스텝이 적용될 수 있다. 또한, 예를 들어, (d)에 도시된 바와 같이 기준스텝이 2스텝이고, 블록의 너비가 8, 높이가 2인 경우, 좌측 스텝에 대하여는 기준스텝을 적용하고, 상측 스텝에 대하여는 기준스텝을 (8/2)의 비율로 늘린 8스텝이 적용될 수 있다.
구체적으로 예를 들어, 비정방형 블록의 사이즈, 너비 및 높이를 고려한 좌측/상측 스텝 사이즈는 다음과 같이 도출될 수 있다.
Figure PCTKR2017009547-appb-T000002
표 2를 참조하면, 8×16 블록의 경우, 너비에 대한 스텝(즉, 상측 스텝; 스텝X)은 1, 높이에 대한 스텝(즉, 좌측 스텝; 스텝Y)은 2가 되어 총 16개의 샘플을 사용하여 IC 파라미터가 도출될 수 있다. 여기서 스텝Y는 스텝X*16/8로 계산될 수 있다. 16×32 블록의 경우, 스텝X는 2, 스텝Y는 4(스텝X*32/16)가 되어 총 16개의 샘플을 사용하여 IC 파라미터가 도출될 수 있다. 16×62 블록의 경우, 스텝X는 2, 스텝Y는 8(스텝X*64/8)가 되어 총 16개의 샘플을 사용하여 IC 파라미터가 도출될 수 있다. 상기와 같은 방법에 따르면 현재 블록이 비정방형인 경우에도 효율적으로 IC 파라미터 도출을 위한 주변 샘플들을 도출할 수 있다.
한편, 이 경우, 블록 사이즈에 따라 특정 면(좌측 또는 상측)에 대하여는 적은 수의 참조 샘플만이 사용되어 파라미터가 계산되므로 IC 파라미터의 정확도가 낮아질 수 있으며, 다음과 같은 방법을 통하여 개선될 수 있다.
상술한 머지 모드 및 MVP 모드에서 나타난 바와 같이, 주변 블록의 움직임 벡터가 현재 블록의 움직임 벡터 도출을 위하여 사용되며, 상기 주변 블록은 현재 블록의 좌측, 상측에 위치한 블록들뿐 아니라, 현재 블록의 좌하측, 우상측, 좌상측에 위치한 블록들이 고려될 수 있다. 이는 상기 현재 블록의 좌측, 상측 블록들뿐 아니라 좌하측, 우상측, 좌상측 블록들 또한 현재 블록에 대한 높은 연관성을 가질 수 있음을 나타낸다. 즉, 좌측, 상측에 인접한 주변 샘플뿐 아니라, 좌하측, 우상측, 좌상측 주변 샘플 또한 현재 블록에 대한 조도 변화를 반영할 수 있다. 따라서, QTBT 구조가 적용되는 경우, 현재 블록에 인접한 좌측 주변 샘플들 및 상측 주변 샘플들뿐 아니라, 그 연장선에 위치한 좌하측, 우상측 및/또는 좌상측 주변 샘플들을 더 사용함으로써, IC 파라미터의 정확성을 높일 수 있다.
도 7은 비정방형 블록에 대하여 사용되는 IC 파라미터 도출을 위한 주변 참조 샘플들의 예를 나타낸다.
도 7을 참조하면, 블록의 너비와 높이가 다른 경우, 블록에 인접한 좌측 주변 샘플들 및 상측 주변 샘플들뿐 아니라, max(너비, 높이) 길이만큼 연장선에 놓인 좌하측 주변 샘플들 또는 우상측 주변 샘플들이 주변 참조 샘플들로 더 사용될 수 있다. 이 경우 max(너비, 높이)의 값을 갖는 정방형 사이즈로 주변 참조 샘플들이 연장될 수 있다.
이 경우에도 상술한 스텝 사이즈에 따라 서브샘플링된 샘플들이 사용될 수 있다. 예를 들어, 도 7에서는 스텝X 및 스텝Y가 2인 경우를 예시적으로 나타내었으며, 다만 스텝 사이즈는 1, 2, 4, 8 등 블록의 사이즈, 너비 및/또는 높이에 따라 다양하게 설정될 수 있으며, 스텝X 및 스텝Y에 대하여 다르게 설정될 수 있음을 상술한 바와 같다.
한편, 도 7에서는 너비 및 높이 중 보다 짧은 쪽에 대하여 주변 참조 샘플들을 연장하여 사용하는 예를 설명하였으나, 좌측 및 상측 주변 샘플들을 좌하측 및 우상측 주변 참조 샘플들까지 연장하여 사용할 수도 있다.
도 8은 비정방형 블록에 대하여 사용되는 IC 파라미터 도출을 위한 우상측 및 좌하측 주변 참조 샘플들을 포함하는 주변 참조 샘플들의 예를 나타낸다.
도 8을 참조하면, 블록의 너비와 높이가 다른 경우, 너비 및 높이 둘 다를 연장하여 연장선에 놓인 (좌하측/우상측) 주변 참조 샘플들을 더 사용하는 방법을 나타내는 예이다. 이 경우 연장되서 사용되는 샘플들의 수는 다양한 방법으로 설정될 수 있으며, 예를 들어 너비 및 높이의 비율 또는 min(너비, 높이)를 기반으로 결정될 수 있다.
예를 들어, 도 8의 (a)에서, 블록의 너비는 8, 높이는 4이므로, 너비와 높이의 비율이 2인 경우이며, 이 경우 min(너비, 높이)의 반인 2만큼 연장할 수 있다. 즉, IC 파라미터 도출을 위하여 2개의 좌하측 주변 참조 샘플들 및 2개의 우상측 주변 참조 샘플들이 더 사용될 수 있다. 또한, 예를 들어, 블록의 너비 및 높이의 비가 4 또는 8인 경우에는, 도 8의 (b)와 같이, IC 파라미터 도출을 위한 좌측 주변 참조 샘플들 및 상측 주변 참조 샘플들의 비율이 2가 되도록 스텝을 조정한 뒤, 너비 및 높이를 연장할 수 있다. 2만큼 연장하는 경우, IC 파라미터 도출을 위하여 2개의 좌하측 주변 참조 샘플들 및 2개의 우상측 주변 참조 샘플들이 더 사용될 수 있다. 도 8에서는 좌, 상단의 연장 주변 참조 샘플수를 동일하게 적용하였으나, 이는 예시이고, 블록의 모양에 따라 좌, 상단의 연장 샘플 수가 달라질 수 있다.
한편, 비정방형 블록에 대하여 IC 파라미터 도출을 위하여 좌측 또는 상측의 적은 수의 참조 샘플들이 사용되는 경우, 이는 오히려 에러 성분으로 작용하여 IC 파라미터의 정확도를 낮출 수도 있다. 따라서, 블록의 좌측 및 상측 주변 참조 샘플들을 이용하는 대신, 블록의 모양에 따라 좌측 또는 상측 주변 참조 샘플들만을 사용할 수 있다.
도 9는 IC 파라미터 도출을 위한 주변 샘플들의 예를 나타낸다.
도 9를 참조하면, 정방형 블록에 대하여는, 좌측 및 상측 주변 참조 샘플들을 사용하여 IC 파라미터를 도출할 수 있고, 너비>높이인 블록의 경우 상측 주변 참조 샘플들을 사용하여 IC 파라미터를 도출할 수 있으며, 너비<높이인 블록의 경우 좌측 주변 참조 샘플들을 사용하여 IC 파라미터를 도출할 수 있다. 이를 통하여 블록의 좌측 또는 상측과의 연관성이 높은 경우에 연관성이 낮은 면의 샘플들을 고려하지 않고 IC 파라미터를 도출할 수 있다. 이러한 방법은 블록의 사이즈 및 모양에 따라 제한적으로 적용될 수 있고, 좌측 및/또는 상측 스텝 수를 조정하여 수행될 수도 있다.
한편, 현재 블록에 대하여 IC가 적용되는지 여부는 IC 플래그를 기반으로 결정될 수 있다. IC 플래그는 IC가 가용한(enable) 블록에 대하여 전송될 수 있으며, 이 경우, 블록의 사이즈 및/또는 블록의 너비, 높이 크기 또는 비율에 따라 IC 가용 여부가 결정될 수 있다. 예를 들어, 블록의 사이즈가 16×16보다 작은 경우 IC가 가용하지 않을 수 있다. 또는, 블록의 모양이 비정방형인 경우에 IC가 가용하지 않을 수 있다. 또는, 블록의 모양이 2N×2N, 2N×N, N×2N인 경우에만 IC가 가용하고 그 외의 경우에는 가용하지 않을 수 있다. 또는 블록의 모양이 2N×2N, 2N×N, N×2N, 2N×N/2, N/2×2N인 경우에만 IC가 가용하고 그 외의 경우에는 가용하지 않을 수 있다. 혹은 블록의 사이즈와 블록의 모양에 따라 한정적으로 IC 플래그가 전송될 수 있다. 여기서 현재 블록은 QTBT 구조에 따른 CU에 대응될 수 있고, N은 가로, 세로 비를 나타내기 위하여 사용되었으며, QTBT 구조가 적용되지 않는 경우에 사용되는 PU의 파티션 타입(모드)를 나타내지 않는다. 또한, QTBT의 QuadTree의 리프 노드의 블록에 대하여만 IC 적용 여부를 결정하거나(즉, IC 플래그 전송), 또는 해당 블록이 정방형 블록일 때에만 IC를 적용하는 것도 가능하다.
도 10은 본 발명에 따른 다양한 기준에 따른 IC 적용을 예시적으로 나타낸다. 도 10에서 개시된 동작은 코딩 장치에 의하여 수행될 수 있으며, 코딩 장치는 인코딩 장치 및 디코딩 장치를 포함할 수 있다.
도 10을 참조하면, 코딩 장치는 IC 조건을 체크한다(S1000). 코딩 장치는 본 발명에서 상술한 다양한 조건들을 고려하여 적응적으로 참조 주변 샘플들을 도출하고(S1010), 이를 기반으로 IC 파라미터(S1020)를 계산할 수 있다.
i) 예를 들어, 코딩 장치는 현재 블록의 너비(W)와 높이(H)가 동일한 경우, 블록의 사이즈에 따라 스텝사이즈를 결정할 수 잇다. 즉, W(=H)가 16보다 클 때는 너비, 높이의 스텝사이즈인 스텝X, 스텝Y를 각각 2로 설정하고, ii) W(=H)가 16보다 작을 때는 스텝X, 스텝Y를 각각 1로 설정하여 주변 참조 샘플들을 도출할 수 있다.
한편, iii) 코딩 장치는 너비와 높이가 다른 경우, 만약 너비와 높이의 비율이 2(ex. 8×4, 16×8, 32×16, 등)인 경우, 너비 방향과 높이 방향의 참조 샘플들의 개수가 동일하도록 스텝X는 2로, 스텝Y는 1로 설정할 수 있고, 또는 높이와 너비의 비율이 2(ex. 4×8, 8×16, 16×32, 등)인 경우, 너비 방향과 높이 방향의 참조 샘플들의 개수가 동일하도록 스텝X는 1로, 스텝Y는 2로 설정할 수 있다. iv) 만약 너비와 높이의 비율이 4(ex. 16×4, 32×8, 등)인 경우, 스텝X는 2로, 스텝Y는 1로 설정할 수 있고, 또는 만약 높이와 너비의 비율이 4(ex. 4×16, 8×32, 등)인 경우 스텝X는 1로, 스텝Y는 2로 설정할 수 있다. 이 경우, 도 8에서 상술한 바와 같이 좌하측 주변 참조 샘플 및 우상측 주변 참조 샘플을 포함하도록 주변 참조 샘플들을 확장할 수 있다.
코딩 장치는 상기 계산된 IC 파라미터를 이용하여 IC를 적용한다(S1030). 코딩 장치는 상기 계산된 IC 파라미터를 기반으로 IC를 적용하여 조도 보상된 예측 샘플들을 포함하는 예측된 블록을 도출할 수 있다
도 11은 본 발명에 따른 영상 인코딩에서의 인터 예측 방법의 일 예를 개략적으로 나타낸다. 도 11에서 개시된 방법은 도 1에서 개시된 인코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 11의 S1110 내지 S1130은 상기 인코딩 장치의 예측부, S1140은 상기 인코딩 장치의 엔트로피 인코딩부에 의하여 수행될 수 있다.
도 11을 참조하면, 인코딩 장치는 현재 블록에 대한 참조 블록을 검출한다(S1100). 인코딩 장치는 움직임 추정(motion estimation) 절차를 통하여 참조 픽처 상에서 최적의 RD(rate-distortion) 코스트를 갖는 참조 블록을 찾을 수 있다.
인코딩 장치는 현재 블록의 움직임 벡터를 도출한다(S1110). 인코딩 장치는 상기 현재 블록의 위치 및 상기 참조 블록의 위치를 기반으로 상기 참조 블록을 가리키는 상기 움직임 벡터를 도출할 수 있다. 상기 움직임 벡터는 현재 블록의 인터 예측 모드(ex. 머지 모드, MVP 모드)에 따라 정의된 절차에 따라 디코딩 장치로 시그널링될 수 있다.
인코딩 장치는 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 도출하고, 상기 제1 주변 참조 샘플들 및 상기 제2 주변 참조 샘플들을 이용하여 IC 파라미터를 도출한다(S1120). 상기 IC 파라미터는 상술한 스케일링 펙터 a 및 오프셋 b를 포함할 수 있다. 상기 IC 파라미터는 상술한 수학식 1 내지 5를 기반으로 계산될 수 있다. 상기 제1 주변 참조 샘플들 및 상기 제2 주변 참조 샘플들은 도 5 내지 도 9에서 상술한 샘플들을 포함할 수 있다.
일 예로, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 좌측 경계에 인접하는 제1 좌측 주변 참조 샘플들 및 상기 참조 블록의 상측 경계에 인접하는 제1 상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 현재 블록의 좌측 경계에 인접하는 제2 좌측 주변 참조 샘플들 및 상기 현재 블록의 상측 경계에 인접하는 제2 상측 주변 참조 샘플들을 포함할 수 있다. 이 경우 상기 제1 좌측 주변 참조 샘플들 또는 상기 제1 상측 주변 참조 샘플들은 스텝사이즈 2 이상으로 서브샘플링된 샘플들이고, 상기 제2 좌측 주변 참조 샘플들 또는 상기 제2 상측 주변 참조 샘플들은 스텝사이즈 2 이상으로 서브샘플링된 샘플들일 수 있다. 또한, 상기 현재 블록은 비정방형 블록이고, 상기 제1 좌측 주변 참조 샘플들에 대한 제1 스텝사이즈는 상기 제1 상측 주변 참조 샘플들에 대한 제2 스텝사이즈와 다르고, 상기 제1 스텝사이즈는 상기 제2 좌측 주변 참조 샘플들에 대한 스텝사이즈와 동일하고, 상기 제2 스텝사이즈는 상기 제2 상측 주변 참조 샘플들에 대한 스텝사이즈와 동일할 수 있다. 이 경우, 상기 제1 좌측 주변 참조 샘플들의 수와 상기 제1 상측 주변 참조 샘플들의 수는 동일하고, 상기 제2 좌측 주변 참조 샘플들의 수와 상기 제2 상측 주변 참조 샘플들의 수는 동일할 수 있다. 여기서, 상기 제1 스텝사이즈 및 상기 제2 스텝사이즈의 비율은 상기 현재 블록의 높이 및 너비의 비율을 기반으로 결정될 수 있다.
다른 예로, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 제1 좌하측 주변 참조 샘플들 또는 상기 참조 블록의 제1 우상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 현재 블록의 제2 좌하측 주변 참조 샘플들 또는 상기 현재 블록의 제2 우상측 주변 참조 샘플들을 포함할 수 있다. 예를 들어, 상기 현재 블록의 너비가 높이보다 더 큰 경우, 상기 제1 주변 참조 샘플들은 상기 제1 좌하측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 제2 좌하측 주변 참조 샘플들을 포함할 수 있다. 이 경우 상기 제1 좌측 주변 참조 샘플들의 수 및 상기 제1 좌하측 주변 참조 샘플들의 수의 합은 상기 제1 상측 주변 참조 샘플들의 수와 동일하고, 상기 제2 좌측 주변 참조 샘플들의 수 및 상기 제2 좌하측 주변 참조 샘플들의 수의 합은 상기 제2 상측 주변 참조 샘플들의 수와 동일할 수 있다. 또한, 예를 들어, 상기 현재 블록의 너비가 높이보다 더 작은 경우, 상기 제1 주변 참조 샘플들은 상기 제1 우상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 제2 우상측 주변 참조 샘플들을 포함할 수 있다. 이 경우 상기 제1 상측 주변 참조 샘플들의 수 및 상기 제1 우상측 주변 참조 샘플들의 수의 합은 상기 제1 좌측 주변 참조 샘플들의 수와 동일하고, 상기 제2 상측 주변 참조 샘플들의 수 및 상기 제2 우상측 주변 참조 샘플들의 수의 합은 상기 제2 좌측 주변 참조 샘플들의 수와 동일할 수 있다.
또 다른 예로, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 제1 좌하측 주변 참조 샘플들 및 상기 참조 블록의 제1 우상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 현재 블록의 제2 좌하측 주변 참조 샘플들 및 상기 현재 블록의 제2 우상측 주변 참조 샘플들을 포함할 수도 있다. 이 경우, 상기 제1 좌하측 주변 참조 샘플들의 수 및 상기 제1 우상측 주변 참조 샘플들의 수는 특정 개수로 동일하고, 상기 특정 개수는 상기 현재 블록의 너비 및 높이를 기반으로 결정될 수 있다. 상기 특정 개수는 예를 들어, 현재 블록의 너비 및 높이의 최소값의 반으로 결정될 수 있다.
또 다른 예로, 상기 현재 블록이 비정방형 블록이고 상기 현재 블록의 너비가 높이보다 큰 경우, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 좌측 경계에 인접하는 제1 좌측 주변 참조 샘플들만을 포함할 수 있다. 또한 상기 현재 블록이 비정방형 블록이고 상기 현재 블록의 너비가 높이보다 작은 경우, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 상측 경계에 인접하는 제1 상측 주변 참조 샘플들만을 포함할 수 있다.
인코딩 장치는 상기 계산된 IC 파라미터 기반으로 조도 보상(IC)을 수행하여, 상기 현재 블록에 대한 (조도 보상된) 예측 샘플들을 도출한다(S1130). 인코딩 장치는 상기 스케일링 펙터 및 오프셋 b를 상기 참조 블록의 참조 샘플들에 적용하여 수정된 참조 샘플들을 도출할 수 있으며, 상기 수정된 참조 샘플들을 기반으로 상기 예측 샘플들을 획득할 수 있다.
인코딩 장치는 예측 정보를 인코딩 및 출력한다(S1140). 상기 예측 정보는 상기 현재 블록의 상기 움직임 벡터에 대한 정보가 포함될 수 있다. 일 예로, 상기 움직임 벡터에 대한 정보는 상기 현재 블록에 대한 머지 인덱스 등을 포함할 수 있다. 다른 예로, 상기 움직임 벡터에 대한 정보는 MVP 플래그 및 MVD(motion vector difference) 정보 등을 포함할 수 있다. 또한, 상기 예측 정보는 상기 현재 블록의 인터 예측 모드 정보를 포함할 수도 있다. 또한, 상기 예측 정보는 IC 플래그를 포함할 수도 있다. 상기 IC 플래그는 상기 현재 블록에 대하여 조도 보상(IC)이 가용한 경우에 한하여 시그널링될 수 있다. 예를 들어, 상기 현재 블록이 QTBT 구조를 기반으로 분할된 블록인 경우, 상기 IC가 가용한지 여부는 상기 현재 블록의 사이즈, 너비 및/또는 높이를 기반으로 결정될 수 있다. 예를 들어, 상기 현재 블록의 사이즈가 특정 사이즈보다 크거나, 또는 현재 블록의 너비 및 높이의 비가 2 또는 4보다 작은 경우에 한하여 상기 IC가 가용한 것으로 결정될 수 있다.
인코딩 장치는 상기 예측 정보를 인코딩하여 비트스트림 형태로 출력할 수 있다. 상기 비트스트림은 네트워크 또는 저장매체를 통하여 디코딩 장치로 전송될 수 있다.
도 12은 본 발명에 따른 영상 디코딩에서의 인터 예측 방법의 일 예를 개략적으로 나타낸다. 도 12에서 개시된 방법은 도 2에서 개시된 디코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 12의 S1200 내지 S1230은 상기 디코딩 장치의 예측부에 의하여 수행될 수 있다.
도 12를 참조하면, 디코딩 장치는 현재 블록의 움직임 벡터를 도출한다(S1200). 디코딩 장치는 비트스트림을 통하여 획득한 예측 정보를 기반으로 상기 현재 블록에 상기 움직임 벡터를 도출할 수 있다. 상기 비트스트림은 네트워크 또는 저장매체를 통하여 인코딩 장치로부터 수신될 수 있다. 일 예로, 디코딩 장치는 상기 현재 블록의 주변 블록들을 기반으로 머지 후보 리스트를 생성하고, 상기 예측 정보에 포함된 머지 인덱스를 이용하여 상기 머지 후보 리스트 중에서 선택한 머지 후보의 움직임 벡터를 상기 움직임 벡터로 도출할 수 있다. 다른 예로, 디코딩 장치는 상기 현재 블록의 주변 블록들을 기반으로 MVP 후보 리스트를 생성하고, 상기 인터 예측 정보에 포함된 MVP 플래그를 기반으로 특정 MVP 후보를 선택하고, 상기 선택된 MVP 후보의 움직임 벡터와 상기 예측 정보에 포함된 MVD 정보로부터 도출된 MVD를 이용하여 상기 움직임 벡터를 도출할 수 있다.
디코딩 장치는 상기 현재 블록에 대한 참조 블록을 도출한다(S1210). 디코딩 장치는 상기 움직임 벡터를 기반으로 상기 참조 블록을 도출할 수 있다. 디코딩 장치는 참조 픽처 상에서 상기 현재 블록의 위치를 기준으로 상기 움직임 벡터가 가리키는 참조 블록을 도출할 수 있다.
디코딩 장치는 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 도출하고, 상기 제1 주변 참조 샘플들 및 상기 제2 주변 참조 샘플들을 이용하여 IC 파라미터를 도출한다(S1220). 상기 IC 파라미터는 상술한 스케일링 펙터 a 및 오프셋 b를 포함할 수 있다. 상기 IC 파라미터는 상술한 수학식 1 내지 5를 기반으로 계산될 수 있다. 상기 제1 주변 참조 샘플들 및 상기 제2 주변 참조 샘플들은 도 5 내지 도 9에서 상술한 샘플들을 포함할 수 있다.
일 예로, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 좌측 경계에 인접하는 제1 좌측 주변 참조 샘플들 및 상기 참조 블록의 상측 경계에 인접하는 제1 상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 현재 블록의 좌측 경계에 인접하는 제2 좌측 주변 참조 샘플들 및 상기 현재 블록의 상측 경계에 인접하는 제2 상측 주변 참조 샘플들을 포함할 수 있다. 이 경우 상기 제1 좌측 주변 참조 샘플들 또는 상기 제1 상측 주변 참조 샘플들은 스텝사이즈 2 이상으로 서브샘플링된 샘플들이고, 상기 제2 좌측 주변 참조 샘플들 또는 상기 제2 상측 주변 참조 샘플들은 스텝사이즈 2 이상으로 서브샘플링된 샘플들일 수 있다. 또한, 상기 현재 블록은 비정방형 블록이고, 상기 제1 좌측 주변 참조 샘플들에 대한 제1 스텝사이즈는 상기 제1 상측 주변 참조 샘플들에 대한 제2 스텝사이즈와 다르고, 상기 제1 스텝사이즈는 상기 제2 좌측 주변 참조 샘플들에 대한 스텝사이즈와 동일하고, 상기 제2 스텝사이즈는 상기 제2 상측 주변 참조 샘플들에 대한 스텝사이즈와 동일할 수 있다. 이 경우, 상기 제1 좌측 주변 참조 샘플들의 수와 상기 제1 상측 주변 참조 샘플들의 수는 동일하고, 상기 제2 좌측 주변 참조 샘플들의 수와 상기 제2 상측 주변 참조 샘플들의 수는 동일할 수 있다. 여기서, 상기 제1 스텝사이즈 및 상기 제2 스텝사이즈의 비율은 상기 현재 블록의 높이 및 너비의 비율을 기반으로 결정될 수 있다.
다른 예로, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 제1 좌하측 주변 참조 샘플들 또는 상기 참조 블록의 제1 우상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 현재 블록의 제2 좌하측 주변 참조 샘플들 또는 상기 현재 블록의 제2 우상측 주변 참조 샘플들을 포함할 수 있다. 예를 들어, 상기 현재 블록의 너비가 높이보다 더 큰 경우, 상기 제1 주변 참조 샘플들은 상기 제1 좌하측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 제2 좌하측 주변 참조 샘플들을 포함할 수 있다. 이 경우 상기 제1 좌측 주변 참조 샘플들의 수 및 상기 제1 좌하측 주변 참조 샘플들의 수의 합은 상기 제1 상측 주변 참조 샘플들의 수와 동일하고, 상기 제2 좌측 주변 참조 샘플들의 수 및 상기 제2 좌하측 주변 참조 샘플들의 수의 합은 상기 제2 상측 주변 참조 샘플들의 수와 동일할 수 있다. 또한, 예를 들어, 상기 현재 블록의 너비가 높이보다 더 작은 경우, 상기 제1 주변 참조 샘플들은 상기 제1 우상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 제2 우상측 주변 참조 샘플들을 포함할 수 있다. 이 경우 상기 제1 상측 주변 참조 샘플들의 수 및 상기 제1 우상측 주변 참조 샘플들의 수의 합은 상기 제1 좌측 주변 참조 샘플들의 수와 동일하고, 상기 제2 상측 주변 참조 샘플들의 수 및 상기 제2 우상측 주변 참조 샘플들의 수의 합은 상기 제2 좌측 주변 참조 샘플들의 수와 동일할 수 있다.
또 다른 예로, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 제1 좌하측 주변 참조 샘플들 및 상기 참조 블록의 제1 우상측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 현재 블록의 제2 좌하측 주변 참조 샘플들 및 상기 현재 블록의 제2 우상측 주변 참조 샘플들을 포함할 수도 있다. 이 경우, 상기 제1 좌하측 주변 참조 샘플들의 수 및 상기 제1 우상측 주변 참조 샘플들의 수는 특정 개수로 동일하고, 상기 특정 개수는 상기 현재 블록의 너비 및 높이를 기반으로 결정될 수 있다. 상기 특정 개수는 예를 들어, 현재 블록의 너비 및 높이의 최소값의 반으로 결정될 수 있다.
또 다른 예로, 상기 현재 블록이 비정방형 블록이고 상기 현재 블록의 너비가 높이보다 큰 경우, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 좌측 경계에 인접하는 제1 좌측 주변 참조 샘플들만을 포함할 수 있다. 또한 상기 현재 블록이 비정방형 블록이고 상기 현재 블록의 너비가 높이보다 작은 경우, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 상측 경계에 인접하는 제1 상측 주변 참조 샘플들만을 포함할 수 있다.
디코딩 장치는 상기 계산된 IC 파라미터 기반으로 조도 보상(IC)을 수행하여, 상기 현재 블록에 대한 (조도 보상된) 예측 샘플들을 도출한다(S1230). 인코딩 장치는 상기 스케일링 펙터 및 오프셋 b를 상기 참조 블록의 참조 샘플들에 적용하여 수정된 참조 샘플들을 도출할 수 있으며, 상기 수정된 참조 샘플들을 기반으로 상기 예측 샘플들을 획득할 수 있다.
한편, 상기 예측 정보는 IC 플래그를 포함할 수도 있다. 디코딩 장치는 상기 IC 플래그를 기반으로 상기 현재 블록에 상기 IC가 적용되는지 여부를 판단할 수 있다. 상기 IC 플래그는 상기 현재 블록에 대하여 상기 IC가 가용한 경우에 한하여 시그널링될 수 있다. 예를 들어, 상기 현재 블록이 QTBT 구조를 기반으로 분할된 블록인 경우, 상기 IC가 가용한지 여부는 상기 현재 블록의 사이즈, 너비 및/또는 높이를 기반으로 결정될 수 있다. 예를 들어, 상기 현재 블록의 사이즈가 특정 사이즈보다 크거나, 또는 현재 블록의 너비 및 높이의 비가 2 또는 4보다 작은 경우에 한하여 상기 IC가 가용한 것으로 결정될 수 있다.
한편, 비록 도시되지는 않았으나, 디코딩 장치는 상기 비트스트림으로부터 상기 현재 블록에 대한 레지듀얼 샘플에 관한 레지듀얼 정보를 수신할 수 있다. 상기 레지듀얼 정보는 레지듀얼 샘플들에 관한 변환 계수들을 포함할 수 있다.
디코딩 장치는 상기 레지듀얼 정보를 기반으로 상기 현재 블록에 대한 상기 레지듀얼 샘플(또는 레지듀얼 샘플 어레이)을 도출할 수 있다. 디코딩 장치는 상기 예측 샘플들과 상기 레지듀얼 샘플들을 기반으로 복원 샘플들을 생성할 수 있고, 상기 복원 샘플들을 기반으로 복원 블록 또는 복원 픽처를 도출할 수 있다. 이후 디코딩 장치는 필요에 따라 주관적/객관적 화질을 향상시키기 위하여 디블록킹 필터링 및/또는 SAO 절차와 같은 인루프 필터링 절차를 상기 복원 픽처에 적용할 수 있음은 상술한 바와 같다.
상술한 본 발명에 따른 방법은 소프트웨어 형태로 구현될 수 있으며, 본 발명에 따른 인코딩 장치 및/또는 디코딩 장치는 예를 들어 TV, 컴퓨터, 스마트폰, 셋톱박스, 디스플레이 장치 등의 영상 처리를 수행하는 장치에 포함될 수 있다.
본 발명에서 실시예들이 소프트웨어로 구현될 때, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다. 프로세서는 ASIC(appICation-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다.

Claims (15)

  1. 디코딩 장치에 의하여 수행되는 인터 예측 방법에 있어서,
    현재 블록의 움직임 벡터를 도출하는 단계;
    상기 움직임 벡터를 기반으로 상기 현재 블록에 대한 참조 블록을 도출하는 단계;
    상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 조도 보상(Illumination compensation, IC) 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하는 단계; 및
    상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 단계를 포함하는 것을 특징으로 하는, 인터 예측 방법.
  2. 제1항에 있어서,
    상기 제1 주변 참조 샘플들은 상기 참조 블록의 좌측 경계에 인접하는 제1 좌측 주변 참조 샘플들 및 상기 참조 블록의 상측 경계에 인접하는 제1 상측 주변 참조 샘플들을 포함하고,
    상기 제2 주변 참조 샘플들은 상기 현재 블록의 좌측 경계에 인접하는 제2 좌측 주변 참조 샘플들 및 상기 현재 블록의 상측 경계에 인접하는 제2 상측 주변 참조 샘플들을 포함함을 특징으로 하는, 인터 예측 방법.
  3. 제2항에 있어서,
    상기 제1 좌측 주변 참조 샘플들 또는 상기 제1 상측 주변 참조 샘플들은 스텝사이즈 2 이상으로 서브샘플링된 샘플들이고,
    상기 제2 좌측 주변 참조 샘플들 또는 상기 제2 상측 주변 참조 샘플들은 스텝사이즈 2 이상으로 서브샘플링된 샘플들인 것을 특징으로 하는, 인터 예측 방법.
  4. 제2항에 있어서,
    상기 현재 블록은 비정방형 블록이고,
    상기 제1 좌측 주변 참조 샘플들에 대한 제1 스텝사이즈는 상기 제1 상측 주변 참조 샘플들에 대한 제2 스텝사이즈와 다르고,
    상기 제1 스텝사이즈는 상기 제2 좌측 주변 참조 샘플들에 대한 스텝사이즈와 동일하고, 상기 제2 스텝사이즈는 상기 제2 상측 주변 참조 샘플들에 대한 스텝사이즈와 동일한 것을 특징으로 하는, 인터 예측 방법.
  5. 제4항에 있어서,
    상기 제1 좌측 주변 참조 샘플들의 수와 상기 제1 상측 주변 참조 샘플들의 수는 동일하고,
    상기 제2 좌측 주변 참조 샘플들의 수와 상기 제2 상측 주변 참조 샘플들의 수는 동일한 것을 특징으로 하는, 인터 예측 방법.
  6. 제5항에 있어서,
    상기 제1 스텝사이즈 및 상기 제2 스텝사이즈의 비율은 상기 현재 블록의 높이 및 너비의 비율을 기반으로 결정되는 것을 특징으로 하는, 인터 예측 방법.
  7. 제2항에 있어서,
    상기 제1 주변 참조 샘플들은 상기 참조 블록의 제1 좌하측 주변 참조 샘플들 또는 상기 참조 블록의 제1 우상측 주변 참조 샘플들을 포함하고,
    상기 제2 주변 참조 샘플들은 상기 현재 블록의 제2 좌하측 주변 참조 샘플들 또는 상기 현재 블록의 제2 우상측 주변 참조 샘플들을 포함하는 것을 특징으로 하는, 인터 예측 방법.
  8. 제7항에 있어서,
    상기 현재 블록의 너비가 높이보다 더 큰 경우,
    상기 제1 주변 참조 샘플들은 상기 제1 좌하측 주변 참조 샘플들을 포함하고, 상기 제2 주변 참조 샘플들은 상기 제2 좌하측 주변 참조 샘플들을 포함하는 것을 특징으로 하는, 인터 예측 방법.
  9. 제8항에 있어서,
    상기 제1 좌측 주변 참조 샘플들의 수 및 상기 제1 좌하측 주변 참조 샘플들의 수의 합은 상기 제1 상측 주변 참조 샘플들의 수와 동일하고,
    상기 제2 좌측 주변 참조 샘플들의 수 및 상기 제2 좌하측 주변 참조 샘플들의 수의 합은 상기 제2 상측 주변 참조 샘플들의 수와 동일한 것을 특징으로 하는, 인터 예측 방법.
  10. 제2항에 있어서,
    상기 제1 주변 참조 샘플들은 상기 참조 블록의 제1 좌하측 주변 참조 샘플들 및 상기 참조 블록의 제1 우상측 주변 참조 샘플들을 포함하고,
    상기 제2 주변 참조 샘플들은 상기 현재 블록의 제2 좌하측 주변 참조 샘플들 및 상기 현재 블록의 제2 우상측 주변 참조 샘플들을 포함하는 것을 특징으로 하는, 인터 예측 방법.
  11. 제10항에 있어서,
    상기 제1 좌하측 주변 참조 샘플들의 수 및 상기 제1 우상측 주변 참조 샘플들의 수는 특정 개수로 동일하고, 상기 특정 개수는 상기 현재 블록의 너비 및 높이를 기반으로 결정되는 것을 특징으로 하는, 인터 예측 방법.
  12. 제11항에 있어서,
    상기 특정 개수는 너비 및 높이의 최소값의 반으로 결정되는 것을 특징으로 하는, 인터 예측 방법.
  13. 제1항에 있어서,
    상기 현재 블록이 비정방형 블록이고 상기 현재 블록의 너비가 높이보다 큰 경우, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 좌측 경계에 인접하는 제1 좌측 주변 참조 샘플들만을 포함하고,
    상기 현재 블록이 비정방형 블록이고 상기 현재 블록의 너비가 높이보다 작은 경우, 상기 제1 주변 참조 샘플들은 상기 참조 블록의 상측 경계에 인접하는 제1 상측 주변 참조 샘플들만을 포함하는 것을 특징으로 하는, 인터 예측 방법.
  14. 제1항에 있어서,
    상기 현재 블록에 대한 상기 IC가 가용한 경우, IC 플래그를 수신하는 단계; 및
    상기 IC 플래그를 기반으로 상기 현재 블록에 상기 IC가 적용되는지 여부를 판단하는 단계를 더 포함하되,
    상기 현재 블록은 QTBT(Quad Tree Binary Tree) 구조를 기반으로 분할된 블록이고,
    상기 IC가 가용한지 여부는 상기 현재 블록의 사이즈를 기반으로 결정됨을 특징으로 하는, 인터 예측 방법.
  15. 인터 예측을 위한 디코딩 장치에 있어서,
    현재 블록의 움직임 벡터를 도출하고, 상기 움직임 벡터를 기반으로 상기 현재 블록에 대한 참조 블록을 도출하되, 상기 참조 블록은 참조 픽처 내에 위치하고, 상기 참조 블록의 제1 주변 참조 샘플들 및 상기 현재 블록의 제2 주변 참조 샘플들을 기반으로 조도 보상(Illumination compensation, IC) 파라미터를 도출하되, 상기 IC 파라미터는 스케일링 펙터 a 및 오프셋 b를 포함하고, 및 상기 스케일링 펙터 및 오프셋을 기반으로 상기 참조 블록의 참조 샘플들에 대한 IC를 수행하여 상기 현재 블록에 대한 예측 샘플들을 도출하는 예측부; 및
    상기 참조 픽처를 저장하는 메모리를 포함함을 특징으로 하는, 디코딩 장치.
PCT/KR2017/009547 2016-09-22 2017-08-31 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치 WO2018056603A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780058198.0A CN109792529A (zh) 2016-09-22 2017-08-31 图像编译系统中的基于照度补偿的间预测方法和设备
US16/331,371 US20190200021A1 (en) 2016-09-22 2017-08-31 Illumination compensation-based inter-prediction method and apparatus in image coding system
KR1020197005823A KR20190029737A (ko) 2016-09-22 2017-08-31 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치
JP2019515789A JP6781340B2 (ja) 2016-09-22 2017-08-31 映像コーディングシステムにおける照度補償基盤インター予測方法及び装置
EP17853317.0A EP3503553A4 (en) 2016-09-22 2017-08-31 INTER-PREDICTION PROCESS AND APPARATUS BASED ON LIGHTING COMPENSATION IN AN IMAGE CODING SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662398506P 2016-09-22 2016-09-22
US62/398,506 2016-09-22

Publications (1)

Publication Number Publication Date
WO2018056603A1 true WO2018056603A1 (ko) 2018-03-29

Family

ID=61689614

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/009547 WO2018056603A1 (ko) 2016-09-22 2017-08-31 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치

Country Status (6)

Country Link
US (1) US20190200021A1 (ko)
EP (1) EP3503553A4 (ko)
JP (1) JP6781340B2 (ko)
KR (1) KR20190029737A (ko)
CN (1) CN109792529A (ko)
WO (1) WO2018056603A1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020142331A1 (en) * 2019-01-03 2020-07-09 Qualcomm Incorporated Block size restriction for illumination compensation
WO2020154504A2 (en) 2019-01-26 2020-07-30 Qualcomm Incorporated Excluding intra coded reference samples from local illumination compensation parameter derivation
WO2020163209A1 (en) * 2019-02-08 2020-08-13 Interdigital Vc Holdings, Inc. Method and device for picture encoding and decoding using illumination compensation
WO2020236039A1 (en) * 2019-05-21 2020-11-26 Huawei Technologies Co., Ltd. Method and apparatus of local illumination compensation for inter prediction
JP2021511698A (ja) * 2018-01-26 2021-05-06 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 隣接サンプルに応じた線形モデルに基づく映像符号化及び復号のための方法と装置
CN113841396A (zh) * 2019-05-20 2021-12-24 北京字节跳动网络技术有限公司 简化的局部照明补偿
JP2022528331A (ja) * 2019-03-25 2022-06-10 オッポ広東移動通信有限公司 画像成分予測方法、エンコーダー、デコーダー及び記憶媒体
US11805271B2 (en) * 2017-10-05 2023-10-31 Interdigital Vc Holdings, Inc. Decoupled mode inference and prediction

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180019092A (ko) * 2015-06-16 2018-02-23 엘지전자 주식회사 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
JP6745979B2 (ja) * 2017-02-06 2020-08-26 華為技術有限公司Huawei Technologies Co.,Ltd. 符号化方法および装置、ならびに復号方法および装置
AU2018327924B2 (en) 2017-09-08 2023-06-08 Kt Corporation Method and device for processing video signal
MX2020004137A (es) 2017-10-05 2020-08-13 Interdigital Vc Holdings Inc Metodo y aparato para la compensacion de iluminacion adaptativa en codificacion y decodificacion de video.
US10715810B2 (en) * 2018-02-20 2020-07-14 Qualcomm Incorporated Simplified local illumination compensation
SG11202010629TA (en) * 2018-05-10 2020-12-30 Samsung Electronics Co Ltd Method and apparatus for image encoding, and method and apparatus for image decoding
US11206396B2 (en) * 2019-01-16 2021-12-21 Qualcomm Incorporated Local illumination compensation in video coding
US11277616B2 (en) * 2019-06-20 2022-03-15 Qualcomm Incorporated DC intra mode prediction in video coding
CN110446044B (zh) * 2019-08-21 2022-08-09 浙江大华技术股份有限公司 线性模型预测方法、装置、编码器及存储装置
US11438611B2 (en) 2019-12-11 2022-09-06 Hfi Innovation Inc. Method and apparatus of scaling window constraint for worst case bandwidth consideration for reference picture resampling in video coding
US11445176B2 (en) * 2020-01-14 2022-09-13 Hfi Innovation Inc. Method and apparatus of scaling window constraint for worst case bandwidth consideration for reference picture resampling in video coding
CN113365077B (zh) * 2020-03-04 2023-02-21 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器、计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130004133A (ko) * 2011-06-28 2013-01-09 삼성전자주식회사 휘도 성분 영상을 이용한 색차 성분 영상의 예측 방법 및 예측 장치
KR101444675B1 (ko) * 2011-07-01 2014-10-01 에스케이 텔레콤주식회사 영상 부호화 및 복호화 방법과 장치
KR20150106413A (ko) * 2013-01-08 2015-09-21 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101560182B1 (ko) * 2008-01-07 2015-10-15 삼성전자주식회사 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
KR20160032126A (ko) * 2013-07-16 2016-03-23 퀄컴 인코포레이티드 비디오 코딩을 위한 조도 보상 프로세싱

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929610B2 (en) * 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
EP1982517A4 (en) * 2006-01-12 2010-06-16 Lg Electronics Inc MULTIVATE VIDEO PROCESSING
CN101267567A (zh) * 2007-03-12 2008-09-17 华为技术有限公司 帧内预测、编解码方法及装置
JP2013034163A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
CN103096055B (zh) * 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
JP6005572B2 (ja) * 2013-03-28 2016-10-12 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム
KR20140138538A (ko) * 2013-05-24 2014-12-04 주식회사 케이티 복수의 레이어를 지원하는 비디오 코딩 방법 및 장치
JP6360053B2 (ja) * 2013-06-18 2018-07-18 シャープ株式会社 照度補償装置、画像復号装置、画像符号化装置
CN105474639B (zh) * 2013-07-10 2018-08-07 凯迪迪爱通信技术有限公司 视频编码装置、视频解码装置、视频系统、视频编码方法、视频解码方法以及程序
WO2016154963A1 (en) * 2015-04-01 2016-10-06 Mediatek Inc. Methods for chroma coding in video codec
KR20180019092A (ko) * 2015-06-16 2018-02-23 엘지전자 주식회사 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
ES2844525B1 (es) * 2015-09-11 2022-07-05 Kt Corp Metodo para decodificar un video
US10200719B2 (en) * 2015-11-25 2019-02-05 Qualcomm Incorporated Modification of transform coefficients for non-square transform units in video coding
US11234003B2 (en) * 2016-07-26 2022-01-25 Lg Electronics Inc. Method and apparatus for intra-prediction in image coding system
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101560182B1 (ko) * 2008-01-07 2015-10-15 삼성전자주식회사 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
KR20130004133A (ko) * 2011-06-28 2013-01-09 삼성전자주식회사 휘도 성분 영상을 이용한 색차 성분 영상의 예측 방법 및 예측 장치
KR101444675B1 (ko) * 2011-07-01 2014-10-01 에스케이 텔레콤주식회사 영상 부호화 및 복호화 방법과 장치
KR20150106413A (ko) * 2013-01-08 2015-09-21 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR20160032126A (ko) * 2013-07-16 2016-03-23 퀄컴 인코포레이티드 비디오 코딩을 위한 조도 보상 프로세싱

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3503553A4 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11805271B2 (en) * 2017-10-05 2023-10-31 Interdigital Vc Holdings, Inc. Decoupled mode inference and prediction
JP7299221B2 (ja) 2018-01-26 2023-06-27 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 隣接サンプルに応じた線形モデルに基づく映像符号化及び復号のための方法と装置
US11722694B2 (en) 2018-01-26 2023-08-08 Interdigital Vc Holdings, Inc. Method and apparatus for video encoding and decoding based on a linear model responsive to neighboring samples
JP2021511698A (ja) * 2018-01-26 2021-05-06 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 隣接サンプルに応じた線形モデルに基づく映像符号化及び復号のための方法と装置
US11272201B2 (en) 2019-01-03 2022-03-08 Qualcomm Incorporated Block size restriction for illumination compensation
CN113287300A (zh) * 2019-01-03 2021-08-20 高通股份有限公司 针对照度补偿的块大小限制
WO2020142331A1 (en) * 2019-01-03 2020-07-09 Qualcomm Incorporated Block size restriction for illumination compensation
EP3915257A4 (en) * 2019-01-26 2022-11-02 Qualcomm Incorporated EXCLUDING INTRACODED REFERENCE SAMPLES FROM A LOCAL ILLUMINATION COMPENSATION PARAMETER DERIVATION
CN113302939A (zh) * 2019-01-26 2021-08-24 高通股份有限公司 从局部照度补偿参数推导中排除帧内译码的参考样本
WO2020154504A2 (en) 2019-01-26 2020-07-30 Qualcomm Incorporated Excluding intra coded reference samples from local illumination compensation parameter derivation
WO2020163209A1 (en) * 2019-02-08 2020-08-13 Interdigital Vc Holdings, Inc. Method and device for picture encoding and decoding using illumination compensation
US11936871B2 (en) 2019-02-08 2024-03-19 Interdigital Madison Patent Holdings, Sas Method and device for picture encoding and decoding using illumination compensation
JP2022528331A (ja) * 2019-03-25 2022-06-10 オッポ広東移動通信有限公司 画像成分予測方法、エンコーダー、デコーダー及び記憶媒体
CN113841396A (zh) * 2019-05-20 2021-12-24 北京字节跳动网络技术有限公司 简化的局部照明补偿
CN113841396B (zh) * 2019-05-20 2022-09-13 北京字节跳动网络技术有限公司 简化的局部照明补偿
WO2020236039A1 (en) * 2019-05-21 2020-11-26 Huawei Technologies Co., Ltd. Method and apparatus of local illumination compensation for inter prediction

Also Published As

Publication number Publication date
KR20190029737A (ko) 2019-03-20
EP3503553A4 (en) 2020-07-29
CN109792529A (zh) 2019-05-21
JP6781340B2 (ja) 2020-11-04
EP3503553A1 (en) 2019-06-26
JP2019530345A (ja) 2019-10-17
US20190200021A1 (en) 2019-06-27

Similar Documents

Publication Publication Date Title
WO2018056603A1 (ko) 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치
WO2018062921A1 (ko) 영상 코딩 시스템에서 블록 분할 및 인트라 예측 방법 및 장치
WO2018174402A1 (ko) 영상 코딩 시스템에서 변환 방법 및 그 장치
WO2017043786A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2018062702A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2017052000A1 (ko) 영상 코딩 시스템에서 움직임 벡터 정제 기반 인터 예측 방법 및 장치
WO2017057953A1 (ko) 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치
WO2018044088A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018008904A2 (ko) 비디오 신호 처리 방법 및 장치
WO2017034331A1 (ko) 영상 코딩 시스템에서 크로마 샘플 인트라 예측 방법 및 장치
WO2018056602A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2013069975A1 (ko) 예측 단위의 파티션 모드에 기초한 계수 스캔 방법 및 장치
WO2017014412A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2013100635A1 (ko) 3차원 영상 부호화 방법 및 장치, 및 복호화 방법 및 장치
WO2017052118A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2017188565A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2016200043A1 (ko) 비디오 코딩 시스템에서 가상 참조 픽처 기반 인터 예측 방법 및 장치
WO2018056702A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017057877A1 (ko) 영상 코딩 시스템에서 영상 필터링 방법 및 장치
WO2018056709A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2017061671A1 (ko) 영상 코딩 시스템에서 적응적 변환에 기반한 영상 코딩 방법 및 장치
WO2018021585A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2019198997A1 (ko) 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2019112071A1 (ko) 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
WO2019194507A1 (ko) 어파인 움직임 예측에 기반한 영상 코딩 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853317

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197005823

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2017853317

Country of ref document: EP

Effective date: 20190318

Ref document number: 2019515789

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE