WO2018056763A1 - 템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치 - Google Patents

템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치 Download PDF

Info

Publication number
WO2018056763A1
WO2018056763A1 PCT/KR2017/010503 KR2017010503W WO2018056763A1 WO 2018056763 A1 WO2018056763 A1 WO 2018056763A1 KR 2017010503 W KR2017010503 W KR 2017010503W WO 2018056763 A1 WO2018056763 A1 WO 2018056763A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
template
factor
current block
value
Prior art date
Application number
PCT/KR2017/010503
Other languages
English (en)
French (fr)
Inventor
이재호
남정학
임재현
Original Assignee
엘지전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자(주) filed Critical 엘지전자(주)
Priority to US16/335,116 priority Critical patent/US10805631B2/en
Publication of WO2018056763A1 publication Critical patent/WO2018056763A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • the present invention relates to a method and apparatus for encoding / decoding a video signal, and more particularly, to a method and apparatus for determining an optimal prediction weight using a template and performing inter prediction using the same.
  • Compression coding refers to a series of signal processing techniques for transmitting digitized information through a communication line or for storing in a form suitable for a storage medium.
  • Media such as an image, an image, an audio, and the like may be a target of compression encoding.
  • a technique of performing compression encoding on an image is called video image compression.
  • Next-generation video content will be characterized by high spatial resolution, high frame rate and high dimensionality of scene representation. Processing such content would result in a tremendous increase in terms of memory storage, memory access rate, and processing power.
  • the present invention proposes a method of encoding and decoding a video signal more efficiently.
  • the present invention is to provide a method for determining an optimal prediction method among various prediction methods.
  • the present invention is to provide a method for explicitly transmitting a weight index.
  • the present invention also provides a method of determining a template region.
  • the present invention also provides a method of determining an uncorrelation factor based on a template region.
  • the present invention is to provide a method for obtaining an optimal prediction value by using an adaptive weighting parameter in generalized bidirectional prediction.
  • the present invention provides a method for determining an optimal prediction weight using a template.
  • the present invention provides a method for obtaining an optimal prediction value using an adaptive weighting parameter in generalized bidirectional prediction.
  • the present invention provides a method for obtaining an optimal prediction value by explicitly transmitting a weight index.
  • the present invention also provides a method for determining a template region based on a L0 reference block, an L1 reference block, and neighboring pixels of the current block.
  • the present invention provides a method for determining a non-correlation factor indicating the non-correlation of the L0 reference block and the current block and the non-correlation of the L1 reference block and the current block based on a template of the L0 reference block, the L1 reference block, and the current block. do.
  • the present invention provides a method for adaptively determining a weight parameter using an uncorrelation factor.
  • the present invention can obtain more improved prediction values by using adaptive weighting parameters in generalized bidirectional prediction.
  • the present invention by adaptively determining the weight parameters for the L0 predictor and the L1 predictor to obtain a more improved prediction value, it is possible to improve the coding efficiency of the image.
  • FIG. 1 is a schematic block diagram of an encoder in which encoding of a video signal is performed as an embodiment to which the present invention is applied.
  • FIG. 2 is a schematic block diagram of a decoder in which decoding of a video signal is performed as an embodiment to which the present invention is applied.
  • FIG. 3 is a diagram for describing a division structure of a coding unit according to an embodiment to which the present invention is applied.
  • FIG. 4 is a diagram for describing a prediction unit according to an embodiment to which the present invention is applied.
  • FIG. 5 is an embodiment to which the present invention is applied and is a diagram for explaining a QTBT (QuadTree BinaryTree) block division structure.
  • QTBT QuadTree BinaryTree
  • FIG. 6 is a diagram for describing unidirectional inter prediction and bidirectional inter prediction in an embodiment to which the present invention is applied.
  • FIG. 7 is a diagram for describing a generalized bidirectional prediction method according to an embodiment to which the present invention is applied.
  • FIG. 8 is a flowchart illustrating a process of determining an optimal prediction method according to an embodiment to which the present invention is applied.
  • 9 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing optimal bidirectional prediction using a weighted index.
  • FIG. 10 illustrates a syntax structure for performing optimal bidirectional prediction using a weighted index according to an embodiment to which the present invention is applied.
  • FIG. 11 is a diagram for describing a method of performing adaptive bidirectional prediction using a template according to an embodiment to which the present invention is applied.
  • 12 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing adaptive bidirectional prediction using a template.
  • FIG. 13 is a diagram for describing a method of determining a template region to perform adaptive bidirectional prediction according to an embodiment to which the present invention is applied.
  • FIG. 14 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing adaptive bidirectional prediction based on a template without using a weight index.
  • FIG. 15 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing optimal bidirectional prediction based on at least two weight determination methods.
  • the present invention relates to a method for performing bidirectional prediction using a template-based weight, the method comprising: determining a template region for performing bi-prediction of a current block; Calculate an uncorrelation factor based on the template region, wherein the uncorrelation factor means a value representing uncorrelation between a template of the current block and a template of a reference block; Determining a first weight parameter of the current block based on the uncorrelated factor; And obtaining a first prediction value of the current block by using the weight parameter.
  • the decorrelating factor is derived by the sum of the absolute values of the pixel value differences between the template of the current block and the template of the reference block, and the decorrelating factor is the L0 decorrelating factor and L1 for the L0 reference block. L1 uncorrelated factor for the reference block.
  • the first weight parameter of the current block is characterized by the equation ((L1 uncorrelated factor) / (L0 uncorrelated factor + L1 uncorrelated factor)).
  • the method comprises: determining a second weighting parameter of the current block as a 1/2 value and obtaining a second prediction value using the second weighting parameter; And determining an optimal prediction value of the current block based on a rate-distortion cost of the first prediction value and the second prediction value.
  • the method further comprises signaling an adaptive weighting index corresponding to each weighting parameter, wherein the first weighting parameter and the second weighting parameter are indicated by the adaptive weighting index. It is done.
  • the second weight parameter may be determined based on a predetermined weight table.
  • the present invention is a device for performing bidirectional prediction on a current block using a template-based weight, the template region for performing bi-prediction of the current block Determine, calculate an uncorrelation factor based on the template region, determine a first weight parameter of the current block based on the uncorrelated factor, and use the weight parameter.
  • An inter prediction unit to obtain a first prediction value of the current block;
  • a reconstruction unit for reconstructing the current block by using the first predictive value, wherein the uncorrelation factor means a value representing uncorrelation between a template of the current block and a template of a reference block. do.
  • the inter prediction unit determines a second weight parameter of the current block as a value of 1/2, obtains a second prediction value using the second weight parameter, and obtains the first prediction value. And determine an optimal prediction value of the current block based on a rate-distortion cost of the second prediction value.
  • the apparatus further comprises a parser for extracting an adaptive weighting index corresponding to each weighting parameter from a video signal, wherein the first weighting parameter and the second weighting parameter are based on the adaptive weighting index. It is characterized by being derived.
  • terms used in the present invention may be replaced for more appropriate interpretation when there are general terms selected to describe the invention or other terms having similar meanings.
  • signals, data, samples, pictures, frames, blocks, etc. may be appropriately replaced and interpreted in each coding process.
  • partitioning, decomposition, splitting, and division may be appropriately replaced and interpreted in each coding process.
  • FIG. 1 is a schematic block diagram of an encoder in which encoding of a video signal is performed as an embodiment to which the present invention is applied.
  • the encoder 100 may include an image splitter 110, a transformer 120, a quantizer 130, an inverse quantizer 140, an inverse transformer 150, a filter 160, and a decoder.
  • a picture buffer (DPB) 170, an inter predictor 180, an intra predictor 185, and an entropy encoder 190 may be configured.
  • the image divider 110 may divide an input image (or a picture or a frame) input to the encoder 100 into one or more processing units.
  • the processing unit may be a Coding Tree Unit (CTU), a Coding Unit (CU), a Prediction Unit (PU), or a Transform Unit (TU).
  • CTU Coding Tree Unit
  • CU Coding Unit
  • PU Prediction Unit
  • TU Transform Unit
  • the terms are only used for the convenience of description of the present invention, the present invention is not limited to the definition of the terms.
  • the term coding unit is used as a unit used in encoding or decoding a video signal, but the present invention is not limited thereto and may be appropriately interpreted according to the present invention.
  • the encoder 100 may generate a residual signal by subtracting a prediction signal output from the inter predictor 180 or the intra predictor 185 from the input image signal and generate the residual signal.
  • the dual signal is transmitted to the converter 120.
  • the transform unit 120 may generate a transform coefficient by applying a transform technique to the residual signal.
  • the conversion process may be applied to pixel blocks having the same size as the square, or may be applied to blocks of variable size rather than square.
  • the quantization unit 130 may quantize the transform coefficients and transmit the quantized coefficients to the entropy encoding unit 190, and the entropy encoding unit 190 may entropy code the quantized signal and output the bitstream.
  • the quantized signal output from the quantization unit 130 may be used to generate a prediction signal.
  • the quantized signal may restore the residual signal by applying inverse quantization and inverse transformation through an inverse quantization unit 140 and an inverse transformation unit 150 in a loop.
  • a reconstructed signal may be generated by adding the reconstructed residual signal to a prediction signal output from the inter predictor 180 or the intra predictor 185.
  • the filtering unit 160 applies filtering to the reconstruction signal and outputs it to the reproduction apparatus or transmits the decoded picture buffer to the decoding picture buffer 170.
  • the filtered signal transmitted to the decoded picture buffer 170 may be used as the reference picture in the inter predictor 180. As such, by using the filtered picture as a reference picture in the inter prediction mode, not only image quality but also encoding efficiency may be improved.
  • the decoded picture buffer 170 may store the filtered picture for use as a reference picture in the inter prediction unit 180.
  • the inter prediction unit 180 performs temporal prediction and / or spatial prediction to remove temporal redundancy and / or spatial redundancy with reference to a reconstructed picture.
  • the reference picture used to perform the prediction is a transformed signal that has been quantized and dequantized in units of blocks at the time of encoding / decoding, a blocking artifact or a ringing artifact may exist. have.
  • the inter prediction unit 180 may interpolate the signals between pixels in sub-pixel units by applying a lowpass filter in order to solve performance degradation due to discontinuity or quantization of such signals.
  • the subpixel refers to a virtual pixel generated by applying an interpolation filter
  • the integer pixel refers to an actual pixel existing in the reconstructed picture.
  • the interpolation method linear interpolation, bi-linear interpolation, wiener filter, or the like may be applied.
  • the interpolation filter may be applied to a reconstructed picture to improve the precision of prediction.
  • the inter prediction unit 180 generates an interpolation pixel by applying an interpolation filter to integer pixels, and uses an interpolated block composed of interpolated pixels as a prediction block. You can make predictions.
  • the inter prediction unit 180 may determine an optimal prediction weight using a template.
  • the inter prediction unit 180 may obtain an optimal prediction value by using an adaptive weighting parameter in generalized bidirectional prediction.
  • the inter prediction unit 180 may obtain an optimal prediction value by explicitly determining a weight index.
  • the inter prediction unit 180 may determine a template region based on the L0 reference block, the L1 reference block, and the neighboring pixels of the current block.
  • the inter prediction unit 180 may determine an uncorrelation factor indicating non-correlation between the L0 reference block and the current block and non-correlation between the L1 reference block and the current block based on a template of the L0 reference block, the L1 reference block, and the current block. You can decide.
  • the inter prediction unit 180 may adaptively determine a weight parameter by using an uncorrelation factor.
  • the intra predictor 185 may predict the current block by referring to samples around the block to which current encoding is to be performed.
  • the intra prediction unit 185 may perform the following process to perform intra prediction. First, reference samples necessary for generating a prediction signal may be prepared. The prediction signal may be generated using the prepared reference sample. Then, the prediction mode is encoded. In this case, the reference sample may be prepared through reference sample padding and / or reference sample filtering. Since the reference sample has been predicted and reconstructed, there may be a quantization error. Accordingly, the reference sample filtering process may be performed for each prediction mode used for intra prediction to reduce such an error.
  • a prediction signal generated by the inter predictor 180 or the intra predictor 185 may be used to generate a reconstruction signal or to generate a residual signal.
  • FIG. 2 is a schematic block diagram of a decoder in which decoding of a video signal is performed as an embodiment to which the present invention is applied.
  • the decoder 200 includes a parser (not shown), an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, a filter 240, and a decoded picture buffer (DPB). It may include a decoded picture buffer unit) 250, an inter predictor 260, an intra predictor 265, and a reconstructor (not shown).
  • the decoder 200 may be simply expressed as including a parser (not shown), a block division determiner (not shown), and a decoder (not shown).
  • embodiments applied in the present invention may be performed through the parser (not shown), the block division determiner (not shown), and the decoder (not shown).
  • the decoder 200 may receive a signal output from the encoder 100 of FIG. 1, and may parse or acquire a syntax element through a parser (not shown). The parsed or obtained signal may be entropy decoded through the entropy decoding unit 210.
  • the inverse quantization unit 220 obtains a transform coefficient from the entropy decoded signal using the quantization step size information.
  • the inverse transformer 230 inversely transforms a transform coefficient to obtain a residual signal.
  • the reconstruction unit (not shown) generates a reconstructed signal by adding the obtained residual signal to a prediction signal output from the inter prediction unit 260 or the intra prediction unit 265.
  • the filtering unit 240 applies filtering to the reconstructed signal and outputs the filtering to the reproducing apparatus or transmits it to the decoded picture buffer unit 250.
  • the filtered signal transmitted to the decoded picture buffer unit 250 may be used as the reference picture in the inter predictor 260.
  • the embodiments described by the filtering unit 160, the inter prediction unit 180, and the intra prediction unit 185 of the encoder 100 are respectively the filtering unit 240, the inter prediction unit 260, and the decoder. The same may be applied to the intra predictor 265.
  • the inter prediction unit 260 may determine an optimal prediction weight using a template.
  • the inter prediction unit 260 may obtain an optimal prediction value by using an adaptive weighting parameter in generalized bidirectional prediction.
  • the inter prediction unit 260 may obtain an optimal prediction value by using a weighted index extracted from the video signal.
  • the inter prediction unit 260 may determine a template region based on the L0 reference block, the L1 reference block, and the neighboring pixels of the current block.
  • the template region may be one already determined at the encoder and / or the decoder.
  • the inter prediction unit 260 may determine a non-correlation factor indicating the non-correlation between the L0 reference block and the current block and the non-correlation between the L1 reference block and the current block based on the templates of the L0 reference block, the L1 reference block, and the current block. You can decide.
  • the inter prediction unit 260 may adaptively determine a weight parameter by using an uncorrelation factor.
  • the reconstructed video signal output through the decoder 200 may be reproduced through a reproducing apparatus.
  • FIG. 3 is a diagram for describing a division structure of a coding unit according to an embodiment to which the present invention is applied.
  • the encoder may split one image (or picture) in units of a rectangular Coding Tree Unit (CTU).
  • CTU Coding Tree Unit
  • one CTU is sequentially encoded according to a raster scan order.
  • the size of the CTU may be set to any one of 64x64, 32x32, and 16x16, but the present invention is not limited thereto.
  • the encoder may select and use the size of the CTU according to the resolution of the input video or the characteristics of the input video.
  • the CTU may include a coding tree block (CTB) for a luma component and a coding tree block (CTB) for two chroma components corresponding thereto.
  • One CTU may be decomposed into a quadtree (QT) structure.
  • QT quadtree
  • one CTU may be divided into four units having a square shape and each side is reduced by half in length.
  • the decomposition of this QT structure can be done recursively.
  • a root node of a QT may be associated with a CTU.
  • the QT may be split until it reaches a leaf node, where the leaf node may be referred to as a coding unit (CU).
  • CU coding unit
  • a CU may mean a basic unit of coding in which an input image is processed, for example, intra / inter prediction is performed.
  • the CU may include a coding block (CB) for a luma component and a CB for two chroma components corresponding thereto.
  • CB coding block
  • the size of the CU may be determined as any one of 64x64, 32x32, 16x16, and 8x8.
  • the present invention is not limited thereto, and in the case of a high resolution image, the size of the CU may be larger or more diverse.
  • a CTU corresponds to a root node and has a smallest depth (ie, level 0) value.
  • the CTU may not be divided according to the characteristics of the input image.
  • the CTU corresponds to a CU.
  • the CTU may be decomposed into a QT form, and as a result, lower nodes having a depth of level 1 may be generated. And, a node that is no longer partitioned (ie, a leaf node) in a lower node having a depth of level 1 corresponds to a CU.
  • CU (a), CU (b) and CU (j) corresponding to nodes a, b and j are divided once in the CTU and have a depth of level 1.
  • At least one of the nodes having a depth of level 1 may be split into QT again.
  • a node that is no longer partitioned (ie, a leaf node) in a lower node having a level 2 depth corresponds to a CU.
  • CU (c), CU (h), and CU (i) corresponding to nodes c, h and i are divided twice in the CTU and have a depth of level 2.
  • At least one of the nodes having a depth of 2 may be divided into QTs.
  • a node that is no longer partitioned (ie, a leaf node) in a lower node having a depth of level 3 corresponds to a CU.
  • CU (d), CU (e), CU (f), and CU (g) corresponding to nodes d, e, f, and g are divided three times in the CTU, and level 3 Has a depth of
  • the maximum size or the minimum size of the CU may be determined according to characteristics (eg, resolution) of the video image or in consideration of encoding efficiency. Information about this or information capable of deriving the information may be included in the bitstream.
  • a CU having a maximum size may be referred to as a largest coding unit (LCU), and a CU having a minimum size may be referred to as a smallest coding unit (SCU).
  • LCU largest coding unit
  • SCU smallest coding unit
  • a CU having a tree structure may be hierarchically divided with predetermined maximum depth information (or maximum level information).
  • Each partitioned CU may have depth information. Since the depth information indicates the number and / or degree of division of the CU, the depth information may include information about the size of the CU.
  • the size of the SCU can be obtained by using the size and maximum depth information of the LCU. Or conversely, using the size of the SCU and the maximum depth information of the tree, the size of the LCU can be obtained.
  • information indicating whether the corresponding CU is split may be delivered to the decoder.
  • the information may be defined as a split flag and may be represented by a syntax element "split_cu_flag".
  • the division flag may be included in all CUs except the SCU. For example, if the split flag value is '1', the corresponding CU is divided into four CUs again. If the split flag value is '0', the CU is not divided anymore and the coding process for the CU is not divided. Can be performed.
  • the division process of the CU has been described as an example, but the QT structure described above may also be applied to the division process of a transform unit (TU) which is a basic unit for performing transformation.
  • TU transform unit
  • the TU may be hierarchically divided into a QT structure from a CU to be coded.
  • a CU may correspond to a root node of a tree for a transform unit (TU).
  • the TU divided from the CU may be divided into smaller lower TUs.
  • the size of the TU may be determined by any one of 32x32, 16x16, 8x8, and 4x4.
  • the present invention is not limited thereto, and in the case of a high resolution image, the size of the TU may be larger or more diverse.
  • information indicating whether the corresponding TU is divided may be delivered to the decoder.
  • the information may be defined as a split transform flag and may be represented by a syntax element "split_transform_flag".
  • the division conversion flag may be included in all TUs except the TU of the minimum size. For example, if the value of the division conversion flag is '1', the corresponding TU is divided into four TUs again. If the value of the division conversion flag is '0', the corresponding TU is no longer divided.
  • a CU is a basic unit of coding in which intra prediction or inter prediction is performed.
  • a CU may be divided into prediction units (PUs).
  • the PU is a basic unit for generating a prediction block, and may generate different prediction blocks in PU units within one CU.
  • the PU may be divided differently according to whether an intra prediction mode or an inter prediction mode is used as a coding mode of a CU to which the PU belongs.
  • FIG. 4 is a diagram for describing a prediction unit according to an embodiment to which the present invention is applied.
  • the PU is divided differently according to whether an intra prediction mode or an inter prediction mode is used as a coding mode of a CU to which the PU belongs.
  • FIG. 4A illustrates a PU when an intra prediction mode is used
  • FIG. 4B illustrates a PU when an inter prediction mode is used.
  • one CU may be divided into two types (ie, 2Nx2N or NxN). Can be.
  • the partitioning of the PU may be performed only when the size of the CB for the luma component of the CU is the minimum size (that is, the CU is an SCU).
  • one CU has 8 PU types (ie, 2Nx2N, NxN, 2NxN). , Nx2N, nLx2N, nRx2N, 2NxnU, 2NxnD).
  • PU partitioning in the form of NxN may be performed only when the size of the CB for the luma component of the CU is the minimum size (ie, when the CU is an SCU).
  • nLx2N, nRx2N, 2NxnU, and 2NxnD types which are Asymmetric Motion Partition (AMP).
  • 'n' means a 1/4 value of 2N.
  • AMP cannot be used when the CU to which the PU belongs is a CU of the minimum size.
  • an optimal partitioning structure of a coding unit (CU), a prediction unit (PU), and a transformation unit (TU) is subjected to the following process to perform a minimum rate-distortion. It can be determined based on the value. For example, looking at an optimal CU partitioning process in a 64x64 CTU, rate-distortion cost can be calculated while partitioning from a 64x64 CU to an 8x8 CU.
  • the specific process is as follows.
  • the partition structure of the optimal PU and TU that generates the minimum rate-distortion value is determined by performing inter / intra prediction, transform / quantization, inverse quantization / inverse transform, and entropy encoding for a 64x64 CU.
  • the 32x32 CU is subdivided into four 16x16 CUs, and a partition structure of an optimal PU and TU that generates a minimum rate-distortion value for each 16x16 CU is determined.
  • a prediction mode is selected in units of PUs, and prediction and reconstruction are performed in units of actual TUs for the selected prediction mode.
  • the TU means a basic unit in which actual prediction and reconstruction are performed.
  • the TU includes a transform block (TB) for luma components and a TB for two chroma components corresponding thereto.
  • TB transform block
  • the TUs are hierarchically divided into quadtree structures from one CU to be coded.
  • the TU divided from the CU may be divided into smaller lower TUs.
  • the size of the TU may be set to any one of 32 ⁇ 32, 16 ⁇ 16, 8 ⁇ 8, and 4 ⁇ 4.
  • a root node of the quadtree is associated with a CU.
  • the quadtree is split until it reaches a leaf node, and the leaf node corresponds to a TU.
  • the CU may not be divided according to the characteristics of the input image.
  • the CU corresponds to a TU.
  • a node ie, a leaf node
  • TU (a), TU (b), and TU (j) corresponding to nodes a, b, and j are divided once in a CU and have a depth of 1.
  • FIG. 3B TU (a), TU (b), and TU (j) corresponding to nodes a, b, and j are divided once in a CU and have a depth of 1.
  • a node (ie, a leaf node) that is no longer divided in a lower node having a depth of 2 corresponds to a TU.
  • TU (c), TU (h), and TU (i) corresponding to nodes c, h, and i are divided twice in a CU and have a depth of two.
  • a node that is no longer partitioned (ie, a leaf node) in a lower node having a depth of 3 corresponds to a CU.
  • TU (d), TU (e), TU (f), and TU (g) corresponding to nodes d, e, f, and g are divided three times in a CU. Has depth.
  • a TU having a tree structure may be hierarchically divided with predetermined maximum depth information (or maximum level information). Each divided TU may have depth information. Since the depth information indicates the number and / or degree of division of the TU, it may include information about the size of the TU.
  • information indicating whether the corresponding TU is split may be delivered to the decoder.
  • This partitioning information is included in all TUs except the smallest TU. For example, if the value of the flag indicating whether to split is '1', the corresponding TU is divided into four TUs again. If the value of the flag indicating whether to split is '0', the corresponding TU is no longer divided.
  • FIG. 5 is a diagram for describing a QTBT (QuadTree BinaryTree) block division structure according to an embodiment to which the present invention may be applied.
  • QTBT QuadTree BinaryTree
  • Quad-Tree Binary-Tree QTBT
  • QTBT refers to a structure of a coding block in which a quadtree structure and a binarytree structure are combined.
  • an image is coded in units of CTUs, the CTU is divided into quadtrees, and the leaf nodes of the quadtrees are additionally divided into binarytrees.
  • the current block may be divided into a QTBT structure. That is, the CTU may first be hierarchically divided into quadtrees. The leaf nodes of the quadtrees, which are no longer divided into quadtrees, may be hierarchically divided into binary trees.
  • the encoder may signal a split flag to determine whether to split the quadtree in the QTBT structure.
  • the quadtree splitting may be adjusted (or limited) by the MinQTLumaISlice, MinQTChromaISlice or MinQTNonISlice values.
  • MinQTLumaISlice represents the minimum size of a luma component quadtree leaf node in I-slice
  • MinQTLumaChromaISlice represents the minimum size of a chroma tree component of chroma component in I-slice
  • MinQTNonISlice represents a non-I Represents the minimum size of a quadtree leaf node in a non I-slice
  • the luma component and the chroma component in the I-slice may have a partition structure that is independent of each other.
  • the partition structure of the luma component and the chroma component may be determined differently.
  • MinQTLumaISlice and MinQTChromaISlice may have different values.
  • the quadtree structure may have the same split structure of the luma component and the chroma component.
  • the quadtree splitting structure of the luma component and the chroma component may be adjusted by the MinQTNonISlice value.
  • the leaf nodes of the quadtree may be divided into binary trees.
  • binary tree splitting may be adjusted (or limited) by MaxBTDepth, MaxBTDepthISliceL, and MaxBTDepthISliceC.
  • MaxBTDepth represents the maximum depth of binary tree splitting based on leaf nodes of the quadtree in non-I-slices
  • MaxBTDepthISliceL represents the maximum depth of binary tree splitting of luma components in I-slices
  • MaxBTDepthISliceC is I Represents the maximum depth of binary tree splitting of chroma components in slices.
  • MaxBTDepthISliceL and MaxBTDepthISliceC may have different values in the I-slice.
  • a quadtree structure and a binary tree structure may be used together.
  • the following rule may be applied.
  • MaxBTSize is less than or equal to MaxQTSize.
  • MaxBTSize represents the maximum size of the binary tree split and MaxQTSize represents the maximum size of the quadtree split.
  • the leaf node of QT becomes the root of BT.
  • BT defines a vertical split and a horizontal split.
  • MaxQTDepth and MaxBTDepth are predefined.
  • MaxQTDepth represents the maximum depth of quadtree splitting
  • MaxBTDepth represents the maximum depth of binary tree splitting.
  • MaxBTSize and MinQTSize may vary depending on the slice type.
  • FIG. 6 is a diagram for describing unidirectional inter prediction and bidirectional inter prediction in an embodiment to which the present invention is applied.
  • Inter prediction is a uni-directional prediction that uses only one past or future picture as a reference picture on the time axis for one block, and bi-directional prediction that simultaneously refers to past and future pictures. Can be divided.
  • FIG. 6 (a) shows uni-directional prediction
  • FIG. 6 (b) shows bi-directional prediction
  • a current picture exists at time T0 and refers to a picture at time (T-2) for inter prediction.
  • FIG. 6 (b) it can be seen that the current picture exists at the time T0, and the two pictures are referred to at the time (T-2) and the picture at the time T1 for inter prediction.
  • uni-directional prediction includes forward direction prediction using one reference picture displayed (or output) before the current picture in time and 1 displayed (or output) after the current picture in time. It can be divided into backward direction prediction using two reference pictures.
  • the motion parameter (or information) used to specify which reference region (or reference block) is used to predict the current block in the inter prediction process is determined by using an inter prediction mode (where
  • the inter prediction mode may indicate a reference direction (ie, unidirectional or bidirectional) and a reference list (ie, L0, L1, or bidirectional), a reference index (or reference picture index or reference list index), Contains motion vector information.
  • the motion vector information may include a motion vector, a motion vector prediction (MVP), or a motion vector difference (MVD).
  • the motion vector difference value means a difference value between the motion vector and the motion vector prediction value.
  • motion parameters for one direction are used. That is, one motion parameter may be needed to specify the reference region (or reference block).
  • Bidirectional prediction uses motion parameters for both directions.
  • up to two reference regions may be used.
  • the two reference regions may exist in the same reference picture or may exist in different pictures, respectively. That is, up to two motion parameters may be used in the bidirectional prediction scheme, and two motion vectors may have the same reference picture index or different reference picture indexes. In this case, all of the reference pictures may be displayed (or output) before or after the current picture in time.
  • the encoder performs motion estimation to find the reference region most similar to the current processing block from the reference pictures in the inter prediction process.
  • the encoder may provide a decoder with a motion parameter for the reference region.
  • the encoder or decoder may obtain a reference region of the current processing block using the motion parameter.
  • the reference region exists in a reference picture having the reference index.
  • the pixel value or interpolated value of the reference region specified by the motion vector may be used as a predictor of the current processing block. That is, using motion information, motion compensation is performed to predict an image of a current processing block from a previously decoded picture.
  • a method of acquiring a motion vector prediction value mvp using motion information of previously coded blocks and transmitting only a difference value mvd thereof may be used. That is, the decoder obtains a motion vector prediction value of the current processing block using motion information of other decoded blocks, and obtains a motion vector value for the current processing block using the difference value transmitted from the encoder. In obtaining the motion vector prediction value, the decoder may obtain various motion vector candidate values by using motion information of other blocks that are already decoded, and obtain one of them as the motion vector prediction value.
  • FIG. 7 is a diagram for describing a generalized bidirectional prediction method according to an embodiment to which the present invention is applied.
  • the present invention provides a generalized bidirectional prediction method for obtaining a bidirectional predictor in inter coding.
  • the present invention provides the L0 predictor. By optimally applying weights to the L1 predictor, an optimal prediction value can be obtained.
  • the bidirectional predictor may be obtained by using an adaptive weight as shown in Equation 1 below.
  • P [x] means a predictor at the x position of the current block
  • (1-w) and w denote weight values.
  • the set W of the weight values may be set in an embodiment as shown in Equations 2 to 4 below.
  • Tables 1 to 3 show index binarization schemes for the weight values of Equations 2 to 4, respectively.
  • FIG. 8 is a flowchart illustrating a process of determining an optimal prediction method according to an embodiment to which the present invention is applied.
  • the present invention will be described with reference to an encoder.
  • the present invention is not limited thereto and may be performed by a decoder within a range performed by the decoder.
  • the encoder may perform prediction according to a skip mode or a merge mode (S810).
  • the encoder may perform unidirectional prediction in the L0 direction (S820) or unidirectional prediction in the L1 direction (S830).
  • the encoder may perform bidirectional prediction by applying a weight (S840).
  • a weight S840
  • the weight determination method or the bidirectional prediction method described herein may be applied.
  • the steps S810 to S840 are not limited to the order, and the encoder may perform at least one of a skip mode, a merge mode, an L0 unidirectional prediction, an L1 unidirectional prediction, or a weighted bidirectional prediction. .
  • the encoder may determine an optimal prediction value among the prediction values calculated by the aforementioned prediction methods (S850).
  • the optimal prediction value may mean a value that minimizes the difference between the pixel value and the prediction value of the current block, or may mean a value that minimizes a rate-distortion (RD) cost.
  • RD rate-distortion
  • 9 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing optimal bidirectional prediction using a weighted index.
  • the encoder performs at least one of a skip mode, a merge mode, an L0 unidirectional prediction, an L1 unidirectional prediction, or a weighted bidirectional prediction, and determines an optimal prediction value therefrom. Can be.
  • a weight may be determined based on any one of Tables 1 to 3.
  • the weight index may be set to 0 to 6, wherein the weight may mean a value corresponding to the weight index.
  • One embodiment of the present invention provides a method for obtaining an optimal prediction value based on weighted bidirectional prediction.
  • the encoder may first set a weight index to 0 (S910).
  • the encoder may check whether the weight index is smaller than N (S920). For example, when the weight index of Table 3 is used, the N value may be 7.
  • the encoder may determine a value corresponding to the weight index as a weight value (S930).
  • the encoder may apply the weight value to the L0 predictor and the L1 predictor (S940).
  • Equation 1 may be used.
  • the encoder may add 1 to the weight value and perform steps S920 to S940 again.
  • the encoder may obtain an optimal prediction value among the prediction values obtained through the loop process (S960).
  • the optimal prediction value may be calculated based on the weighted L0 predictor and the L1 predictor, and the finally determined weight value means a value that minimizes the difference between the pixel value and the prediction value of the current block, or RD (Rate-Distortion) can mean a value that minimizes the cost.
  • the weight index corresponding to the finally determined weight value may mean an optimal weight index.
  • the encoder may repeatedly perform steps S920 to S950 while the weight index has a value of 0 to 6.
  • the present invention is not limited thereto, and the same method may be applied when the indexes of the weights of Tables 1 and 2 are used.
  • FIG. 10 illustrates a syntax structure for performing optimal bidirectional prediction using a weighted index according to an embodiment to which the present invention is applied.
  • An embodiment of the present invention provides a method for performing bidirectional prediction using a weight index, and provides a method for defining a weight index in a decoder.
  • the decoder can identify which prediction method is used for the current prediction unit. For example, any one of L0 unidirectional prediction, L1 unidirectional prediction, or bi-prediction may be used as the prediction method.
  • inter_pred_idc may mean whether L0 unidirectional prediction, L1 unidirectional prediction or bi-prediction is used for the current prediction unit, and PRED_BI may mean bidirectional prediction.
  • the decoder may extract a weight index (S1020).
  • the weight index may be represented by gbi_idx [x0] [y0].
  • the weight index may be defined according to the embodiment of Tables 1 to 3 above.
  • the decoder may derive a weight value corresponding to the weight index.
  • the decoder may obtain the bidirectional predictor by applying the weight value to the L0 predictor and the L1 predictor.
  • Equation 1 may be used.
  • the decoder may reconstruct the current block using the bidirectional predictor.
  • encoding complexity when encoding is performed on all weight values and an optimal weight value is determined, encoding complexity may be very high.
  • bidirectional prediction using a weight table based on a weighted index may have the following problems. For example, additional bits are required, encoder complexity increases, and a limited number of weight parameters are used.
  • Another embodiment of the present invention proposes a method for determining a weight value based on a template to solve this problem.
  • This embodiment can determine the optimal weight value without additional bits or with fewer bits.
  • the encoder complexity is low because only a combination of fewer cases is considered.
  • the weight value is not limited and thus can be represented more accurately.
  • FIG. 11 is a diagram for describing a method of performing adaptive bidirectional prediction using a template according to an embodiment to which the present invention is applied.
  • the present invention provides a method of determining an optimal weight value using a template in inter coding and adaptively performing bidirectional prediction using the optimal weight value.
  • a weight determined (or obtained) using a template may be referred to as a template-based weight.
  • the present invention provides the L0 predictor. By optimally applying weights to the L1 predictor, an optimal prediction value can be obtained.
  • the present invention may use a template (or template region) to determine a weight value (or weight parameter).
  • the present invention may use a template to find the optimal L0 / L1 predictor or to find the optimal L0 / L1 reference block.
  • the template may mean a set of pixels having a predefined shape, which may have already been determined at the encoder or the decoder.
  • the present invention is not limited thereto, and the template may be adaptively determined based on at least one of a sequence, a picture, a slice, a block, a coding unit, or a characteristic (common parameter, prediction method, size, shape, etc.) of a prediction unit. It may be.
  • the template is described on a block basis, but as mentioned above, the present invention is not limited thereto.
  • the template may include uncorrelated factors ucL0 and ucL1 based on a pixel value difference (or sum of absolute values of the pixel value differences) at the same position between the template of the L0 / L1 reference block and the template of the current block.
  • the uncorrelation factor may mean a value representing uncorrelation (or correlation) between the reference block and the current block.
  • the uncorrelation factor may mean a value indicating uncorrelation (or correlation) between a template of a reference block and a template of the current block.
  • an encoder or decoder may use the same to determine a weight value and perform bidirectional prediction based on the weight value.
  • the bidirectional predictor may be obtained using the weight value w as shown in Equation 5 below.
  • P [x] means a predictor at the x position of the current block
  • (1-w) and w denote weight values.
  • the weight value w may be determined based on the uncorrelated factors. This will be described in more detail in the following examples.
  • 12 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing adaptive bidirectional prediction using a template.
  • the encoder or decoder may determine at least one template or template region of the L0 reference block, the L1 reference block, and the current block (S1210).
  • the template may mean a set of pixels having a predefined shape, which may have already been determined at the encoder or the decoder.
  • the present invention is not limited thereto, and the template may be adaptively determined based on at least one of a sequence, a picture, a slice, a block, a coding unit, or a characteristic (common parameter, prediction method, size, shape, etc.) of a prediction unit. It may be.
  • the encoder or decoder may determine uncorrelated factors ucL0 and ucL1 based on the template region (S1220).
  • the decorrelating factors may include an L0 decorrelating factor ucL0 for the L0 reference block and an L1 decorrelating factor ucL1 for the L1 reference block.
  • the encoder or decoder may calculate or determine a weight value using the uncorrelated factors ucL0 and ucL1 (S1230).
  • FIG. 13 is a diagram for describing a method of determining a template region to perform adaptive bidirectional prediction according to an embodiment to which the present invention is applied.
  • the present invention provides various methods for determining a template or template region as in step S1210 of FIG. 12.
  • the template may be a pixel adjacent to at least one of the left, right, top, bottom, or four vertices of the block NxN. It may be configured.
  • FIG. 14 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing adaptive bidirectional prediction based on a template without using a weight index.
  • the present invention provides a method for determining an uncorrelated factor based on a template region.
  • the uncorrelation factor may be determined or calculated by the following equations (6) and (7).
  • ucL0 denotes an L0 noncorrelation factor that represents the noncorrelation between the L0 reference block and the current block
  • ucL1 denotes an L1 noncorrelation factor that represents the noncorrelation between the L1 reference block and the current block.
  • R represents a template region
  • p0 i a pixel value of the L0 template region
  • p1 i a pixel value of the L0 template region
  • c i a pixel value of the current template.
  • f (x, y) abs (xy).
  • the present invention is not limited thereto, and the uncorrelated factor may be replaced by various methods for obtaining correlation or uncorrelation.
  • the present invention provides a method for determining a weight parameter using an uncorrelated factor.
  • the weight parameter and the weight value may be used interchangeably.
  • the weight parameter w may be determined or calculated by the following equation (8).
  • the present invention provides an adaptive bidirectional prediction method, which can be performed as follows.
  • the encoder or the decoder may determine a template region (S1410).
  • the embodiments described herein may be applied to the template region.
  • the encoder or decoder may determine an uncorrelated factor based on the template region (S1420).
  • the uncorrelated factor may be applied to the embodiments described herein.
  • the encoder or decoder may determine a weight parameter using the uncorrelated factor (S1430).
  • the embodiments described herein may be applied to the weight parameter.
  • the encoder or decoder may obtain a bidirectional prediction value using the weight parameter (S1440).
  • the present invention can obtain an optimal prediction value without transmitting a separate index indicating the weight parameter.
  • Equation 8 may be defined as Equation 9 and Equation 10 below.
  • the step may be any number, for example, 4, 8, 16, 32, 64 and the like.
  • FIG. 15 is an embodiment to which the present invention is applied and is a flowchart illustrating a process of performing optimal bidirectional prediction based on at least two weight determination methods.
  • the present invention provides a method for performing optimal bidirectional prediction based on at least two weight determination methods.
  • the weight determination method is different for distinguishing terms
  • the weight parameter may be distinguished and used as the first weight parameter and the second weight parameter
  • the prediction value may be distinguished and used as the first prediction value and the second prediction value.
  • the present invention is not limited to this, and when the same term is used, it can be distinguished using the first and second terms, which may be applicable to other terms.
  • the encoder or the decoder may determine a template region (S1510).
  • the embodiments described herein may be applied to the template region.
  • the encoder or decoder may determine an uncorrelated factor based on the template region (S1520).
  • the uncorrelated factor may be applied to the embodiments described herein.
  • the encoder or decoder may determine a weight parameter using the uncorrelated factor (S1530).
  • the embodiments described herein may be applied to the weight parameter.
  • the encoder or decoder may obtain a first prediction value using the weight parameter (S1540).
  • the encoder or decoder may determine the weight parameter by various methods. For example, the encoder or decoder may determine the weight parameter as 1/2, which is a predetermined value (S1550).
  • the weight parameter may be determined based on the weight index.
  • a value corresponding to the weight index may be derived from a predetermined weight table.
  • the encoder or decoder may obtain a second prediction value based on the weight parameter determined in step S1550 (S1560).
  • the encoder or decoder may compare the first prediction value with the second prediction value (S1570) and obtain an optimal prediction value (S1580).
  • the encoder explicitly transmits by assigning a separate index (hereinafter referred to as an adaptive weighting index) on whether to perform steps S1510 to S1540 or S1550 to S1560. Can be.
  • a separate index hereinafter referred to as an adaptive weighting index
  • Table 4 may be used to define an adaptive weighting index.
  • the weighting parameter means 1/2, and if the adaptive weighting index is 1, the weighting parameter means w.
  • the above-described methods may be applied to the method of determining the w value.
  • the encoder may perform encoding on all adaptive weight index cases and determine an optimal weight parameter according to the result.
  • the corresponding adaptive weight index is then signaled and sent to the decoder.
  • the syntax structure of FIG. 10 may be used in the same manner.
  • Another embodiment of the present invention provides various methods of defining an adaptive weighting index.
  • the following table 5 or 6 can be used to define the adaptive weight index.
  • the weighting parameter means 1/2, and it is represented by the binarization bit 0.
  • the weighting parameter means w, and it is represented by the binarization bit 10.
  • the weighting parameter means w ', which is represented by binarization bit 11.
  • w ' may be determined to be the closest of the smaller values than w or the closest to w of larger values.
  • the weighting parameter means w, represented by binarization bit 0, and when the adaptive weighting index is 1, the weighting parameter means 1/2, and the binarization bit 10
  • the weighting parameter means w 'and is represented by binarization bit 11.
  • w ' may be determined to be the closest of the smaller values than w or the closest to w of larger values.
  • n weight parameters may be explicitly used by adding a new weight parameter.
  • the embodiments described herein may be implemented and performed on a processor, microprocessor, controller, or chip.
  • the functional units illustrated in FIGS. 1 and 2 may be implemented and performed on a computer, a processor, a microprocessor, a controller, or a chip.
  • the decoder and encoder to which the present invention is applied include a multimedia broadcasting transmitting and receiving device, a mobile communication terminal, a home cinema video device, a digital cinema video device, a surveillance camera, a video chat device, a real time communication device such as video communication, a mobile streaming device, Storage media, camcorders, video on demand (VoD) service providing devices, internet streaming service providing devices, three-dimensional (3D) video devices, video telephony video devices, and medical video devices, and the like, for processing video and data signals Can be used for
  • the processing method to which the present invention is applied can be produced in the form of a program executed by a computer, and can be stored in a computer-readable recording medium.
  • Multimedia data having a data structure according to the present invention can also be stored in a computer-readable recording medium.
  • the computer readable recording medium includes all kinds of storage devices for storing computer readable data.
  • the computer-readable recording medium may include, for example, a Blu-ray disc (BD), a universal serial bus (USB), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, and an optical data storage device. Can be.
  • the computer-readable recording medium also includes media embodied in the form of a carrier wave (eg, transmission over the Internet).
  • the bit stream generated by the encoding method may be stored in a computer-readable recording medium or transmitted through a wired or wireless communication network.

Abstract

본 발명은, 템플릿 기반 가중치(template-based weight)를 이용하여 양방향 예측을 수행하는 방법에 있어서, 현재 블록의 양방향 예측(bi-prediction)을 수행하기 위한 템플릿 영역(template region)을 결정하는 단계; 상기 템플릿 영역에 기초하여 비상관 팩터(uncorrelation factor)를 계산하되, 상기 비상관 팩터는 상기 현재 블록의 템플릿과 참조 블록의 템플릿 간의 비상관성을 나타내는 값을 의미함; 상기 비상관 팩터에 기초하여 상기 현재 블록의 제 1 가중치 파라미터(1st weight parameter)를 결정하는 단계; 및 상기 가중치 파라미터를 이용하여 상기 현재 블록의 제 1 예측값을 획득하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.

Description

템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치
본 발명은 비디오 신호의 인코딩/디코딩 방법 및 장치에 관한 것이며, 보다 구체적으로 템플릿을 이용하여 최적의 예측 가중치를 결정하고 이를 이용하여 인터 예측을 수행하는 방법 및 장치에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 영상, 이미지, 음성 등의 미디어가 압축 부호화의 대상이 될 수 있으며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다.
차세대 비디오 컨텐츠는 고해상도(high spatial resolution), 고프레임율(high frame rate) 및 영상 표현의 고차원화(high dimensionality of scene representation)라는 특징을 갖게 될 것이다. 그러한 컨텐츠를 처리하기 위해서는 메모리 저장(memory storage), 메모리 액세스율(memory access rate) 및 처리 전력(processing power) 측면에서 엄청난 증가를 가져올 것이다.
따라서, 차세대 비디오 컨텐츠를 보다 효율적으로 처리하기 위한 코딩 툴을 디자인할 필요가 있다.
본 발명은 보다 효율적으로 비디오 신호를 인코딩, 디코딩하는 방법을 제안하고자 한다.
또한, 본 발명은 다양한 예측 방법들 중에서 최적의 예측 방법을 결정하는 방법을 제공하고자 한다.
또한, 본 발명은 가중치 인덱스를 명시적으로 전송하는 방법을 제공하고자 한다.
또한, 본 발명은 템플릿 영역(template region)을 결정하는 방법을 제공하고자 한다.
또한, 본 발명은 템플릿 영역(template region)에 기초하여 비상관 팩터(uncorrelation factor)를 결정하는 방법을 제공하고자 한다.
또한, 본 발명은 일반화된 양방향 예측에서 적응적인 가중치 파라미터를 이용하여 최적의 예측값을 획득하는 방법을 제공하고자 한다.
상기의 기술적 과제를 해결하기 위해,
본 발명은, 템플릿을 이용하여 최적의 예측 가중치를 결정하는 방법을 제공한다.
또한, 본 발명은 일반화된 양방향 예측에서 적응적인 가중치 파라미터를 이용하여 최적의 예측값을 획득하는 방법을 제공한다.
또한, 본 발명은 가중치 인덱스를 명시적으로 전송함으로써 최적의 예측값을 획득하는 방법을 제공한다.
또한, 본 발명은 L0 참조 블록, L1 참조 블록 및 현재 블록의 이웃 픽셀에 기초하여 템플릿 영역을 결정하는 방법을 제공한다.
또한, 본 발명은 L0 참조 블록, L1 참조 블록 및 현재 블록의 템플릿에 기초하여 L0 참조 블록과 현재 블록의 비상관성 및 L1 참조 블록과 현재 블록의 비상관성을 나타내는 비상관성 팩터를 결정하는 방법을 제공한다.
또한, 본 발명은 비상관성 팩터(uncorrelation factor)를 이용하여 적응적으로 가중치 파라미터를 결정하는 방법을 제공한다.
본 발명은 일반화된 양방향 예측에서 적응적인 가중치 파라미터를 이용함으로써 보다 향상된 예측값을 획득할 수 있다.
또한, 본 발명은, L0 예측자와 L1 예측자에 대한 가중치 파라미터를 적응적으로 결정함으로써 보다 향상된 예측값을 획득하고, 영상의 부호화 효율을 향상시킬 수 있다.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 3은 본 발명이 적용되는 실시예로서, 코딩 유닛의 분할 구조를 설명하기 위한 도면이다.
도 4는 본 발명이 적용되는 실시예로서, 예측 유닛을 설명하기 위한 도면이다.
도 5는 본 발명이 적용되는 실시예로서, QTBT(QuadTree BinaryTree, 이하 ‘QTBT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
도 6은 본 발명이 적용되는 실시예로서, 단방향 인터 예측과 양방향 인터 예측을 설명하기 위한 도면이다.
도 7은 본 발명이 적용되는 실시예로서, 일반화된 양방향 예측 방법을 설명하기 위한 도면이다.
도 8은 본 발명이 적용되는 실시예로서, 최적의 예측 방법을 결정하는 과정을 설명하기 위한 흐름도이다.
도 9는 본 발명이 적용되는 실시예로서, 가중치 인덱스를 이용하여 최적의 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
도 10은 본 발명이 적용되는 실시예로서, 가중치 인덱스를 이용하여 최적의 양방향 예측을 수행하는 신택스 구조를 나타낸다.
도 11은 본 발명이 적용되는 실시예로서, 템플릿을 이용하여 적응적인 양방향 예측을 수행하는 방법을 설명하기 위한 도면이다.
도 12는 본 발명이 적용되는 실시예로서, 템플릿을 이용하여 적응적인 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
도 13은 본 발명이 적용되는 실시예로서, 적응적인 양방향 예측을 수행하기 위해 템플릿 영역을 결정하는 방법을 설명하는 도면이다.
도 14는 본 발명이 적용되는 실시예로서, 가중치 인덱스를 이용하지 않고 템플릿에 기초하는 적응적인 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
도 15는 본 발명이 적용되는 실시예로서, 적어도 2이상의 가중치 결정 방법에 기초하여 최적의 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
본 발명은, 템플릿 기반 가중치(template-based weight)를 이용하여 양방향 예측을 수행하는 방법에 있어서, 현재 블록의 양방향 예측(bi-prediction)을 수행하기 위한 템플릿 영역(template region)을 결정하는 단계; 상기 템플릿 영역에 기초하여 비상관 팩터(uncorrelation factor)를 계산하되, 상기 비상관 팩터는 상기 현재 블록의 템플릿과 참조 블록의 템플릿 간의 비상관성을 나타내는 값을 의미함; 상기 비상관 팩터에 기초하여 상기 현재 블록의 제 1 가중치 파라미터(1st weight parameter)를 결정하는 단계; 및 상기 가중치 파라미터를 이용하여 상기 현재 블록의 제 1 예측값을 획득하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.
본 발명에서, 상기 템플릿 영역은 NxN 크기의 상기 현재 블록 또는 상기 참조 블록의 좌측, 상측 및 좌상측 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 나타내거나, 또는 좌측, 우측, 상측, 하측 및 4개 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 나타내는 것을 특징으로 한다.
본 발명에서, 상기 비상관 팩터는 상기 현재 블록의 템플릿과 상기 참조 블록의 템플릿 간의 픽셀값 차이의 절대값의 합에 의해 유도되고, 상기 비상관 팩터는 L0 참조 블록에 대한 L0 비상관 팩터 및 L1 참조 블록에 대한 L1 비상관 팩터를 포함하는 것을 특징으로 한다.
본 발명에서, 상기 현재 블록의 제 1 가중치 파라미터는 수학식 ((상기 L1 비상관 팩터)/(상기 L0 비상관 팩터 + 상기 L1 비상관 팩터))에 의해 결정되는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 상기 현재 블록의 제 2 가중치 파라미터를 1/2 값으로 결정하고, 상기 제 2 가중치 파라미터를 이용하여 제 2 예측값을 획득하는 단계; 및 상기 제 1 예측값과 상기 제 2 예측값의 율-왜곡 비용(Rate-Distortion cost)에 기초하여, 상기 현재 블록의 최적의 예측값을 결정하는 단계를 더 포함하는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 각 가중치 파라미터에 대응되는 적응적 가중치 인덱스를 시그널링하는 단계를 더 포함하되, 상기 제 1 가중치 파라미터와 상기 제 2 가중치 파라미터는 상기 적응적 가중치 인덱스에 의해 지시되는 것을 특징으로 한다.
본 발명에서, 상기 제 2 가중치 파라미터는 기결정된 가중치 테이블에 기초하여 결정되는 것을 특징으로 한다.
본 발명은, 템플릿 기반 가중치(template-based weight)를 이용하여 현재 블록에 대해 양방향 예측을 수행하는 장치에 있어서, 상기 현재 블록의 양방향 예측(bi-prediction)을 수행하기 위한 템플릿 영역(template region)을 결정하고, 상기 템플릿 영역에 기초하여 비상관 팩터(uncorrelation factor)를 계산하고, 상기 비상관 팩터에 기초하여 상기 현재 블록의 제 1 가중치 파라미터(1st weight parameter)를 결정하며, 상기 가중치 파라미터를 이용하여 상기 현재 블록의 제 1 예측값을 획득하는 인터 예측부; 및 상기 제 1 예측값을 이용하여 상기 현재 블록을 복원하는 복원부를 포함하되, 상기 비상관 팩터는 상기 현재 블록의 템플릿과 참조 블록의 템플릿 간의 비상관성을 나타내는 값을 의미하는 것을 특징으로 하는 장치를 제공한다.
본 발명에서, 상기 인터 예측부는, 상기 현재 블록의 제 2 가중치 파라미터(2nd weight parameter)를 1/2 값으로 결정하고, 상기 제 2 가중치 파라미터를 이용하여 제 2 예측값을 획득하고, 상기 제 1 예측값과 상기 제 2 예측값의 율-왜곡 비용(Rate-Distortion cost)에 기초하여 상기 현재 블록의 최적의 예측값을 결정하는 것을 특징으로 한다.
본 발명에서, 상기 장치는, 비디오 신호로부터 각 가중치 파라미터에 대응되는 적응적 가중치 인덱스를 추출하는 파싱부를 더 포함하되, 상기 제 1 가중치 파라미터와 상기 제 2 가중치 파라미터는 상기 적응적 가중치 인덱스에 기초하여 유도되는 것을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하며, 도면에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어를 사용하여 설명한다. 그러한 경우에는 해당 부분의 상세 설명에서 그 의미를 명확히 기재하므로, 본 발명의 설명에서 사용된 용어의 명칭만으로 단순 해석되어서는 안 될 것이며 그 해당 용어의 의미까지 파악하여 해석되어야 함을 밝혀두고자 한다.
또한, 본 발명에서 사용되는 용어들은 발명을 설명하기 위해 선택된 일반적인 용어들이나, 유사한 의미를 갖는 다른 용어가 있는 경우 보다 적절한 해석을 위해 대체 가능할 것이다. 예를 들어, 신호, 데이터, 샘플, 픽쳐, 프레임, 블록 등의 경우 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다. 또한, 파티셔닝(partitioning), 분해(decomposition), 스플리팅 (splitting) 및 분할(division) 등의 경우에도 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 1을 참조하면, 인코더(100)는 영상 분할부(110), 변환부(120), 양자화부(130), 역양자화부(140), 역변환부(150), 필터링부(160), 복호 픽쳐 버퍼(DPB: Decoded Picture Buffer) (170), 인터 예측부(180), 인트라 예측부(185) 및 엔트로피 인코딩부(190)를 포함하여 구성될 수 있다.
영상 분할부(110)는 인코더(100)에 입력된 입력 영상(Input image) (또는, 픽쳐, 프레임)를 하나 이상의 처리 유닛으로 분할할 수 있다. 예를 들어, 상기 처리 유닛은 코딩 트리 유닛(CTU: Coding Tree Unit), 코딩 유닛(CU: Coding Unit), 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)일 수 있다.
다만, 상기 용어들은 본 발명에 대한 설명의 편의를 위해 사용할 뿐이며, 본 발명은 해당 용어의 정의에 한정되지 않는다. 또한, 본 명세서에서는 설명의 편의를 위해, 비디오 신호를 인코딩 또는 디코딩하는 과정에서 이용되는 단위로써 코딩 유닛이라는 용어를 사용하지만, 본 발명은 그에 한정되지 않으며 발명 내용에 따라 적절하게 해석 가능할 것이다.
인코더(100)는 입력 영상 신호에서 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호(prediction signal)를 감산하여 레지듀얼 신호(residual signal)를 생성할 수 있고, 생성된 레지듀얼 신호는 변환부(120)로 전송된다.
변환부(120)는 레지듀얼 신호에 변환 기법을 적용하여 변환 계수(transform coefficient)를 생성할 수 있다. 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.
양자화부(130)는 변환 계수를 양자화하여 엔트로피 인코딩부(190)로 전송하고, 엔트로피 인코딩부(190)는 양자화된 신호(quantized signal)를 엔트로피 코딩하여 비트스트림으로 출력할 수 있다.
양자화부(130)로부터 출력된 양자화된 신호(quantized signal)는 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 신호(quantized signal)는 루프 내의 역양자화부(140) 및 역변환부(150)를 통해 역양자화 및 역변환을 적용함으로써 레지듀얼 신호를 복원할 수 있다. 복원된 레지듀얼 신호를 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호(prediction signal)에 더함으로써 복원 신호(reconstructed signal)가 생성될 수 있다.
한편, 위와 같은 압축 과정에서 인접한 블록들이 서로 다른 양자화 파라미터에 의해 양자화됨으로써 블록 경계가 보이는 열화가 발생될 수 있다. 이러한 현상을 블록킹 열화(blocking artifacts)라고 하며, 이는 화질을 평가하는 중요한 요소 중의 하나이다. 이러한 열화를 줄이기 위해 필터링 과정을 수행할 수 있다. 이러한 필터링 과정을 통해 블록킹 열화를 제거함과 동시에 현재 픽쳐에 대한 오차를 줄임으로써 화질을 향상시킬 수 있게 된다.
필터링부(160)는 복원 신호에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼(170)에 전송한다. 복호 픽쳐 버퍼(170)에 전송된 필터링된 신호는 인터 예측부(180)에서 참조 픽쳐로 사용될 수 있다. 이처럼, 필터링된 픽쳐를 화면간 예측 모드에서 참조 픽쳐로 이용함으로써 화질 뿐만 아니라 부호화 효율도 향상시킬 수 있다.
복호 픽쳐 버퍼(170)는 필터링된 픽쳐를 인터 예측부(180)에서의 참조 픽쳐로 사용하기 위해 저장할 수 있다.
인터 예측부(180)는 복원 픽쳐(reconstructed picture)를 참조하여 시간적 중복성 및/또는 공간적 중복성을 제거하기 위해 시간적 예측 및/또는 공간적 예측을 수행한다. 여기서, 예측을 수행하기 위해 이용되는 참조 픽쳐는 이전 시간에 부호화/복호화 시 블록 단위로 양자화와 역양자화를 거친 변환된 신호이기 때문에, 블로킹 아티팩트(blocking artifact)나 링잉 아티팩트(ringing artifact)가 존재할 수 있다.
따라서, 인터 예측부(180)는 이러한 신호의 불연속이나 양자화로 인한 성능 저하를 해결하기 위해, 로우패스 필터(lowpass filter)를 적용함으로써 픽셀들 사이의 신호를 서브 픽셀 단위로 보간할 수 있다. 여기서, 서브 픽셀은 보간 필터를 적용하여 생성된 가상의 화소를 의미하고, 정수 픽셀은 복원된 픽쳐에 존재하는 실제 화소를 의미한다. 보간 방법으로는 선형 보간, 양선형 보간(bi-linear interpolation), 위너 필터(wiener filter) 등이 적용될 수 있다.
보간 필터는 복원 픽쳐(reconstructed picture)에 적용되어 예측의 정밀도를 향상시킬 수 있다. 예를 들어, 인터 예측부(180)는 정수 픽셀에 보간 필터를 적용하여 보간 픽셀을 생성하고, 보간 픽셀들(interpolated pixels)로 구성된 보간 블록(interpolated block)을 예측 블록(prediction block)으로 사용하여 예측을 수행할 수 있다.
본 발명의 일실시예로, 상기 인터 예측부(180)는 템플릿을 이용하여 최적의 예측 가중치를 결정할 수 있다.
또한, 상기 인터 예측부(180)는 일반화된 양방향 예측에서 적응적인 가중치 파라미터를 이용하여 최적의 예측값을 획득할 수 있다.
또한, 상기 인터 예측부(180)는 가중치 인덱스를 명시적으로 결정함으로써 최적의 예측값을 획득할 수 있다.
또한, 상기 인터 예측부(180)는 L0 참조 블록, L1 참조 블록 및 현재 블록의 이웃 픽셀에 기초하여 템플릿 영역을 결정할 수 있다.
또한, 상기 인터 예측부(180)는 L0 참조 블록, L1 참조 블록 및 현재 블록의 템플릿에 기초하여 L0 참조 블록과 현재 블록의 비상관성 및 L1 참조 블록과 현재 블록의 비상관성을 나타내는 비상관성 팩터를 결정할 수 있다.
또한, 상기 인터 예측부(180)는 비상관성 팩터(uncorrelation factor)를 이용하여 적응적으로 가중치 파라미터를 결정할 수 있다.
인트라 예측부(185)는 현재 부호화를 진행하려고 하는 블록의 주변에 있는 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 인트라 예측부(185)는 인트라 예측을 수행하기 위해 다음과 같은 과정을 수행할 수 있다. 먼저, 예측 신호를 생성하기 위해 필요한 참조 샘플을 준비할 수 있다. 그리고, 준비된 참조 샘플을 이용하여 예측 신호를 생성할 수 있다. 이후, 예측 모드를 부호화하게 된다. 이때, 참조 샘플은 참조 샘플 패딩 및/또는 참조 샘플 필터링을 통해 준비될 수 있다. 참조 샘플은 예측 및 복원 과정을 거쳤기 때문에 양자화 에러가 존재할 수 있다. 따라서, 이러한 에러를 줄이기 위해 인트라 예측에 이용되는 각 예측 모드에 대해 참조 샘플 필터링 과정이 수행될 수 있다.
상기 인터 예측부(180) 또는 상기 인트라 예측부(185)를 통해 생성된 예측 신호(prediction signal)는 복원 신호를 생성하기 위해 이용되거나 레지듀얼 신호를 생성하기 위해 이용될 수 있다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 2를 참조하면, 디코더(200)는 파싱부(미도시), 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(230), 필터링부(240), 복호 픽쳐 버퍼(DPB: Decoded Picture Buffer Unit) (250), 인터 예측부(260), 인트라 예측부(265) 및 복원부(미도시)를 포함하여 구성될 수 있다.
다른 예로, 상기 디코더(200)는 파싱부(미도시), 블록 분할 결정부(미도시) 및 디코딩부(미도시)를 포함하는 것으로 간단히 표현될 수도 있다. 이때, 본 발명에서 적용되는 실시예들은 상기 파싱부(미도시), 블록 분할 결정부(미도시) 및 디코딩부(미도시)를 통해 수행될 수 있다.
디코더(200)는 도 1의 인코더(100)로부터 출력된 신호를 수신할 수 있고, 파싱부(미도시)를 통해 신택스 엘리먼트를 파싱 또는 획득할 수 있다. 파싱 또는 획득된 신호는 엔트로피 디코딩부(210)를 통해 엔트로피 디코딩될 수 있다.
역양자화부(220)에서는 양자화 스텝 사이즈 정보를 이용하여 엔트로피 디코딩된 신호로부터 변환 계수(transform coefficient)를 획득한다.
역변환부(230)에서는 변환 계수를 역변환하여 레지듀얼 신호(residual signal)를 획득하게 된다.
복원부(미도시)는 획득된 레지듀얼 신호를 인터 예측부(260) 또는 인트라 예측부(265)로부터 출력된 예측 신호(prediction signal)에 더함으로써 복원 신호(reconstructed signal)를 생성한다.
필터링부(240)는 복원 신호(reconstructed signal)에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼부(250)에 전송한다. 복호 픽쳐 버퍼부(250)에 전송된 필터링된 신호는 인터 예측부(260)에서 참조 픽쳐로 사용될 수 있다.
본 명세서에서, 인코더(100)의 필터링부(160), 인터 예측부(180) 및 인트라 예측부(185)에서 설명된 실시예들은 각각 디코더의 필터링부(240), 인터 예측부(260) 및 인트라 예측부(265)에도 동일하게 적용될 수 있다.
본 발명의 일실시예로, 상기 인터 예측부(260)는 템플릿을 이용하여 최적의 예측 가중치를 결정할 수 있다.
또한, 상기 인터 예측부(260)는 일반화된 양방향 예측에서 적응적인 가중치 파라미터를 이용하여 최적의 예측값을 획득할 수 있다.
또한, 상기 인터 예측부(260)는 비디오 신호로부터 추출된 가중치 인덱스를 이용함으로써 최적의 예측값을 획득할 수 있다.
또한, 상기 인터 예측부(260)는 L0 참조 블록, L1 참조 블록 및 현재 블록의 이웃 픽셀에 기초하여 템플릿 영역을 결정할 수 있다. 또는, 상기 템플릿 영역은 인코더 및/또는 디코더에서 이미 결정된 것일 수 있다.
또한, 상기 인터 예측부(260)는 L0 참조 블록, L1 참조 블록 및 현재 블록의 템플릿에 기초하여 L0 참조 블록과 현재 블록의 비상관성 및 L1 참조 블록과 현재 블록의 비상관성을 나타내는 비상관성 팩터를 결정할 수 있다.
또한, 상기 인터 예측부(260)는 비상관성 팩터(uncorrelation factor)를 이용하여 적응적으로 가중치 파라미터를 결정할 수 있다.
상기 디코더(200)를 통해 출력된 복원 영상 신호(reconstructed video signal)는 재생 장치를 통해 재생될 수 있다.
도 3은 본 발명이 적용되는 실시예로서, 코딩 유닛의 분할 구조를 설명하기 위한 도면이다.
인코더는 하나의 영상(또는 픽쳐)을 사각형 형태의 코딩 트리 유닛(CTU: Coding Tree Unit) 단위로 분할할 수 있다. 그리고, 래스터 스캔 순서(raster scan order)에 따라 하나의 CTU 씩 순차적으로 인코딩한다.
예를 들어, CTU의 크기는 64x64, 32x32, 16x16 중 어느 하나로 정해질 수 있으나, 본 발명은 이에 한정되지 않는다. 인코더는 입력된 영상의 해상도 또는 입력된 영상의 특성 등에 따라 CTU의 크기를 선택하여 사용할 수 있다. CTU는 루마(luma) 성분에 대한 코딩 트리 블록(CTB: Coding Tree Block)과 이에 대응하는 두 개의 크로마(chroma) 성분에 대한 코딩 트리 블록(CTB: Coding Tree Block)을 포함할 수 있다.
하나의 CTU는 쿼드트리(quadtree, 이하 'QT'라 함) 구조로 분해될 수 있다. 예를 들어, 하나의 CTU는 정사각형 형태를 가지면서 각 변의 길이가 절반씩 감소하는 4개의 유닛으로 분할될 수 있다. 이러한 QT 구조의 분해는 재귀적으로 수행될 수 있다.
도 3을 참조하면, QT의 루트 노드(root node)는 CTU와 관련될 수 있다. QT는 리프 노드(leaf node)에 도달할 때까지 분할될 수 있고, 이때 상기 리프 노드는 코딩 유닛(CU: Coding Unit)으로 지칭될 수 있다.
CU는 입력 영상의 처리 과정, 예컨대 인트라(intra)/인터(inter) 예측이 수행되는 코딩의 기본 단위를 의미할 수 있다. CU는 루마(luma) 성분에 대한 코딩 블록(CB: Coding Block)과 이에 대응하는 두 개의 크로마(chroma) 성분에 대한 CB를 포함할 수 있다. 예를 들어, CU의 크기는 64x64, 32x32, 16x16, 8x8 중 어느 하나로 정해질 수 있으나, 본 발명은 이에 한정되지 않으며, 고해상도 영상일 경우, CU의 크기는 더 커지거나 다양해질 수 있다.
도 3을 참조하면, CTU는 루트 노드(root node)에 해당되고, 가장 작은 깊이(depth) (즉, 레벨 0) 값을 가진다. 입력 영상의 특성에 따라 CTU가 분할되지 않을 수도 있으며, 이 경우 CTU는 CU에 해당된다.
CTU는 QT 형태로 분해될 수 있으며, 그 결과 레벨 1의 깊이를 가지는 하위 노드들이 생성될 수 있다. 그리고, 레벨 1의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 CU에 해당한다. 예를 들어, 도 3(b)에서 노드 a, b 및 j에 대응하는 CU(a), CU(b), CU(j)는 CTU에서 한 번 분할되었으며, 레벨 1의 깊이를 가진다.
레벨 1의 깊이를 가지는 노드 중 적어도 어느 하나는 다시 QT 형태로 분할될 수 있다. 그리고, 레벨 2의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 CU에 해당한다. 예를 들어, 도 3(b)에서 노드 c, h 및 i에 대응하는 CU(c), CU(h), CU(i)는 CTU에서 두 번 분할되었으며, 레벨 2의 깊이를 가진다.
또한, 레벨 2의 깊이를 가지는 노드 중 적어도 어느 하나는 다시 QT 형태로 분할될 수 있다. 그리고, 레벨 3의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 CU에 해당한다. 예를 들어, 도 3(b)에서 노드 d, e, f, g에 대응하는 CU(d), CU(e), CU(f), CU(g)는 CTU에서 3번 분할되었으며, 레벨 3의 깊이를 가진다.
인코더에서는 비디오 영상의 특성(예를 들어, 해상도)에 따라서 혹은 부호화의 효율을 고려하여 CU의 최대 크기 또는 최소 크기를 결정할 수 있다. 그리고, 이에 대한 정보 또는 이를 유도할 수 있는 정보가 비트스트림에 포함될 수 있다. 최대 크기를 가지는 CU를 최대 코딩 유닛(LCU: Largest Coding Unit)이라고 지칭하며, 최소 크기를 가지는 CU를 최소 코딩 유닛(SCU: Smallest Coding Unit)이라고 지칭할 수 있다.
또한, 트리 구조를 갖는 CU는 미리 정해진 최대 깊이 정보(또는, 최대 레벨 정보)를 가지고 계층적으로 분할될 수 있다. 그리고, 각각의 분할된 CU는 깊이 정보를 가질 수 있다. 깊이 정보는 CU의 분할된 횟수 및/또는 정도를 나타내므로, CU의 크기에 관한 정보를 포함할 수도 있다.
LCU가 QT 형태로 분할되므로, LCU의 크기 및 최대 깊이 정보를 이용하면 SCU의 크기를 구할 수 있다. 또는 역으로, SCU의 크기 및 트리의 최대 깊이 정보를 이용하면, LCU의 크기를 구할 수 있다.
하나의 CU에 대하여, 해당 CU이 분할 되는지 여부를 나타내는 정보가 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 분할 플래그로 정의될 수 있으며, 신택스 엘리먼트 "split_cu_flag"로 표현될 수 있다. 상기 분할 플래그는 SCU을 제외한 모든 CU에 포함될 수 있다. 예를 들어, 상기 분할 플래그의 값이 '1'이면 해당 CU는 다시 4개의 CU으로 나누어지고, 상기 분할 플래그의 값이 '0'이면 해당 CU는 더 이상 나누어지지 않고 해당 CU에 대한 코딩 과정이 수행될 수 있다.
앞서 도 3의 실시예에서는 CU의 분할 과정에 대해 예로 들어 설명하였으나, 변환을 수행하는 기본 단위인 변환 유닛(TU: Transform Unit)의 분할 과정에 대해서도 상술한 QT 구조를 적용할 수 있다.
TU는 코딩하려는 CU로부터 QT 구조로 계층적으로 분할될 수 있다. 예를 들어, CU는 변환 유닛(TU)에 대한 트리의 루트 노트(root node)에 해당될 수 있다.
TU는 QT 구조로 분할되므로 CU로부터 분할된 TU는 다시 더 작은 하위 TU로 분할될 수 있다. 예를 들어, TU의 크기는 32x32, 16x16, 8x8, 4x4 중 어느 하나로 정해질 수 있으나, 본 발명은 이에 한정되지 않으며, 고해상도 영상일 경우, TU의 크기는 더 커지거나 다양해질 수 있다.
하나의 TU에 대하여, 해당 TU이 분할 되는지 여부를 나타내는 정보가 디코더에 전달될 수 있다. 예를 들어, 상기 정보는 분할 변환 플래그로 정의될 수 있으며, 신택스 엘리먼트 "split_transform_flag"로 표현될 수 있다.
상기 분할 변환 플래그는 최소 크기의 TU을 제외한 모든 TU에 포함될 수 있다. 예를 들어, 상기 분할 변환 플래그의 값이 '1'이면 해당 TU은 다시 4개의 TU으로 나누어지고, 상기 분할 변환 플래그의 값이 '0'이면 해당 TU은 더 이상 나누어지지 않는다.
상기에서 설명한 바와 같이, CU는 인트라 예측 또는 인터 예측이 수행되는 코딩의 기본 단위이다. 입력 영상을 보다 효과적으로 코딩하기 위하여 CU를 예측 유닛(PU: Prediction Unit) 단위로 분할할 수 있다.
PU는 예측 블록을 생성하는 기본 단위로서, 하나의 CU 내에서도 PU 단위로 서로 다르게 예측 블록을 생성할 수 있다. PU는 PU가 속하는 CU의 코딩 모드로 인트라 예측 모드가 사용되는지 인터 예측 모드가 사용되는지에 따라 상이하게 분할될 수 있다.
도 4는 본 발명이 적용되는 실시예로서, 예측 유닛을 설명하기 위한 도면이다.
PU는 PU가 속하는 CU의 코딩 모드로 인트라 예측 모드가 사용되는지 인터 예측 모드가 사용되는지에 따라 상이하게 분할된다.
도 4(a)는 인트라 예측 모드가 사용되는 경우의 PU를 예시하고, 도 4(b)는 인터 예측 모드가 사용되는 경우의 PU를 예시한다.
도 4(a)를 참조하면, 하나의 CU의 크기가 2Nx2N(N=4,8,16,32)인 경우를 가정하면, 하나의 CU는 2가지 타입(즉, 2Nx2N 또는 NxN)으로 분할될 수 있다.
여기서, 2Nx2N 형태의 PU로 분할되는 경우, 하나의 CU 내에 하나의 PU만이 존재하는 것을 의미한다.
반면, N×N 형태의 PU로 분할되는 경우, 하나의 CU는 4개의 PU로 분할되고, 각 PU 단위 별로 서로 다른 예측 블록이 생성된다. 다만, 이러한 PU의 분할은 CU의 루마 성분에 대한 CB의 크기가 최소 크기인 경우(즉, CU가 SCU인 경우)에만 수행될 수 있다.
도 4(b)를 참조하면, 하나의 CU의 크기가 2Nx2N(N=4,8,16,32)인 경우를 가정하면, 하나의 CU는 8가지의 PU 타입(즉, 2Nx2N, NxN, 2NxN, Nx2N, nLx2N, nRx2N, 2NxnU, 2NxnD)으로 분할될 수 있다.
인트라 예측과 유사하게, NxN 형태의 PU 분할은 CU의 루마 성분에 대한 CB의 크기가 최소 크기인 경우(즉, CU가 SCU인 경우)에만 수행될 수 있다.
인터 예측에서는 가로 방향으로 분할되는 2NxN 형태 및 세로 방향으로 분할되는 Nx2N 형태의 PU 분할을 지원한다.
또한, 비대칭 움직임 분할(AMP: Asymmetric Motion Partition) 형태인 nLx2N, nRx2N, 2NxnU, 2NxnD 형태의 PU 분할을 지원한다. 여기서, 'n'은 2N의 1/4 값을 의미한다. 다만, AMP는 PU가 속한 CU가 최소 크기의 CU인 경우 사용될 수 없다.
하나의 CTU 내의 입력 영상을 효율적으로 부호화하기 위해 코딩 유닛(CU), 예측 유닛(PU), 변환 유닛(TU)의 최적의 분할 구조는 아래와 같은 수행 과정을 거쳐 최소 율-왜곡(Rate-Distortion) 값을 기반으로 결정될 수 있다. 예를 들어, 64x64 CTU 내 최적의 CU 분할 과정을 살펴보면, 64x64 크기의 CU에서 8x8 크기의 CU까지의 분할 과정을 거치면서 율-왜곡 비용을 계산할 수 있다. 구체적인 과정은 다음과 같다.
1) 64x64 크기의 CU에 대해 인터/인트라 예측, 변환/양자화, 역양자화/역변환 및 엔트로피 인코딩 수행을 통해 최소의 율-왜곡 값을 발생시키는 최적의 PU와 TU의 분할 구조를 결정한다.
2) 64x64 CU를 32x32 크기의 CU 4개로 분할하고 각 32x32 CU에 대해 최소의 율-왜곡 값을 발생시키는 최적의 PU와 TU의 분할 구조를 결정한다.
3) 32x32 CU를 16x16 크기의 CU 4개로 다시 분할하고, 각 16x16 CU에 대해 최소의 율-왜곡 값을 발생시키는 최적의 PU와 TU의 분할 구조를 결정한다.
4) 16x16 CU를 8x8 크기의 CU 4개로 다시 분할하고, 각 8x8 CU에 대해 최소의 율-왜곡 값을 발생시키는 최적의 PU와 TU의 분할 구조를 결정한다.
5) 위의 3)의 과정에서 산출한 16x16 CU의 율-왜곡 값과 위의 4)의 과정에서 산출한 4개 8x8 CU의 율-왜곡 값의 합을 비교하여 16x16 블록 내에서 최적의 CU의 분할 구조를 결정한다. 이 과정을 나머지 3개의 16x16 CU들에 대해서도 동일하게 수행한다.
6) 위의 2)의 과정에서 계산된 32x32 CU의 율-왜곡 값과 위의 5)의 과정에서 획득한 4개 16x16 CU의 율-왜곡 값의 합을 비교하여 32x32 블록 내에서 최적의 CU의 분할 구조를 결정한다. 이 과정을 나머지 3개의 32x32 CU들에 대해서도 동일하게 수행한다.
7) 마지막으로, 위의 1)의 과정에서 계산된 64x64 CU의 율-왜곡 값과 위의 6)의 과정에서 획득한 4개 32x32 CU의 율-왜곡 값의 합을 비교하여 64x64 블록 내에서 최적의 CU의 분할 구조를 결정한다.
인트라 예측 모드에서, PU 단위로 예측 모드가 선택되고, 선택된 예측 모드에 대해 실제 TU 단위로 예측과 재구성이 수행된다.
TU는 실제 예측과 재구성이 수행되는 기본 단위를 의미한다. TU는 루마(luma) 성분에 대한 변환 블록(TB: Transform Block)과 이에 대응하는 두 개의 크로마(chroma) 성분에 대한 TB를 포함한다.
앞서 도 3의 예시에서 하나의 CTU가 쿼드트리 구조로 분할되어 CU가 생성되는 것과 같이, TU는 코딩하려는 하나의 CU로부터 쿼드트리 구조로 계층적으로 분할된다.
TU는 쿼드트리 구조로 분할되므로 CU로부터 분할된 TU는 다시 더 작은 하위 TU로 분할될 수 있다. HEVC에서는 TU의 크기는 32×32, 16×16, 8×8, 4×4 중 어느 하나로 정해질 수 있다.
다시 도 3을 참조하면, 쿼드트리의 루트 노드(root node)는 CU와 관련된다고 가정한다. 쿼드트리는 리프 노드(leaf node)에 도달할 때까지 분할되고, 리프 노드는 TU에 해당한다.
보다 구체적으로 살펴보면, CU는 루트 노드(root node)에 해당되고, 가장 작은 깊이(depth) (즉, depth=0) 값을 가진다. 입력 영상의 특성에 따라 CU가 분할되지 않을 수도 있으며, 이 경우 CU는 TU에 해당한다.
CU는 쿼드트리 형태로 분할될 수 있으며, 그 결과 깊이 1(depth=1)인 하위 노드들이 생성된다. 그리고, 1의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 TU에 해당한다. 예를 들어, 도 3(b)에서 노드 a, b 및 j에 대응하는 TU(a), TU(b), TU(j)는 CU에서 한 번 분할되었으며, 1의 깊이를 가진다.
1의 깊이를 가지는 노드 중 적어도 어느 하나는 다시 퀴드 트리 형태로 분할될 수 있으며, 그 결과 깊이 1(즉, depth=2)인 하위 노드들이 생성된다. 그리고, 2의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 TU에 해당한다. 예를 들어, 도 3(b)에서 노드 c, h 및 i에 대응하는 TU(c), TU(h), TU(i)는 CU에서 두 번 분할되었으며, 2의 깊이를 가진다.
또한, 2의 깊이를 가지는 노드 중 적어도 어느 하나는 다시 쿼드트리 형태로 분할될 수 있으며, 그 결과 깊이 3(즉, depth=3)인 하위 노드들이 생성된다. 그리고, 3의 깊이를 가지는 하위 노드에서 더 이상 분할되지 않은 노드(즉, 리프 노드)는 CU에 해당한다. 예를 들어, 도 3(b)에서 노드 d, e, f, g에 대응하는 TU(d), TU(e), TU(f), TU(g)는 CU에서 3번 분할되었으며, 3의 깊이를 가진다.
트리 구조를 갖는 TU은 미리 정해진 최대 깊이 정보(또는, 최대 레벨 정보)를 가지고 계층적으로 분할될 수 있다. 그리고, 각각의 분할된 TU은 깊이 정보를 가질 수 있다. 깊이 정보는 TU의 분할된 횟수 및/또는 정도를 나타내므로, TU의 크기에 관한 정보를 포함할 수도 있다.
하나의 TU에 대하여, 해당 TU이 분할 되는지 여부를 나타내는 정보(예를 들어, 분할 TU 플래그(split_transform_flag))가 디코더에 전달될 수 있다. 이 분할 정보는 최소 크기의 TU을 제외한 모든 TU에 포함되어 있다. 예를 들어, 분할 여부를 나타내는 플래그의 값이 '1'이면 해당 TU은 다시 4개의 TU으로 나누어지고, 분할 여부를 나타내는 플래그의 값이 '0'이면 해당 TU은 더 이상 나누어지지 않는다.
도 5는 본 발명이 적용될 수 있는 실시예로서, QTBT(QuadTree BinaryTree, 이하 ‘QTBT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
쿼드트리와 이진트리(QTBT: Quad-Tree Binary-Tree)
QTBT는 쿼드트리(quadtree) 구조와 이진트리(binarytree) 구조가 결합된 코딩 블록의 구조를 말한다. 구체적으로, QTBT 블록 분할 구조에서는 영상을 CTU 단위로 코딩하며, CTU는 쿼드트리(quadtree) 형태로 분할되고, 쿼드트리의 리프 노드(leaf node)는 추가적으로 이진트리(binarytree) 형태로 분할된다.
이하에서는, 도 5를 참조하여 QTBT 구조와 이를 지원하는 분할 플래그(split flag) 신택스에 대하여 설명한다.
상기 도 5를 참조하면, 현재 블록은 QTBT 구조로 분할될 수 있다. 즉, CTU는 먼저 쿼드트리 형태로 계층적으로 분할될 수 있다. 그리고, 쿼드트리 형태로 더 이상 분할되지 않는 쿼드트리의 리프 노드(leaf node)는 이진 트리 형태로 계층적으로 분할될 수 있다.
인코더는 QTBT 구조에서 쿼드트리의 분할 여부 결정을 위하여 분할 플래그를 시그널링할 수 있다. 이때, 쿼드트리 분할은 MinQTLumaISlice, MinQTChromaISlice 또는 MinQTNonISlice 값에 의해 조정(또는 제한)될 수 있다. 여기서, MinQTLumaISlice는 I-슬라이스에서 루마(luma)성분의 쿼드트리 리프 노드의 최소 크기를 나타내고, MinQTLumaChromaISlice는 I-슬라이스에서 크로마(chroma) 성분의 쿼드트리 리프 노드의 최소 크기를 나타내고, MinQTNonISlice는 비 I-슬라이스(non I-slice)에서 쿼드트리 리프 노드의 최소 크기를 나타낸다.
QTBT의 쿼드트리 구조에서는 I-슬라이스에서 루마 성분과 크로마 성분이 서로 독립적인 분할 구조를 가질 수 있다. 예를 들어, QTBT 구조에서 I-슬라이스의 경우, 루마 성분과 크로마 성분의 분할 구조는 서로 다르게 결정될 수 있다. 이와 같은 분할 구조를 지원하기 위하여, MinQTLumaISlice와 MinQTChromaISlice는 서로 다른 값을 가질 수 있다.
다른 예로, QTBT 의 비 I-슬라이스에서 쿼드트리 구조는 루마 성분과 크로마 성분의 분할 구조가 동일하게 결정될 수 있다. 예를 들어, 비 I-슬라이스의 경우, 루마 성분과 크로마 성분의 쿼드트리 분할 구조는 MinQTNonISlice 값에 의해 조정될 수 있다.
QTBT 구조에서 쿼드트리의 리프 노드는 이진트리 형태로 분할될 수 있다. 이때, 이진 트리 분할은 MaxBTDepth, MaxBTDepthISliceL 및 MaxBTDepthISliceC에 의해 조정(또는 제한)될 수 있다. 여기서, MaxBTDepth는 비 I-슬라이스에서 쿼드트리의 리프 노드를 기준으로 이진트리 분할의 최대 깊이(depth)를 나타내고, MaxBTDepthISliceL는 I-슬라이스에서 루마 성분의 이진트리 분할의 최대 깊이를 나타내고, MaxBTDepthISliceC는 I-슬라이스에서 크로마 성분의 이진트리 분할의 최대 깊이를 나타낸다.
또한, QTBT의 I-슬라이스에서 루마 성분과 크로마 성분이 서로 다른 구조를 가질 수 있기 때문에, I-슬라이스에서 MaxBTDepthISliceL와 MaxBTDepthISliceC는 서로 다른 값을 가질 수 있다.
QTBT의 분할 구조의 경우, 쿼드트리 구조와 이진트리 구조를 함께 사용할 수 있으며, 이 경우 다음과 같은 규칙이 적용될 수 있다.
첫째, MaxBTSize는 MaxQTSize보다 작거나 같다. 여기서, MaxBTSize는 이진트리 분할의 최대 크기를 나타내고, MaxQTSize 는 쿼드트리 분할의 최대 크기를 나타낸다.
둘째, QT의 리프 노드(Leaf node)가 BT의 루트(root)가 된다.
셋째, 한 번 BT로 분할되면 다시 QT로 분할 될 수 없다
넷째, BT는 수직 분할(Vertical Split) 및 수평 분할(Horizontal Split)을 정의한다.
다섯째, MaxQTDepth, MaxBTDepth를 미리 정의한다. 여기서, MaxQTDepth 는 쿼드트리 분할의 최대 깊이(depth)를 나타내고, MaxBTDepth는 이진트리 분할의 최대 깊이(depth)를 나타낸다.
여섯째, MaxBTSize, MinQTSize 는 슬라이스 타입(slice type)에 따라 달라질 수 있다.
도 6은 본 발명이 적용되는 실시예로서, 단방향 인터 예측과 양방향 인터 예측을 설명하기 위한 도면이다.
인터 예측은 하나의 블록에 대해 시간축 상에서 과거의 픽쳐 혹은 미래의 픽쳐 하나만을 참조 픽처로 사용하는 단방향 예측(Uni-directional prediction)과 과거와 미래 픽쳐들을 동시에 참조하는 양방향 예측(Bi-directional prediction)으로 나눌 수 있다.
도 6(a)는 단방향 예측(Uni-directional prediction)을 나타내고, 도 6(b)는 양방향 예측(Bi-directional prediction)을 나타낸다.
상기 도 6(a)를 살펴보면, 현재 픽쳐가 T0 시간에 존재하고 인터 예측을 위해 (T-2) 시간에 있는 픽쳐를 참조하는 것을 확인할 수 있다. 그리고, 상기 도 6(b)를 살펴보면, 현재 픽쳐가 T0 시간에 존재하고 인터 예측을 위해 (T-2) 시간에 있는 픽쳐와 T1 시간에 있는 픽쳐, 2개를 참조하는 것을 확인할 수 있다.
또한, 단방향 예측(Uni-directional prediction)은 시간적으로 현재 픽쳐 이전에 표시(또는 출력)되는 1개의 참조 픽쳐를 이용하는 순방향 예측(forward direction prediction)과 시간적으로 현재 픽쳐 이후에 표시(또는 출력)되는 1개의 참조 픽쳐를 이용하는 역방향 예측(backward direction prediction)으로 구분될 수 있다.
인터 예측 과정(즉, 단방향 또는 양방향 예측)에서 현재 블록을 예측하는데 어떤 참조 영역(또는 참조 블록)이 이용되는지 특정하기 위하여 사용되는 움직임 파라미터(또는 정보)는 인터 예측 모드(inter prediction mode) (여기서, 인터 예측 모드는 참조 방향(즉, 단방향 또는 양방향)과 참조 리스트(즉, L0, L1 또는 양방향)을 지시할 수 있음), 참조 인덱스(reference index) (또는 참조 픽쳐 인덱스 또는 참조 리스트 인덱스), 움직임 벡터(motion vector) 정보를 포함한다. 상기 움직임 벡터 정보는 움직임 벡터, 움직임 벡터 예측값(MVP: motion vector prediction) 또는 움직임 벡터 차분값(MVD: motion vector difference)을 포함할 수 있다. 움직임 벡터 차분값은 상기 움직임 벡터와 움직임 벡터 예측값 간의 차분값을 의미한다.
단방향 예측은 한 쪽 방향에 대한 움직임 파라미터가 사용된다. 즉, 참조 영역(또는 참조 블록)을 특정하기 위하여 1개의 움직임 파라미터가 필요할 수 있다.
양방향 예측은 양쪽 방향에 대한 움직임 파라미터가 사용된다. 양방향 예측 방식에서는 최대 2개의 참조 영역을 이용할 수 있는데, 이 2개의 참조 영역은 동일한 참조 픽쳐에 존재할 수도 있고, 서로 다른 픽쳐에 각각 존재할 수도 있다. 즉, 양방향 예측 방식에서는 최대 2개의 움직임 파라미터가 이용될 수 있는데, 2개의 움직임 벡터가 동일한 참조 픽쳐 인덱스를 가질 수도 있고 서로 다른 참조 픽쳐 인덱스를 가질 수도 있다. 이때, 참조 픽쳐들은 시간적으로 현재 픽쳐 이전에 모두 표시(또는 출력)되거나 이후에 모두 표시(또는 출력)될 수 있다.
인코더는 인터 예측 과정에서 현재 처리 블록과 가장 유사한 참조 영역을 참조 픽쳐들로부터 찾는 움직임 추정(Motion Estimation)을 수행한다. 그리고, 인코더는 참조 영역에 대한 움직임 파라미터를 디코더에게 제공할 수 있다.
인코더 또는 디코더는은 움직임 파라미터를 이용하여 현재 처리 블록의 참조 영역을 획득할 수 있다. 상기 참조 영역은 상기 참조 인덱스를 가진 참조 픽쳐 내에 존재한다. 또한, 상기 움직임 벡터에 의해서 특정된 참조 영역의 픽셀값 또는 보간(interpolation)된 값이 상기 현재 처리 블록의 예측값(predictor)으로 이용될 수 있다. 즉, 움직임 정보를 이용하여, 이전에 디코딩된 픽쳐로부터 현재 처리 블록의 영상을 예측하는 움직임 보상(motion compensation)이 수행된다.
움직임 벡터 정보와 관련한 전송량을 줄이기 위하여, 이전에 코딩된 블록들의 움직임 정보를 이용하여 움직임 벡터 예측값(mvp)을 획득하고, 이에 대한 차분값(mvd)만을 전송하는 방법을 이용할 수 있다. 즉, 디코더에서는 디코딩된 다른 블록들의 움직임 정보들을 이용하여 현재 처리 블록의 움직임 벡터 예측값을 구하고, 인코더로부터 전송된 차분값을 이용하여 현재 처리 블록에 대한 움직임 벡터값을 획득하게 된다. 움직임 벡터 예측값을 획득함에 있어서, 디코더는 이미 디코딩된 다른 블록들의 움직임 정보을 이용하여 다양한 움직임 벡터 후보 값들을 획득하고 그 중 하나를 움직임 벡터 예측값으로 획득할 수 있다.
도 7은 본 발명이 적용되는 실시예로서, 일반화된 양방향 예측 방법을 설명하기 위한 도면이다.
일반화된 양방향 예측(Generalized Bi-prediction)
본 발명은, 인터 코딩에 있어서 양방향 예측자를 획득하기 위한 일반화된 양방향 예측 방법을 제공한다.
상기 도 7을 따라, 현재 픽쳐를 기준으로 L0 참조 픽쳐 및 L1 참조 픽쳐가 있다고 가정하자. 여기서, L0 참조 블록으로부터 획득된 예측값을 L0 예측자(L0 predictor)라 하고, L1 참조 블록으로부터 획득된 예측값을 L1 예측자(L1 predictor)라 할 때, 본 발명은 상기 L0 예측자(L0 predictor)와 상기 L1 예측자(L1 predictor)에 적응적으로 가중치를 적용함으로써 최적의 예측값을 획득할 수 있다.
일실시예로, 아래 수학식 1과 같이 적응적 가중치를 이용하여 양방향 예측자를 획득할 수 있다.
Figure PCTKR2017010503-appb-M000001
여기서, P[x]는 현재 블록의 x 위치에서의 예측자(predictor)를 의미하고,
Figure PCTKR2017010503-appb-I000001
는 참조 픽쳐 Li 에서 움직임 벡터 (MV) vi 를 사용하여 얻은 움직임 보상된 예측 블록(motion-compensated prediction block)을 의미하며 (1-w)와 w 는 가중치 값을 의미한다. 이때 가중치 값의 집합 W는 다음 수학식 2 내지 4와 같은 실시예로 설정될 수 있다.
Figure PCTKR2017010503-appb-M000002
Figure PCTKR2017010503-appb-M000003
Figure PCTKR2017010503-appb-M000004
상기 수학식 2 내지 4의 가중치 값들에 대한 비트(bit) 할당은 각각 다음 표 1 내지 3과 같다.
상기 표 1 내지 표 3은 각각 상기 수학식 2 내지 4의 가중치 값들에 대한 인덱스 이진화 방법들(Index binarization schemes)을 나타낸다.
Figure PCTKR2017010503-appb-T000001
Figure PCTKR2017010503-appb-T000002
Figure PCTKR2017010503-appb-T000003
상기 표 1 내지 표 3에서 mvd_l1_zero_flag 는 슬라이스 헤더(slice header)에서 결정되고, mvd_l1_zero_flag = 1이면 L0의 MVD값은 0으로 결정하고 오직 L1의 MVD값만을 전송하고, mvd_l1_zero_flag = 0으면 L0와 L1의 MVD 값을 전송한다.
도 8은 본 발명이 적용되는 실시예로서, 최적의 예측 방법을 결정하는 과정을 설명하기 위한 흐름도이다.
본 실시예에서는 설명의 편의상 인코더를 기준으로 설명하나, 본 발명은 이에 한정되지 않으며, 디코더에서 수행되는 범위 내에서는 디코더에 의해 수행될 수 있다.
인코더는 스킵 모드(skip mode) 또는 머지 모드(merge mode)에 따라 예측을 수행할 수 있다(S810).
상기 인코더는, L0 방향으로 단방향 예측을 수행하거나(S820), 또는 L1 방향으로 단방향 예측을 수행할 수 있다(S830).
그리고, 상기 인코더는, 가중치를 적용한 양방향 예측을 수행할 수 있다(S840). 여기서, 상기 가중치를 적용한 양방향 예측은 본 명세서에서 설명하는 가중치 결정 방법이나 양방향 예측 방법이 적용될 수 있다.
상기 S810 내지 S840 단계들은 그 순서에 한정되지 않으며, 상기 인코더는 스킵 모드(skip mode), 머지 모드(merge mode), L0 단방향 예측, L1 단방향 예측 또는 가중치 적용된 양방향 예측 중 적어도 하나를 수행할 수 있다.
상기 인코더는 위에서 언급한 예측 방법들에 의해 산출된 예측값들 중에서 최적의 예측값을 결정할 수 있다(S850). 여기서, 상기 최적의 예측값은 현재 블록의 화소값과 예측값과의 차이를 최소로 하는 값을 의미하거나, RD(Rate-Distortion) 비용을 최소로 하는 값을 의미할 수 있다.
이하에서는, 최적의 예측값을 획득하기 위해 가중치를 결정하는 방법 및 가중치 적용된 양방향 예측을 수행하는 방법에 대해서 살펴보도록 한다.
도 9는 본 발명이 적용되는 실시예로서, 가중치 인덱스를 이용하여 최적의 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
상기 도 8에서 살펴본 바와 같이, 인코더는 스킵 모드(skip mode), 머지 모드(merge mode), L0 단방향 예측, L1 단방향 예측 또는 가중치 적용된 양방향 예측 중 적어도 하나를 수행하고, 그 중에서 최적의 예측값을 결정할 수 있다.
여기서, 상기 가중치 적용된 양방향 예측의 경우, 상기 표 1 내지 표 3 중 어느 하나에 기초하여 가중치를 결정할 수 있다. 예를 들어, 상기 표 3의 경우, 가중치 인덱스는 0 내지 6 으로 설정될 수 있고, 이때 상기 가중치는 상기 가중치 인덱스에 대응되는 값을 의미할 수 있다.
본 발명의 일실시예는 가중치 적용된 양방향 예측에 기초하여 최적의 예측값을 획득하는 방법을 제공한다.
상기 도 9를 살펴보면, 인코더는 먼저 가중치 인덱스를 0으로 설정할 수 있다(S910).
상기 인코더는 상기 가중치 인덱스가 N 보다 작은지 여부를 확인할 수 있다(S920). 예를 들어, 상기 표 3의 가중치 인덱스가 이용되는 경우, 상기 N 값은 7일 수 있다.
상기 가중치 인덱스가 7보다 작으면, 상기 인코더는 상기 가중치 인덱스에 대응되는 값을 가중치 값으로 결정할 수 있다(S930).
그리고, 상기 인코더는 L0 예측자 및 L1 예측자에 상기 가중치 값을 적용할 수 있다(S940). 이때, 상기 수학식 1이 이용될 수 있다.
상기 인코더는 상기 가중치 값에 1을 더하고, 상기 S920 내지 S940 단계를 다시 수행할 수 있다.
상기 인코더는 상기 루프 과정을 통해 획득된 예측값들 중에서 최적의 예측값을 획득할 수 있다(S960). 이때, 상기 최적의 예측값은 가중치 적용된 L0 예측자 및 L1 예측자에 기초하여 계산될 수 있으며, 최종적으로 결정된 가중치 값은 현재 블록의 화소값과 예측값과의 차이를 최소로 하는 값을 의미하거나, RD(Rate-Distortion) 비용을 최소로 하는 값을 의미할 수 있다. 그리고, 상기 최종적으로 결정된 가중치 값에 대응되는 가중치 인덱스가 최적의 가중치 인덱스를 의미할 수 있다.
또한, 상기 표 3의 가중치 인덱스가 이용되는 경우, 상기 인코더는 상기 가중치 인덱스가 0~6의 값을 갖는 동안 S920 내지 S950 단계를 반복적으로 수행할 수 있다.
본 발명은 이에 한정되지 않으며, 상기 표 1 및 표 2의 가중치가 인덱스가 이용되는 경우, 동일한 방법이 적용될 수 있다.
도 10은 본 발명이 적용되는 실시예로서, 가중치 인덱스를 이용하여 최적의 양방향 예측을 수행하는 신택스 구조를 나타낸다.
본 발명의 일실시예는 가중치 인덱스를 이용하여 양방향 예측을 수행하는 방법을 제공하며, 디코더에서 가중치 인덱스를 정의하는 방법을 제공한다.
먼저, 디코더는 현재 예측 유닛에 대해 어떠한 예측 방법이 이용되는지를 확인할 수 있다. 예를 들어, 예측 방법으로는 L0 단방향 예측, L1 단방향 예측 또는 양방향 예측(bi-prediction) 중 어느 하나가 이용될 수 있다.
상기 도 10을 살펴보면, 디코더는 양방향 예측이 수행되는지 여부를 확인할 수 있다(S1010). 예를 들어, if( inter_pred_idc[ x0 ][ y0 ] = = PRED_BI ) 을 통해 양방향 예측이 수행되는지 여부를 확인할 수 있다. 여기서, inter_pred_idc 는 L0 단방향 예측, L1 단방향 예측 또는 양방향 예측(bi-prediction)이 현재 예측 유닛에 이용되는지 여부를 의미할 수 있고, PRED_BI 는 양방향 예측을 의미할 수 있다.
상기 S1010 단계에 따라, 양방향 예측이 수행되는 경우, 상기 디코더는 가중치 인덱스를 추출할 수 있다(S1020). 여기서, 상기 가중치 인덱스는 gbi_idx[ x0 ][ y0 ] 로 표현될 수 있다. 예를 들어, 상기 가중치 인덱스는 상기 표 1 내지 표 3의 실시예에 따라 정의될 수 있다.
상기 디코더는 상기 가중치 인덱스를 추출하면, 상기 가중치 인덱스에 대응되는 가중치 값을 유도할 수 있다.
상기 디코더는 상기 가중치 값을 L0 예측자 및 L1 예측자에 적용하여 양방향 예측자를 획득할 수 있다. 이때, 상기 수학식 1이 이용될 수 있다.
상기 디코더는 상기 양방향 예측자를 이용하여 현재 블록을 복원할 수 있다.
한편, 상기 표 1 내지 표 3과 같이 가중치 값(또는 가중치 파라미터)를 결정(또는 유도)하기 위해서는 그에 대응되는 가중치 인덱스를 전송할 필요가 있으며, 상기 가중치 인덱스를 전송하기 위해서는 추가적인 비트 사용이 필요하다. 예를 들어, 상기 표 3과 같이, mvd_l1_zero_flag가 0인 경우 가중치 인덱스를 표현하기 위해 필요한 비트는 w=1/2인 경우 1 bit, w=5/8인 경우 2 bit, w=3/8인 경우 3 bit, w=3/4인 경우 4 bit, w= 1/4인 경우 5 bit, w=-1/4 또는 5/4인 경우 6비트이다.
또한, 모든 가중치 값에 대해 부호화를 수행하고 최적의 가중치 값을 결정하는 경우 부호화 복잡도가 매우 높을 수 있다.
또한, 상기 표 1의 경우 3개, 상기 표 2의 경우 5개, 상기 표 3의 경우 7개의 제한된 개수의 가중치 값(또는 가중치 파라미터)를 사용하기 때문에 최적의 가중치 값을 더 정확하게 구하는 것이 가능하다. 하지만, 위 예와 같은 경우에는 1/16, 2/16 같은 좀더 세밀한 가중치 값을 사용할 수 없다는 문제점이 있다. 요약하면, 가중치 인덱스 기반의 가중치 테이블을 이용하는 양방향 예측은 다음과 같은 문제점이 있을 수 있다. 예를 들어, 추가적인 비트가 필요하고, 인코더 복잡도가 높아지며, 제한된 개수의 가중치 파라미터를 사용한다는 점을 들 수 있다.
따라서, 본 발명의 다른 일실시예는, 이러한 문제를 해결하기 위해 템플릿 기반으로 가중치 값을 결정하는 방법에 대해 제안한다.
본 실시예는 추가적인 비트 사용 없이, 또는 적은 비트로 최적의 가중치 값을 결정할 수 있다. 또한, 가중치 인덱스 기반의 가중치 테이블을 이용하는 양방향 예측과 비교하였을 때, 보다 적은 경우의 조합에 대해서만 고려하기 때문에 인코더 복잡도가 낮다. 또한, 본 발명은 템플릿에 기초하여 가중치 값을 결정하기 때문에 가중치 값(또는 가중치 파라미터)이 제한되지 않아 보다 정확하게 표현이 가능하다.
이하에서 보다 상세히 설명하도록 한다.
도 11은 본 발명이 적용되는 실시예로서, 템플릿을 이용하여 적응적인 양방향 예측을 수행하는 방법을 설명하기 위한 도면이다.
적응적 양방향 예측(Adaptive Bi-directional prediction)
본 발명은, 인터 코딩에 있어서 템플릿을 이용하여 최적의 가중치 값을 결정하고, 최적의 가중치 값을 이용하여 적응적으로 양방향 예측을 수행하는 방법을 제공한다. 본 명세서에서, 템플릿을 이용하여 결정(또는 획득)되는 가중치를 템플릿 기반 가중치(template-based weight)라 부를 수 있다.
상기 도 11을 따라, 현재 픽쳐를 기준으로 L0 참조 픽쳐 및 L1 참조 픽쳐가 있다고 가정하자. 여기서, L0 참조 블록으로부터 획득된 예측값을 L0 예측자(L0 predictor)라 하고, L1 참조 블록으로부터 획득된 예측값을 L1 예측자(L1 predictor)라 할 때, 본 발명은 상기 L0 예측자(L0 predictor)와 상기 L1 예측자(L1 predictor)에 적응적으로 가중치를 적용함으로써 최적의 예측값을 획득할 수 있다.
이때, 본 발명은 가중치 값(또는 가중치 파라미터)를 결정하기 위해 템플릿(또는 템플릿 영역)을 이용할 수 있다.
또한, 본 발명은, 상기 최적의 L0/L1 예측자를 찾기 위해 또는 최적의 L0/L1 참조 블록을 찾기 위해 템플릿을 이용할 수 있다.
여기서, 상기 템플릿은 기정의된 형태를 갖는 픽셀들의 집합을 의미할 수 있으며, 이는 인코더 또는 디코더에서 이미 결정된 것일 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 상기 템플릿은 시퀀스, 픽쳐, 슬라이스, 블록, 코딩 유닛 또는 예측 유닛의 특성(공통 파라미터, 예측 방법, 크기, 형태 등) 중 적어도 하나에 기초하여 적응적으로 결정될 수도 있다.
예를 들어, 상기 도 11을 살펴보면, 상기 템플릿은 현재 블록(NxN)의 좌측, 상측 및 좌상측 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 의미할 수 있다. 본 명세서에서, 상기 템플릿은 블록을 기준으로 설명되지만, 위에서 언급한 바와 같이 본 발명은 이에 한정되지 않는다.
구체적 예로, 상기 템플릿은 L0/L1 참조 블록의 템플릿과 현재 블록의 템플릿 간의 동일 위치에서의 픽셀값 차이(또는 상기 픽셀값 차이의 절대값의 합)에 기초하여 비상관 팩터들(ucL0, ucL1)을 결정 또는 계산할 수 있다. 여기서, 비상관 팩터라 함은 참조 블록과 현재 블록 간의 비상관성(또는 상관성)을 나타내는 값을 의미할 수 있다. 또는, 상기 비상관 팩터는 참조 블록의 템플릿과 현재 블록의 템플릿 간의 비상관성(또는 상관성)을 나타내는 값을 의미할 수 있다.
상기 비상관 팩터들이 결정되면, 인코더 또는 디코더는 이를 이용하여 가중치 값을 결정할 수 있고, 상기 가중치 값에 기초하여 양방향 예측을 수행할 수 있다.
일실시예로, 아래 수학식 5와 같이 가중치 값 w를 이용하여 양방향 예측자를 획득할 수 있다.
Figure PCTKR2017010503-appb-M000005
여기서, P[x]는 현재 블록의 x 위치에서의 예측자(predictor)를 의미하고,
Figure PCTKR2017010503-appb-I000002
는 참조 픽쳐 Li 에서 움직임 벡터 (MV) vi 를 사용하여 얻은 움직임 보상된 예측 블록(motion-compensated prediction block)을 의미하며 (1-w)와 w 는 가중치 값을 의미한다. 여기서, 상기 가중치 값 w는 상기 비상관 팩터들에 기초하여 결정될 수 있다. 이에 대해서는 아래 실시예에서 보다 상세히 설명하도록 한다.
도 12는 본 발명이 적용되는 실시예로서, 템플릿을 이용하여 적응적인 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
인코더 또는 디코더는 L0 참조 블록, L1 참조 블록 및 현재 블록 중 적어도 하나의 템플릿 또는 템플릿 영역(template region)을 결정할 수 있다(S1210). 여기서, 상기 템플릿은 기정의된 형태를 갖는 픽셀들의 집합을 의미할 수 있으며, 이는 인코더 또는 디코더에서 이미 결정된 것일 수 있다. 예를 들어, 상기 템플릿은 현재 블록(NxN) 또는 참조 블록(NxN)의 좌측, 상측 및 좌상측 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 의미할 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 상기 템플릿은 시퀀스, 픽쳐, 슬라이스, 블록, 코딩 유닛 또는 예측 유닛의 특성(공통 파라미터, 예측 방법, 크기, 형태 등) 중 적어도 하나에 기초하여 적응적으로 결정될 수도 있다.
상기 인코더 또는 디코더는 상기 템플릿 영역에 기초하여 비상관 팩터들(ucL0,ucL1)을 결정할 수 있다(S1220). 여기서, 상기 비상관 팩터들은 L0 참조 블록에 대한 L0 비상관 팩터(ucL0) 및 L1 참조 블록에 대한 L1 비상관 팩터(ucL1)를 포함할 수 있다.
상기 인코더 또는 디코더는 상기 비상관 팩터들(ucL0,ucL1)을 이용하여 가중치 값을 계산 또는 결정할 수 있다(S1230).
도 13은 본 발명이 적용되는 실시예로서, 적응적인 양방향 예측을 수행하기 위해 템플릿 영역을 결정하는 방법을 설명하는 도면이다.
템플릿 영역(template region) 결정 방법
본 발명은, 상기 도 12의 S1210 단계와 같이, 템플릿 또는 템플릿 영역(template region)을 결정하는 다양한 방법을 제공한다.
먼저, 도 13(a)를 살펴보면, 템플릿(Template_X)은 블록(NxN)의 좌측, 상측 및 좌상측 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 의미할 수 있다.
다른 예로, 도 13(b)를 살펴보면, 템플릿(Template_Y)은 블록(NxN)의 좌측, 우측, 상측, 하측 및 4개 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 의미할 수 있다. 즉, 상기 템플릿(Template_Y)는 블록을 둘러싸는 형태의 픽셀들로 구성될 수 있다. 이때, 블록의 우측 또는 하측(꼭지점 포함 가능)에 인접하는 픽셀값은 좌측 또는 상측(꼭지점 포함 가능) 중 적어도 하나에 인접하는 픽셀값에 의해 결정될 수 있으나, 본 발명은 이에 한정되지 않는다.
본 발명의 경우, 위 2가지의 경우를 예로 들고 있지만, 이에 한정되지 않으며, 예를 들어, 템플릿은 블록(NxN)의 좌측, 우측, 상측, 하측 또는 4개 꼭지점 중 적어도 하나에 인접하는 픽셀로 구성될 수도 있다.
도 14는 본 발명이 적용되는 실시예로서, 가중치 인덱스를 이용하지 않고 템플릿에 기초하는 적응적인 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
비상관 팩터(uncorrelation factor) 결정 방법
본 발명은, 템플릿 영역에 기초하여 비상관 팩터를 결정하는 방법을 제공한다.
일실시예로, 비상관 팩터(uncorrelation factor)는 다음 수학식 6 및 수학식 7에 의해 결정 또는 계산될 수 있다.
Figure PCTKR2017010503-appb-M000006
Figure PCTKR2017010503-appb-M000007
여기서, ucL0 은 L0 참조 블록과 현재 블록 간의 비상관성을 나타내는 L0 비상관 팩터를 나타내고, ucL1 은 L1 참조 블록과 현재 블록 간의 비상관성을 나타내는 L1 비상관 팩터를 나타낸다.
R은 템플릿 영역(template region)을 나타내고, p0i는 L0 템플릿 영역의 픽셀값을 나타내고, p1i는 L0 템플릿 영역의 픽셀값을 나타내며, ci는 현재 템플릿의 픽셀값을 나타낸다. 그리고, f(x,y)=abs(x-y)를 의미한다.
또한, 본 발명은 이에 한정되지 않으며, 상기 비상관 팩터는 상관성(correlation) 또는 비상관성(uncorrelation)을 획득하기 위한 다양한 방법으로 대체될 수 있다.
가중치 파라미터(Weight Parameter) 결정 방법
본 발명은, 비상관 팩터를 이용하여 가중치 파라미터를 결정하는 방법을 제공한다. 본 명세서에서 가중치 파라미터와 가중치 값은 서로 대체되어 이용될 수 있다.
일실시예로, 가중치 파라미터 w는 다음 수학식 8에 의해 결정 또는 계산될 수 있다.
Figure PCTKR2017010503-appb-M000008
본 발명은 적응적인 양방향 예측 방법을 제공하며, 이는 다음과 같이 수행될 수 있다.
인코더 또는 디코더는 템플릿 영역(template region)을 결정할 수 있다(S1410). 여기서, 상기 템플릿 영역은 본 명세서에서 설명한 실시예들이 적용될 수 있다.
상기 인코더 또는 디코더는 상기 템플릿 영역(template region)에 기초하여 비상관 팩터를 결정할 수 있다(S1420). 여기서, 상기 비상관 팩터는 본 명세서에서 설명한 실시예들이 적용될 수 있다.
상기 인코더 또는 디코더는 상기 비상관 팩터를 이용하여 가중치 파라미터를 결정할 수 있다(S1430). 여기서, 상기 가중치 파라미터는 본 명세서에서 설명한 실시예들이 적용될 수 있다.
상기 인코더 또는 디코더는 상기 가중치 파라미터를 이용하여 양방향 예측값을 획득할 수 있다(S1440).
이와 같이, 상기 가중치 파라미터를 상기 템플릿 영역 또는 상기 비상관 팩터 중 적어도 하나에 기초하여 유도함으로써, 본 발명은 상기 가중치 파라미터를 가리키는 별도의 인덱스를 전송하지 않고 최적의 예측값을 획득할 수 있다.
한편, 실제 부호화 및 복호화는 하드웨어적으로 설계가 용이하도록 구현될 필요성이 있기 때문에, 특히 실수(real value)는 2 의 좌측 쉬프트(left shift) 연산으로 표현될 수 있어야 한다. 따라서, 상기 수학식 8은 다음 수학식 9 및 수학식 10과 같이 정의될 수 있다.
Figure PCTKR2017010503-appb-M000009
Figure PCTKR2017010503-appb-M000010
여기서, t 는 0~1 사이의 임의의 실수(real value)이고, 만약 step = 4 로 가정한다면 w = (0, 1/4, 2/4, 3/4, 1) 중 하나의 값을 가진다. 상기 step 은 임의의 숫자로, 예를 들어 4, 8, 16, 32, 64 등 일 수 있다.
도 15는 본 발명이 적용되는 실시예로서, 적어도 2이상의 가중치 결정 방법에 기초하여 최적의 양방향 예측을 수행하는 과정을 설명하기 위한 흐름도이다.
본 발명은 적어도 2이상의 가중치 결정 방법에 기초하여 최적의 양방향 예측을 수행하는 방법을 제공한다. 여기서, 용어의 구별을 위해 가중치 결정 방법이 다른 경우, 가중치 파라미터를 제 1 가중치 파라미터와 제 2 가중치 파라미터로 구별하여 사용할 수 있고, 예측값을 제 1 예측값 및 제 2 예측값으로 구별하여 사용할 수 있다. 본 발명은 이에 한정되지 않으며, 동일 용어가 사용될 경우 제1 및 제2 용어를 사용하여 구별할 수 있고, 이는 다른 용어들의 경우에도 적용 가능할 것이다.
인코더 또는 디코더는 템플릿 영역(template region)을 결정할 수 있다(S1510). 여기서, 상기 템플릿 영역은 본 명세서에서 설명한 실시예들이 적용될 수 있다.
상기 인코더 또는 디코더는 상기 템플릿 영역(template region)에 기초하여 비상관 팩터를 결정할 수 있다(S1520). 여기서, 상기 비상관 팩터는 본 명세서에서 설명한 실시예들이 적용될 수 있다.
상기 인코더 또는 디코더는 상기 비상관 팩터를 이용하여 가중치 파라미터를 결정할 수 있다(S1530). 여기서, 상기 가중치 파라미터는 본 명세서에서 설명한 실시예들이 적용될 수 있다.
상기 인코더 또는 디코더는 상기 가중치 파라미터를 이용하여 제 1 예측값을 획득할 수 있다(S1540).
한편, 상기 인코더 또는 디코더는 다양한 방법에 의해 가중치 파라미터를 결정할 수 있다. 예를 들어, 상기 인코더 또는 디코더는 상기 가중치 파라미터를 기결정된 값인 1/2 로 결정할 수 있다(S1550).
다른 예로, 상기 도 7 내지 도 10에서 설명한 바와 같이, 가중치 인덱스에 기초하여 가중치 파라미터를 결정할 수도 있다. 예를 들어, 상기 가중치 인덱스에 대응되는 값을 기결정된 가중치 테이블로부터 유도할 수 있다.
상기 인코더 또는 디코더는 상기 S1550 단계에 따라 결정된 가중치 파라미터에 기초하여 제 2 예측값을 획득할 수 있다(S1560).
상기 인코더 또는 디코더는 상기 제 1 예측값과 상기 제 2 예측값을 비교하고(S1570), 최적의 예측값을 획득할 수 있다(S1580).
본 발명의 다른 실시예로, 인코더는 상기 S1510 내지 S1540 단계를 수행할지 또는 상기 S1550 내지 S1560 수행할지 여부에 대해 별도의 인덱스(이하, ‘적응적 가중치 인덱스’라 함)를 할당하여 명시적으로 전송할 수 있다.
예를 들어, 다음 표 4를 이용하여 적응적 가중치 인덱스를 정의할 수 있다.
Figure PCTKR2017010503-appb-T000004
여기서, 적응적 가중치 인덱스가 0이면, 가중치 파라미터는 1/2을 의미하고, 적응적 가중치 인덱스가 1이면, 가중치 파라미터는 w를 의미한다. 여기서, w 값을 결정하는 방법은 앞서 설명한 방법들이 적용될 수 있다.
상기 인코더는 모든 적응적 가중치 인덱스의 경우에 대하여 부호화를 수행하고, 그 결과에 따라 최적의 가중치 파라미터를 결정할 수 있다. 그리고, 대응되는 적응적 가중치 인덱스는 시그널링되어 디코더로 전송된다.
상기 적응적 가중치 인덱스를 시그널링하는 방법은, 상기 도 10의 신택스 구조가 동일하게 이용될 수 있다.
본 발명의 다른 실시예는, 적응적 가중치 인덱스를 정의하는 다양한 방법을 제공한다.
예를 들어, 다음 표 5 또는 표 6을 이용하여 적응적 가중치 인덱스를 정의할 수 있다.
상기 표 5를 살펴보면, 적응적 가중치 인덱스가 0이면 가중치 파라미터는 1/2을 의미하고, 이진화 비트 0 으로 표현되고, 적응적 가중치 인덱스가 1이면 가중치 파라미터는 w를 의미하고, 이진화 비트 10 으로 표현되고, 적응적 가중치 인덱스가 2이면 가중치 파라미터는 w’를 의미하고, 이진화 비트 11 로 표현된다. 여기서, w’ 은 w 보다 작은 값 중 가장 가까운 값 또는 큰 값 중 w와 가까운 값으로 결정될 수 있다.
Figure PCTKR2017010503-appb-T000005
Figure PCTKR2017010503-appb-T000006
마찬가지로, 상기 표 6을 살펴보면, 적응적 가중치 인덱스가 0이면 가중치 파라미터는 w를 의미하고,이진화 비트 0 으로 표현되고, 적응적 가중치 인덱스가 1이면 가중치 파라미터는 1/2을 의미하고, 이진화 비트 10 으로 표현되고, 적응적 가중치 인덱스가 2이면 가중치 파라미터는 w’를 의미하고, 이진화 비트 11 로 표현된다. 여기서, w’ 은 w 보다 작은 값 중 가장 가까운 값 또는 큰 값 중 w와 가까운 값으로 결정될 수 있다.
본 발명은, 상기 표 6에서와 같이, 새로운 가중치 파라미터를 추가함으로서 n 개의 가중치 파라미터를 명시적으로 이용할 수도 있다.
상기 기술된 것과 같이, 본 발명에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 상기 도 1 및 도 2에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 발명이 적용되는 디코더 및 인코더는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 및 데이터 신호를 처리하기 위해 사용될 수 있다.
또한, 본 발명이 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크(BD), 범용 직렬 버스(USB), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파(예를 들어, 인터넷을 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트 스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다.
이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 다양한 다른 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.

Claims (14)

  1. 템플릿 기반 가중치(template-based weight)를 이용하여 양방향 예측을 수행하는 방법에 있어서,
    현재 블록의 양방향 예측(bi-prediction)을 수행하기 위한 템플릿 영역(template region)을 결정하는 단계;
    상기 템플릿 영역에 기초하여 비상관 팩터(uncorrelation factor)를 계산하되, 상기 비상관 팩터는 상기 현재 블록의 템플릿과 참조 블록의 템플릿 간의 비상관성을 나타내는 값을 의미함;
    상기 비상관 팩터에 기초하여 상기 현재 블록의 제 1 가중치 파라미터(1st weight parameter)를 결정하는 단계; 및
    상기 가중치 파라미터를 이용하여 상기 현재 블록의 제 1 예측값을 획득하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 템플릿 영역은 NxN 크기의 상기 현재 블록 또는 상기 참조 블록의 좌측, 상측 및 좌상측 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 나타내거나, 또는 좌측, 우측, 상측, 하측 및 4개 꼭지점 중 적어도 하나에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 나타내는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 비상관 팩터는 상기 현재 블록의 템플릿과 상기 참조 블록의 템플릿 간의 픽셀값 차이의 절대값의 합에 의해 유도되고,
    상기 비상관 팩터는 L0 참조 블록에 대한 L0 비상관 팩터 및 L1 참조 블록에 대한 L1 비상관 팩터를 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 현재 블록의 제 1 가중치 파라미터는 수학식 ((상기 L1 비상관 팩터)/(상기 L0 비상관 팩터 + 상기 L1 비상관 팩터))에 의해 결정되는 것을 특징으로 하는 방법.
  5. 제1항에 있어서, 상기 방법은,
    상기 현재 블록의 제 2 가중치 파라미터(2nd weight parameter)를 1/2 값으로 결정하고, 상기 제 2 가중치 파라미터를 이용하여 제 2 예측값을 획득하는 단계; 및
    상기 제 1 예측값과 상기 제 2 예측값의 율-왜곡 비용(Rate-Distortion cost)에 기초하여, 상기 현재 블록의 최적의 예측값을 결정하는 단계
    를 더 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서, 상기 방법은,
    각 가중치 파라미터에 대응되는 적응적 가중치 인덱스를 시그널링하는 단계
    를 더 포함하되,
    상기 제 1 가중치 파라미터와 상기 제 2 가중치 파라미터는 상기 적응적 가중치 인덱스에 의해 지시되는 것을 특징으로 하는 방법.
  7. 제5항에 있어서,
    상기 제 2 가중치 파라미터는 기결정된 가중치 테이블에 기초하여 결정되는 것을 특징으로 하는 방법.
  8. 템플릿 기반 가중치(template-based weight)를 이용하여 현재 블록에 대해 양방향 예측을 수행하는 장치에 있어서,
    상기 현재 블록의 양방향 예측(bi-prediction)을 수행하기 위한 템플릿 영역(template region)을 결정하고, 상기 템플릿 영역에 기초하여 비상관 팩터(uncorrelation factor)를 계산하고, 상기 비상관 팩터에 기초하여 상기 현재 블록의 제 1 가중치 파라미터(1st weight parameter)를 결정하며, 상기 가중치 파라미터를 이용하여 상기 현재 블록의 제 1 예측값을 획득하는 인터 예측부; 및
    상기 제 1 예측값을 이용하여 상기 현재 블록을 복원하는 복원부
    를 포함하되,
    상기 비상관 팩터는 상기 현재 블록의 템플릿과 참조 블록의 템플릿 간의 비상관성을 나타내는 값을 의미하는 것을 특징으로 하는 장치.
  9. 제8항에 있어서,
    상기 템플릿 영역은 NxN 크기의 상기 현재 블록 또는 상기 참조 블록의 좌측 및 상측에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 나타내거나, 또는 좌측, 우측, 상측 및 하측에 인접하는 L라인 픽셀들의 집합( L = 1 ~ (N-1) )을 나타내는 것을 특징으로 하는 장치.
  10. 제8항에 있어서,
    상기 비상관 팩터는 상기 현재 블록의 템플릿과 상기 참조 블록의 템플릿 간의 픽셀값 차이의 절대값의 합에 의해 정의되고,
    상기 비상관 팩터는 L0 참조 블록에 대한 L0 비상관 팩터 및 L1 참조 블록에 대한 L1 비상관 팩터를 포함하는 것을 특징으로 하는 장치.
  11. 제10항에 있어서,
    상기 현재 블록의 제 1 가중치 파라미터는 수학식 ((상기 L1 비상관 팩터)/(상기 L0 비상관 팩터 + 상기 L1 비상관 팩터))에 의해 결정되는 것을 특징으로 하는 장치.
  12. 제8항에 있어서, 상기 인터 예측부는,
    상기 현재 블록의 제 2 가중치 파라미터를 1/2 값으로 결정하고, 상기 제 2 가중치 파라미터를 이용하여 제 2 예측값을 획득하고, 상기 제 1 예측값과 상기 제 2 예측값의 율-왜곡 비용(Rate-Distortion cost)에 기초하여 상기 현재 블록의 최적의 예측값을 결정하는 것을 특징으로 하는 장치.
  13. 제12항에 있어서, 상기 장치는,
    비디오 신호로부터 각 가중치 파라미터에 대응되는 적응적 가중치 인덱스를 추출하는 파싱부
    를 더 포함하되,
    상기 제 1 가중치 파라미터와 상기 제 2 가중치 파라미터는 상기 적응적 가중치 인덱스에 기초하여 유도되는 것을 특징으로 하는 장치.
  14. 제12항에 있어서,
    상기 제 2 가중치 파라미터는 기결정된 가중치 테이블에 기초하여 결정되는 것을 특징으로 하는 장치.
PCT/KR2017/010503 2016-09-23 2017-09-22 템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치 WO2018056763A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/335,116 US10805631B2 (en) 2016-09-23 2017-09-22 Method and apparatus for performing prediction using template-based weight

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662398523P 2016-09-23 2016-09-23
US62/398,523 2016-09-23

Publications (1)

Publication Number Publication Date
WO2018056763A1 true WO2018056763A1 (ko) 2018-03-29

Family

ID=61690585

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/010503 WO2018056763A1 (ko) 2016-09-23 2017-09-22 템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치

Country Status (2)

Country Link
US (1) US10805631B2 (ko)
WO (1) WO2018056763A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110719478A (zh) * 2018-07-15 2020-01-21 北京字节跳动网络技术有限公司 跨分量帧内预测模式导出
WO2020147804A1 (en) * 2019-01-17 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Use of virtual candidate prediction and weighted prediction in video processing
WO2020151765A1 (en) * 2019-01-27 2020-07-30 Beijing Bytedance Network Technology Co., Ltd. Interpolation for bi-prediction with cu-level weight
CN112889287A (zh) * 2018-10-02 2021-06-01 交互数字Vc控股公司 广义双向预测和加权预测
US11284069B2 (en) 2018-10-23 2022-03-22 Beijing Bytedance Network Technology Co., Ltd. Harmonized local illumination compensation and modified inter prediction coding
US11405607B2 (en) 2018-10-23 2022-08-02 Beijing Bytedance Network Technology Co., Ltd. Harmonization between local illumination compensation and inter prediction coding
US11509927B2 (en) 2019-01-15 2022-11-22 Beijing Bytedance Network Technology Co., Ltd. Weighted prediction in video coding

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11363253B2 (en) 2016-05-13 2022-06-14 Vid Scale, Inc. Systems and methods for generalized multi-hypothesis prediction for video coding
US10750203B2 (en) * 2016-12-22 2020-08-18 Mediatek Inc. Method and apparatus of adaptive bi-prediction for video coding
KR102501105B1 (ko) * 2017-09-20 2023-02-17 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11368676B2 (en) * 2018-01-16 2022-06-21 Vid Scale, Inc. Motion compensated bi-prediction based on local illumination compensation
WO2019147628A1 (en) * 2018-01-24 2019-08-01 Vid Scale, Inc. Generalized bi-prediction for video coding with reduced coding complexity
US11956460B2 (en) * 2018-08-31 2024-04-09 Hulu, LLC Selective template matching in video coding
US20220385888A1 (en) * 2019-09-20 2022-12-01 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
US20230135378A1 (en) * 2021-11-01 2023-05-04 Tencent America LLC Index reordering of bi-prediction with cu-level weight (bcw) by using template-matching

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090060637A (ko) * 2007-12-10 2009-06-15 엘지전자 주식회사 영상 처리 방법 및 장치
KR20130023444A (ko) * 2011-08-29 2013-03-08 한양대학교 산학협력단 다단계 화면간 예측을 이용한 영상 부호화/복호화 장치 및 방법
KR20150003249A (ko) * 2012-04-03 2015-01-08 퀄컴 인코포레이티드 가중 예측 파라미터 코딩
KR101624058B1 (ko) * 2011-10-17 2016-05-24 가부시끼가이샤 도시바 암호화 장치 및 암호화 방법
KR101632126B1 (ko) * 2009-07-02 2016-06-24 퀄컴 인코포레이티드 비디오 코딩을 위한 템플릿 매칭

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406301B2 (en) * 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
EP1636998A2 (en) * 2003-06-25 2006-03-22 Thomson Licensing Method and apparatus for weighted prediction estimation using a displaced frame differential
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US20110109721A1 (en) * 2009-11-06 2011-05-12 Sony Corporation Dynamic reference frame reordering for frame sequential stereoscopic video encoding
US8792550B2 (en) * 2011-08-04 2014-07-29 Qualcomm Incorporated Color/gray patch prevention for video coding
US9648318B2 (en) * 2012-09-30 2017-05-09 Qualcomm Incorporated Performing residual prediction in video coding
WO2016123388A1 (en) * 2015-01-29 2016-08-04 Vid Scale, Inc. Palette coding modes and palette flipping
JP6722701B2 (ja) * 2015-06-08 2020-07-15 ヴィド スケール インコーポレイテッド スクリーンコンテンツ符号化のためのイントラブロックコピーモード
WO2017035831A1 (en) * 2015-09-06 2017-03-09 Mediatek Inc. Adaptive inter prediction
ES2737845B2 (es) * 2016-07-05 2021-05-19 Kt Corp Metodo y aparato para procesar senal de video
CN109417641B (zh) * 2016-07-05 2022-03-18 株式会社Kt 用于处理视频信号的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090060637A (ko) * 2007-12-10 2009-06-15 엘지전자 주식회사 영상 처리 방법 및 장치
KR101632126B1 (ko) * 2009-07-02 2016-06-24 퀄컴 인코포레이티드 비디오 코딩을 위한 템플릿 매칭
KR20130023444A (ko) * 2011-08-29 2013-03-08 한양대학교 산학협력단 다단계 화면간 예측을 이용한 영상 부호화/복호화 장치 및 방법
KR101624058B1 (ko) * 2011-10-17 2016-05-24 가부시끼가이샤 도시바 암호화 장치 및 암호화 방법
KR20150003249A (ko) * 2012-04-03 2015-01-08 퀄컴 인코포레이티드 가중 예측 파라미터 코딩

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110719478A (zh) * 2018-07-15 2020-01-21 北京字节跳动网络技术有限公司 跨分量帧内预测模式导出
US11647189B2 (en) 2018-07-15 2023-05-09 Beijing Bytedance Network Technology Co., Ltd Cross-component coding order derivation
CN110719478B (zh) * 2018-07-15 2023-02-07 北京字节跳动网络技术有限公司 跨分量帧内预测模式导出
CN112889287A (zh) * 2018-10-02 2021-06-01 交互数字Vc控股公司 广义双向预测和加权预测
US11405607B2 (en) 2018-10-23 2022-08-02 Beijing Bytedance Network Technology Co., Ltd. Harmonization between local illumination compensation and inter prediction coding
US11284069B2 (en) 2018-10-23 2022-03-22 Beijing Bytedance Network Technology Co., Ltd. Harmonized local illumination compensation and modified inter prediction coding
US11470307B2 (en) 2018-10-23 2022-10-11 Beijing Bytedance Network Technology Co., Ltd. Harmonized local illumination compensation and intra block copy coding
US11659162B2 (en) 2018-10-23 2023-05-23 Beijing Bytedance Network Technology Co., Ltd Video processing using local illumination compensation
US11758124B2 (en) 2018-10-23 2023-09-12 Beijing Bytedance Network Technology Co., Ltd Harmonized local illumination compensation and modified inter coding tools
US11509927B2 (en) 2019-01-15 2022-11-22 Beijing Bytedance Network Technology Co., Ltd. Weighted prediction in video coding
US11483550B2 (en) 2019-01-17 2022-10-25 Beijing Bytedance Network Technology Co., Ltd. Use of virtual candidate prediction and weighted prediction in video processing
WO2020147804A1 (en) * 2019-01-17 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Use of virtual candidate prediction and weighted prediction in video processing
CN113302916A (zh) * 2019-01-27 2021-08-24 北京字节跳动网络技术有限公司 具有cu级别权重的双向预测的插值
WO2020151765A1 (en) * 2019-01-27 2020-07-30 Beijing Bytedance Network Technology Co., Ltd. Interpolation for bi-prediction with cu-level weight
CN113302916B (zh) * 2019-01-27 2024-04-12 北京字节跳动网络技术有限公司 具有cu级别权重的双向预测的插值

Also Published As

Publication number Publication date
US10805631B2 (en) 2020-10-13
US20190215531A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
WO2018056763A1 (ko) 템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치
WO2017065532A1 (ko) 비디오 신호의 인코딩, 디코딩 방법 및 장치
WO2018062892A1 (ko) 가중치 인덱스에 기초하여 최적의 예측을 수행하는 방법 및 장치
WO2018066927A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018008906A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018070713A1 (ko) 크로마 성분에 대한 인트라 예측 모드를 유도하는 방법 및 장치
WO2020218793A1 (ko) Bdpcm에 기반한 영상 코딩 방법 및 그 장치
WO2018062788A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019050115A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018062950A1 (ko) 영상 처리 방법 및 이를 위한 장치
WO2017069505A1 (ko) 영상의 부호화/복호화 방법 및 이를 위한 장치
WO2020231140A1 (ko) 적응적 루프 필터 기반 비디오 또는 영상 코딩
WO2020130617A1 (ko) 비디오 데이터를 처리하기 위한 방법 및 장치
WO2019235822A1 (ko) 어파인 움직임 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2017065592A1 (ko) 비디오 신호의 인코딩, 디코딩 방법 및 그 장치
WO2020204419A1 (ko) 적응적 루프 필터 기반 비디오 또는 영상 코딩
WO2020256390A1 (ko) 블록 사이즈를 기반으로 bdpcm 을 수행하는 영상 디코딩 방법 및 그 장치
WO2020231139A1 (ko) 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
WO2019027145A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020017785A1 (ko) 영상 코딩 시스템에서 인트라 예측 관련 정보를 사용하는 영상 디코딩 방법 및 그 장치
WO2021141227A1 (ko) 영상 디코딩 방법 및 그 장치
WO2021141226A1 (ko) 루마 성분 및 크로마 성분에 대한 bdpcm 기반 영상 디코딩 방법 및 그 장치
WO2018034374A1 (ko) 인트라 예측 필터링을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
WO2021040398A1 (ko) 팔레트 이스케이프 코딩 기반 영상 또는 비디오 코딩
WO2020197274A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853477

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17853477

Country of ref document: EP

Kind code of ref document: A1