WO2020180159A1 - Image encoding/decoding method and apparatus, and method for transmitting bitstream - Google Patents

Image encoding/decoding method and apparatus, and method for transmitting bitstream Download PDF

Info

Publication number
WO2020180159A1
WO2020180159A1 PCT/KR2020/003196 KR2020003196W WO2020180159A1 WO 2020180159 A1 WO2020180159 A1 WO 2020180159A1 KR 2020003196 W KR2020003196 W KR 2020003196W WO 2020180159 A1 WO2020180159 A1 WO 2020180159A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
current block
information
mode
resolution
Prior art date
Application number
PCT/KR2020/003196
Other languages
French (fr)
Korean (ko)
Inventor
장형문
박내리
남정학
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2020180159A1 publication Critical patent/WO2020180159A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation

Definitions

  • the present disclosure relates to an image encoding/decoding method, an apparatus, and a method of transmitting a bitstream, and more particularly, a method, apparatus and a method for encoding/decoding an image using a merge mode with motion vector differences (MMVD) mode. It relates to a method of transmitting a bitstream generated by the disclosed video encoding method/apparatus.
  • MMVD motion vector differences
  • An object of the present disclosure is to provide an image encoding/decoding method and apparatus with improved encoding/decoding efficiency.
  • Another object of the present disclosure is to provide a method and apparatus for encoding/decoding an image using a Merge mode with Motion Vector differences (MMVD) mode.
  • MMVD Motion Vector differences
  • an object of the present disclosure is to provide a method and apparatus for encoding/decoding an inter-predicted image using an MMVD mode.
  • an object of the present disclosure is to provide a method and apparatus for determining a resolution of a motion vector using information related to an MMVD mode.
  • an object of the present disclosure is to provide a method for transmitting a bitstream generated by an image encoding method or apparatus according to the present disclosure.
  • an object of the present disclosure is to provide a recording medium storing a bitstream generated by an image encoding method or apparatus according to the present disclosure.
  • an object of the present disclosure is to provide a recording medium storing a bitstream that is received and decoded by an image decoding apparatus according to the present disclosure and used for image restoration.
  • motion information for a current block may be derived using an MMVD mode.
  • the resolution of the motion vector or the prediction motion vector of the current block may be determined based on the resolution of the motion vector difference.
  • the interpolation or rounding process is omitted, thereby simplifying the encoding/decoding process using the MMVD mode and increasing the encoding efficiency. Can be.
  • An image decoding method includes determining whether a prediction mode of a current block is a merge mode with motion vector difference (MMVD) mode, and when the prediction mode of the current block is determined to be an MMVD mode, the Deriving a merge candidate list for the current block, deriving a predicted motion vector for the current block using the merge candidate list, deriving motion vector differences for the current block, Setting a resolution of the predicted motion vector, deriving a motion vector for the current block using the predicted motion vector and the motion vector difference, and for the current block using a motion vector for the current block Obtaining a prediction block, wherein the resolution of the prediction motion vector may be set based on the resolution of the difference in the motion vector.
  • MMVD motion vector difference
  • the motion vector difference information includes size information for the motion vector difference and a direction for the motion vector difference It may include at least one of information and resolution information on the motion vector difference.
  • the resolution information on the motion vector difference may indicate whether the motion vector difference of the current block uses an integer resolution.
  • the size of the motion vector difference is derived based on a plurality of tables, and the table used to induce the size of the motion vector difference is based on resolution information on the motion vector difference. Can be selected as
  • the size information on the motion vector difference may indicate one of values of a table used to induce the motion vector difference.
  • the direction information on the motion vector difference is one of (+,0), (-,0), (0,+) and (0,-) It can be indicated that it is expressed as a set of fragrance components.
  • only a predetermined number of candidates among candidates in the merge candidate list may be used for derivation of the predicted motion vector.
  • setting the resolution of the predicted motion vector may include setting the resolution of the predicted motion vector by rounding the predicted motion vector.
  • the rounding may be performed based on a first shifting value determined using resolution information on the motion vector difference.
  • the rounding is performed by applying a left shift operation and a right shift operation to the predicted motion vector, and a shifting value used for the left shift operation and the right shift operation is the first shift Can be determined by value.
  • An image decoding apparatus includes a memory and at least one processor, wherein the at least one processor determines whether a prediction mode of a current block is a merge mode with motion vector difference (MMVD) mode, When it is determined that the prediction mode of the current block is the MMVD mode, a merge candidate list for the current block is derived, a predicted motion vector for the current block is derived using the merge candidate list, and Induce motion vector differences, set the resolution of the predicted motion vector, derive a motion vector for the current block using the predicted motion vector and the motion vector difference, and A prediction block for the current block is obtained using a motion vector, and the resolution of the prediction motion vector may be set based on the resolution of the difference in the motion vector.
  • MMVD motion vector difference
  • An image encoding method includes determining a prediction mode of a current block as a Merge mode with Motion Vector Difference (MMVD) mode, deriving a merge candidate list for the current block, and the merge candidate Deriving a predicted motion vector for the current block using a list, deriving motion vector differences for the current block based on the predicted motion vector, and setting a resolution of the predicted motion vector And information encoding motion vector difference information for the current block, wherein the resolution of the predicted motion vector may be set based on the resolution of the motion vector difference.
  • MMVD Motion Vector Difference
  • the motion vector difference information includes resolution information for the motion vector difference, and the resolution information for the motion vector difference uses an integer resolution for a motion vector difference of the current block. You can indicate whether or not.
  • a computer-readable recording medium may store a bitstream generated by the image encoding method or image encoding apparatus of the present disclosure.
  • an image encoding/decoding method and apparatus with improved encoding/decoding efficiency may be provided.
  • a method and apparatus for encoding/decoding an image using a Merge mode with Motion Vector differences (MMVD) mode may be provided.
  • MMVD Motion Vector differences
  • a method and apparatus for encoding/decoding an inter-predicted image using an MMVD mode may be provided.
  • the present disclosure may provide a method and apparatus for determining a resolution of a motion vector using a syntax element related to an MMVD mode.
  • a method for transmitting a bitstream generated by an image encoding method or apparatus according to the present disclosure may be provided.
  • a recording medium storing a bitstream generated by an image encoding method or apparatus according to the present disclosure may be provided.
  • a recording medium may be provided that stores a bitstream that is received and decoded by the image decoding apparatus according to the present disclosure and used for image restoration.
  • FIG. 1 is a diagram schematically illustrating a video coding system to which an embodiment according to the present disclosure can be applied.
  • FIG. 2 is a diagram schematically illustrating an image encoding apparatus to which an embodiment according to the present disclosure can be applied.
  • FIG. 3 is a diagram schematically illustrating an image decoding apparatus to which an embodiment according to the present disclosure can be applied.
  • FIG. 4 is a flowchart illustrating a process of generating a prediction block (predicted block) of a current block by performing intra prediction.
  • FIG. 5 is a diagram for explaining a decoding method using the MMVD mode.
  • FIG. 6 is a diagram for explaining an encoding method using an MMVD mode.
  • FIG. 7 is a diagram for describing a method of determining a prediction mode of a current block as an MMVD mode.
  • FIG. 8 is a diagram illustrating a structure of a bitstream of motion vector difference information.
  • FIG. 9 is a diagram for explaining a method of inducing a motion vector difference.
  • FIG. 10 is a diagram for describing an image decoding method according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram for describing an image encoding method according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram for describing a motion compensation method according to another embodiment of the present disclosure.
  • FIG. 13 is a diagram for describing a motion estimation method according to still another embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a content streaming system to which an embodiment of the present disclosure can be applied.
  • first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless otherwise stated. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is a first component in another embodiment. It can also be called.
  • components that are distinguished from each other are intended to clearly describe each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to be formed in one hardware or software unit, or one component may be distributed in a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present disclosure.
  • components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment consisting of a subset of components described in an embodiment is also included in the scope of the present disclosure. In addition, embodiments including other elements in addition to the elements described in the various embodiments are included in the scope of the present disclosure.
  • the present disclosure relates to encoding and decoding of an image, and terms used in the present disclosure may have a common meaning commonly used in the technical field to which the present disclosure belongs unless newly defined in the present disclosure.
  • a “picture” generally refers to a unit representing one image in a specific time period
  • a slice/tile is a coding unit constituting a part of a picture
  • one picture is one It may be composed of more than one slice/tile.
  • a slice/tile may include one or more coding tree units (CTU).
  • pixel or "pel” may mean a minimum unit constituting one picture (or image).
  • sample may be used as a term corresponding to a pixel.
  • a sample may generally represent a pixel or a value of a pixel, may represent only a pixel/pixel value of a luma component, or may represent only a pixel/pixel value of a chroma component.
  • unit may represent a basic unit of image processing.
  • the unit may include at least one of a specific area of a picture and information related to the corresponding area.
  • the unit may be used interchangeably with terms such as “sample array”, “block”, or “area” depending on the case.
  • the MxN block may include samples (or sample arrays) consisting of M columns and N rows, or a set (or array) of transform coefficients.
  • current block may mean one of “current coding block”, “current coding unit”, “coding object block”, “decoding object block”, or “processing object block”.
  • current block may mean “current prediction block” or “prediction target block”.
  • transformation inverse transformation
  • quantization inverse quantization
  • current block may mean “current transform block” or “transform target block”.
  • filtering is performed, “current block” may mean “block to be filtered”.
  • FIG. 1 shows a video coding system according to this disclosure.
  • a video coding system may include an encoding device 10 and a decoding device 20.
  • the encoding device 10 may transmit the encoded video and/or image information or data in a file or streaming format to the decoding device 20 through a digital storage medium or a network.
  • the encoding apparatus 10 may include a video source generator 11, an encoder 12, and a transmission unit 13.
  • the decoding apparatus 20 may include a receiving unit 21, a decoding unit 22, and a rendering unit 23.
  • the encoder 12 may be referred to as a video/image encoder, and the decoder 22 may be referred to as a video/image decoder.
  • the transmission unit 13 may be included in the encoding unit 12.
  • the receiving unit 21 may be included in the decoding unit 22.
  • the rendering unit 23 may include a display unit, and the display unit may be configured as a separate device or an external component.
  • the video source generator 11 may acquire a video/image through a process of capturing, synthesizing, or generating a video/image.
  • the video source generator 11 may include a video/image capturing device and/or a video/image generating device.
  • the video/image capture device may include, for example, one or more cameras, a video/image archive including previously captured video/images, and the like.
  • the video/image generating device may include, for example, a computer, a tablet and a smartphone, and may (electronically) generate a video/image.
  • a virtual video/image may be generated through a computer or the like, and in this case, a video/image capturing process may be substituted as a process of generating related data.
  • the encoder 12 may encode an input video/image.
  • the encoder 12 may perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency.
  • the encoder 12 may output encoded data (coded video/image information) in a bitstream format.
  • the transmission unit 13 may transmit the encoded video/image information or data output in the form of a bitstream to the receiving unit 21 of the decoding apparatus 20 through a digital storage medium or a network in a file or streaming form.
  • Digital storage media may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, and SSD.
  • the transmission unit 13 may include an element for generating a media file through a predetermined file format, and may include an element for transmission through a broadcast/communication network.
  • the receiving unit 21 may extract/receive the bitstream from the storage medium or network and transmit it to the decoding unit 22.
  • the decoder 22 may decode the video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoder 12.
  • the rendering unit 23 may render the decoded video/image.
  • the rendered video/image may be displayed through the display unit.
  • FIG. 2 is a diagram schematically illustrating an image encoding apparatus to which an embodiment according to the present disclosure can be applied.
  • the image encoding apparatus 100 includes an image segmentation unit 110, a subtraction unit 115, a transform unit 120, a quantization unit 130, an inverse quantization unit 140, and an inverse transform unit ( 150), an addition unit 155, a filtering unit 160, a memory 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190.
  • the inter prediction unit 180 and the intra prediction unit 185 may be collectively referred to as a “prediction unit”.
  • the transform unit 120, the quantization unit 130, the inverse quantization unit 140, and the inverse transform unit 150 may be included in a residual processing unit.
  • the residual processing unit may further include a subtraction unit 115.
  • All or at least some of the plurality of constituent units constituting the image encoding apparatus 100 may be implemented as one hardware component (eg, an encoder or a processor) according to embodiments.
  • the memory 170 may include a decoded picture buffer (DPB), and may be implemented by a digital storage medium.
  • DPB decoded picture buffer
  • the image splitter 110 may divide an input image (or picture, frame) input to the image encoding apparatus 100 into one or more processing units.
  • the processing unit may be referred to as a coding unit (CU).
  • the coding unit is a coding tree unit (CTU) or a largest coding unit (LCU) recursively according to a QT/BT/TT (Quad-tree/binary-tree/ternary-tree) structure ( It can be obtained by dividing recursively.
  • one coding unit may be divided into a plurality of coding units of a deeper depth based on a quad tree structure, a binary tree structure, and/or a ternary tree structure.
  • a quad tree structure may be applied first, and a binary tree structure and/or a ternary tree structure may be applied later.
  • the coding procedure according to the present disclosure may be performed based on the final coding unit that is no longer divided.
  • the largest coding unit may be directly used as the final coding unit, or a coding unit of a lower depth obtained by dividing the largest coding unit may be used as the final cornet unit.
  • the coding procedure may include a procedure such as prediction, transformation, and/or restoration described later.
  • the processing unit of the coding procedure may be a prediction unit (PU) or a transform unit (TU).
  • Each of the prediction unit and the transform unit may be divided or partitioned from the final coding unit.
  • the prediction unit may be a unit of sample prediction
  • the transform unit may be a unit for inducing a transform coefficient and/or a unit for inducing a residual signal from the transform coefficient.
  • the prediction unit (inter prediction unit 180 or intra prediction unit 185) performs prediction on a block to be processed (current block), and generates a predicted block including prediction samples for the current block. Can be generated.
  • the prediction unit may determine whether intra prediction or inter prediction is applied in units of the current block or CU.
  • the prediction unit may generate various information on prediction of the current block and transmit it to the entropy encoding unit 190.
  • the information on prediction may be encoded by the entropy encoding unit 190 and output in the form of a bitstream.
  • the intra prediction unit 185 may predict the current block by referring to samples in the current picture.
  • the referenced samples may be located in a neighborhood of the current block or may be located away from each other according to an intra prediction mode and/or an intra prediction technique.
  • the intra prediction modes may include a plurality of non-directional modes and a plurality of directional modes.
  • the non-directional mode may include, for example, a DC mode and a planar mode (Planar mode).
  • the directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes, depending on the degree of detail of the prediction direction. However, this is an example, and more or less directional prediction modes may be used depending on the setting.
  • the intra prediction unit 185 may determine a prediction mode applied to the current block by using the prediction mode applied to the neighboring block.
  • the inter prediction unit 180 may derive a predicted block for the current block based on a reference block (reference sample array) specified by a motion vector on the reference picture.
  • motion information may be predicted in units of blocks, subblocks, or samples based on a correlation between motion information between a neighboring block and a current block.
  • the motion information may include a motion vector and a reference picture index.
  • the motion information may further include inter prediction direction (L0 prediction, L1 prediction, Bi prediction, etc.) information.
  • the neighboring block may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture.
  • the reference picture including the reference block and the reference picture including the temporal neighboring block may be the same or different from each other.
  • the temporal neighboring block may be referred to as a collocated reference block, a collocated CU (colCU), or the like.
  • a reference picture including the temporal neighboring block may be referred to as a collocated picture (colPic).
  • the inter prediction unit 180 constructs a motion information candidate list based on neighboring blocks, and provides information indicating which candidate is used to derive a motion vector and/or a reference picture index of the current block. Can be generated. Inter prediction may be performed based on various prediction modes.
  • the inter prediction unit 180 may use motion information of a neighboring block as motion information of a current block.
  • a residual signal may not be transmitted.
  • motion vector prediction (MVP) mode motion vectors of neighboring blocks are used as motion vector predictors, and indicators for motion vector difference and motion vector predictors ( indicator) to signal the motion vector of the current block.
  • the motion vector difference may mean a difference between a motion vector of a current block and a motion vector predictor.
  • the prediction unit may generate a prediction signal based on various prediction methods and/or prediction techniques to be described later.
  • the prediction unit may apply intra prediction or inter prediction for prediction of the current block, and may simultaneously apply intra prediction and inter prediction.
  • a prediction method in which intra prediction and inter prediction are applied simultaneously for prediction of a current block may be called combined inter and intra prediction (CIIP).
  • the prediction unit may perform intra block copy (IBC) for prediction of the current block.
  • the intra block copy may be used for content image/movie coding such as games, such as, for example, screen content coding (SCC).
  • IBC is a method of predicting a current block by using a reference block in a current picture at a distance from the current block by a predetermined distance. When IBC is applied, the position of the reference block in the current picture may be encoded as a vector (block vector) corresponding to the predetermined distance.
  • the prediction signal generated through the prediction unit may be used to generate a reconstructed signal or may be used to generate a residual signal.
  • the subtraction unit 115 subtracts the prediction signal (predicted block, prediction sample array) output from the prediction unit from the input image signal (original block, original sample array), and subtracts a residual signal (remaining block, residual sample array). ) Can be created.
  • the generated residual signal may be transmitted to the converter 120.
  • the transform unit 120 may generate transform coefficients by applying a transform technique to the residual signal.
  • the transformation technique uses at least one of DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), KLT (Karhunen-Loeve Transform), GBT (Graph-Based Transform), or CNT (Conditionally Non-linear Transform).
  • DCT Discrete Cosine Transform
  • DST Discrete Sine Transform
  • KLT Kerhunen-Loeve Transform
  • GBT Graph-Based Transform
  • CNT Supplementally Non-linear Transform
  • GBT refers to the transformation obtained from this graph when the relationship information between pixels is expressed in a graph.
  • CNT refers to a transform obtained based on generating a prediction signal using all previously reconstructed pixels.
  • the conversion process may be applied to a block of pixels having the same size of a square, or may be applied to a block of a variable size other than a square.
  • the quantization unit 130 may quantize the transform coefficients and transmit the quantization to the entropy encoding unit 190.
  • the entropy encoding unit 190 may encode a quantized signal (information on quantized transform coefficients) and output it as a bitstream.
  • the information on the quantized transform coefficients may be called residual information.
  • the quantization unit 130 may rearrange the quantized transform coefficients in the form of a block into a one-dimensional vector form based on a coefficient scan order, and the quantized transform coefficients in the form of the one-dimensional vector It is also possible to generate information about transform coefficients.
  • the entropy encoding unit 190 may perform various encoding methods such as exponential Golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC).
  • the entropy encoding unit 190 may encode together or separately information necessary for video/image restoration (eg, values of syntax elements) in addition to quantized transform coefficients.
  • the encoded information (eg, encoded video/video information) may be transmitted or stored in a bitstream format in units of network abstraction layer (NAL) units.
  • the video/video information may further include information on various parameter sets, such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS).
  • the video/video information may further include general constraint information.
  • the signaling information, transmitted information, and/or syntax elements mentioned in the present disclosure may be encoded through the above-described encoding procedure and included in the bitstream.
  • the bitstream may be transmitted through a network or may be stored in a digital storage medium.
  • the network may include a broadcasting network and/or a communication network
  • the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, and SSD.
  • a transmission unit (not shown) for transmitting the signal output from the entropy encoding unit 190 and/or a storage unit (not shown) for storing may be provided as an inner/outer element of the image encoding apparatus 100, or transmission The unit may be provided as a component of the entropy encoding unit 190.
  • the quantized transform coefficients output from the quantization unit 130 may be used to generate a residual signal.
  • a residual signal residual block or residual samples
  • inverse quantization and inverse transform residual transforms
  • the addition unit 155 adds the reconstructed residual signal to the prediction signal output from the inter prediction unit 180 or the intra prediction unit 185 to obtain a reconstructed signal (a reconstructed picture, a reconstructed block, and a reconstructed sample array). Can be generated.
  • a reconstructed signal (a reconstructed picture, a reconstructed block, and a reconstructed sample array).
  • the predicted block may be used as a reconstructed block.
  • the addition unit 155 may be referred to as a restoration unit or a restoration block generation unit.
  • the generated reconstructed signal may be used for intra prediction of the next processing target block in the current picture, and may be used for inter prediction of the next picture through filtering as described later.
  • LMCS luma mapping with chroma scaling
  • the filtering unit 160 may apply filtering to the reconstructed signal to improve subjective/objective image quality.
  • the filtering unit 160 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and the modified reconstructed picture may be converted to the memory 170, specifically, the DPB of the memory 170. Can be saved on.
  • the various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like.
  • the filtering unit 160 may generate a variety of filtering information and transmit it to the entropy encoding unit 190 as described later in the description of each filtering method.
  • the filtering information may be encoded by the entropy encoding unit 190 and output in the form of a bitstream.
  • the modified reconstructed picture transmitted to the memory 170 may be used as a reference picture in the inter prediction unit 180.
  • the image encoding apparatus 100 may avoid prediction mismatch between the image encoding apparatus 100 and the image decoding apparatus, and may improve encoding efficiency.
  • the DPB in the memory 170 may store a reconstructed picture modified to be used as a reference picture in the inter prediction unit 180.
  • the memory 170 may store motion information of a block from which motion information in a current picture is derived (or encoded) and/or motion information of blocks in a picture that have already been reconstructed.
  • the stored motion information may be transmitted to the inter prediction unit 180 to be used as motion information of spatial neighboring blocks or motion information of temporal neighboring blocks.
  • the memory 170 may store reconstructed samples of reconstructed blocks in the current picture, and may transmit the reconstructed samples to the intra prediction unit 185.
  • FIG. 3 is a diagram schematically illustrating an image decoding apparatus to which an embodiment according to the present disclosure can be applied.
  • the image decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an addition unit 235, a filtering unit 240, and a memory 250. ), an inter prediction unit 260 and an intra prediction unit 265 may be included.
  • the inter prediction unit 260 and the intra prediction unit 265 may be collectively referred to as a “prediction unit”.
  • the inverse quantization unit 220 and the inverse transform unit 230 may be included in the residual processing unit.
  • All or at least some of the plurality of constituent units constituting the image decoding apparatus 200 may be implemented as one hardware component (eg, a decoder or a processor) according to embodiments.
  • the memory 170 may include a DPB and may be implemented by a digital storage medium.
  • the image decoding apparatus 200 receiving a bitstream including video/image information may reconstruct an image by performing a process corresponding to the process performed by the image encoding apparatus 100 of FIG. 1.
  • the image decoding apparatus 200 may perform decoding using a processing unit applied in the image encoding apparatus.
  • the processing unit of decoding may be, for example, a coding unit.
  • the coding unit may be a coding tree unit or may be obtained by dividing the largest coding unit.
  • the reconstructed image signal decoded and output through the image decoding apparatus 200 may be reproduced through a reproduction device (not shown).
  • the image decoding apparatus 200 may receive a signal output from the image encoding apparatus of FIG. 1 in the form of a bitstream.
  • the received signal may be decoded through the entropy decoding unit 210.
  • the entropy decoding unit 210 may parse the bitstream to derive information (eg, video/video information) necessary for image restoration (or picture restoration).
  • the video/video information may further include information on various parameter sets, such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS).
  • the video/video information may further include general constraint information.
  • the image decoding apparatus may additionally use information on the parameter set and/or the general restriction information to decode an image.
  • the signaling information, received information, and/or syntax elements mentioned in the present disclosure may be obtained from the bitstream by being decoded through the decoding procedure.
  • the entropy decoding unit 210 decodes information in the bitstream based on a coding method such as exponential Golomb coding, CAVLC, or CABAC, and a value of a syntax element required for image restoration, a quantized value of a transform coefficient related to a residual. Can be printed.
  • the CABAC entropy decoding method receives a bin corresponding to each syntax element in a bitstream, and includes information on the syntax element to be decoded, decoding information of the neighboring block and the block to be decoded, or information of the symbol/bin decoded in the previous step.
  • the context model is determined by using and, according to the determined context model, the probability of occurrence of bins is predicted to perform arithmetic decoding of the bins to generate a symbol corresponding to the value of each syntax element.
  • the CABAC entropy decoding method may update the context model using information of the decoded symbol/bin for the context model of the next symbol/bin after the context model is determined.
  • the entropy decoding unit 210 Among the information decoded by the entropy decoding unit 210, information on prediction is provided to the prediction unit (inter prediction unit 260 and intra prediction unit 265), and the register on which entropy decoding is performed by the entropy decoding unit 210 Dual values, that is, quantized transform coefficients and related parameter information may be input to the inverse quantization unit 220. In addition, information about filtering among information decoded by the entropy decoding unit 210 may be provided to the filtering unit 240.
  • a receiving unit for receiving a signal output from the image encoding device may be additionally provided as an inner/outer element of the image decoding device 200, or the receiving unit is provided as a component of the entropy decoding unit 210 It could be.
  • the video decoding apparatus may include an information decoder (video/video/picture information decoder) and/or a sample decoder (video/video/picture sample decoder).
  • the information decoder may include an entropy decoding unit 210, and the sample decoder includes an inverse quantization unit 220, an inverse transform unit 230, an addition unit 235, a filtering unit 240, a memory 250, It may include at least one of the inter prediction unit 260 and the intra prediction unit 265.
  • the inverse quantization unit 220 may inverse quantize the quantized transform coefficients and output transform coefficients.
  • the inverse quantization unit 220 may rearrange the quantized transform coefficients into a two-dimensional block shape. In this case, the rearrangement may be performed based on a coefficient scan order performed by the image encoding apparatus.
  • the inverse quantization unit 220 may perform inverse quantization on quantized transform coefficients by using a quantization parameter (eg, quantization step size information) and obtain transform coefficients.
  • a quantization parameter eg, quantization step size information
  • the inverse transform unit 230 may inverse transform the transform coefficients to obtain a residual signal (residual block, residual sample array).
  • the prediction unit may perform prediction on the current block and generate a predicted block including prediction samples for the current block.
  • the prediction unit may determine whether intra prediction or inter prediction is applied to the current block based on the prediction information output from the entropy decoding unit 210, and determine a specific intra/inter prediction mode (prediction technique). I can.
  • the prediction unit can generate the prediction signal based on various prediction methods (techniques) described later.
  • the intra prediction unit 265 may predict the current block by referring to samples in the current picture.
  • the description of the intra prediction unit 185 may be equally applied to the intra prediction unit 265.
  • the inter prediction unit 260 may derive a predicted block for the current block based on a reference block (reference sample array) specified by a motion vector on the reference picture.
  • motion information may be predicted in units of blocks, subblocks, or samples based on a correlation between motion information between a neighboring block and a current block.
  • the motion information may include a motion vector and a reference picture index.
  • the motion information may further include inter prediction direction (L0 prediction, L1 prediction, Bi prediction, etc.) information.
  • the neighboring block may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture.
  • the inter prediction unit 260 may construct a motion information candidate list based on neighboring blocks, and derive a motion vector and/or a reference picture index of the current block based on the received candidate selection information.
  • Inter prediction may be performed based on various prediction modes (techniques), and the information about the prediction may include information indicating a mode (technique) of inter prediction for the current block.
  • the addition unit 235 is reconstructed by adding the obtained residual signal to the prediction signal (predicted block, prediction sample array) output from the prediction unit (including the inter prediction unit 260 and/or the intra prediction unit 265). Signals (restored pictures, reconstructed blocks, reconstructed sample arrays) can be generated. The description of the addition unit 155 may be equally applied to the addition unit 235.
  • LMCS luma mapping with chroma scaling
  • the filtering unit 240 may apply filtering to the reconstructed signal to improve subjective/objective image quality.
  • the filtering unit 240 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and the modified reconstructed picture may be converted to the memory 250, specifically the DPB of the memory 250. Can be saved on.
  • the various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like.
  • the (modified) reconstructed picture stored in the DPB of the memory 250 may be used as a reference picture in the inter prediction unit 260.
  • the memory 250 may store motion information of a block from which motion information in a current picture is derived (or decoded) and/or motion information of blocks in a picture that have already been reconstructed.
  • the stored motion information may be transmitted to the inter prediction unit 260 to be used as motion information of a spatial neighboring block or motion information of a temporal neighboring block.
  • the memory 250 may store reconstructed samples of reconstructed blocks in the current picture, and may be transmitted to the intra prediction unit 265.
  • the embodiments described in the filtering unit 160, the inter prediction unit 180, and the intra prediction unit 185 of the encoding apparatus 100 are, respectively, the filtering unit 240 and the inter prediction unit of the image decoding apparatus 200.
  • the same or corresponding to the prediction unit 260 and the intra prediction unit 265 may be applied.
  • FIG. 4 is a flowchart illustrating a process of generating a prediction block (predicted block) of a current block by performing inter prediction.
  • the process illustrated in FIG. 4 may be performed by the inter prediction unit 180 of FIG. 2 and/or the inter prediction unit 260 of FIG. 3.
  • the apparatus for encoding/decoding an image may derive a prediction sample by performing inter prediction in block units.
  • Inter prediction may mean a prediction technique derived by a method dependent on data elements of picture(s) other than the current picture.
  • a prediction block for the current block may be derived based on a reference block specified by a motion vector on a reference picture.
  • motion information of the current block may be derived based on the correlation of motion information between the neighboring block and the current block, and motion information in units of blocks, sub-blocks, or samples. Can be induced.
  • the motion information may include a motion vector and a reference picture index.
  • the motion information may further include inter prediction type information.
  • the inter prediction type information may mean directional information of inter prediction.
  • the inter prediction type information may indicate that the current block is predicted using one of L0 prediction, L1 prediction, and Bi prediction.
  • the neighboring blocks of the current block may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture.
  • the reference picture including the reference block for the current block and the reference picture including the temporal neighboring block may be the same or different.
  • the temporal neighboring block may be referred to as a collocated reference block, a co-located coding unit (colCU), and the like, and a reference picture including the temporal neighboring block may be referred to as a collocated picture (colPic). I can.
  • a motion information candidate list may be configured based on neighboring blocks of the current block.
  • a flag or index information indicating which candidate is used to derive a motion vector and/or a reference picture index of the current block is provided. Can be signaled.
  • the motion information may include L0 motion information and/or L1 motion information according to the inter prediction type.
  • the motion vector in the L0 direction may be defined as an L0 motion vector or MVL0
  • the motion vector in the L1 direction may be defined as an L1 motion vector or MVL1.
  • the prediction based on the L0 motion vector may be defined as L0 prediction
  • the prediction based on the L1 motion vector may be defined as L1 prediction
  • the prediction based on both the L0 motion vector and the L1 motion vector is paired (Bi) prediction.
  • the motion vector L0 may mean a motion vector associated with the reference picture list L0
  • the motion vector L1 may mean a motion vector associated with the reference picture list L1.
  • the reference picture list L0 may include pictures prior to the current picture in output order as reference pictures, and the reference picture list L1 may include pictures after the current picture in output order.
  • previous pictures may be defined as forward (reference) pictures, and subsequent pictures may be defined as backward (reference) pictures.
  • the reference picture list L0 may further include pictures after the output order than the current picture.
  • previous pictures in the reference picture list L0 may be indexed first, and pictures afterwards may be indexed next.
  • the reference picture list L1 may further include previous pictures in output order than the current picture.
  • subsequent pictures may be indexed first, and previous pictures may be indexed next.
  • the output order may correspond to a picture order count (POC) order.
  • POC picture order count
  • the determination of whether to perform inter prediction of FIG. 4 on the current block may be performed based on rate-distortion optimization (RDO).
  • RDO rate-distortion optimization
  • the prediction mode for the current block may be determined as the inter prediction mode.
  • a method of determining a prediction mode for a current block is not limited to the above example.
  • determination of whether to perform inter prediction of FIG. 4 on the current block may be performed based on information on the prediction mode of the current block.
  • the information on the prediction mode of the current block may be information indicating whether the prediction mode of the current block is an inter prediction mode or an intra prediction mode.
  • Information about the prediction mode of the current block may be explicitly signaled through a bitstream, or may be implicitly derived based on an encoding parameter about the current block.
  • determining an inter prediction technique S410
  • deriving motion information for a current block based on the determined inter prediction technique (S420).
  • And/or performing inter prediction using the derived motion information S430).
  • the apparatus for encoding/decoding an image may determine at least one inter prediction technique that can be used for inter prediction.
  • a prediction technique that can be used to perform inter prediction is defined as an inter prediction technique.
  • the inter prediction technique may mean one of an encoding/decoding method used to derive motion information for a current block and/or an encoding/decoding method used to derive a prediction sample.
  • steps S420 and S430 of FIG. 4 may be performed.
  • an inter prediction technique of the current block may be determined.
  • the inter prediction technique for the current block is a merge mode, merge skip mode, AMVP mode (Advanced Motion Vector Prediction mode), affine mode, and subblock-based merge mode.
  • merge mode AMVR mode (Adaptive Motion Vector Resolution mode), HMVP mode (History-based Motion Vector Predictor mode), Pair-wise average merge mode, MMVD mode (Merge mode with Motion Vector Differences mode) , DMVR mode (Decoder side Motion Vector Refinement mode), CIIP mode (Combined Inter and Intra Prediction mode), and GPM (Geometric Partitioning mode) may be determined at least one of.
  • motion information on the current block may be derived based on at least one inter prediction technique determined in step S410.
  • motion information of the current block is not signaled directly, but may be derived using motion information of neighboring blocks.
  • the video encoding apparatus may signal flag information indicating that a merge mode has been used and a merge index indicating which prediction blocks are used. Meanwhile, the video decoding apparatus may derive motion information of the current block using signaled flag information and merge index.
  • the image encoding apparatus may determine a merge candidate block used to induce motion information of a current block in order to perform a merge mode. As an example, up to five merge candidate blocks may be used. As another example, the maximum number of merge candidate blocks may be signaled through a slice header or a tile group header.
  • the image encoding apparatus may generate a merge candidate list and select a merge candidate block having the lowest cost among them as a final merge candidate block. Meanwhile, the image decoding apparatus may generate the same merge candidate list as the image encoding apparatus, and select a final merge candidate block by using the signaled merge index.
  • motion information of the current block may be derived in the same manner as when the merge mode is applied to the current block.
  • the skip mode when the skip mode is applied to the current block, the residual signal for the corresponding block may be omitted.
  • the derived prediction samples can be directly used as reconstructed samples for the current block.
  • the image encoding/decoding apparatus predicts a motion vector by using a motion vector of a reconstructed spatial neighboring block and/or a motion vector corresponding to a temporal neighboring block.
  • a motion vector predictor (MVP) candidate list can be generated.
  • a motion vector predictor candidate may be derived using the generated motion vector predictor candidate list.
  • Motion information of the current block may be determined based on the derived motion vector predictor candidate.
  • the image encoding apparatus may calculate a motion vector difference (MVD) by using a difference between a motion vector of a current block and a motion vector predictor candidate, and entropy-encode the MVD.
  • the image encoding apparatus may generate a bitstream by entropy encoding the motion vector predictor candidate index.
  • the motion vector predictor candidate index may indicate an optimal motion vector predictor candidate from among motion vector predictor candidates included in the motion vector candidate predictor list.
  • the image decoding apparatus entropy-decodes the motion vector candidate predictor index from the bitstream, and uses the entropy-decoded motion vector predictor candidate index from among the motion vector predictor candidates included in the motion vector predictor candidate list. Can select a motion vector predictor candidate of.
  • the decoding apparatus may derive the motion vector of the current block through the sum of the entropy-decoded MVD and the motion vector predictor candidate.
  • inter prediction on the current block may be performed using the motion information derived in step S420. That is, inter prediction is performed on the current block, and a prediction block for the current block may be derived.
  • the prediction block may include prediction samples (prediction sample array) of the current block.
  • an interpolation procedure for the prediction block may be performed. Through the interpolation procedure, prediction samples of the current block may be derived based on the reference samples of the fractional resolution unit. Meanwhile, when bi-prediction is applied, prediction samples for the current block may be derived through a weighted sum or weighted average of prediction samples derived based on L0 prediction and prediction samples derived based on L1 prediction.
  • MMVD mode can be applied to the current block. That is, when the inter prediction technique of the current block is determined as the merge mode or the skip mode, the MMVD mode may be additionally applied to the current block. When the MMVD mode is applied, motion vectors derived from neighboring blocks may be more precisely corrected, and thus image encoding efficiency may be improved.
  • FIG. 5 is a diagram for explaining an image decoding method using an MMVD mode.
  • the image decoding method using the MMVD mode includes determining whether the prediction mode of the current block is the MMVD mode (S510).
  • the prediction mode for the current block is determined as the MMVD mode
  • the current block is Deriving a merge candidate list for the current block (S520), deriving a predicted motion vector for the current block using the merge candidate list (S530), and deriving motion vector differences for the current block ( S540) and/or the step of deriving a motion vector of the current block by using the predicted motion vector and the motion vector difference (S550).
  • the motion vector difference for the current block may be derived based on motion vector difference information signaled from the image encoding apparatus.
  • FIG. 6 is a diagram for describing an image encoding method using an MMVD mode.
  • the method of encoding an image using the MMVD mode includes determining a prediction mode of a current block as an MMVD mode (S610), deriving a merge candidate list for the current block (S620), and a merge candidate list. Deriving a predicted motion vector for the current block by using (S630), deriving motion vector differences for the current block based on the predicted motion vector (S640) and/or motion vector difference information It may include an encoding step (S650). At this time, motion vector difference information for the current block may be determined based on the derived motion vector difference.
  • the apparatus for encoding an image may determine a prediction mode of the current block as the MMVD mode (S510), and may encode information indicating that the prediction mode of the current block is the MMVD mode. Meanwhile, the image decoding apparatus may determine whether the prediction mode of the current block is the MMVD mode based on the signaled information (S610).
  • FIG. 7 is a diagram for describing a method of determining/determining a prediction mode of a current block as an MMVD mode.
  • the prediction mode of the current block may be determined as the MMVD mode.
  • the syntax elements disclosed in FIG. 7 are examples, and the scope of the present disclosure is not limited by the names of the illustrated syntax elements.
  • specific values of the syntax elements in the following embodiments are examples, and the scope of the present disclosure is not limited by the following description.
  • Each syntax element can be expressed as an arbitrary value (for example, a first value or a second value), and a value of 1 when a specific syntax element has a value of 0, and a value of 0 when a specific syntax element has a value of 1. It can also be expressed as having
  • the image decoding apparatus may decode information on an inter prediction mode based on the flowchart of FIG. 7 and determine an inter prediction method for a current block based on this.
  • the image encoding apparatus may encode information on an inter prediction mode applied to the current block based on FIG. 7.
  • the skip mode may not be applied to the current block. For example, when the value of CU_SKIP_FLAG is 1, the skip mode is applied to the current block, and when the value of CU_SKIP_FLAG is 0, the skip mode may not be applied to the current block.
  • the skip mode When the skip mode is applied to the current block, it may be determined whether the MMVD mode is applied to the current block by the MMVD_FLAG value. If the MMVD_FLAG value is 1, the MMVD mode may be applied to the current block. When the MMVD mode is applied to the current block, MMVD_IDX for inducing a motion vector difference may be additionally encoded/decoded.
  • the MMVD mode may not be applied to the current block.
  • the MMVD mode may not be applied to the current block.
  • it may be determined whether the subblock-based skip mode is applied to the current block by the value of SB_MRG_FLAG. For example, when the SB_MRG_FLAG value is 1, a subblock-based skip mode may be applied to the current block.
  • MRG_IDX for deriving a motion vector for each subblock may be additionally encoded/decoded.
  • the SB_MRG_FLAG value is 0, the subblock-based skip mode may not be applied to the current block.
  • the triangulation skip mode may be applied to the current block.
  • the triangulation mode may mean the aforementioned GPM.
  • whether or not a triangular skip mode is applied to the current block may be determined by the TRI_FLAG value, and MRG_IDX for deriving a motion vector according to the triangulation skip mode may be additionally encoded/decoded.
  • the prediction mode of the current block may be determined as one of an intra prediction mode and an inter prediction mode according to the PRED_MODE value.
  • the prediction mode of the current block is determined as the inter prediction mode
  • whether the merge mode is applied to the current block may be determined based on the MRG_FLAG value. For example, when the MRG_FLAG value is 0, the AMVP mode may be applied to the current block. On the other hand, when the MRG_FLAG value is 1, the merge mode may be applied to the current block.
  • the merge mode When the merge mode is applied to the current block, it may be determined whether the MMVD mode is applied to the current block by the MMVD_FLAG value. If the MMVD_FLAG value is 1, the MMVD mode may be applied to the current block. When the MMVD mode is applied to the current block, MMVD_IDX for inducing a motion vector difference may be additionally encoded/decoded.
  • the MMVD mode may not be applied to the current block.
  • the MMVD mode may not be applied to the current block.
  • it may be determined whether or not the subblock-based merge mode is applied to the current block by the value of SB_MRG_FLAG. For example, when the SB_MRG_FLAG value is 1, a subblock based merge mode may be applied to the current block.
  • MRG_IDX for inducing a motion vector for each subblock may be additionally encoded/decoded.
  • the SB_MRG_FLAG value is 0, the subblock based merge mode may not be applied to the current block.
  • the intra-inter combining merge mode may be applied to the current block by the MHINTRA_FLAG value. For example, when the MHINTRA_FLAG value is 1, the intra-inter combining merge mode may be applied to the current block. When the intra-inter combining merge mode is applied to the current block, MHINTRA_MODE for inducing the intra mode of the intra-inter combining merge mode may be additionally encoded/decoded. On the other hand, when the MHINTRA_FLAG value is 0, the intra-inter combining merge mode may not be applied to the current block. In the following specification, the intra-inter combining merge mode may mean the aforementioned CIIP mode.
  • the intra-inter combining merge mode When the intra-inter combining merge mode is not applied to the current block, it may be determined whether or not the triangular division merge mode is applied to the current block by the TRI_FLAG value. For example, when the TRI_FLAG value is 1, the triangulation merge mode may be applied to the current block. When the triangulation merge mode is applied to the current block, MRG_IDX for deriving a motion vector according to the triangulation merge mode may be additionally encoded/decoded. On the other hand, when the TRI_FLAG value is 0, the triangulation merge mode may not be applied to the current block.
  • the general merge mode When the triangulation merge mode is not applied to the current block, the general merge mode may be applied to the current block.
  • MRG_IDX for determining a merge candidate according to the general merge mode may be additionally encoded/decoded. That is, the general merge mode may be applied to the current block only when at least one of the MMVD mode, the subblock-based merge mode, the intra-inter combination merge mode, and the triangular division merge mode is not performed for the current block.
  • the MMVD mode may be applied to the current block.
  • the image encoding apparatus may encode information indicating that the MMVD mode is applied to the current block. Meanwhile, the image decoding apparatus may determine whether the MMVD mode is applied to the current block based on the information signaled from the image encoding apparatus. For example, information signaled from the image encoding apparatus to the image decoding apparatus may be expressed as at least one of a syntax element mmvd_flag or mmvd_merge_flag. When mmvd_flag has the first value, the MMVD mode may be applied to the current block. On the other hand, when mmvd_flag has a second value, the MMVD mode may not be applied to the current block.
  • the video encoding/decoding apparatus may derive a merge candidate list for the current block (S520 and S620).
  • the apparatus for encoding/decoding an image may derive a merge candidate list for the current block by using at least one of conventional merge candidate list construction methods.
  • the apparatus for encoding/decoding an image may derive a predicted motion vector for the current block (S530 and S630), and may derive a motion vector difference for the current block (S530 and S630).
  • the image encoding apparatus may derive and encode motion vector difference information used to induce a motion vector difference of a current block.
  • the image decoding apparatus may decode motion vector difference information signaled from the image encoding apparatus, and derive a predicted motion vector and a motion vector difference for the current block based on this.
  • the motion vector difference information may include at least one of merge candidate indication information, size information on the motion vector difference, and direction information.
  • the merge candidate indication information may be information indicating a merge candidate used to induce a prediction motion vector of a current block among merge candidates according to the merge candidate list.
  • motion vector difference information to a current block may be encoded/decoded only when the MMVD mode is applied to the current block.
  • the syntax element mmvd_flag may be an indicator indicating whether to apply the MMVD mode. For example, when mmvd_flag indicates the first value, the MMVD mode may be applied to the current block. Meanwhile, when mmvd_flag indicates the second value, the MMVD mode may not be applied to the current block.
  • the syntax element mmvd_flag may also be referred to as mmvd_merge_flag.
  • at least one of the syntax elements mmvd_merge_flag, mmvd_distance_idx, and mmvd_direction_idx may be encoded/decoded.
  • the syntax element mmvd_merge_flag may be an indicator indicating one candidate among candidates in the merge candidate list.
  • mmvd_merge_flag may correspond to the above-described merge candidate indication information.
  • the syntax element mmvd_merge_flag may also be named mmvd_cand_flag.
  • mmvd_merge_flag may indicate one of a first candidate and a second candidate in the merge candidate list.
  • the maximum number of available merge candidates of the current block may be determined according to whether the MMVD mode is applied to the current block (mmvd_flag value). That is, when the MMVD mode is applied to the current block, only the first and second candidates among the candidates in the merge candidate list may be used for derivation of the predicted motion vector.
  • the merge index according to the general merge mode may be named as a syntax element merge_idx.
  • merge_idx when MMVD is applied to the current block, the value of merge_idx may be set as the value of mmvd_merge_flag. That is, the merge candidate for deriving the prediction motion vector of the current block may be determined by the merge_idx set to mmvd_merge_flag.
  • the motion vector difference can be signaled using a direction component and a magnitude component.
  • MmvdSign may mean a direction component of a motion vector difference
  • MmvdDistance may mean a magnitude component of a motion vector difference.
  • the direction component and magnitude component of the motion vector difference can mean the direction component and the actual vector size value of the motion vector difference, as well as the information used to derive the direction component and the actual vector size value of the motion vector difference.
  • I can.
  • MmvdOffset may mean an actual vector size value for a motion vector difference.
  • the syntax element mmvd_direction_idx may indicate a direction component (MmvdSign) of a motion vector difference.
  • mmvd_direction_idx may indicate that the motion vector difference is expressed using one of a direction component set of (+,0), (-,0), (0,+), and (0,-).
  • the syntax element mmvd_distance_idx may indicate a size component (MmvdDistance) of a motion vector difference.
  • mmvd_distance_idx may indicate that the residual motion vector has one of 1, 2, 4, 8, 16, 32, 64, 128, 256, and 512 size components.
  • the motion vector difference information may additionally include resolution information on the motion vector difference.
  • the resolution information on the motion vector difference may be information indicating whether the motion vector difference of the current block uses an integer resolution.
  • the resolution information on the motion vector difference may be named as a syntax element fpel_mmvd_enabled_flag.
  • Resolution information about the motion vector difference may be signaled at at least one of a sequence level, a picture level, a tile level, a tile group level, and a slice level.
  • the resolution information on the motion vector difference may be named sps_fpel_mmvd_enabled_flag, tile_group_fpel_mmvd_enabled_flag, ph_fpel_mmvd_enabled_flag, and the like according to the signaled level.
  • tile_group_fpel_mmvd_enabled_flag when sps_fpel_mmvd_enabled_flag is signaled as a first value, at least one of tile_group_fpel_mmvd_enabled_flag or ph_fpel_mmvd_enabled_flag may be signaled. Meanwhile, when sps_fpel_mmvd_enabled_flag is signaled as the second value, tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag may not be signaled.
  • tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag may be set to second values, respectively.
  • the first value and the second value may mean '1' and '0', respectively, and conversely, may mean '0' and '1'.
  • tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag may be used as syntax elements indicating the same condition.
  • the motion vector difference may be derived based on at least one of the above-described syntax elements mmvd_distance_idx, mmvd_direction_idx, and tile_group_fpel_mmvd_enabled_flag.
  • the magnitude component of the motion vector difference may be determined according to Table 1 below.
  • mmvd_distance_idx may have values from 0 to 7.
  • MmvdDistance is one of (1, 2, 4, 8, 16, 32, 64, 128) or (4, 8, 16, 32, 64, 128, 256, 512) according to the value indicated by mmvd_distance_idx and tile_group_fpel_mmvd_enabled_flag ) Can be one of. That is, the magnitude component of the motion vector difference may be derived using a plurality of tables based on the resolution information of the motion vector difference.
  • MmvdDistance when tile_group_fpel_mmvd_enabled_flag has a first value, MmvdDistance may be determined as one of (1, 2, 4, 8, 16, 32, 64, 128). Meanwhile, when tile_group_fpel_mmvd_enabled_flag has a second value, MmvdDistance may be determined as one of (4, 8, 16, 32, 64, 128, 256, 512). For example, when mmvd_distance_idx is 3 and tile_group_fpel_mmvd_enabled_flag is 1, the size component of the motion vector difference may be determined as 32.
  • the direction component of the motion vector difference may be determined according to Table 2 below.
  • the direction component (MmvdSign) of the motion vector difference may be derived using mmvd_direction_idx.
  • mmvd_direction_idx may indicate that the motion vector difference is expressed using one of a direction component set of (+,0), (-,0), (0,+), and (0,-).
  • An actual vector value (MmvdOffset) of the motion vector difference may be derived based on the direction component (MmvdSign) and the magnitude component (MmvdDistance) of the derived motion vector difference.
  • the vector value of the motion vector difference (MmvdOffset) may be derived according to Equation 1 below.
  • MmvdOffset[ x0 ][ y0 ][ 0 ] and MmvdOffset[ x0 ][ y0 ][ 1 ] may mean the x-axis value and y-axis value of the motion vector difference, respectively.
  • MmvdOffset[ x0 ][ y0 ][ 0] (MmvdDistance[ x0 ][ y0] ⁇ 2) * MmvdSign[ x0 ][ y0 ][0]
  • MmvdOffset[ x0 ][ y0 ][ 1] (MmvdDistance[ x0 ][ y0] ⁇ 2) * MmvdSign[ x0 ][ y0 ][1]
  • At least one of the L0 motion vector difference and the L1 motion vector difference for the current block may be derived based on the actual vector value (MmvdOffset) of the derived motion vector difference.
  • the L0 motion vector difference and the L1 motion vector difference for the current block may be derived based on motion information of the merge candidate used to derive the predicted motion vector of the current block. That is, the L0 motion vector difference and the L1 motion vector difference may be determined based on motion information of the merge candidate determined using mmvd_merge_flag.
  • the merge candidate of the current block may be determined whether the merge candidate of the current block has bidirectional motion information.
  • the POC difference between the current picture and the L0 reference picture and the POC difference between the current picture and the L1 reference picture may be calculated.
  • the L0 motion vector difference and the L1 motion vector difference may be derived to the same value using MmvdOffset.
  • the L0 motion vector difference and the L1 motion vector difference are different using the POC difference and MmvdOffset between the pictures. It can be derived by value.
  • the L0 motion vector difference may be derived first by using MmvdOffset.
  • the L1 motion vector difference may be derived by scaling the L0 motion vector difference based on the POC difference between the current picture and the L0 reference picture and the size difference of the POC difference between the current picture and the L1 reference picture.
  • the L1 motion vector difference may be derived first by using MmvdOffset.
  • the L1 motion vector difference may be derived by scaling the L1 motion vector difference based on the POC difference between the current picture and the L0 reference picture and the size difference of the POC difference between the current picture and the L1 reference picture.
  • one of the L0 motion vector difference or the L1 motion vector difference may be derived using MmvdOffset.
  • the motion vector difference in the remaining prediction directions may be derived by changing the sign of the motion vector difference in the first derived prediction direction.
  • the motion vector difference in the prediction direction in which the motion information exists may be derived using MmvdOffset.
  • a motion vector difference in a prediction direction in which no motion information exists may be derived as a zero vector.
  • the L0 motion vector difference may be derived using MmvdOffset, and the L1 motion vector difference may be derived as (0,0).
  • FIG. 9 is a diagram for explaining a method of inducing a motion vector difference.
  • the syntax element mmvd_direction_idx indicates that the motion vector difference has one of (+,0), (-,0), (0,+) and (0,-) direction component set, so that the derived motion vectors are shown in FIG. 9 It may be determined in a cross shape based on the center coordinate of. That is, the motion vector difference may have a non-zero value only for one of the x-axis and y-axis.
  • the L0 motion vector difference and the L1 motion vector difference are derived based on the same MmvdOffset, there may be an association between them.
  • the L0 motion vector difference and the L1 motion vector difference may have the same value.
  • the remaining motion vector difference may have a value in which one motion vector difference is mirrored and/or scaled.
  • the image decoding apparatus may derive the motion vector of the current block by using the difference between the predicted motion vector and the motion vector (S550). Meanwhile, the image encoding apparatus may encode motion vector difference information based on the derived predicted motion vector and the motion vector difference (S650).
  • the motion vector of the current block may be derived through the sum of the difference between the predicted motion vector derived in step S530 and the motion vector derived in step S540. More specifically, the L0 motion vector of the current block can be derived from the sum of the L0 predicted motion vector and the L0 motion vector difference of the current block, and the L1 motion vector of the current block is the L1 predicted motion vector and the L1 motion vector difference of the current block. It can be derived from the sum of
  • FIG. 10 is a diagram for describing an image decoding method according to an embodiment of the present disclosure.
  • determining whether a prediction mode of a current block is an MMVD mode (S1010).
  • a prediction mode of a current block is an MMVD mode
  • a current block Deriving a merge candidate list for (S1020) deriving a predicted motion vector for the current block using the merge candidate list (S1030), deriving motion vector differences for the current block (S1040), determining the resolution of the derived predicted motion vector (S1050), deriving a motion vector of the current block using the predicted motion vector and the motion vector difference (S1060), and/or using the derived motion vector
  • it may include obtaining a prediction block for the current block (S1070).
  • the resolution of the predicted motion vector may be determined based on the resolution of the motion vector difference.
  • FIG. 11 is a diagram for describing an image encoding method according to an embodiment of the present disclosure.
  • the method of encoding an image using the MMVD mode includes determining a prediction mode of a current block as an MMVD mode (S1110), deriving a merge candidate list for the current block (S1120), and a merge candidate list. Deriving a predicted motion vector for the current block by using (S1130), inducing motion vector differences for the current block based on the predicted motion vector (S1140), and determining the resolution of the predicted motion vector It may include determining (S1150) and/or encoding motion vector difference information for the derived motion vector difference (S1160). In this case, the resolution of the predicted motion vector may be determined based on the resolution of the motion vector difference.
  • a description of the steps excluding steps S1050 and S1150 is the same as the encoding/decoding method using the MMVD mode described with reference to FIGS. 5 and 6, and thus a description thereof is omitted.
  • the resolution of the motion vector difference is determined based on the resolution information on the above-described motion vector difference, the resolution of the predicted motion vector used to induce the motion vector by adding it to the motion vector difference needs to be matched with the resolution of the motion vector difference. have.
  • encoding efficiency may be increased. For example, when the resolution of the motion vector difference and the resolution of the motion vector are unified by an integer resolution, the resolution of the motion vector is also determined as an integer resolution, so that an interpolation process in motion compensation may be omitted.
  • the image encoding/decoding apparatus may set or change the resolution of the predicted motion vector to an integer resolution by rounding the predicted motion vector. That is, when the syntax element tile_group_fpel_mmvd_enabled_flag has a value of 1, the video encoding/decoding apparatus may set or change the resolution of the predicted motion vector for the current block as an integer resolution. On the other hand, when the syntax element tile_group_fpel_mmvd_enabled_flag has a value of 0, the video encoding/decoding apparatus may not set or change the resolution of the predicted motion vector for the current block as an integer resolution.
  • the motion vector rounding process described above may mean an operation in which a vector value less than a certain number of digits is discarded by performing left shift and right shift operations on an actual value of the motion vector.
  • the resolution of the motion vector may be changed from fractional resolution to integer resolution.
  • the left shifting value and the right shifting value used to perform rounding may be determined by the tile_group_fpel_mmvd_enabled_flag value.
  • the left shift value and the right shift value may be determined according to Equation 2 below.
  • MmvdMvShift of Equation 2 may be referred to as a first shifting value.
  • FIG. 12 is a diagram for describing a motion compensation method according to another embodiment of the present disclosure.
  • the apparatus for encoding/decoding an image may perform motion compensation on a current block in consideration of a resolution of a motion vector difference.
  • the embodiment of FIG. 12 may be an embodiment in which the resolution of the motion vector difference is determined as an integer resolution.
  • the image encoding/decoding apparatus may determine whether the resolution of the motion vector derived from the sum of the predicted motion vector and the motion vector difference is an integer resolution (S1220). . When the resolution of the motion vector is not the integer resolution, the image encoding/decoding apparatus may perform interpolation (S1230) to perform motion compensation on the current block in units of fractional resolution (S1240). On the other hand, when the resolution of the motion vector is an integer resolution, motion compensation is performed without a separate interpolation process (S1240), and a prediction sample for the current block may be derived.
  • the resolution of a motion vector is an integer resolution
  • encoding efficiency can be increased.
  • FIG. 13 is a diagram for describing a motion estimation method according to another embodiment of the present disclosure.
  • the apparatus for encoding an image may perform motion estimation on a current block in consideration of a resolution of a motion vector difference.
  • the image encoding apparatus may generate a merge candidate list (S1310) and perform motion estimation for each candidate (S1320) to derive an optimal prediction sample.
  • a merge candidate capable of inducing an optimal prediction sample may be determined, and a merge candidate index indicating the determined candidate may be encoded.
  • the image encoding apparatus may perform integer-unit motion estimation (S1360) on the current block by using the predicted motion vector and the motion vector difference set to the integer resolution.
  • interpolation for the reference picture may be performed.
  • the image encoding apparatus may perform fractional motion estimation (S1370) on the current block by using the predicted motion vector and the motion vector difference set to the fractional resolution.
  • the image encoding apparatus may selectively perform a rounding process and/or an interpolation process depending on whether a motion vector difference of a merge candidate has an integer resolution, and thus, image encoding efficiency may be increased.
  • exemplary methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which steps are performed, and each step may be performed simultaneously or in a different order if necessary.
  • the illustrative steps may include additional steps, other steps may be included excluding some steps, or may include additional other steps excluding some steps.
  • an image encoding apparatus or an image decoding apparatus performing a predetermined operation may perform an operation (step) of confirming an execution condition or situation of the operation (step). For example, when it is described that a predetermined operation is performed when a predetermined condition is satisfied, the video encoding apparatus or the video decoding apparatus performs an operation to check whether the predetermined condition is satisfied, and then performs the predetermined operation. I can.
  • various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • one or more ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.
  • the image decoding device and the image encoding device to which the embodiment of the present disclosure is applied include a multimedia broadcasting transmission/reception device, a mobile communication terminal, a home cinema video device, a digital cinema video device, a surveillance camera, a video chat device, and a real-time communication device such as video communication.
  • Mobile streaming devices storage media, camcorders, video-on-demand (VoD) service providers, OTT video (Over the top video) devices, Internet streaming service providers, three-dimensional (3D) video devices, video telephony video devices, and medical use. It may be included in a video device or the like, and may be used to process a video signal or a data signal.
  • an OTT video (Over the top video) device may include a game console, a Blu-ray player, an Internet-connected TV, a home theater system, a smartphone, a tablet PC, and a digital video recorder (DVR).
  • DVR digital video recorder
  • FIG. 12 is a diagram illustrating a content streaming system to which an embodiment of the present disclosure can be applied.
  • the content streaming system to which the embodiment of the present disclosure is applied may largely include an encoding server, a streaming server, a web server, a media storage device, a user device, and a multimedia input device.
  • the encoding server serves to generate a bitstream by compressing content input from multimedia input devices such as smartphones, cameras, camcorders, etc. into digital data, and transmits it to the streaming server.
  • multimedia input devices such as smartphones, cameras, camcorders, etc. directly generate bitstreams
  • the encoding server may be omitted.
  • the bitstream may be generated by an image encoding method and/or an image encoding apparatus to which an embodiment of the present disclosure is applied, and the streaming server may temporarily store the bitstream in a process of transmitting or receiving the bitstream.
  • the streaming server may transmit multimedia data to a user device based on a user request through a web server, and the web server may serve as an intermediary informing the user of a service.
  • the web server transmits the request to the streaming server, and the streaming server may transmit multimedia data to the user.
  • the content streaming system may include a separate control server, and in this case, the control server may play a role of controlling a command/response between devices in the content streaming system.
  • the streaming server may receive content from a media storage and/or encoding server. For example, when content is received from the encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may store the bitstream for a predetermined time.
  • Examples of the user device include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a slate PC, and Tablet PC, ultrabook, wearable device, for example, smartwatch, smart glass, head mounted display (HMD)), digital TV, desktop There may be computers, digital signage, etc.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • HMD head mounted display
  • TV desktop
  • desktop There may be computers, digital signage, etc.
  • Each server in the content streaming system may be operated as a distributed server, and in this case, data received from each server may be distributedly processed.
  • the scope of the present disclosure is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer.
  • a non-transitory computer-readable medium non-transitory computer-readable medium
  • An embodiment according to the present disclosure may be used to encode/decode an image.

Abstract

An image encoding/decoding method and apparatus are provided. A method by which an image decoding device decodes an image, according to the present disclosure, comprises the steps of: determining whether a prediction mode of the current block is a merge mode with motion vector difference (MMVD) mode; deriving a merge candidate list for the current block when the prediction mode of the current block is determined as the MMVD mode; deriving a predicted motion vector for the current block by using the merge candidate list; deriving a motion vector difference for the current block; setting the resolution of the predicted motion vector; deriving a motion vector for the current block by using the predicted motion vector and the motion vector difference; and obtaining a prediction block for the current block by using the motion vector for the current block, wherein the resolution of the predicted motion vector can be set on the basis of the resolution of the motion vector difference.

Description

영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법Video encoding/decoding method, apparatus, and method for transmitting bitstream
본 개시는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법에 관한 것으로서, 보다 상세하게는, MMVD(Merge mode with Motion Vector differences) 모드를 이용하여 영상을 부호화/복호화하는 방법, 장치 및 본 개시의 영상 부호화 방법/장치에 의해 생성된 비트스트림을 전송하는 방법에 관한 것이다.The present disclosure relates to an image encoding/decoding method, an apparatus, and a method of transmitting a bitstream, and more particularly, a method, apparatus and a method for encoding/decoding an image using a merge mode with motion vector differences (MMVD) mode. It relates to a method of transmitting a bitstream generated by the disclosed video encoding method/apparatus.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하게 된다. 전송되는 정보량 또는 비트량의 증가는 전송 비용과 저장 비용의 증가를 초래한다.Recently, demand for high-resolution and high-quality images such as high definition (HD) images and ultra high definition (UHD) images is increasing in various fields. As the image data becomes high-resolution and high-quality, the amount of information or bits to be transmitted increases relative to the existing image data. An increase in the amount of information or bits to be transmitted causes an increase in transmission cost and storage cost.
이에 따라, 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위한 고효율의 영상 압축 기술이 요구된다. Accordingly, there is a need for a highly efficient image compression technology for effectively transmitting, storing, and reproducing information of high-resolution and high-quality images.
본 개시는 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present disclosure is to provide an image encoding/decoding method and apparatus with improved encoding/decoding efficiency.
또한, 본 개시는, MMVD(Merge mode with Motion Vector differences) 모드를 이용하여 영상을 부호화/복호화하는 방법 및 장치를 제공하는 것을 목적으로 한다.Another object of the present disclosure is to provide a method and apparatus for encoding/decoding an image using a Merge mode with Motion Vector differences (MMVD) mode.
또한, 본 개시는, MMVD 모드를 이용하여 인터 예측된 영상을 부호화/복호화하는 방법 및 장치를 제공하는 것을 목적으로 한다.In addition, an object of the present disclosure is to provide a method and apparatus for encoding/decoding an inter-predicted image using an MMVD mode.
또한, 본 개시는, MMVD 모드 관련 정보를 이용하여 움직임 벡터의 해상도를 결정하는 방법 및 장치를 제공하는 것을 목적으로 한다.In addition, an object of the present disclosure is to provide a method and apparatus for determining a resolution of a motion vector using information related to an MMVD mode.
또한, 본 개시는 본 개시에 따른 영상 부호화 방법 또는 장치에 의해 생성된 비트스트림을 전송하는 방법을 제공하는 것을 목적으로 한다.In addition, an object of the present disclosure is to provide a method for transmitting a bitstream generated by an image encoding method or apparatus according to the present disclosure.
또한, 본 개시는 본 개시에 따른 영상 부호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.Further, an object of the present disclosure is to provide a recording medium storing a bitstream generated by an image encoding method or apparatus according to the present disclosure.
또한, 본 개시는 본 개시에 따른 영상 복호화 장치에 의해 수신되고 복호화되어 영상의 복원에 이용되는 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.In addition, an object of the present disclosure is to provide a recording medium storing a bitstream that is received and decoded by an image decoding apparatus according to the present disclosure and used for image restoration.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present disclosure are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present disclosure belongs from the following description. I will be able to.
본 개시의 일 양상에 따른 영상 부호화/복호화 방법에 따르면, MMVD 모드를 이용하여 현재 블록에 대한 움직임 정보가 유도될 수 있다. 구체적으로, 움직임 벡터 차분의 해상도를 기반으로 현재 블록의 예측 움직임 벡터 혹은 움직임 벡터의 해상도가 결정될 수 있다. 예측 움직임 벡터 혹은 움직임 벡터의 해상도가 움직임 벡터 차분의 해상도를 기반으로 결정됨에 따라, 보간 과정 혹은 라운딩(rounding) 과정 등이 생략되어, MMVD 모드를 이용한 부호화/복호화 과정이 단순화되고, 부호화 효율이 증대될 수 있다.According to an image encoding/decoding method according to an aspect of the present disclosure, motion information for a current block may be derived using an MMVD mode. Specifically, the resolution of the motion vector or the prediction motion vector of the current block may be determined based on the resolution of the motion vector difference. As the resolution of the predicted motion vector or the motion vector is determined based on the resolution of the motion vector difference, the interpolation or rounding process is omitted, thereby simplifying the encoding/decoding process using the MMVD mode and increasing the encoding efficiency. Can be.
본 개시의 일 양상에 따른 영상 복호화 방법은, 현재 블록의 예측 모드가 MMVD(Merge mode with Motion Vector Difference) 모드인지 여부를 판단하는 단계, 상기 현재 블록의 예측 모드가 MMVD 모드로 판단되는 경우, 상기 현재 블록에 대한 머지 후보 리스트를 유도하는 단계, 상기 머지 후보 리스트를 이용하여 상기 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계, 상기 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계, 상기 예측 움직임 벡터의 해상도를 설정하는 단계, 상기 예측 움직임 벡터 및 상기 움직임 벡터 차분을 이용하여 상기 현재 블록에 대한 움직임 벡터를 유도하는 단계 및 상기 현재 블록에 대한 움직임 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 획득하는 단계를 포함하되, 상기 예측 움직임 벡터의 해상도는 상기 움직임 벡터 차분의 해상도에 기반하여 설정될 수 있다.An image decoding method according to an aspect of the present disclosure includes determining whether a prediction mode of a current block is a merge mode with motion vector difference (MMVD) mode, and when the prediction mode of the current block is determined to be an MMVD mode, the Deriving a merge candidate list for the current block, deriving a predicted motion vector for the current block using the merge candidate list, deriving motion vector differences for the current block, Setting a resolution of the predicted motion vector, deriving a motion vector for the current block using the predicted motion vector and the motion vector difference, and for the current block using a motion vector for the current block Obtaining a prediction block, wherein the resolution of the prediction motion vector may be set based on the resolution of the difference in the motion vector.
본 개시의 영상 복호화 방법에 있어서, 상기 현재 블록에 대한 움직임 벡터 차분 정보를 복호화하는 단계를 더 포함하되, 상기 움직임 벡터 차분 정보는, 상기 움직임 벡터 차분에 대한 크기 정보, 상기 움직임 벡터 차분에 대한 방향 정보 및 상기 움직임 벡터 차분에 대한 해상도 정보 중 적어도 하나를 포함할 수 있다.In the video decoding method of the present disclosure, further comprising the step of decoding motion vector difference information for the current block, wherein the motion vector difference information includes size information for the motion vector difference and a direction for the motion vector difference It may include at least one of information and resolution information on the motion vector difference.
본 개시의 영상 복호화 방법에 있어서, 상기 움직임 벡터 차분에 대한 해상도 정보는, 상기 현재 블록의 움직임 벡터 차분이 정수 해상도를 사용하는지 여부를 지시할 수 있다.In the video decoding method of the present disclosure, the resolution information on the motion vector difference may indicate whether the motion vector difference of the current block uses an integer resolution.
본 개시의 영상 복호화 방법에 있어서, 상기 움직임 벡터 차분의 크기는 복수의 테이블을 기반으로 유도되되, 상기 움직임 벡터 차분의 크기를 유도하기 위해 사용되는 테이블은, 상기 움직임 벡터 차분에 대한 해상도 정보를 기반으로 선택될 수 있다.In the video decoding method of the present disclosure, the size of the motion vector difference is derived based on a plurality of tables, and the table used to induce the size of the motion vector difference is based on resolution information on the motion vector difference. Can be selected as
본 개시의 영상 복호화 방법에 있어서, 상기 움직임 벡터 차분에 대한 크기 정보는, 상기 움직임 벡터 차분을 유도하기 위해 사용되는 테이블의 값들 중 하나의 값을 지시할 수 있다.In the image decoding method of the present disclosure, the size information on the motion vector difference may indicate one of values of a table used to induce the motion vector difference.
본 개시의 영상 복호화 방법에 있어서, 상기 움직임 벡터 차분에 대한 방향 정보는, 상기 움직임 벡터 차분이 (+,0), (-,0), (0,+) 및 (0,-) 중 하나의 방향 성분 세트로 표현됨을 지시할 수 있다.In the video decoding method of the present disclosure, the direction information on the motion vector difference is one of (+,0), (-,0), (0,+) and (0,-) It can be indicated that it is expressed as a set of fragrance components.
본 개시의 영상 복호화 방법에 있어서, 상기 머지 후보 리스트 내의 후보 중 기설정된 개수의 후보만이 상기 예측 움직임 벡터 유도에 이용될 수 있다.In the video decoding method of the present disclosure, only a predetermined number of candidates among candidates in the merge candidate list may be used for derivation of the predicted motion vector.
본 개시의 영상 복호화 방법에 있어서, 상기 예측 움직임 벡터의 해상도를 설정하는 단계는, 상기 예측 움직임 벡터를 라운딩(rounding)하여 상기 예측 움직임 벡터의 해상도를 설정하는 단계를 포함할 수 있다.In the video decoding method of the present disclosure, setting the resolution of the predicted motion vector may include setting the resolution of the predicted motion vector by rounding the predicted motion vector.
본 개시의 영상 복호화 방법에 있어서, 상기 라운딩은 상기 움직임 벡터 차분에 대한 해상도 정보를 이용하여 결정되는 제 1 쉬프팅(shifting) 값에 기반하여 수행될 수 있다.In the image decoding method of the present disclosure, the rounding may be performed based on a first shifting value determined using resolution information on the motion vector difference.
본 개시의 영상 복호화 방법에 있어서, 상기 라운딩은 상기 예측 움직임 벡터에 대해 좌측 쉬프트 연산 및 우측 쉬프트 연산이 적용되어 수행되고, 상기 좌측 쉬프트 연산 및 상기 우측 쉬프트 연산에 사용되는 쉬프팅 값은 상기 제 1 쉬프팅 값으로 결정될 수 있다.In the image decoding method of the present disclosure, the rounding is performed by applying a left shift operation and a right shift operation to the predicted motion vector, and a shifting value used for the left shift operation and the right shift operation is the first shift Can be determined by value.
본 개시의 다른 양상에 따른 영상 복호화 장치는, 메모리 및 적어도 하나의 프로세서를 포함하되, 상기 적어도 하나의 프로세서는 현재 블록의 예측 모드가 MMVD(Merge mode with Motion Vector Difference) 모드인지 여부를 판단하고, 상기 현재 블록의 예측 모드가 MMVD 모드로 판단되는 경우, 상기 현재 블록에 대한 머지 후보 리스트를 유도하고, 상기 머지 후보 리스트를 이용하여 상기 현재 블록에 대한 예측 움직임 벡터를 유도하고, 상기 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하고, 상기 예측 움직임 벡터의 해상도를 설정하고, 상기 예측 움직임 벡터 및 상기 움직임 벡터 차분을 이용하여 상기 현재 블록에 대한 움직임 벡터를 유도하고, 상기 현재 블록에 대한 움직임 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 획득하되, 상기 예측 움직임 벡터의 해상도는 상기 움직임 벡터 차분의 해상도에 기반하여 설정될 수 있다.An image decoding apparatus according to another aspect of the present disclosure includes a memory and at least one processor, wherein the at least one processor determines whether a prediction mode of a current block is a merge mode with motion vector difference (MMVD) mode, When it is determined that the prediction mode of the current block is the MMVD mode, a merge candidate list for the current block is derived, a predicted motion vector for the current block is derived using the merge candidate list, and Induce motion vector differences, set the resolution of the predicted motion vector, derive a motion vector for the current block using the predicted motion vector and the motion vector difference, and A prediction block for the current block is obtained using a motion vector, and the resolution of the prediction motion vector may be set based on the resolution of the difference in the motion vector.
본 개시의 또 다른 양상에 따른 영상 부호화 방법은, 현재 블록의 예측 모드를 MMVD(Merge mode with Motion Vector Difference) 모드로 결정하는 단계, 상기 현재 블록에 대한 머지 후보 리스트를 유도하는 단계, 상기 머지 후보 리스트를 이용하여 상기 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계, 상기 예측 움직임 벡터에 기반하여 상기 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계, 상기 예측 움직임 벡터의 해상도를 설정하는 단계 및 상기 현재 블록에 대한 움직임 벡터 차분 정보를 부호화하는 정보를 더 포함하되, 상기 예측 움직임 벡터의 해상도는 상기 움직임 벡터 차분의 해상도에 기반하여 설정될 수 있다.An image encoding method according to another aspect of the present disclosure includes determining a prediction mode of a current block as a Merge mode with Motion Vector Difference (MMVD) mode, deriving a merge candidate list for the current block, and the merge candidate Deriving a predicted motion vector for the current block using a list, deriving motion vector differences for the current block based on the predicted motion vector, and setting a resolution of the predicted motion vector And information encoding motion vector difference information for the current block, wherein the resolution of the predicted motion vector may be set based on the resolution of the motion vector difference.
본 개시의 영상 부호화 방법에 있어서, 상기 움직임 벡터 차분 정보는, 상기 움직임 벡터 차분에 대한 해상도 정보를 포함하되, 상기 움직임 벡터 차분에 대한 해상도 정보는, 상기 현재 블록의 움직임 벡터 차분이 정수 해상도를 사용하는지 여부를 지시할 수 있다.In the video encoding method of the present disclosure, the motion vector difference information includes resolution information for the motion vector difference, and the resolution information for the motion vector difference uses an integer resolution for a motion vector difference of the current block. You can indicate whether or not.
본 개시의 또 다른 양상에 따른 컴퓨터 판독 가능한 기록 매체는, 본 개시의 영상 부호화 방법 또는 영상 부호화 장치에 의해 생성된 비트스트림을 저장할 수 있다.A computer-readable recording medium according to another aspect of the present disclosure may store a bitstream generated by the image encoding method or image encoding apparatus of the present disclosure.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.Features briefly summarized above with respect to the present disclosure are only exemplary aspects of the detailed description of the present disclosure described below, and do not limit the scope of the present disclosure.
본 개시에 따르면, 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치가 제공될 수 있다.According to the present disclosure, an image encoding/decoding method and apparatus with improved encoding/decoding efficiency may be provided.
또한, 본 개시에 따르면, MMVD(Merge mode with Motion Vector differences) 모드를 이용하여 영상을 부호화/복호화하는 방법 및 장치가 제공될 수 있다.In addition, according to the present disclosure, a method and apparatus for encoding/decoding an image using a Merge mode with Motion Vector differences (MMVD) mode may be provided.
또한, 본 개시에 따르면, MMVD 모드를 이용하여 인터 예측된 영상을 부호화/복호화하는 방법 및 장치가 제공될 수 있다.Also, according to the present disclosure, a method and apparatus for encoding/decoding an inter-predicted image using an MMVD mode may be provided.
또한, 본 개시는, MMVD 모드 관련 신택스 요소를 이용하여 움직임 벡터의 해상도를 결정하는 방법 및 장치를 제공될 수 있다.In addition, the present disclosure may provide a method and apparatus for determining a resolution of a motion vector using a syntax element related to an MMVD mode.
또한, 본 개시에 따르면, 본 개시에 따른 영상 부호화 방법 또는 장치에 의해 생성된 비트스트림을 전송하는 방법이 제공될 수 있다.In addition, according to the present disclosure, a method for transmitting a bitstream generated by an image encoding method or apparatus according to the present disclosure may be provided.
또한, 본 개시에 따르면, 본 개시에 따른 영상 부호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체가 제공될 수 있다.Further, according to the present disclosure, a recording medium storing a bitstream generated by an image encoding method or apparatus according to the present disclosure may be provided.
또한, 본 개시에 따르면, 본 개시에 따른 영상 복호화 장치에 의해 수신되고 복호화되어 영상의 복원에 이용되는 비트스트림을 저장한 기록 매체가 제공될 수 있다.In addition, according to the present disclosure, a recording medium may be provided that stores a bitstream that is received and decoded by the image decoding apparatus according to the present disclosure and used for image restoration.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those of ordinary skill in the art from the following description. will be.
도 1은 본 개시에 따른 실시예가 적용될 수 있는 비디오 코딩 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating a video coding system to which an embodiment according to the present disclosure can be applied.
도 2는 본 개시에 따른 실시예가 적용될 수 있는 영상 부호화 장치를 개략적으로 도시한 도면이다.2 is a diagram schematically illustrating an image encoding apparatus to which an embodiment according to the present disclosure can be applied.
도 3은 본 개시에 따른 실시예가 적용될 수 있는 영상 복호화 장치를 개략적으로 도시한 도면이다.3 is a diagram schematically illustrating an image decoding apparatus to which an embodiment according to the present disclosure can be applied.
도 4는 인트라 예측을 수행하여 현재 블록의 예측 블록(예측된 블록)을 생성하는 과정을 도시한 흐름도이다.4 is a flowchart illustrating a process of generating a prediction block (predicted block) of a current block by performing intra prediction.
도 5는 MMVD 모드를 이용한 복호화 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a decoding method using the MMVD mode.
도 6은 MMVD 모드를 이용한 부호화 방법을 설명하기 위한 도면이다.6 is a diagram for explaining an encoding method using an MMVD mode.
도 7은 현재 블록의 예측 모드를 MMVD 모드로 결정하는 방법을 설명하기 위한 도면이다.7 is a diagram for describing a method of determining a prediction mode of a current block as an MMVD mode.
도 8은 움직임 벡터 차분 정보의 비트스트림의 구조를 예시한 도면이다.8 is a diagram illustrating a structure of a bitstream of motion vector difference information.
도 9는 움직임 벡터 차분을 유도하는 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a method of inducing a motion vector difference.
도 10은 본 개시의 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 도면이다.10 is a diagram for describing an image decoding method according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 도면이다.11 is a diagram for describing an image encoding method according to an embodiment of the present disclosure.
도 12는 본 개시의 다른 일 실시예에 따른 움직임 보상 방법을 설명하기 위한 도면이다.12 is a diagram for describing a motion compensation method according to another embodiment of the present disclosure.
도 13은 본 개시의 또 다른 일 실시예에 따른 움직임 추정 방법을 설명하기 위한 도면이다.13 is a diagram for describing a motion estimation method according to still another embodiment of the present disclosure.
도 14는 본 개시의 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시한 도면이다.14 is a diagram illustrating a content streaming system to which an embodiment of the present disclosure can be applied.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the embodiments. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein.
본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing an embodiment of the present disclosure, when it is determined that a detailed description of a known configuration or function may obscure the subject matter of the present disclosure, a detailed description thereof will be omitted. In addition, parts not related to the description of the present disclosure in the drawings are omitted, and similar reference numerals are attached to similar parts.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is said to be "connected", "coupled" or "connected" with another component, it is not only a direct connection relationship, but an indirect connection relationship in which another component exists in the middle It can also include. In addition, when a certain component "includes" or "have" another component, it means that other components may be further included rather than excluding other components unless otherwise stated. .
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless otherwise stated. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is a first component in another embodiment. It can also be called.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are intended to clearly describe each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to be formed in one hardware or software unit, or one component may be distributed in a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present disclosure.
본 개시에 있어서, 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment consisting of a subset of components described in an embodiment is also included in the scope of the present disclosure. In addition, embodiments including other elements in addition to the elements described in the various embodiments are included in the scope of the present disclosure.
본 개시는 영상의 부호화 및 복호화에 관한 것으로서, 본 개시에서 사용되는 용어는, 본 개시에서 새롭게 정의되지 않는 한 본 개시가 속한 기술 분야에서 통용되는 통상의 의미를 가질 수 있다. The present disclosure relates to encoding and decoding of an image, and terms used in the present disclosure may have a common meaning commonly used in the technical field to which the present disclosure belongs unless newly defined in the present disclosure.
본 개시에서 "픽처(picture)"는 일반적으로 특정 시간대의 하나의 영상을 나타내는 단위를 의미하며, 슬라이스(slice)/타일(tile)은 픽처의 일부를 구성하는 부호화 단위로서, 하나의 픽처는 하나 이상의 슬라이스/타일로 구성될 수 있다. 또한, 슬라이스/타일은 하나 이상의 CTU(coding tree unit)를 포함할 수 있다. In the present disclosure, a “picture” generally refers to a unit representing one image in a specific time period, and a slice/tile is a coding unit constituting a part of a picture, and one picture is one It may be composed of more than one slice/tile. In addition, a slice/tile may include one or more coding tree units (CTU).
본 개시에서 "픽셀(pixel)" 또는 "펠(pel)"은 하나의 픽처(또는 영상)를 구성하는 최소의 단위를 의미할 수 있다. 또한, 픽셀에 대응하는 용어로서 "샘플(sample)"이 사용될 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있으며, 루마(luma) 성분의 픽셀/픽셀값만을 나타낼 수도 있고, 크로마(chroma) 성분의 픽셀/픽셀 값만을 나타낼 수도 있다.In the present disclosure, "pixel" or "pel" may mean a minimum unit constituting one picture (or image). Also, as a term corresponding to a pixel, "sample" may be used. A sample may generally represent a pixel or a value of a pixel, may represent only a pixel/pixel value of a luma component, or may represent only a pixel/pixel value of a chroma component.
본 개시에서 "유닛(unit)"은 영상 처리의 기본 단위를 나타낼 수 있다. 유닛은 픽처의 특정 영역 및 해당 영역에 관련된 정보 중 적어도 하나를 포함할 수 있다. 유닛은 경우에 따라서 "샘플 어레이", "블록(block)" 또는 "영역(area)" 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들(또는 샘플 어레이) 또는 변환 계수(transform coefficient)들의 집합(또는 어레이)을 포함할 수 있다.In the present disclosure, "unit" may represent a basic unit of image processing. The unit may include at least one of a specific area of a picture and information related to the corresponding area. The unit may be used interchangeably with terms such as "sample array", "block", or "area" depending on the case. In general, the MxN block may include samples (or sample arrays) consisting of M columns and N rows, or a set (or array) of transform coefficients.
본 개시에서 "현재 블록"은 "현재 코딩 블록", "현재 코딩 유닛", "부호화 대상 블록", "복호화 대상 블록" 또는 "처리 대상 블록" 중 하나를 의미할 수 있다. 예측이 수행되는 경우, "현재 블록"은 "현재 예측 블록" 또는 "예측 대상 블록"을 의미할 수 있다. 변환(역변환)/양자화(역양자화)가 수행되는 경우, "현재 블록"은 "현재 변환 블록" 또는 "변환 대상 블록"을 의미할 수 있다. 필터링이 수행되는 경우, "현재 블록"은 "필터링 대상 블록"을 의미할 수 있다.In the present disclosure, "current block" may mean one of "current coding block", "current coding unit", "coding object block", "decoding object block", or "processing object block". When prediction is performed, “current block” may mean “current prediction block” or “prediction target block”. When transformation (inverse transformation)/quantization (inverse quantization) is performed, "current block" may mean "current transform block" or "transform target block". When filtering is performed, “current block” may mean “block to be filtered”.
본 개시에서 "/"와 ","는 "및/또는"으로 해석될 수 있다. 예를 들어, "A/B"와 "A, B"는 "A 및/또는 B"로 해석될 수 있다. 또한, "A/B/C"와 "A, B, C"는 "A, B 및/또는 C 중 적어도 하나"를 의미할 수 있다.In the present disclosure, "/" and "," may be interpreted as "and/or". For example, "A/B" and "A, B" may be interpreted as "A and/or B". In addition, "A/B/C" and "A, B, C" may mean "at least one of A, B and/or C".
본 개시에서 "또는"은 "및/또는"으로 해석될 수 있다. 예를 들어, "A 또는 B"는, 1) "A" 만을 의미하거나 2) "B" 만을 의미하거나, 3) "A 및 B"를 의미할 수 있다. 또는, 본 개시에서 "또는"은 "추가적으로 또는 대체적으로(additionally or alternatively)"를 의미할 수 있다.In the present disclosure, "or" may be interpreted as "and/or". For example, "A or B" may mean 1) only "A", 2) only "B", or 3) "A and B". Or, in the present disclosure, "or" may mean "additionally or alternatively".
비디오 코딩 시스템 개요Video coding system overview
도 1은 본 개시에 따른 비디오 코딩 시스템을 도시한다.1 shows a video coding system according to this disclosure.
일 실시예에 따른 비디오 코딩 시스템은 부호화 장치(10) 및 복호화 장치(20)를 포함할 수 있다. 부호화 장치(10)는 부호화된 비디오(video) 및/또는 영상(image) 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)로 전달할 수 있다. A video coding system according to an embodiment may include an encoding device 10 and a decoding device 20. The encoding device 10 may transmit the encoded video and/or image information or data in a file or streaming format to the decoding device 20 through a digital storage medium or a network.
일 실시예에 따른 부호화 장치(10)는 비디오 소스 생성부(11), 부호화부(12), 전송부(13)를 포함할 수 있다. 일 실시예에 따른 복호화 장치(20)는 수신부(21), 복호화부(22) 및 렌더링부(23)를 포함할 수 있다. 상기 부호화부(12)는 비디오/영상 부호화부라고 불릴 수 있고, 상기 복호화부(22)는 비디오/영상 복호화부라고 불릴 수 있다. 전송부(13)는 부호화부(12)에 포함될 수 있다. 수신부(21)는 복호화부(22)에 포함될 수 있다. 렌더링부(23)는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다. The encoding apparatus 10 according to an embodiment may include a video source generator 11, an encoder 12, and a transmission unit 13. The decoding apparatus 20 according to an embodiment may include a receiving unit 21, a decoding unit 22, and a rendering unit 23. The encoder 12 may be referred to as a video/image encoder, and the decoder 22 may be referred to as a video/image decoder. The transmission unit 13 may be included in the encoding unit 12. The receiving unit 21 may be included in the decoding unit 22. The rendering unit 23 may include a display unit, and the display unit may be configured as a separate device or an external component.
비디오 소스 생성부(11)는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 비디오 소스 생성부(11)는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.The video source generator 11 may acquire a video/image through a process of capturing, synthesizing, or generating a video/image. The video source generator 11 may include a video/image capturing device and/or a video/image generating device. The video/image capture device may include, for example, one or more cameras, a video/image archive including previously captured video/images, and the like. The video/image generating device may include, for example, a computer, a tablet and a smartphone, and may (electronically) generate a video/image. For example, a virtual video/image may be generated through a computer or the like, and in this case, a video/image capturing process may be substituted as a process of generating related data.
부호화부(12)는 입력 비디오/영상을 부호화할 수 있다. 부호화부(12)는 압축 및 부호화 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 부호화부(12)는 부호화된 데이터(부호화된 비디오/영상 정보)를 비트스트림(bitstream) 형태로 출력할 수 있다.The encoder 12 may encode an input video/image. The encoder 12 may perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency. The encoder 12 may output encoded data (coded video/image information) in a bitstream format.
전송부(13)는 비트스트림 형태로 출력된 부호화된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)의 수신부(21)로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부(13)는 미리 정해진 파일 포멧을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘리먼트를 포함할 수 있다. 수신부(21)는 상기 저장매체 또는 네트워크로부터 상기 비트스트림을 추출/수신하여 복호화부(22)로 전달할 수 있다.The transmission unit 13 may transmit the encoded video/image information or data output in the form of a bitstream to the receiving unit 21 of the decoding apparatus 20 through a digital storage medium or a network in a file or streaming form. Digital storage media may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, and SSD. The transmission unit 13 may include an element for generating a media file through a predetermined file format, and may include an element for transmission through a broadcast/communication network. The receiving unit 21 may extract/receive the bitstream from the storage medium or network and transmit it to the decoding unit 22.
복호화부(22)는 부호화부(12)의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 복호화할 수 있다. The decoder 22 may decode the video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoder 12.
렌더링부(23)는 복호화된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다.The rendering unit 23 may render the decoded video/image. The rendered video/image may be displayed through the display unit.
영상 부호화 장치 개요Video encoding device overview
도 2는 본 개시에 따른 실시예가 적용될 수 있는 영상 부호화 장치를 개략적으로 도시한 도면이다.2 is a diagram schematically illustrating an image encoding apparatus to which an embodiment according to the present disclosure can be applied.
도 2에 도시된 바와 같이, 영상 부호화 장치(100)는 영상 분할부(110), 감산부(115), 변환부(120), 양자화부(130), 역양자화부(140), 역변환부(150), 가산부(155), 필터링부(160), 메모리(170), 인터 예측부(180), 인트라 예측부(185) 및 엔트로피 인코딩부(190)를 포함할 수 있다. 인터 예측부(180) 및 인트라 예측부(185)는 합쳐서 "예측부"라고 지칭될 수 있다. 변환부(120), 양자화부(130), 역양자화부(140), 역변환부(150)는 레지듀얼(residual) 처리부에 포함될 수 있다. 레지듀얼 처리부는 감산부(115)를 더 포함할 수도 있다. As shown in FIG. 2, the image encoding apparatus 100 includes an image segmentation unit 110, a subtraction unit 115, a transform unit 120, a quantization unit 130, an inverse quantization unit 140, and an inverse transform unit ( 150), an addition unit 155, a filtering unit 160, a memory 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190. The inter prediction unit 180 and the intra prediction unit 185 may be collectively referred to as a “prediction unit”. The transform unit 120, the quantization unit 130, the inverse quantization unit 140, and the inverse transform unit 150 may be included in a residual processing unit. The residual processing unit may further include a subtraction unit 115.
영상 부호화 장치(100)를 구성하는 복수의 구성부들의 전부 또는 적어도 일부는 실시예에 따라 하나의 하드웨어 컴포넌트(예를 들어, 인코더 또는 프로세서)로 구현될 수 있다. 또한 메모리(170)는 DPB(decoded picture buffer)를 포함할 수 있고, 디지털 저장 매체에 의하여 구현될 수 있다. All or at least some of the plurality of constituent units constituting the image encoding apparatus 100 may be implemented as one hardware component (eg, an encoder or a processor) according to embodiments. In addition, the memory 170 may include a decoded picture buffer (DPB), and may be implemented by a digital storage medium.
영상 분할부(110)는 영상 부호화 장치(100)에 입력된 입력 영상(또는, 픽처, 프레임)을 하나 이상의 처리 유닛(processing unit)으로 분할할 수 있다. 일 예로, 상기 처리 유닛은 코딩 유닛(coding unit, CU)이라고 불릴 수 있다. 코딩 유닛은 코딩 트리 유닛(coding tree unit, CTU) 또는 최대 코딩 유닛(largest coding unit, LCU)을 QT/BT/TT (Quad-tree/binary-tree/ternary-tree) 구조에 따라 재귀적으로(recursively) 분할함으로써 획득될 수 있다. 예를 들어, 하나의 코딩 유닛은 쿼드 트리 구조, 바이너리 트리 구조 및/또는 터너리 트리 구조를 기반으로 하위(deeper) 뎁스의 복수의 코딩 유닛들로 분할될 수 있다. 코딩 유닛의 분할을 위해, 쿼드 트리 구조가 먼저 적용되고 바이너리 트리 구조 및/또는 터너리 트리 구조가 나중에 적용될 수 있다. 더 이상 분할되지 않는 최종 코딩 유닛을 기반으로 본 개시에 따른 코딩 절차가 수행될 수 있다. 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 최대 코딩 유닛을 분할하여 획득한 하위 뎁스의 코딩 유닛이 최종 코닛 유닛으로 사용될 수도 있다. 여기서 코딩 절차라 함은 후술하는 예측, 변환 및/또는 복원 등의 절차를 포함할 수 있다. 다른 예로, 상기 코딩 절차의 처리 유닛은 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)일 수 있다. 상기 예측 유닛 및 상기 변환 유닛은 각각 상기 최종 코딩 유닛으로부터 분할 또는 파티셔닝될 수 있다. 상기 예측 유닛은 샘플 예측의 단위일 수 있고, 상기 변환 유닛은 변환 계수를 유도하는 단위 및/또는 변환 계수로부터 레지듀얼 신호(residual signal)를 유도하는 단위일 수 있다. The image splitter 110 may divide an input image (or picture, frame) input to the image encoding apparatus 100 into one or more processing units. For example, the processing unit may be referred to as a coding unit (CU). The coding unit is a coding tree unit (CTU) or a largest coding unit (LCU) recursively according to a QT/BT/TT (Quad-tree/binary-tree/ternary-tree) structure ( It can be obtained by dividing recursively. For example, one coding unit may be divided into a plurality of coding units of a deeper depth based on a quad tree structure, a binary tree structure, and/or a ternary tree structure. For the division of the coding unit, a quad tree structure may be applied first, and a binary tree structure and/or a ternary tree structure may be applied later. The coding procedure according to the present disclosure may be performed based on the final coding unit that is no longer divided. The largest coding unit may be directly used as the final coding unit, or a coding unit of a lower depth obtained by dividing the largest coding unit may be used as the final cornet unit. Here, the coding procedure may include a procedure such as prediction, transformation, and/or restoration described later. As another example, the processing unit of the coding procedure may be a prediction unit (PU) or a transform unit (TU). Each of the prediction unit and the transform unit may be divided or partitioned from the final coding unit. The prediction unit may be a unit of sample prediction, and the transform unit may be a unit for inducing a transform coefficient and/or a unit for inducing a residual signal from the transform coefficient.
예측부(인터 예측부(180) 또는 인트라 예측부(185))는 처리 대상 블록(현재 블록)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부는 현재 블록 또는 CU 단위로 인트라 예측이 적용되는지 또는 인터 예측이 적용되는지 결정할 수 있다. 예측부는 현재 블록의 예측에 관한 다양한 정보를 생성하여 엔트로피 인코딩부(190)로 전달할 수 있다. 예측에 관한 정보는 엔트로피 인코딩부(190)에서 인코딩되어 비트스트림 형태로 출력될 수 있다. The prediction unit (inter prediction unit 180 or intra prediction unit 185) performs prediction on a block to be processed (current block), and generates a predicted block including prediction samples for the current block. Can be generated. The prediction unit may determine whether intra prediction or inter prediction is applied in units of the current block or CU. The prediction unit may generate various information on prediction of the current block and transmit it to the entropy encoding unit 190. The information on prediction may be encoded by the entropy encoding unit 190 and output in the form of a bitstream.
인트라 예측부(185)는 현재 픽처 내의 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 참조되는 샘플들은 인트라 예측 모드 및/또는 인트라 예측 기법에 따라 상기 현재 블록의 주변(neighbor)에 위치할 수 있고, 또는 떨어져서 위치할 수도 있다. 인트라 예측 모드들은 복수의 비방향성 모드와 복수의 방향성 모드를 포함할 수 있다. 비방향성 모드는 예를 들어 DC 모드 및 플래너 모드(Planar 모드)를 포함할 수 있다. 방향성 모드는 예측 방향의 세밀한 정도에 따라, 예를 들어 33개의 방향성 예측 모드 또는 65개의 방향성 예측 모드를 포함할 수 있다. 다만, 이는 예시로서 설정에 따라 그 이상 또는 그 이하의 개수의 방향성 예측 모드들이 사용될 수 있다. 인트라 예측부(185)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.The intra prediction unit 185 may predict the current block by referring to samples in the current picture. The referenced samples may be located in a neighborhood of the current block or may be located away from each other according to an intra prediction mode and/or an intra prediction technique. The intra prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode and a planar mode (Planar mode). The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes, depending on the degree of detail of the prediction direction. However, this is an example, and more or less directional prediction modes may be used depending on the setting. The intra prediction unit 185 may determine a prediction mode applied to the current block by using the prediction mode applied to the neighboring block.
인터 예측부(180)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록(참조 샘플 어레이)을 기반으로, 현재 블록에 대한 예측된 블록을 유도할 수 있다. 이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 움직임 정보를 블록, 서브블록 또는 샘플 단위로 예측할 수 있다. 상기 움직임 정보는 움직임 벡터 및 참조 픽처 인덱스를 포함할 수 있다. 상기 움직임 정보는 인터 예측 방향(L0 예측, L1 예측, Bi 예측 등) 정보를 더 포함할 수 있다. 인터 예측의 경우, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 상기 참조 블록을 포함하는 참조 픽처와 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일할 수도 있고, 서로 다를 수도 있다. 상기 시간적 주변 블록은 동일 위치 참조 블록(collocated reference block), 동일 위치 CU(colCU) 등의 이름으로 불릴 수 있다. 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일 위치 픽처(collocated picture, colPic)라고 불릴 수 있다. 예를 들어, 인터 예측부(180)는 주변 블록들을 기반으로 움직임 정보 후보 리스트를 구성하고, 상기 현재 블록의 움직임 벡터 및/또는 참조 픽처 인덱스를 도출하기 위하여 어떤 후보가 사용되는지를 지시하는 정보를 생성할 수 있다. 다양한 예측 모드를 기반으로 인터 예측이 수행될 수 있으며, 예를 들어 스킵 모드와 머지 모드의 경우에, 인터 예측부(180)는 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 이용할 수 있다. 스킵 모드의 경우, 머지 모드와 달리 레지듀얼 신호가 전송되지 않을 수 있다. 움직임 정보 예측(motion vector prediction, MVP) 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor)로 이용하고, 움직임 벡터 차분(motion vector difference) 및 움직임 벡터 예측자에 대한 지시자(indicator)를 부호화함으로써 현재 블록의 움직임 벡터를 시그널링할 수 있다. 움직임 벡터 차분은 현재 블록의 움직임 벡터와 움직임 벡터 예측자 간의 차이를 의미할 수 있다.The inter prediction unit 180 may derive a predicted block for the current block based on a reference block (reference sample array) specified by a motion vector on the reference picture. In this case, in order to reduce the amount of motion information transmitted in the inter prediction mode, motion information may be predicted in units of blocks, subblocks, or samples based on a correlation between motion information between a neighboring block and a current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter prediction direction (L0 prediction, L1 prediction, Bi prediction, etc.) information. In the case of inter prediction, the neighboring block may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture. The reference picture including the reference block and the reference picture including the temporal neighboring block may be the same or different from each other. The temporal neighboring block may be referred to as a collocated reference block, a collocated CU (colCU), or the like. A reference picture including the temporal neighboring block may be referred to as a collocated picture (colPic). For example, the inter prediction unit 180 constructs a motion information candidate list based on neighboring blocks, and provides information indicating which candidate is used to derive a motion vector and/or a reference picture index of the current block. Can be generated. Inter prediction may be performed based on various prediction modes. For example, in the case of a skip mode and a merge mode, the inter prediction unit 180 may use motion information of a neighboring block as motion information of a current block. In the case of the skip mode, unlike the merge mode, a residual signal may not be transmitted. In the case of motion vector prediction (MVP) mode, motion vectors of neighboring blocks are used as motion vector predictors, and indicators for motion vector difference and motion vector predictors ( indicator) to signal the motion vector of the current block. The motion vector difference may mean a difference between a motion vector of a current block and a motion vector predictor.
예측부는 후술하는 다양한 예측 방법 및/또는 예측 기법을 기반으로 예측 신호를 생성할 수 있다. 예를 들어, 예측부는 현재 블록의 예측을 위해 인트라 예측 또는 인터 예측을 적용할 수 있을 뿐 아니라, 인트라 예측과 인터 예측을 동시에 적용할 수 있다. 현재 블록의 예측을 위해 인트라 예측과 인터 예측을 동시에 적용하는 예측 방법은 combined inter and intra prediction (CIIP)라고 불릴 수 있다. 또한, 예측부는 현재 블록의 예측을 위해 인트라 블록 카피(intra block copy, IBC)를 수행할 수도 있다. 인트라 블록 카피는 예를 들어 SCC(screen content coding) 등과 같이 게임 등의 컨텐츠 영상/동영상 코딩을 위하여 사용될 수 있다. IBC는 현재 블록으로부터 소정의 거리만큼 떨어진 위치의 현재 픽처 내 기복원된 참조 블록을 이용하여 현재 블록을 예측하는 방법이다. IBC가 적용되는 경우, 현재 픽처 내 참조 블록의 위치는 상기 소정의 거리에 해당하는 벡터(블록 벡터)로서 부호화될 수 있다. The prediction unit may generate a prediction signal based on various prediction methods and/or prediction techniques to be described later. For example, the prediction unit may apply intra prediction or inter prediction for prediction of the current block, and may simultaneously apply intra prediction and inter prediction. A prediction method in which intra prediction and inter prediction are applied simultaneously for prediction of a current block may be called combined inter and intra prediction (CIIP). Also, the prediction unit may perform intra block copy (IBC) for prediction of the current block. The intra block copy may be used for content image/movie coding such as games, such as, for example, screen content coding (SCC). IBC is a method of predicting a current block by using a reference block in a current picture at a distance from the current block by a predetermined distance. When IBC is applied, the position of the reference block in the current picture may be encoded as a vector (block vector) corresponding to the predetermined distance.
예측부를 통해 생성된 예측 신호는 복원 신호를 생성하기 위해 이용되거나 레지듀얼 신호를 생성하기 위해 이용될 수 있다. 감산부(115)는 입력 영상 신호(원본 블록, 원본 샘플 어레이)로부터 예측부에서 출력된 예측 신호(예측된 블록, 예측 샘플 어레이)를 감산하여 레지듀얼 신호(residual signal, 잔여 블록, 잔여 샘플 어레이)를 생성할 수 있다. 생성된 레지듀얼 신호는 변환부(120)로 전송될 수 있다. The prediction signal generated through the prediction unit may be used to generate a reconstructed signal or may be used to generate a residual signal. The subtraction unit 115 subtracts the prediction signal (predicted block, prediction sample array) output from the prediction unit from the input image signal (original block, original sample array), and subtracts a residual signal (remaining block, residual sample array). ) Can be created. The generated residual signal may be transmitted to the converter 120.
변환부(120)는 레지듀얼 신호에 변환 기법을 적용하여 변환 계수들(transform coefficients)을 생성할 수 있다. 예를 들어, 변환 기법은 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT(Karhunen-Loeve Transform), GBT(Graph-Based Transform), 또는 CNT(Conditionally Non-linear Transform) 중 적어도 하나를 포함할 수 있다. 여기서, GBT는 픽셀 간의 관계 정보를 그래프로 표현한다고 할 때 이 그래프로부터 얻어진 변환을 의미한다. CNT는 이전에 복원된 모든 픽셀(all previously reconstructed pixel)을 이용하여 예측 신호를 생성하고 그에 기초하여 획득되는 변환을 의미한다. 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.The transform unit 120 may generate transform coefficients by applying a transform technique to the residual signal. For example, the transformation technique uses at least one of DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), KLT (Karhunen-Loeve Transform), GBT (Graph-Based Transform), or CNT (Conditionally Non-linear Transform). Can include. Here, GBT refers to the transformation obtained from this graph when the relationship information between pixels is expressed in a graph. CNT refers to a transform obtained based on generating a prediction signal using all previously reconstructed pixels. The conversion process may be applied to a block of pixels having the same size of a square, or may be applied to a block of a variable size other than a square.
양자화부(130)는 변환 계수들을 양자화하여 엔트로피 인코딩부(190)로 전송할 수 있다. 엔트로피 인코딩부(190)는 양자화된 신호(양자화된 변환 계수들에 관한 정보)를 인코딩하여 비트스트림으로 출력할 수 있다. 상기 양자화된 변환 계수들에 관한 정보는 레지듀얼 정보라고 불릴 수 있다. 양자화부(130)는 계수 스캔 순서(scan order)를 기반으로 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있고, 상기 1차원 벡터 형태의 양자화된 변환 계수들을 기반으로 상기 양자화된 변환 계수들에 관한 정보를 생성할 수도 있다. The quantization unit 130 may quantize the transform coefficients and transmit the quantization to the entropy encoding unit 190. The entropy encoding unit 190 may encode a quantized signal (information on quantized transform coefficients) and output it as a bitstream. The information on the quantized transform coefficients may be called residual information. The quantization unit 130 may rearrange the quantized transform coefficients in the form of a block into a one-dimensional vector form based on a coefficient scan order, and the quantized transform coefficients in the form of the one-dimensional vector It is also possible to generate information about transform coefficients.
엔트로피 인코딩부(190)는 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 다양한 인코딩 방법을 수행할 수 있다. 엔트로피 인코딩부(190)는 양자화된 변환 계수들 외 비디오/이미지 복원에 필요한 정보들(예컨대 신택스 요소들(syntax elements)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다. 인코딩된 정보(ex. 인코딩된 비디오/영상 정보)는 비트스트림 형태로 NAL(network abstraction layer) 유닛 단위로 전송 또는 저장될 수 있다. 상기 비디오/영상 정보는 어댑테이션 파라미터 세트(APS), 픽처 파라미터 세트(PPS), 시퀀스 파라미터 세트(SPS) 또는 비디오 파라미터 세트(VPS) 등 다양한 파라미터 세트에 관한 정보를 더 포함할 수 있다. 또한 상기 비디오/영상 정보는 일반 제한 정보(general constraint information)를 더 포함할 수 있다. 본 개시에서 언급된 시그널링 정보, 전송되는 정보 및/또는 신택스 요소들은 상술한 인코딩 절차를 통하여 인코딩되어 상기 비트스트림에 포함될 수 있다. The entropy encoding unit 190 may perform various encoding methods such as exponential Golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC). The entropy encoding unit 190 may encode together or separately information necessary for video/image restoration (eg, values of syntax elements) in addition to quantized transform coefficients. The encoded information (eg, encoded video/video information) may be transmitted or stored in a bitstream format in units of network abstraction layer (NAL) units. The video/video information may further include information on various parameter sets, such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/video information may further include general constraint information. The signaling information, transmitted information, and/or syntax elements mentioned in the present disclosure may be encoded through the above-described encoding procedure and included in the bitstream.
상기 비트스트림은 네트워크를 통하여 전송될 수 있고, 또는 디지털 저장매체에 저장될 수 있다. 여기서 네트워크는 방송망 및/또는 통신망 등을 포함할 수 있고, 디지털 저장매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장매체를 포함할 수 있다. 엔트로피 인코딩부(190)로부터 출력된 신호를 전송하는 전송부(미도시) 및/또는 저장하는 저장부(미도시)가 영상 부호화 장치(100)의 내/외부 엘리먼트로서 구비될 수 있고, 또는 전송부는 엔트로피 인코딩부(190)의 구성요소로서 구비될 수도 있다.The bitstream may be transmitted through a network or may be stored in a digital storage medium. Here, the network may include a broadcasting network and/or a communication network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, and SSD. A transmission unit (not shown) for transmitting the signal output from the entropy encoding unit 190 and/or a storage unit (not shown) for storing may be provided as an inner/outer element of the image encoding apparatus 100, or transmission The unit may be provided as a component of the entropy encoding unit 190.
양자화부(130)로부터 출력된 양자화된 변환 계수들은 레지듀얼 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 변환 계수들에 역양자화부(140) 및 역변환부(150)를 통해 역양자화 및 역변환을 적용함으로써 레지듀얼 신호(레지듀얼 블록 or 레지듀얼 샘플들)를 복원할 수 있다. The quantized transform coefficients output from the quantization unit 130 may be used to generate a residual signal. For example, a residual signal (residual block or residual samples) may be restored by applying inverse quantization and inverse transform to the quantized transform coefficients through the inverse quantization unit 140 and the inverse transform unit 150.
가산부(155)는 복원된 레지듀얼 신호를 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호에 더함으로써 복원(reconstructed) 신호(복원 픽처, 복원 블록, 복원 샘플 어레이)를 생성할 수 있다. 스킵 모드가 적용된 경우와 같이 처리 대상 블록에 대한 레지듀얼이 없는 경우, 예측된 블록이 복원 블록으로 사용될 수 있다. 가산부(155)는 복원부 또는 복원 블록 생성부라고 불릴 수 있다. 생성된 복원 신호는 현재 픽처 내 다음 처리 대상 블록의 인트라 예측을 위하여 사용될 수 있고, 후술하는 바와 같이 필터링을 거쳐서 다음 픽처의 인터 예측을 위하여 사용될 수도 있다. The addition unit 155 adds the reconstructed residual signal to the prediction signal output from the inter prediction unit 180 or the intra prediction unit 185 to obtain a reconstructed signal (a reconstructed picture, a reconstructed block, and a reconstructed sample array). Can be generated. When there is no residual for a block to be processed, such as when the skip mode is applied, the predicted block may be used as a reconstructed block. The addition unit 155 may be referred to as a restoration unit or a restoration block generation unit. The generated reconstructed signal may be used for intra prediction of the next processing target block in the current picture, and may be used for inter prediction of the next picture through filtering as described later.
한편, 후술하는 바와 같이 픽처 인코딩 과정에서 LMCS (luma mapping with chroma scaling)가 적용될 수도 있다.Meanwhile, luma mapping with chroma scaling (LMCS) may be applied in the picture encoding process as described later.
필터링부(160)는 복원 신호에 필터링을 적용하여 주관적/객관적 화질을 향상시킬 수 있다. 예를 들어 필터링부(160)는 복원 픽처에 다양한 필터링 방법을 적용하여 수정된(modified) 복원 픽처를 생성할 수 있고, 상기 수정된 복원 픽처를 메모리(170), 구체적으로 메모리(170)의 DPB에 저장할 수 있다. 상기 다양한 필터링 방법은 예를 들어, 디블록킹 필터링, 샘플 적응적 오프셋(sample adaptive offset), 적응적 루프 필터(adaptive loop filter), 양방향 필터(bilateral filter) 등을 포함할 수 있다. 필터링부(160)는 각 필터링 방법에 대한 설명에서 후술하는 바와 같이 필터링에 관한 다양한 정보를 생성하여 엔트로피 인코딩부(190)로 전달할 수 있다. 필터링에 관한 정보는 엔트로피 인코딩부(190)에서 인코딩되어 비트스트림 형태로 출력될 수 있다. The filtering unit 160 may apply filtering to the reconstructed signal to improve subjective/objective image quality. For example, the filtering unit 160 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and the modified reconstructed picture may be converted to the memory 170, specifically, the DPB of the memory 170. Can be saved on. The various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like. The filtering unit 160 may generate a variety of filtering information and transmit it to the entropy encoding unit 190 as described later in the description of each filtering method. The filtering information may be encoded by the entropy encoding unit 190 and output in the form of a bitstream.
메모리(170)에 전송된 수정된 복원 픽처는 인터 예측부(180)에서 참조 픽처로 사용될 수 있다. 영상 부호화 장치(100)는 이를 통하여 인터 예측이 적용되는 경우, 영상 부호화 장치(100)와 영상 복호화 장치에서의 예측 미스매치를 피할 수 있고, 부호화 효율도 향상시킬 수 있다. The modified reconstructed picture transmitted to the memory 170 may be used as a reference picture in the inter prediction unit 180. When inter prediction is applied through this, the image encoding apparatus 100 may avoid prediction mismatch between the image encoding apparatus 100 and the image decoding apparatus, and may improve encoding efficiency.
메모리(170) 내 DPB는 인터 예측부(180)에서의 참조 픽처로 사용하기 위해 수정된 복원 픽처를 저장할 수 있다. 메모리(170)는 현재 픽처 내 움직임 정보가 도출된(또는 인코딩된) 블록의 움직임 정보 및/또는 이미 복원된 픽처 내 블록들의 움직임 정보를 저장할 수 있다. 상기 저장된 움직임 정보는 공간적 주변 블록의 움직임 정보 또는 시간적 주변 블록의 움직임 정보로 활용하기 위하여 인터 예측부(180)에 전달될 수 있다. 메모리(170)는 현재 픽처 내 복원된 블록들의 복원 샘플들을 저장할 수 있고, 인트라 예측부(185)에 전달할 수 있다.The DPB in the memory 170 may store a reconstructed picture modified to be used as a reference picture in the inter prediction unit 180. The memory 170 may store motion information of a block from which motion information in a current picture is derived (or encoded) and/or motion information of blocks in a picture that have already been reconstructed. The stored motion information may be transmitted to the inter prediction unit 180 to be used as motion information of spatial neighboring blocks or motion information of temporal neighboring blocks. The memory 170 may store reconstructed samples of reconstructed blocks in the current picture, and may transmit the reconstructed samples to the intra prediction unit 185.
영상 복호화 장치 개요Overview of video decoding device
도 3은 본 개시에 따른 실시예가 적용될 수 있는 영상 복호화 장치를 개략적으로 도시한 도면이다.3 is a diagram schematically illustrating an image decoding apparatus to which an embodiment according to the present disclosure can be applied.
도 3에 도시된 바와 같이, 영상 복호화 장치(200)는 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(230), 가산부(235), 필터링부(240), 메모리(250), 인터 예측부(260) 및 인트라 예측부(265)를 포함하여 구성될 수 있다. 인터 예측부(260) 및 인트라 예측부(265)를 합쳐서 “예측부”라고 지칭될 수 있다. 역양자화부(220), 역변환부(230)는 레지듀얼 처리부에 포함될 수 있다. As shown in FIG. 3, the image decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an addition unit 235, a filtering unit 240, and a memory 250. ), an inter prediction unit 260 and an intra prediction unit 265 may be included. The inter prediction unit 260 and the intra prediction unit 265 may be collectively referred to as a “prediction unit”. The inverse quantization unit 220 and the inverse transform unit 230 may be included in the residual processing unit.
영상 복호화 장치(200)를 구성하는 복수의 구성부들의 전부 또는 적어도 일부는 실시예에 따라 하나의 하드웨어 컴포넌트(예를 들어 디코더 또는 프로세서)로 구현될 수 있다. 또한 메모리(170)는 DPB를 포함할 수 있고, 디지털 저장 매체에 의하여 구현될 수 있다. All or at least some of the plurality of constituent units constituting the image decoding apparatus 200 may be implemented as one hardware component (eg, a decoder or a processor) according to embodiments. Also, the memory 170 may include a DPB and may be implemented by a digital storage medium.
비디오/영상 정보를 포함하는 비트스트림을 수신한 영상 복호화 장치(200)는 도 1의 영상 부호화 장치(100)에서 수행된 프로세스에 대응하는 프로세스를 수행하여 영상을 복원할 수 있다. 예를 들어, 영상 복호화 장치(200)는 영상 부호화 장치에서 적용된 처리 유닛을 이용하여 디코딩을 수행할 수 있다. 따라서 디코딩의 처리 유닛은 예를 들어 코딩 유닛일 수 있다. 코딩 유닛은 코딩 트리 유닛이거나 또는 최대 코딩 유닛을 분할하여 획득될 수 있다. 그리고, 영상 복호화 장치(200)를 통해 디코딩 및 출력된 복원 영상 신호는 재생 장치(미도시)를 통해 재생될 수 있다.The image decoding apparatus 200 receiving a bitstream including video/image information may reconstruct an image by performing a process corresponding to the process performed by the image encoding apparatus 100 of FIG. 1. For example, the image decoding apparatus 200 may perform decoding using a processing unit applied in the image encoding apparatus. Thus, the processing unit of decoding may be, for example, a coding unit. The coding unit may be a coding tree unit or may be obtained by dividing the largest coding unit. In addition, the reconstructed image signal decoded and output through the image decoding apparatus 200 may be reproduced through a reproduction device (not shown).
영상 복호화 장치(200)는 도 1의 영상 부호화 장치로부터 출력된 신호를 비트스트림 형태로 수신할 수 있다. 수신된 신호는 엔트로피 디코딩부(210)를 통해 디코딩될 수 있다. 예를 들어, 엔트로피 디코딩부(210)는 상기 비트스트림을 파싱하여 영상 복원(또는 픽처 복원)에 필요한 정보(예컨대, 비디오/영상 정보)를 도출할 수 있다. 상기 비디오/영상 정보는 어댑테이션 파라미터 세트(APS), 픽처 파라미터 세트(PPS), 시퀀스 파라미터 세트(SPS) 또는 비디오 파라미터 세트(VPS) 등 다양한 파라미터 세트에 관한 정보를 더 포함할 수 있다. 또한 상기 비디오/영상 정보는 일반 제한 정보(general constraint information)를 더 포함할 수 있다. 영상 복호화 장치는 영상을 디코딩하기 위해 상기 파라미터 세트에 관한 정보 및/또는 상기 일반 제한 정보를 추가적으로 이용할 수 있다. 본 개시에서 언급된 시그널링 정보, 수신되는 정보 및/또는 신택스 요소들은 상기 디코딩 절차를 통하여 디코딩됨으로써 상기 비트스트림으로부터 획득될 수 있다. 예컨대, 엔트로피 디코딩부(210)는 지수 골롬 부호화, CAVLC 또는 CABAC 등의 코딩 방법을 기초로 비트스트림 내 정보를 디코딩하고, 영상 복원에 필요한 신택스 엘리먼트의 값, 레지듀얼에 관한 변환 계수의 양자화된 값들을 출력할 수 있다. 보다 상세하게, CABAC 엔트로피 디코딩 방법은, 비트스트림에서 각 구문 요소에 해당하는 빈을 수신하고, 디코딩 대상 구문 요소 정보와 주변 블록 및 디코딩 대상 블록의 디코딩 정보 혹은 이전 단계에서 디코딩된 심볼/빈의 정보를 이용하여 문맥(context) 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 디코딩(arithmetic decoding)을 수행하여 각 구문 요소의 값에 해당하는 심볼을 생성할 수 있다. 이때, CABAC 엔트로피 디코딩 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 디코딩된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다. 엔트로피 디코딩부(210)에서 디코딩된 정보 중 예측에 관한 정보는 예측부(인터 예측부(260) 및 인트라 예측부(265))로 제공되고, 엔트로피 디코딩부(210)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수들 및 관련 파라미터 정보는 역양자화부(220)로 입력될 수 있다. 또한, 엔트로피 디코딩부(210)에서 디코딩된 정보 중 필터링에 관한 정보는 필터링부(240)로 제공될 수 있다. 한편, 영상 부호화 장치로부터 출력된 신호를 수신하는 수신부(미도시)가 영상 복호화 장치(200)의 내/외부 엘리먼트로서 추가적으로 구비될 수 있고, 또는 수신부는 엔트로피 디코딩부(210)의 구성요소로서 구비될 수도 있다. The image decoding apparatus 200 may receive a signal output from the image encoding apparatus of FIG. 1 in the form of a bitstream. The received signal may be decoded through the entropy decoding unit 210. For example, the entropy decoding unit 210 may parse the bitstream to derive information (eg, video/video information) necessary for image restoration (or picture restoration). The video/video information may further include information on various parameter sets, such as an adaptation parameter set (APS), a picture parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/video information may further include general constraint information. The image decoding apparatus may additionally use information on the parameter set and/or the general restriction information to decode an image. The signaling information, received information, and/or syntax elements mentioned in the present disclosure may be obtained from the bitstream by being decoded through the decoding procedure. For example, the entropy decoding unit 210 decodes information in the bitstream based on a coding method such as exponential Golomb coding, CAVLC, or CABAC, and a value of a syntax element required for image restoration, a quantized value of a transform coefficient related to a residual. Can be printed. In more detail, the CABAC entropy decoding method receives a bin corresponding to each syntax element in a bitstream, and includes information on the syntax element to be decoded, decoding information of the neighboring block and the block to be decoded, or information of the symbol/bin decoded in the previous step. The context model is determined by using and, according to the determined context model, the probability of occurrence of bins is predicted to perform arithmetic decoding of the bins to generate a symbol corresponding to the value of each syntax element. I can. In this case, the CABAC entropy decoding method may update the context model using information of the decoded symbol/bin for the context model of the next symbol/bin after the context model is determined. Among the information decoded by the entropy decoding unit 210, information on prediction is provided to the prediction unit (inter prediction unit 260 and intra prediction unit 265), and the register on which entropy decoding is performed by the entropy decoding unit 210 Dual values, that is, quantized transform coefficients and related parameter information may be input to the inverse quantization unit 220. In addition, information about filtering among information decoded by the entropy decoding unit 210 may be provided to the filtering unit 240. Meanwhile, a receiving unit (not shown) for receiving a signal output from the image encoding device may be additionally provided as an inner/outer element of the image decoding device 200, or the receiving unit is provided as a component of the entropy decoding unit 210 It could be.
한편, 본 개시에 따른 영상 복호화 장치는 비디오/영상/픽처 복호화 장치라고 불릴 수 있다. 상기 영상 복호화 장치는 정보 디코더(비디오/영상/픽처 정보 디코더) 및/또는 샘플 디코더(비디오/영상/픽처 샘플 디코더)를 포함할 수도 있다. 상기 정보 디코더는 엔트로피 디코딩부(210)를 포함할 수 있고, 상기 샘플 디코더는 역양자화부(220), 역변환부(230), 가산부(235), 필터링부(240), 메모리(250), 인터 예측부(260) 및 인트라 예측부(265) 중 적어도 하나를 포함할 수 있다.Meanwhile, the video decoding apparatus according to the present disclosure may be referred to as a video/video/picture decoding apparatus. The video decoding apparatus may include an information decoder (video/video/picture information decoder) and/or a sample decoder (video/video/picture sample decoder). The information decoder may include an entropy decoding unit 210, and the sample decoder includes an inverse quantization unit 220, an inverse transform unit 230, an addition unit 235, a filtering unit 240, a memory 250, It may include at least one of the inter prediction unit 260 and the intra prediction unit 265.
역양자화부(220)에서는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 출력할 수 있다. 역양자화부(220)는 양자화된 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 이 경우 상기 재정렬은 영상 부호화 장치에서 수행된 계수 스캔 순서에 기반하여 수행될 수 있다. 역양자화부(220)는 양자화 파라미터(예를 들어 양자화 스텝 사이즈 정보)를 이용하여 양자화된 변환 계수들에 대한 역양자화를 수행하고, 변환 계수들(transform coefficient)을 획득할 수 있다. The inverse quantization unit 220 may inverse quantize the quantized transform coefficients and output transform coefficients. The inverse quantization unit 220 may rearrange the quantized transform coefficients into a two-dimensional block shape. In this case, the rearrangement may be performed based on a coefficient scan order performed by the image encoding apparatus. The inverse quantization unit 220 may perform inverse quantization on quantized transform coefficients by using a quantization parameter (eg, quantization step size information) and obtain transform coefficients.
역변환부(230)에서는 변환 계수들을 역변환하여 레지듀얼 신호(레지듀얼 블록, 레지듀얼 샘플 어레이)를 획득할 수 있다. The inverse transform unit 230 may inverse transform the transform coefficients to obtain a residual signal (residual block, residual sample array).
예측부는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부는 엔트로피 디코딩부(210)로부터 출력된 상기 예측에 관한 정보를 기반으로 상기 현재 블록에 인트라 예측이 적용되는지 또는 인터 예측이 적용되는지 결정할 수 있고, 구체적인 인트라/인터 예측 모드(예측 기법)를 결정할 수 있다. The prediction unit may perform prediction on the current block and generate a predicted block including prediction samples for the current block. The prediction unit may determine whether intra prediction or inter prediction is applied to the current block based on the prediction information output from the entropy decoding unit 210, and determine a specific intra/inter prediction mode (prediction technique). I can.
예측부가 후술하는 다양한 예측 방법(기법)을 기반으로 예측 신호를 생성할 수 있음은 영상 부호화 장치(100)의 예측부에 대한 설명에서 언급된 바와 동일하다. It is the same as described in the description of the prediction unit of the video encoding apparatus 100 that the prediction unit can generate the prediction signal based on various prediction methods (techniques) described later.
인트라 예측부(265)는 현재 픽처 내의 샘플들을 참조하여 현재 블록을 예측할 수 있다. 인트라 예측부(185)에 대한 설명은 인트라 예측부(265)에 대해서도 동일하게 적용될 수 있다.The intra prediction unit 265 may predict the current block by referring to samples in the current picture. The description of the intra prediction unit 185 may be equally applied to the intra prediction unit 265.
인터 예측부(260)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록(참조 샘플 어레이)을 기반으로, 현재 블록에 대한 예측된 블록을 유도할 수 있다. 이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 움직임 정보를 블록, 서브블록 또는 샘플 단위로 예측할 수 있다. 상기 움직임 정보는 움직임 벡터 및 참조 픽처 인덱스를 포함할 수 있다. 상기 움직임 정보는 인터 예측 방향(L0 예측, L1 예측, Bi 예측 등) 정보를 더 포함할 수 있다. 인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 예를 들어, 인터 예측부(260)는 주변 블록들을 기반으로 움직임 정보 후보 리스트를 구성하고, 수신한 후보 선택 정보를 기반으로 상기 현재 블록의 움직임 벡터 및/또는 참조 픽처 인덱스를 도출할 수 있다. 다양한 예측 모드(기법)를 기반으로 인터 예측이 수행될 수 있으며, 상기 예측에 관한 정보는 상기 현재 블록에 대한 인터 예측의 모드(기법)를 지시하는 정보를 포함할 수 있다. The inter prediction unit 260 may derive a predicted block for the current block based on a reference block (reference sample array) specified by a motion vector on the reference picture. In this case, in order to reduce the amount of motion information transmitted in the inter prediction mode, motion information may be predicted in units of blocks, subblocks, or samples based on a correlation between motion information between a neighboring block and a current block. The motion information may include a motion vector and a reference picture index. The motion information may further include inter prediction direction (L0 prediction, L1 prediction, Bi prediction, etc.) information. In the case of inter prediction, the neighboring block may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture. For example, the inter prediction unit 260 may construct a motion information candidate list based on neighboring blocks, and derive a motion vector and/or a reference picture index of the current block based on the received candidate selection information. Inter prediction may be performed based on various prediction modes (techniques), and the information about the prediction may include information indicating a mode (technique) of inter prediction for the current block.
가산부(235)는 획득된 레지듀얼 신호를 예측부(인터 예측부(260) 및/또는 인트라 예측부(265) 포함)로부터 출력된 예측 신호(예측된 블록, 예측 샘플 어레이)에 더함으로써 복원 신호(복원 픽처, 복원 블록, 복원 샘플 어레이)를 생성할 수 있다. 가산부(155)에 대한 설명은 가산부(235)에 대해서도 동일하게 적용될 수 있다.The addition unit 235 is reconstructed by adding the obtained residual signal to the prediction signal (predicted block, prediction sample array) output from the prediction unit (including the inter prediction unit 260 and/or the intra prediction unit 265). Signals (restored pictures, reconstructed blocks, reconstructed sample arrays) can be generated. The description of the addition unit 155 may be equally applied to the addition unit 235.
한편, 후술하는 바와 같이 픽처 디코딩 과정에서 LMCS (luma mapping with chroma scaling)가 적용될 수도 있다.Meanwhile, luma mapping with chroma scaling (LMCS) may be applied in the picture decoding process as described later.
필터링부(240)는 복원 신호에 필터링을 적용하여 주관적/객관적 화질을 향상시킬 수 있다. 예를 들어 필터링부(240)는 복원 픽처에 다양한 필터링 방법을 적용하여 수정된(modified) 복원 픽처를 생성할 수 있고, 상기 수정된 복원 픽처를 메모리(250), 구체적으로 메모리(250)의 DPB에 저장할 수 있다. 상기 다양한 필터링 방법은 예를 들어, 디블록킹 필터링, 샘플 적응적 오프셋(sample adaptive offset), 적응적 루프 필터(adaptive loop filter), 양방향 필터(bilateral filter) 등을 포함할 수 있다. The filtering unit 240 may apply filtering to the reconstructed signal to improve subjective/objective image quality. For example, the filtering unit 240 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and the modified reconstructed picture may be converted to the memory 250, specifically the DPB of the memory 250. Can be saved on. The various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like.
메모리(250)의 DPB에 저장된 (수정된) 복원 픽처는 인터 예측부(260)에서 참조 픽처로 사용될 수 있다. 메모리(250)는 현재 픽처 내 움직임 정보가 도출된(또는 디코딩된) 블록의 움직임 정보 및/또는 이미 복원된 픽처 내 블록들의 움직임 정보를 저장할 수 있다. 상기 저장된 움직임 정보는 공간적 주변 블록의 움직임 정보 또는 시간적 주변 블록의 움직임 정보로 활용하기 위하여 인터 예측부(260)에 전달할 수 있다. 메모리(250)는 현재 픽처 내 복원된 블록들의 복원 샘플들을 저장할 수 있고, 인트라 예측부(265)에 전달할 수 있다.The (modified) reconstructed picture stored in the DPB of the memory 250 may be used as a reference picture in the inter prediction unit 260. The memory 250 may store motion information of a block from which motion information in a current picture is derived (or decoded) and/or motion information of blocks in a picture that have already been reconstructed. The stored motion information may be transmitted to the inter prediction unit 260 to be used as motion information of a spatial neighboring block or motion information of a temporal neighboring block. The memory 250 may store reconstructed samples of reconstructed blocks in the current picture, and may be transmitted to the intra prediction unit 265.
본 명세서에서, 인코딩 장치(100)의 필터링부(160), 인터 예측부(180) 및 인트라 예측부(185)에서 설명된 실시예들은 각각 영상 복호화 장치(200)의 필터링부(240), 인터 예측부(260) 및 인트라 예측부(265)에도 동일 또는 대응되도록 적용될 수 있다.In this specification, the embodiments described in the filtering unit 160, the inter prediction unit 180, and the intra prediction unit 185 of the encoding apparatus 100 are, respectively, the filtering unit 240 and the inter prediction unit of the image decoding apparatus 200. The same or corresponding to the prediction unit 260 and the intra prediction unit 265 may be applied.
인터 예측 개요Inter prediction overview
도 4는 인터 예측을 수행하여 현재 블록의 예측 블록(예측된 블록)을 생성하는 과정을 도시한 흐름도이다.4 is a flowchart illustrating a process of generating a prediction block (predicted block) of a current block by performing inter prediction.
도 4에 도시된 과정은 도 2의 인터 예측부(180) 및/또는 도 3의 인터 예측부(260)에서 수행될 수 있다.The process illustrated in FIG. 4 may be performed by the inter prediction unit 180 of FIG. 2 and/or the inter prediction unit 260 of FIG. 3.
영상 부호화/복호화 장치는 블록 단위로 인터 예측을 수행하여 예측 샘플을 도출할 수 있다. 인터 예측은 현재 픽처 이외의 픽처(들)의 데이터 요소들에 의존적인 방법으로 도출되는 예측 기법을 의미할 수 있다. 현재 블록에 대해 인터 예측이 적용되는 경우, 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록을 기반으로, 현재 블록에 대한 예측 블록이 유도될 수 있다.The apparatus for encoding/decoding an image may derive a prediction sample by performing inter prediction in block units. Inter prediction may mean a prediction technique derived by a method dependent on data elements of picture(s) other than the current picture. When inter prediction is applied to the current block, a prediction block for the current block may be derived based on a reference block specified by a motion vector on a reference picture.
이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해, 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 현재 블록의 움직임 정보가 유도될 수 있으며, 블록, 서브 블록 또는 샘플 단위로 움직임 정보가 유도될 수 있다. 이때, 움직임 정보는 움직임 벡터 및 참조 픽처 인덱스를 포함할 수 있다. 움직임 정보는 인터 예측 타입 정보를 더 포함할 수 있다. 여기서 인터 예측 타입 정보는 인터 예측의 방향성 정보를 의미할 수 있다. 인터 예측 타입 정보는 현재 블록이 L0 예측, L1 예측, Bi 예측 중 하나를 이용하여 예측됨을 지시할 수 있다.At this time, in order to reduce the amount of motion information transmitted in the inter prediction mode, motion information of the current block may be derived based on the correlation of motion information between the neighboring block and the current block, and motion information in units of blocks, sub-blocks, or samples. Can be induced. In this case, the motion information may include a motion vector and a reference picture index. The motion information may further include inter prediction type information. Here, the inter prediction type information may mean directional information of inter prediction. The inter prediction type information may indicate that the current block is predicted using one of L0 prediction, L1 prediction, and Bi prediction.
현재 블록에 대해 인터 예측이 적용되는 경우, 현재 블록의 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighbouring block)과 참조 픽처에 존재하는 시간적 주변 블록(temporal neighbouring block)을 포함할 수 있다. 이때, 현재 블록에 대한 참조 블록을 포함하는 참조 픽처와 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일할 수도 있고, 다를 수도 있다. 시간적 주변 블록은 동일 위치 참조 블록(collocated reference block), 동일 위치 부호화 유닛(colCU) 등으로 지칭될 수 있으며, 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일 위치 픽처(collocated picture, colPic)로 지칭될 수 있다.When inter prediction is applied to the current block, the neighboring blocks of the current block may include a spatial neighboring block existing in the current picture and a temporal neighboring block existing in the reference picture. In this case, the reference picture including the reference block for the current block and the reference picture including the temporal neighboring block may be the same or different. The temporal neighboring block may be referred to as a collocated reference block, a co-located coding unit (colCU), and the like, and a reference picture including the temporal neighboring block may be referred to as a collocated picture (colPic). I can.
한편, 현재 블록의 주변 블록들을 기반으로 움직임 정보 후보 리스트가 구성될 수 있고, 이때, 현재 블록의 움직임 벡터 및/또는 참조 픽처 인덱스를 도출하기 위하여 어떤 후보가 사용되는지를 지시하는 플래그 또는 인덱스 정보가 시그널링될 수 있다. Meanwhile, a motion information candidate list may be configured based on neighboring blocks of the current block. In this case, a flag or index information indicating which candidate is used to derive a motion vector and/or a reference picture index of the current block is provided. Can be signaled.
움직임 정보는 인터 예측 타입에 따라 L0 움직임 정보 및/또는 L1 움직임 정보를 포함할 수 있다. L0 방향의 움직임 벡터는 L0 움직임 벡터 또는 MVL0라고 정의될 수 있고, L1 방향의 움직임 벡터는 L1 움직임 벡터 또는 MVL1이라고 정의될 수 있다. L0 움직임 벡터에 기반한 예측은 L0 예측이라고 정의될 수 있고, L1 움직임 벡터에 기반한 예측을 L1 예측이라고 정의될 수 있고, 상기 L0 움직임 벡터 및 상기 L1 움직임 벡터 둘 다에 기반한 예측을 쌍(Bi) 예측이라고 정의될 수 있다. 여기서 L0 움직임 벡터는 참조 픽처 리스트 L0에 연관된 움직임 벡터를 의미할 수 있고, L1 움직임 벡터는 참조 픽처 리스트 L1에 연관된 움직임 벡터를 의미할 수 있다.The motion information may include L0 motion information and/or L1 motion information according to the inter prediction type. The motion vector in the L0 direction may be defined as an L0 motion vector or MVL0, and the motion vector in the L1 direction may be defined as an L1 motion vector or MVL1. The prediction based on the L0 motion vector may be defined as L0 prediction, the prediction based on the L1 motion vector may be defined as L1 prediction, and the prediction based on both the L0 motion vector and the L1 motion vector is paired (Bi) prediction. Can be defined as Here, the motion vector L0 may mean a motion vector associated with the reference picture list L0, and the motion vector L1 may mean a motion vector associated with the reference picture list L1.
참조 픽처 리스트 L0는 상기 현재 픽처보다 출력 순서상 이전 픽처들을 참조 픽처들로 포함할 수 있고, 참조 픽처 리스트 L1은 상기 현재 픽처보다 출력 순서상 이후 픽처들을 포함할 수 있다. 이때, 이전 픽처들은 순방향 (참조) 픽처라 정의할 수 있고, 상기 이후 픽처들은 역방향 (참조) 픽처라 정의할 수 있다. 한편, 참조 픽처 리스트 L0은 현재 픽처보다 출력 순서상 이후 픽처들을 더 포함할 수 있다. 이 경우 참조 픽처 리스트 L0 내에서 이전 픽처들이 먼저 인덱싱되고 이후 픽처들은 그 다음에 인덱싱될 수 있다. 참조 픽처 리스트 L1은 현재 픽처보다 출력 순서상 이전 픽처들을 더 포함할 수 있다. 이 경우 참조 픽처 리스트 L1 내에서 이후 픽처들이 먼저 인덱싱되고 이전 픽처들은 그 다음에 인덱싱 될 수 있다. 여기서 출력 순서는 POC(picture order count) 순서(order)에 대응될 수 있다.The reference picture list L0 may include pictures prior to the current picture in output order as reference pictures, and the reference picture list L1 may include pictures after the current picture in output order. In this case, previous pictures may be defined as forward (reference) pictures, and subsequent pictures may be defined as backward (reference) pictures. Meanwhile, the reference picture list L0 may further include pictures after the output order than the current picture. In this case, previous pictures in the reference picture list L0 may be indexed first, and pictures afterwards may be indexed next. The reference picture list L1 may further include previous pictures in output order than the current picture. In this case, in the reference picture list L1, subsequent pictures may be indexed first, and previous pictures may be indexed next. Here, the output order may correspond to a picture order count (POC) order.
영상 부호화 장치에 있어서, 현재 블록에 대해 도 4의 인터 예측을 수행할지의 판단은 RDO(rate-distortion optimization) 기반으로 수행될 수 있다. 예컨대, 인트라 예측보다 인터 예측이 효율적일 때, 현재 블록에 대한 예측 모드는 인터 예측 모드로 결정될 수 있다. 그러나, 영상 부호화 장치에 있어서, 현재 블록에 대한 예측 모드를 결정하는 방법은 상기 예로 한정되지 않는다.In the video encoding apparatus, the determination of whether to perform inter prediction of FIG. 4 on the current block may be performed based on rate-distortion optimization (RDO). For example, when inter prediction is more efficient than intra prediction, the prediction mode for the current block may be determined as the inter prediction mode. However, in the video encoding apparatus, a method of determining a prediction mode for a current block is not limited to the above example.
영상 복호화 장치에 있어서, 현재 블록에 대해 도 4의 인터 예측을 수행할지의 판단은 현재 블록의 예측 모드에 관한 정보에 기초하여 수행될 수 있다. 현재 블록의 예측 모드에 관한 정보는 현재 블록의 예측 모드가 인터 예측 모드인지 인트라 예측 모드인지를 나타내는 정보일 수 있다. 현재 블록의 예측 모드에 관한 정보는 비트스트림을 통해 명시적으로 시그널링될 수도 있고, 현재 블록에 관한 부호화 파라미터에 기초하여 암묵적으로 유도될 수도 있다.In the image decoding apparatus, determination of whether to perform inter prediction of FIG. 4 on the current block may be performed based on information on the prediction mode of the current block. The information on the prediction mode of the current block may be information indicating whether the prediction mode of the current block is an inter prediction mode or an intra prediction mode. Information about the prediction mode of the current block may be explicitly signaled through a bitstream, or may be implicitly derived based on an encoding parameter about the current block.
도 4를 참조하면, 본 개시의 일 실시예에 따른 영상 부호화/복호화 방법은 인터 예측 기법을 결정하는 단계(S410), 결정된 인터 예측 기법을 기반으로 현재 블록에 대한 움직임 정보를 유도하는 단계(S420) 및/또는 유도된 움직임 정보를 이용하여 인터 예측을 수행하는 단계(S430)를 포함할 수 있다.Referring to FIG. 4, in an image encoding/decoding method according to an embodiment of the present disclosure, determining an inter prediction technique (S410), and deriving motion information for a current block based on the determined inter prediction technique (S420). ) And/or performing inter prediction using the derived motion information (S430).
현재 블록에 대해 인터 예측이 수행되는 것으로 결정되는 경우, 영상 부호화/복호화 장치는 인터 예측에 활용될 수 있는 적어도 하나 이상의 인터 예측 기법을 결정할 수 있다. 이하의 명세서에서, 인터 예측을 수행하기 위해 활용될 수 있는 예측 기법을 인터 예측 기법이라 정의한다. 예컨대, 인터 예측 기법은 현재 블록에 대한 움직임 정보를 유도하는데 사용되는 부호화/복호화 방법 및/또는 예측 샘플을 유도하는데 사용되는 부호화/복호화 방법 중 하나를 의미할 수 있다.When it is determined that inter prediction is to be performed on the current block, the apparatus for encoding/decoding an image may determine at least one inter prediction technique that can be used for inter prediction. In the following specification, a prediction technique that can be used to perform inter prediction is defined as an inter prediction technique. For example, the inter prediction technique may mean one of an encoding/decoding method used to derive motion information for a current block and/or an encoding/decoding method used to derive a prediction sample.
즉, 결정되는 인터 예측 기법에 기초하여, 도 4의 단계 S420 및 단계 S430 중 적어도 하나가 수행될 수 있다.That is, based on the determined inter prediction technique, at least one of steps S420 and S430 of FIG. 4 may be performed.
단계 S410에서, 현재 블록의 인터 예측 기법이 결정될 수 있다. 예컨대 현재 블록에 대한 인터 예측 기법은 머지 모드(merge mode) 머지 스킵 모드(skip mode), AMVP 모드(Advanced Motion Vector Prediction mode), 어파인 모드(affine mode), 서브 블록 기반 머지 모드(Subblock-based merge mode), AMVR 모드(Adaptive Motion Vector Resolution mode), HMVP 모드(History-based Motion Vector Predictor mode), 쌍예측 머지 모드(Pair-wise average merge mode), MMVD 모드(Merge mode with Motion Vector Differences mode), DMVR 모드(Decoder side Motion Vector Refinement mode), CIIP 모드(Combined Inter and Intra Prediction mode) 및 GPM(Geometric Partitioning mode) 중 적어도 하나로 결정될 수 있다. 단계 S420에서는, 단계 S410에서 결정된 적어도 하나의 인터 예측 기법을 바탕으로 현재 블록에 대한 움직임 정보가 유도될 수 있다.In step S410, an inter prediction technique of the current block may be determined. For example, the inter prediction technique for the current block is a merge mode, merge skip mode, AMVP mode (Advanced Motion Vector Prediction mode), affine mode, and subblock-based merge mode. merge mode), AMVR mode (Adaptive Motion Vector Resolution mode), HMVP mode (History-based Motion Vector Predictor mode), Pair-wise average merge mode, MMVD mode (Merge mode with Motion Vector Differences mode) , DMVR mode (Decoder side Motion Vector Refinement mode), CIIP mode (Combined Inter and Intra Prediction mode), and GPM (Geometric Partitioning mode) may be determined at least one of. In step S420, motion information on the current block may be derived based on at least one inter prediction technique determined in step S410.
일 예로, 현재 블록의 인터 예측 기법이 머지 모드로 결정되는 경우, 현재 블록의 움직임 정보는 직접적으로 시그널링되지 않고, 주변 블록의 움직임 정보를 이용하여 유도될 수 있다. 영상 부호화 장치는 머지 모드를 이용하였음을 알려주는 플래그 정보 및 주변의 어떤 예측 블록을 이용하였는지를 알려주는 머지 인덱스를 시그널링할 수 있다. 한편, 영상 복호화 장치는 시그널링되는 플래그 정보 및 머지 인덱스를 이용하여 현재 블록의 움직임 정보를 유도할 수 있다.For example, when the inter prediction scheme of the current block is determined as the merge mode, motion information of the current block is not signaled directly, but may be derived using motion information of neighboring blocks. The video encoding apparatus may signal flag information indicating that a merge mode has been used and a merge index indicating which prediction blocks are used. Meanwhile, the video decoding apparatus may derive motion information of the current block using signaled flag information and merge index.
영상 부호화 장치는 머지 모드를 수행하기 위해 현재 블록의 움직임 정보를 유도하기 위해 이용되는 머지 후보 블록(merge candidate block)을 결정할 수 있다. 일예로, 머지 후보 블록은 최대 5개까지 이용될 수 있다. 다른 예로, 상기 머지 후보 블록의 최대 개수는 슬라이스 헤더 또는 타일 그룹 헤더를 통해 시그널링 될 수도 있다. 영상 부호화 장치는 머지 후보 리스트를 생성할 수 있고, 이들 중 가장 작은 비용을 갖는 머지 후보 블록을 최종 머지 후보 블록으로 선택할 수 있다. 한편, 영상 복호화 장치는 영상 부호화 장치와 동일한 머지 후보 리스트를 생성하고, 시그널링되는 머지 인덱스를 이용하여 최종 머지 후보 블록을 선택할 수 있다.The image encoding apparatus may determine a merge candidate block used to induce motion information of a current block in order to perform a merge mode. As an example, up to five merge candidate blocks may be used. As another example, the maximum number of merge candidate blocks may be signaled through a slice header or a tile group header. The image encoding apparatus may generate a merge candidate list and select a merge candidate block having the lowest cost among them as a final merge candidate block. Meanwhile, the image decoding apparatus may generate the same merge candidate list as the image encoding apparatus, and select a final merge candidate block by using the signaled merge index.
다른 예로, 현재 블록의 인터 예측 기법이 스킵 모드로 결정되는 경우, 현재 블록에 머지 모드가 적용되는 경우와 동일한 방법으로 현재 블록의 움직임 정보가 유도될 수 있다. 다만, 현재 블록에 스킵 모드가 적용되는 경우, 해당 블록에 대한 레지듀얼 신호가 생략될 수 있다. 이 경우 유도된 예측 샘플들이 바로 현재 블록에 대한 복원 샘플들로 이용될 수 있다.As another example, when the inter prediction technique of the current block is determined as the skip mode, motion information of the current block may be derived in the same manner as when the merge mode is applied to the current block. However, when the skip mode is applied to the current block, the residual signal for the corresponding block may be omitted. In this case, the derived prediction samples can be directly used as reconstructed samples for the current block.
또 다른 예로, 현재 블록의 인터 예측 기법이 AMVP 모드로 결정되는 경우, 영상 부호화/복호화 장치는 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록에 대응하는 움직임 벡터를 이용하여, 움직임 벡터 예측자(motion vector predictor, MVP) 후보 리스트를 생성할 수 있다. 생성된 움직임 벡터 예측자 후보 리스트를 이용하여 움직임 벡터 예측자 후보가 유도될 수 있다. 유도된 움직임 벡터 예측자 후보를 기반으로 현재 블록의 움직임 정보가 결정될 수 있다.As another example, when the inter prediction method of the current block is determined as the AMVP mode, the image encoding/decoding apparatus predicts a motion vector by using a motion vector of a reconstructed spatial neighboring block and/or a motion vector corresponding to a temporal neighboring block. A motion vector predictor (MVP) candidate list can be generated. A motion vector predictor candidate may be derived using the generated motion vector predictor candidate list. Motion information of the current block may be determined based on the derived motion vector predictor candidate.
영상 부호화 장치는 현재 블록의 움직임 벡터 및 움직임 벡터 예측자 후보의 차를 이용하여 움직임 벡터 차분(MVD: Motion Vector Difference)을 계산하고, MVD를 엔트로피 부호화할 수 있다. 또한, 영상 부호화 장치는 움직임 벡터 예측자 후보 인덱스를 엔트로피 부호화하여 비트스트림을 생성할 수 있다. 움직임 벡터 예측자 후보 인덱스는 움직임 벡터 후보 예측자 리스트에 포함된 움직임 벡터 예측자 후보 중에서 최적의 움직임 벡터 예측자 후보를 지시할 수 있다. 한편, 영상 복호화 장치는 움직임 벡터 후보 예측자 인덱스를 비트스트림으로부터 엔트로피 복호화하고, 엔트로피 복호화된 움직임 벡터 예측자 후보 인덱스를 이용하여 움직임 벡터 예측자 후보 리스트에 포함된 움직임 벡터 예측자 후보 중에서 복호화 대상 블록의 움직임 벡터 예측자 후보를 선택할 수 있다. 또한, 복호화 장치는 엔트로피 복호화된 MVD 및 움직임 벡터 예측자 후보의 합을 통해 현재 블록의 움직임 벡터를 도출할 수 있다.The image encoding apparatus may calculate a motion vector difference (MVD) by using a difference between a motion vector of a current block and a motion vector predictor candidate, and entropy-encode the MVD. In addition, the image encoding apparatus may generate a bitstream by entropy encoding the motion vector predictor candidate index. The motion vector predictor candidate index may indicate an optimal motion vector predictor candidate from among motion vector predictor candidates included in the motion vector candidate predictor list. On the other hand, the image decoding apparatus entropy-decodes the motion vector candidate predictor index from the bitstream, and uses the entropy-decoded motion vector predictor candidate index from among the motion vector predictor candidates included in the motion vector predictor candidate list. Can select a motion vector predictor candidate of. Also, the decoding apparatus may derive the motion vector of the current block through the sum of the entropy-decoded MVD and the motion vector predictor candidate.
단계 S430에서는, 단계 S420에서 유도된 움직임 정보를 이용하여 현재 블록에 대한 인터 예측이 수행될 수 있다. 즉, 현재 블록에 대해 인터 예측이 수행되어, 현재 블록에 대한 예측 블록이 유도될 수 있다. 상기 예측 블록은 현재 블록의 예측 샘플들(예측 샘플 어레이)을 포함할 수 있다. 현재 블록의 움직임 벡터가 분수 해상도를 가지는 경우, 예측 블록에 대한 보간(interpolation) 절차가 수행될 수 있다. 보간 절차를 통해, 분수 해상도 단위의 참조 샘플들을 기반으로 현재 블록의 예측 샘플들이 유도될 수 있다. 한편, 쌍예측이 적용되는 경우, L0 예측을 기반으로 도출된 예측 샘플들과 L1 예측을 기반으로 도출된 예측 샘플들의 가중합 또는 가중 평균을 통하여 현재 블록에 대한 예측 샘플이 유도될 수 있다.In step S430, inter prediction on the current block may be performed using the motion information derived in step S420. That is, inter prediction is performed on the current block, and a prediction block for the current block may be derived. The prediction block may include prediction samples (prediction sample array) of the current block. When the motion vector of the current block has fractional resolution, an interpolation procedure for the prediction block may be performed. Through the interpolation procedure, prediction samples of the current block may be derived based on the reference samples of the fractional resolution unit. Meanwhile, when bi-prediction is applied, prediction samples for the current block may be derived through a weighted sum or weighted average of prediction samples derived based on L0 prediction and prediction samples derived based on L1 prediction.
MMVD(Merge mode with Motion Vector Differences) 모드 개요Merge mode with Motion Vector Differences (MMVD) mode overview
머지 모드 혹은 스킵 모드를 통해 유도된 움직임 벡터의 정확성을 높이기 위해, 현재 블록에 대해 MMVD 모드가 적용될 수 있다. 즉, 현재 블록의 인터 예측 기법이 머지 모드 혹은 스킵 모드로 결정되는 경우, MMVD 모드가 현재 블록에 대해 추가로 적용될 수 있다. MMVD 모드가 적용되는 경우, 주변 블록으로부터 유도된 움직임 벡터를 보다 정교하게 보정할 수 있어, 영상 부호화 효율이 향상될 수 있다.In order to increase the accuracy of motion vectors derived through merge mode or skip mode, MMVD mode can be applied to the current block. That is, when the inter prediction technique of the current block is determined as the merge mode or the skip mode, the MMVD mode may be additionally applied to the current block. When the MMVD mode is applied, motion vectors derived from neighboring blocks may be more precisely corrected, and thus image encoding efficiency may be improved.
도 5는 MMVD 모드를 이용한 영상 복호화 방법을 설명하기 위한 도면이다.5 is a diagram for explaining an image decoding method using an MMVD mode.
도 5를 참조하면, MMVD 모드를 이용한 영상 복호화 방법은, 현재 블록의 예측 모드가 MMVD 모드인지 여부를 판단하는 단계 (S510), 현재 블록에 대한 예측 모드가 MMVD 모드로 결정되는 경우, 현재 블록에 대한 머지 후보 리스트를 유도하는 단계(S520), 머지 후보 리스트를 이용하여 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계(S530), 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계(S540) 및/또는 예측 움직임 벡터 및 움직임 벡터 차분을 이용하여 현재 블록의 움직임 벡터를 유도하는 단계(S550)을 포함할 수 있다. 이때 현재 블록에 대한 움직임 벡터 차분은 영상 부호화 장치로부터 시그널링되는 움직임 벡터 차분 정보를 기반으로 유도될 수 있다.5, the image decoding method using the MMVD mode includes determining whether the prediction mode of the current block is the MMVD mode (S510). When the prediction mode for the current block is determined as the MMVD mode, the current block is Deriving a merge candidate list for the current block (S520), deriving a predicted motion vector for the current block using the merge candidate list (S530), and deriving motion vector differences for the current block ( S540) and/or the step of deriving a motion vector of the current block by using the predicted motion vector and the motion vector difference (S550). In this case, the motion vector difference for the current block may be derived based on motion vector difference information signaled from the image encoding apparatus.
도 6은 MMVD 모드를 이용한 영상 부호화 방법을 설명하기 위한 도면이다.6 is a diagram for describing an image encoding method using an MMVD mode.
도 6을 참조하면, MMVD 모드를 이용한 영상 부호화 방법은, 현재 블록의 예측 모드를 MMVD 모드로 결정하는 단계(S610), 현재 블록에 대한 머지 후보 리스트를 유도하는 단계(S620), 머지 후보 리스트를 이용하여 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계(S630), 예측 움직임 벡터에 기반하여 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계(S640) 및/또는 움직임 벡터 차분 정보를 부호화 하는 단계(S650)을 포함할 수 있다. 이때 유도된 움직임 벡터 차분을 기반으로 현재 블록에 대한 움직임 벡터 차분 정보가 결정될 수 있다.Referring to FIG. 6, the method of encoding an image using the MMVD mode includes determining a prediction mode of a current block as an MMVD mode (S610), deriving a merge candidate list for the current block (S620), and a merge candidate list. Deriving a predicted motion vector for the current block by using (S630), deriving motion vector differences for the current block based on the predicted motion vector (S640) and/or motion vector difference information It may include an encoding step (S650). At this time, motion vector difference information for the current block may be determined based on the derived motion vector difference.
이하, MMVD 모드를 이용한 영상 부호화/복호화 방법에 대해서 구체적으로 설명한다. Hereinafter, a video encoding/decoding method using the MMVD mode will be described in detail.
먼저, 영상 부호화 장치는 현재 블록의 예측 모드를 MMVD 모드로 결정(S510)하고, 현재 블록의 예측 모드가 MMVD 모드임을 지시하는 정보를 부호화 할 수 있다. 한편, 영상 복호화 장치는 시그널링되는 정보에 기반하여 현재 블록의 예측 모드가 MMVD 모드인지 여부를 판단할 수 있다(S610) First, the apparatus for encoding an image may determine a prediction mode of the current block as the MMVD mode (S510), and may encode information indicating that the prediction mode of the current block is the MMVD mode. Meanwhile, the image decoding apparatus may determine whether the prediction mode of the current block is the MMVD mode based on the signaled information (S610).
도 7은 현재 블록의 예측 모드를 MMVD 모드로 결정/판단하는 방법을 설명하기 위한 도면이다.7 is a diagram for describing a method of determining/determining a prediction mode of a current block as an MMVD mode.
일 예로, 도 7의 순서도에 따라 현재 블록의 예측 모드가 MMVD 모드로 결정될 수 있다. 도 7에 개시되어 있는 구문 요소는 예시로서, 도시되는 구문 요소의 명칭에 의해 본 개시의 권리범위가 제한되는 것은 아니다. 또한 이하의 실시예에서 구문 요소가 가지는 구체적인 값은 예시로서, 아래의 설명에 의해 본 개시의 권리범위가 제한되는 것은 아니다. 각각의 구문 요소는 임의의 값(예컨대 제 1값 또는 제 2값)으로 표현될 수 있으며, 특정 구문요소가 0의 값을 가지는 경우는 1의 값으로, 1의 값을 가지는 경우는 0의 값을 가지는 것으로도 표현될 수 있다. 또한, 영상 복호화 장치는 도 7의 순서도를 바탕으로 인터 예측 모드에 관한 정보를 복호화하고, 이를 바탕으로 현재 블록에 대한 인터 예측 기법을 결정할 수 있다. 반면, 영상 부호화 장치는 현재 블록에 적용되는 인터 예측 모드에 관한 정보를 도 7에 기반하여 부호화할 수 있다.For example, according to the flowchart of FIG. 7, the prediction mode of the current block may be determined as the MMVD mode. The syntax elements disclosed in FIG. 7 are examples, and the scope of the present disclosure is not limited by the names of the illustrated syntax elements. In addition, specific values of the syntax elements in the following embodiments are examples, and the scope of the present disclosure is not limited by the following description. Each syntax element can be expressed as an arbitrary value (for example, a first value or a second value), and a value of 1 when a specific syntax element has a value of 0, and a value of 0 when a specific syntax element has a value of 1. It can also be expressed as having In addition, the image decoding apparatus may decode information on an inter prediction mode based on the flowchart of FIG. 7 and determine an inter prediction method for a current block based on this. On the other hand, the image encoding apparatus may encode information on an inter prediction mode applied to the current block based on FIG. 7.
먼저, CU_SKIP_FLAG 값에 의해 현재 블록에 대해 스킵 모드가 적용되는지 여부가 결정될 수 있다. 예컨대, CU_SKIP_FLAG의 값이 1인 경우, 현재 블록에 대해서 스킵 모드가 적용되고, CU_SKIP_FLAG의 값이 0인 경우, 현재 블록에 대해 스킵 모드가 적용되지 않을 수 있다.First, it may be determined whether the skip mode is applied to the current block by the CU_SKIP_FLAG value. For example, when the value of CU_SKIP_FLAG is 1, the skip mode is applied to the current block, and when the value of CU_SKIP_FLAG is 0, the skip mode may not be applied to the current block.
현재 블록에 스킵 모드가 적용되는 경우, MMVD_FLAG 값에 의해 현재 블록에 대해 MMVD 모드가 적용되는지 여부가 결정될 수 있다. MMVD_FLAG 값이 1인 경우, 현재 블록에 대해 MMVD 모드가 적용될 수 있다. 현재 블록에 대해 MMVD 모드가 적용되는 경우, 움직임 벡터 차분을 유도하기 위한 MMVD_IDX가 추가로 부호화/복호화될 수 있다.When the skip mode is applied to the current block, it may be determined whether the MMVD mode is applied to the current block by the MMVD_FLAG value. If the MMVD_FLAG value is 1, the MMVD mode may be applied to the current block. When the MMVD mode is applied to the current block, MMVD_IDX for inducing a motion vector difference may be additionally encoded/decoded.
반면, MMVD_FLAG의 값이 0인 경우, 현재 블록에 대해서는 MMVD 모드가 적용되지 않을 수 있다. 현재 블록에 MMVD 모드가 적용되지 않는 경우, SB_MRG_FLAG 값에 의해 현재 블록에 대해 서브 블록 기반 스킵 모드가 적용되는지 여부가 결정될 수 있다. 예컨대, SB_MRG_FLAG값이 1인 경우, 현재 블록에 대해 서브 블록 기반 스킵 모드가 적용될 수 있다. 현재 블록에 대해 서브 블록 기반 스킵 모드가 적용되는 경우, 서브 블록 별 움직임 벡터를 유도하기 위한 MRG_IDX가 추가로 부호화/복호화될 수 있다. 반면, SB_MRG_FLAG값이 0인 경우, 현재 블록에 대해 서브 블록 기반 스킵 모드가 적용되지 않을 수 있다.On the other hand, when the value of MMVD_FLAG is 0, the MMVD mode may not be applied to the current block. When the MMVD mode is not applied to the current block, it may be determined whether the subblock-based skip mode is applied to the current block by the value of SB_MRG_FLAG. For example, when the SB_MRG_FLAG value is 1, a subblock-based skip mode may be applied to the current block. When the subblock-based skip mode is applied to the current block, MRG_IDX for deriving a motion vector for each subblock may be additionally encoded/decoded. On the other hand, when the SB_MRG_FLAG value is 0, the subblock-based skip mode may not be applied to the current block.
현재 블록에 대해 서브 블록 기반 스킵 모드가 적용되지 않는 경우, 현재 블록에 대해 삼각 분할 스킵 모드가 적용될 수 있다. 이하의 명세서에서 삼각 분할 모드는 전술한 GPM을 의미하는 것일 수 있다. 예컨대, TRI_FLAG 값에 의해 현재 블록에 대해 삼각 스킵 모드가 적용될지 여부가 결정될 수 있으며, 삼각 분할 스킵 모드에 따른 움직임 벡터를 유도하기 위한 MRG_IDX가 추가로 부호화/복호화될 수 있다.When the subblock-based skip mode is not applied to the current block, the triangulation skip mode may be applied to the current block. In the following specification, the triangulation mode may mean the aforementioned GPM. For example, whether or not a triangular skip mode is applied to the current block may be determined by the TRI_FLAG value, and MRG_IDX for deriving a motion vector according to the triangulation skip mode may be additionally encoded/decoded.
한편, 현재 블록에 대해 스킵 모드가 적용되지 않는 경우(CU_SKIP_FLAG==0), PRED_MODE 값에 의해 현재 블록의 예측 모드가 인트라 예측 모드 및 인터 예측 모드 중 하나로 결정될 수 있다. 현재 블록의 예측 모드가 인터 예측 모드로 결정되는 경우, MRG_FLAG 값에 의해 현재 블록에 머지 모드가 적용되는지 여부가 결정될 수 있다. 예컨대, MRG_FLAG 값이 0인 경우, 현재 블록에 대해 AMVP 모드가 적용될 수 있다. 반면, MRG_FLAG 값이 1인 경우, 현재 블록에 대해 머지 모드가 적용될 수 있다.Meanwhile, when the skip mode is not applied to the current block (CU_SKIP_FLAG==0), the prediction mode of the current block may be determined as one of an intra prediction mode and an inter prediction mode according to the PRED_MODE value. When the prediction mode of the current block is determined as the inter prediction mode, whether the merge mode is applied to the current block may be determined based on the MRG_FLAG value. For example, when the MRG_FLAG value is 0, the AMVP mode may be applied to the current block. On the other hand, when the MRG_FLAG value is 1, the merge mode may be applied to the current block.
현재 블록에 대해 머지 모드가 적용되는 경우, MMVD_FLAG 값에 의해 현재 블록에 대해 MMVD 모드가 적용되는지 여부가 결정될 수 있다. MMVD_FLAG 값이 1인 경우, 현재 블록에 대해 MMVD 모드가 적용될 수 있다. 현재 블록에 대해 MMVD 모드가 적용되는 경우, 움직임 벡터 차분을 유도하기 위한 MMVD_IDX가 추가로 부호화/복호화될 수 있다.When the merge mode is applied to the current block, it may be determined whether the MMVD mode is applied to the current block by the MMVD_FLAG value. If the MMVD_FLAG value is 1, the MMVD mode may be applied to the current block. When the MMVD mode is applied to the current block, MMVD_IDX for inducing a motion vector difference may be additionally encoded/decoded.
반면, MMVD_FLAG의 값이 0인 경우, 현재 블록에 대해서는 MMVD 모드가 적용되지 않을 수 있다. 현재 블록에 MMVD 모드가 적용되지 않는 경우, SB_MRG_FLAG 값에 의해 현재 블록에 대해 서브 블록 기반 머지 모드가 적용되는지 여부가 결정될 수 있다. 예컨대, SB_MRG_FLAG값이 1인 경우, 현재 블록에 대해 서브 블록 기반 머지 모드가 적용될 수 있다. 현재 블록에 대해 서브 블록 기반 머지 모드가 적용되는 경우, 서브 블록 별 움직임 벡터를 유도하기 위한 MRG_IDX가 추가로 부호화/복호화될 수 있다. 반면, SB_MRG_FLAG값이 0인 경우, 현재 블록에 대해 서브 블록 기반 머지 모드가 적용되지 않을 수 있다.On the other hand, when the value of MMVD_FLAG is 0, the MMVD mode may not be applied to the current block. When the MMVD mode is not applied to the current block, it may be determined whether or not the subblock-based merge mode is applied to the current block by the value of SB_MRG_FLAG. For example, when the SB_MRG_FLAG value is 1, a subblock based merge mode may be applied to the current block. When the subblock-based merge mode is applied to the current block, MRG_IDX for inducing a motion vector for each subblock may be additionally encoded/decoded. On the other hand, when the SB_MRG_FLAG value is 0, the subblock based merge mode may not be applied to the current block.
현재 블록에 대해 서브 블록 기반 머지 모드가 적용되지 않는 경우, MHINTRA_FLAG 값에 의해 현재 블록에 대해 인트라 인터 결합 머지 모드가 적용되는지 여부가 결정될 수 있다. 예컨대, MHINTRA_FLAG 값이 1인 경우, 현재 블록에 대해 인트라 인터 결합 머지 모드가 적용될 수 있다. 현재 블록에 대해 인트라 인터 결합 머지 모드가 적용되는 경우, 인트라 인터 결합 머지 모드의 인트라 모드를 유도하기 위한 MHINTRA_MODE가 추가로 부호화/복호화될 수 있다. 반면, MHINTRA_FLAG 값이 0인 경우, 현재 블록에 대해 인트라 인터 결합 머지 모드가 적용되지 않을 수 있다. 이하의 명세서에서 인트라 인터 결합 머지 모드는 전술한 CIIP 모드를 의미하는 것일 수 있다.When the sub-block-based merge mode is not applied to the current block, it may be determined whether the intra-inter combining merge mode is applied to the current block by the MHINTRA_FLAG value. For example, when the MHINTRA_FLAG value is 1, the intra-inter combining merge mode may be applied to the current block. When the intra-inter combining merge mode is applied to the current block, MHINTRA_MODE for inducing the intra mode of the intra-inter combining merge mode may be additionally encoded/decoded. On the other hand, when the MHINTRA_FLAG value is 0, the intra-inter combining merge mode may not be applied to the current block. In the following specification, the intra-inter combining merge mode may mean the aforementioned CIIP mode.
현재 블록에 대해 인트라 인터 결합 머지 모드가 적용되지 않는 경우, TRI_FLAG 값에 의해 현재 블록에 대해 삼각 분할 머지 모드가 적용되는지 여부가 결정될 수 있다. 예컨대, TRI_FLAG 값이 1인 경우, 현재 블록에 대해 삼각 분할 머지 모드가 적용될 수 있다. 현재 블록에 대해 삼각 분할 머지 모드가 적용되는 경우, 삼각 분할 머지 모드에 따른 움직임 벡터를 유도하기 위한 MRG_IDX가 추가로 부호화/복호화될 수 있다. 반면, TRI_FLAG 값이 0인 경우, 현재 블록에 대해 삼각 분할 머지 모드가 적용되지 않을 수 있다.When the intra-inter combining merge mode is not applied to the current block, it may be determined whether or not the triangular division merge mode is applied to the current block by the TRI_FLAG value. For example, when the TRI_FLAG value is 1, the triangulation merge mode may be applied to the current block. When the triangulation merge mode is applied to the current block, MRG_IDX for deriving a motion vector according to the triangulation merge mode may be additionally encoded/decoded. On the other hand, when the TRI_FLAG value is 0, the triangulation merge mode may not be applied to the current block.
현재 블록에 대해 삼각 분할 머지 모드가 적용되지 않는 경우, 현재 블록에 대해 일반 머지 모드가 적용될 수 있다. 현재 블록에 대해 일반 머지 모드가 적용되는 경우, 일반 머지 모드에 따른 머지 후보를 결정하기 위한 MRG_IDX가 추가로 부호화/복호화될 수 있다. 즉, 현재 블록에 대해 MMVD 모드, 서브 블록 기반 머지 모드, 인트라 인터 결합 머지 모드 및 삼각 분할 머지 모드 중 적어도 하나가 수행되지 않는 경우에만 현재 블록에 대해 일반 머지 모드가 적용될 수 있다.When the triangulation merge mode is not applied to the current block, the general merge mode may be applied to the current block. When the general merge mode is applied to the current block, MRG_IDX for determining a merge candidate according to the general merge mode may be additionally encoded/decoded. That is, the general merge mode may be applied to the current block only when at least one of the MMVD mode, the subblock-based merge mode, the intra-inter combination merge mode, and the triangular division merge mode is not performed for the current block.
도 7에 회색 음영으로 표시된 부분을 참고하면, 현재 블록에 대해 스킵 모드 혹은 머지 모드가 수행되는 경우, 현재 블록에 대해 MMVD 모드가 적용될 수 있다.Referring to a portion indicated by a gray shade in FIG. 7, when the skip mode or merge mode is performed on the current block, the MMVD mode may be applied to the current block.
영상 부호화 장치는 현재 블록에 대해 MMVD 모드가 적용되는 경우, 현재 블록에 대해 MMVD 모드가 적용됨을 지시하는 정보를 부호화할 수 있다. 한편, 영상 복호화 장치는 영상 부호화 장치로부터 시그널링되는 상기 정보를 기반으로 현재 블록에 대해 MMVD 모드가 적용되는지 여부를 판단할 수 있다. 예컨대, 영상 부호화 장치에서 영상 복호화 장치로 시그널링 되는 정보는 구문 요소 mmvd_flag 혹은 mmvd_merge_flag 중 적어도 하나로 표현될 수 있다. mmvd_flag가 제 1 값을 가지는 경우, 현재 블록에 대해 MMVD 모드가 적용될 수 있다. 반면, mmvd_flag가 제 2 값을 가지는 경우, 현재 블록에 대해 MMVD 모드가 적용되지 않을 수 있다.When the MMVD mode is applied to the current block, the image encoding apparatus may encode information indicating that the MMVD mode is applied to the current block. Meanwhile, the image decoding apparatus may determine whether the MMVD mode is applied to the current block based on the information signaled from the image encoding apparatus. For example, information signaled from the image encoding apparatus to the image decoding apparatus may be expressed as at least one of a syntax element mmvd_flag or mmvd_merge_flag. When mmvd_flag has the first value, the MMVD mode may be applied to the current block. On the other hand, when mmvd_flag has a second value, the MMVD mode may not be applied to the current block.
다음으로, 영상 부호화/복호화 장치는 현재 블록에 대한 머지 후보 리스트를 유도할 수 있다(S520, S620). 영상 부호화/복호화 장치는 종래의 머지 후보 리스트 구성 방법 중 적어도 하나를 이용하여 현재 블록에 대한 머지 후보 리스트를 유도할 수 있다. Next, the video encoding/decoding apparatus may derive a merge candidate list for the current block (S520 and S620). The apparatus for encoding/decoding an image may derive a merge candidate list for the current block by using at least one of conventional merge candidate list construction methods.
다음으로, 영상 부호화/복호화 장치는 현재 블록에 대한 예측 움직임 벡터를 유도하고(S530, S630), 현재 블록에 대한 움직임 벡터 차분을 유도(S530, S630)할 수 있다.Next, the apparatus for encoding/decoding an image may derive a predicted motion vector for the current block (S530 and S630), and may derive a motion vector difference for the current block (S530 and S630).
영상 부호화 장치는 현재 블록의 움직임 벡터 차분을 유도하는데 이용되는 움직임 벡터 차분 정보를 유도하여 부호화할 수 있다. 한편, 영상 복호화 장치는 영상 부호화 장치로부터 시그널링되는 움직임 벡터 차분 정보를 복호화하고, 이를 바탕으로 현재 블록에 대한 예측 움직임 벡터 및 움직임 벡터 차분을 유도할 수 있다. 일 예로, 움직임 벡터 차분 정보는, 머지 후보 지시 정보, 움직임 벡터 차분에 대한 크기 정보 및 방향 정보 중 적어도 하나를 포함할 수 있다. 여기서, 머지 후보 지시 정보는 머지 후보 리스트에 따른 머지 후보들 중 현재 블록의 예측 움직임 벡터를 유도하기 위해 사용되는 머지 후보를 지시하는 정보일 수 있다.The image encoding apparatus may derive and encode motion vector difference information used to induce a motion vector difference of a current block. Meanwhile, the image decoding apparatus may decode motion vector difference information signaled from the image encoding apparatus, and derive a predicted motion vector and a motion vector difference for the current block based on this. As an example, the motion vector difference information may include at least one of merge candidate indication information, size information on the motion vector difference, and direction information. Here, the merge candidate indication information may be information indicating a merge candidate used to induce a prediction motion vector of a current block among merge candidates according to the merge candidate list.
도 8은 움직임 벡터 차분 정보의 비트스트림의 구조를 예시한 도면이다. 도 8을 참조하면 현재 블록에 움직임 벡터 차분 정보는 현재 블록에 대해 MMVD 모드가 적용되는 경우에 한해 부호화/복호화될 수 있다. 구문 요소 mmvd_flag는 MMVD 모드의 적용 여부를 지시하는 지시자일 수 있다. 예컨대, mmvd_flag가 제 1값을 지시하는 경우, 현재 블록에 대해 MMVD 모드가 적용될 수 있다. 한편, mmvd_flag가 제 2값을 지시하는 경우, 현재 블록에 대해 MMVD 모드가 적용되지 않을 수 있다. 다른 예로, 도 8의 도시와는 다르게, 상술한바와 같이 구문 요소 mmvd_flag는 mmvd_merge_flag로도 명명될 수 있다.8 is a diagram illustrating a structure of a bitstream of motion vector difference information. Referring to FIG. 8, motion vector difference information to a current block may be encoded/decoded only when the MMVD mode is applied to the current block. The syntax element mmvd_flag may be an indicator indicating whether to apply the MMVD mode. For example, when mmvd_flag indicates the first value, the MMVD mode may be applied to the current block. Meanwhile, when mmvd_flag indicates the second value, the MMVD mode may not be applied to the current block. As another example, unlike the illustration of FIG. 8, as described above, the syntax element mmvd_flag may also be referred to as mmvd_merge_flag.
현재 블록의 예측 모드가 MMVD 모드로 결정되는 경우(mmvd_flag==1), 구문 요소 mmvd_merge_flag, mmvd_distance_idx 및 mmvd_direction_idx 중 적어도 하나가 부호화/복호화될 수 있다.When the prediction mode of the current block is determined as the MMVD mode (mmvd_flag==1), at least one of the syntax elements mmvd_merge_flag, mmvd_distance_idx, and mmvd_direction_idx may be encoded/decoded.
구문 요소 mmvd_merge_flag는 머지 후보 리스트의 후보 중 하나의 후보를 지시하는 지시자일 수 있다. 예컨대, mmvd_merge_flag는 상술한 머지 후보 지시 정보에 대응될 수 있다. 구문 요소 mmvd_merge_flag는 mmvd_cand_flag로도 명명될 수 있다. 일 예로, mmvd_merge_flag는 머지 후보 리스트 내의 첫번째 후보 및 두번째 후보 중 하나를 지시할 수 있다. 현재 블록의 이용 가능한 머지 후보의 최대 개수는 현재 블록에 MMVD 모드가 적용되는지 여부(mmvd_flag 값)에 따라 결정될 수 있다. 즉, 현재 블록에 대해 MMVD 모드가 적용되는 경우, 머지 후보 리스트 내의 후보 중 첫번째 및 두번째 후보만이 예측 움직임 벡터의 유도에 활용될 수 있다.The syntax element mmvd_merge_flag may be an indicator indicating one candidate among candidates in the merge candidate list. For example, mmvd_merge_flag may correspond to the above-described merge candidate indication information. The syntax element mmvd_merge_flag may also be named mmvd_cand_flag. For example, mmvd_merge_flag may indicate one of a first candidate and a second candidate in the merge candidate list. The maximum number of available merge candidates of the current block may be determined according to whether the MMVD mode is applied to the current block (mmvd_flag value). That is, when the MMVD mode is applied to the current block, only the first and second candidates among the candidates in the merge candidate list may be used for derivation of the predicted motion vector.
한편, 일반 머지 모드에 따른 머지 인덱스는 구문 요소 merge_idx로 명명될 수 있다. 일예로, 현재 블록에 대해 MMVD가 적용되는 경우, merge_idx의 값은 mmvd_merge_flag의 값으로 설정될 수 있다. 즉, 현재 블록의 예측 움직임 벡터를 유도하기 위한 머지 후보는 mmvd_merge_flag로 설정된 merge_idx에 의해 결정될 수 있다.Meanwhile, the merge index according to the general merge mode may be named as a syntax element merge_idx. For example, when MMVD is applied to the current block, the value of merge_idx may be set as the value of mmvd_merge_flag. That is, the merge candidate for deriving the prediction motion vector of the current block may be determined by the merge_idx set to mmvd_merge_flag.
움직임 벡터 차분은 방향 성분 및 크기 성분을 이용하여 시그널링될 수 있다. 이하의 실시예에서 MmvdSign은 움직임 벡터 차분의 방향 성분을 의미할 수 있으며, MmvdDistance는 움직임 벡터 차분의 크기 성분을 의미할 수 있다. 움직임 벡터 차분의 방향 성분 및 크기 성분이란, 움직임 벡터 차분의 방향 성분 및 실제 벡터 크기 값을 의미할 수 있을 뿐만 아니라, 움직임 벡터 차분의 방향 성분 및 실제 벡터 크기 값을 유도하는데 활용되는 정보를 의미할 수 있다. 한편, MmvdOffset은 움직임 벡터 차분에 대한 실제 벡터 크기 값을 의미할 수 있다.The motion vector difference can be signaled using a direction component and a magnitude component. In the following embodiments, MmvdSign may mean a direction component of a motion vector difference, and MmvdDistance may mean a magnitude component of a motion vector difference. The direction component and magnitude component of the motion vector difference can mean the direction component and the actual vector size value of the motion vector difference, as well as the information used to derive the direction component and the actual vector size value of the motion vector difference. I can. Meanwhile, MmvdOffset may mean an actual vector size value for a motion vector difference.
구문 요소 mmvd_direction_idx는 움직임 벡터 차분의 방향 성분(MmvdSign)을 지시할 수 있다. 이때, mmvd_direction_idx는 움직임 벡터 차분이 (+,0), (-,0), (0,+) 및 (0,-) 중 하나의 방향 성분 세트를 이용하여 표현됨을 지시할 수 있다.The syntax element mmvd_direction_idx may indicate a direction component (MmvdSign) of a motion vector difference. In this case, mmvd_direction_idx may indicate that the motion vector difference is expressed using one of a direction component set of (+,0), (-,0), (0,+), and (0,-).
구문 요소 mmvd_distance_idx는 움직임 벡터 차분의 크기 성분(MmvdDistance)을 지시할 수 있다. 일 예로, mmvd_distance_idx는 잔여 움직임 벡터의 크기 성분이 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 중 하나를 가지는 것을 지시할 수 있다.The syntax element mmvd_distance_idx may indicate a size component (MmvdDistance) of a motion vector difference. As an example, mmvd_distance_idx may indicate that the residual motion vector has one of 1, 2, 4, 8, 16, 32, 64, 128, 256, and 512 size components.
한편, 움직임 벡터 차분 정보는 움직임 벡터 차분에 대한 해상도 정보를 추가로 포함할 수 있다. 움직임 벡터 차분에 대한 해상도 정보는 현재 블록의 움직임 벡터 차분이 정수 해상도를 사용하는지 여부를 지시하는 정보일 수 있다.Meanwhile, the motion vector difference information may additionally include resolution information on the motion vector difference. The resolution information on the motion vector difference may be information indicating whether the motion vector difference of the current block uses an integer resolution.
일 예로, 움직임 벡터 차분에 대한 해상도 정보는 구문 요소 fpel_mmvd_enabled_flag로 명명될 수 있다. 움직임 벡터 차분에 대한 해상도 정보는 시퀀스 레벨, 픽처 레벨, 타일 레벨, 타일 그룹 레벨 및 슬라이스 레벨 중 적어도 하나의 레벨에서 시그널링될 수 있다. 예컨대, 움직임 벡터 차분에 대한 해상도 정보는 시그널링되는 레벨에 따라 sps_fpel_mmvd_enabled_flag, tile_group_fpel_mmvd_enabled_flag 및 ph_fpel_mmvd_enabled_flag 등으로 명명될 수 있다.For example, the resolution information on the motion vector difference may be named as a syntax element fpel_mmvd_enabled_flag. Resolution information about the motion vector difference may be signaled at at least one of a sequence level, a picture level, a tile level, a tile group level, and a slice level. For example, the resolution information on the motion vector difference may be named sps_fpel_mmvd_enabled_flag, tile_group_fpel_mmvd_enabled_flag, ph_fpel_mmvd_enabled_flag, and the like according to the signaled level.
일 예로, sps_fpel_mmvd_enabled_flag이 제 1값으로 시그널링되는 경우, tile_group_fpel_mmvd_enabled_flag 혹은 ph_fpel_mmvd_enabled_flag 중 적어도 하나가 시그널링될 수 있다. 한편, sps_fpel_mmvd_enabled_flag이 제 2값으로 시그널링되는 경우, tile_group_fpel_mmvd_enabled_flag 및 ph_fpel_mmvd_enabled_flag는 시그널링되지 않을 수 있다. tile_group_fpel_mmvd_enabled_flag 및 ph_fpel_mmvd_enabled_flag 값이 별도로 시그널링 되지 않는 경우, tile_group_fpel_mmvd_enabled_flag 및 ph_fpel_mmvd_enabled_flag의 값은 각각 제 2값으로 설정될 수 있다. 이하에서, 제 1값 및 제 2값은 각각 '1'과 '0'을 의미할 수 있으며, 반대로 '0'과 '1'을 의미할 수도 있다. 이하에서, tile_group_fpel_mmvd_enabled_flag와 ph_fpel_mmvd_enabled_flag은 동일한 조건을 지시하는 구문 요소로 사용될 수 있다.For example, when sps_fpel_mmvd_enabled_flag is signaled as a first value, at least one of tile_group_fpel_mmvd_enabled_flag or ph_fpel_mmvd_enabled_flag may be signaled. Meanwhile, when sps_fpel_mmvd_enabled_flag is signaled as the second value, tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag may not be signaled. When the values of tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag are not separately signaled, the values of tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag may be set to second values, respectively. Hereinafter, the first value and the second value may mean '1' and '0', respectively, and conversely, may mean '0' and '1'. Hereinafter, tile_group_fpel_mmvd_enabled_flag and ph_fpel_mmvd_enabled_flag may be used as syntax elements indicating the same condition.
이때, 움직임 벡터 차분은 상술한 구문 요소 mmvd_distance_idx, mmvd_direction_idx 및 tile_group_fpel_mmvd_enabled_flag 중 적어도 하나를 기반으로 유도될 수 있다.In this case, the motion vector difference may be derived based on at least one of the above-described syntax elements mmvd_distance_idx, mmvd_direction_idx, and tile_group_fpel_mmvd_enabled_flag.
일 예로, 움직임 벡터 차분의 크기 성분은 아래의 표 1에 따라 결정될 수 있다.As an example, the magnitude component of the motion vector difference may be determined according to Table 1 below.
[표 1][Table 1]
Figure PCTKR2020003196-appb-I000001
Figure PCTKR2020003196-appb-I000001
표 1을 참고하면, mmvd_distance_idx 0부터 7까지의 값을 가질 수 있다. 예컨대, MmvdDistance는 mmvd_distance_idx가 지시하는 값과 tile_group_fpel_mmvd_enabled_flag에 따라 (1, 2, 4, 8, 16, 32, 64, 128) 중 하나 이거나, (4, 8, 16, 32, 64, 128, 256, 512) 중 하나의 값을 가질 수 있다. 즉, 움직임 벡터 차분의 크기 성분은 움직임 벡터 차분의 해상도 정보를 바탕으로 복수의 테이블을 이용하여 유도될 수 있다.Referring to Table 1, mmvd_distance_idx may have values from 0 to 7. For example, MmvdDistance is one of (1, 2, 4, 8, 16, 32, 64, 128) or (4, 8, 16, 32, 64, 128, 256, 512) according to the value indicated by mmvd_distance_idx and tile_group_fpel_mmvd_enabled_flag ) Can be one of. That is, the magnitude component of the motion vector difference may be derived using a plurality of tables based on the resolution information of the motion vector difference.
예컨대, tile_group_fpel_mmvd_enabled_flag이 제 1의 값을 갖는 경우, MmvdDistance는 (1, 2, 4, 8, 16, 32, 64, 128) 중 하나로 결정될 수 있다. 한편, tile_group_fpel_mmvd_enabled_flag이 제 2의 값을 갖는 경우, MmvdDistance는 (4, 8, 16, 32, 64, 128, 256, 512) 중 하나로 결정될 수 있다. 예를 들어, mmvd_distance_idx가 3이고, tile_group_fpel_mmvd_enabled_flag가 1인 경우, 움직임 벡터 차분의 크기 성분은 32로 결정될 수 있다.For example, when tile_group_fpel_mmvd_enabled_flag has a first value, MmvdDistance may be determined as one of (1, 2, 4, 8, 16, 32, 64, 128). Meanwhile, when tile_group_fpel_mmvd_enabled_flag has a second value, MmvdDistance may be determined as one of (4, 8, 16, 32, 64, 128, 256, 512). For example, when mmvd_distance_idx is 3 and tile_group_fpel_mmvd_enabled_flag is 1, the size component of the motion vector difference may be determined as 32.
한편, 움직임 벡터 차분의 방향 성분은 아래의 표 2에 따라 결정될 수 있다.Meanwhile, the direction component of the motion vector difference may be determined according to Table 2 below.
[표 2][Table 2]
Figure PCTKR2020003196-appb-I000002
Figure PCTKR2020003196-appb-I000002
표 2를 참고하면, 움직임 벡터 차분의 방향 성분(MmvdSign)은 mmvd_direction_idx를 이용하여 유도될 수 있다. 이때, mmvd_direction_idx는 움직임 벡터 차분이 (+,0), (-,0), (0,+) 및 (0,-) 중 하나의 방향 성분 세트를 이용하여 표현됨을 지시할 수 있다.Referring to Table 2, the direction component (MmvdSign) of the motion vector difference may be derived using mmvd_direction_idx. In this case, mmvd_direction_idx may indicate that the motion vector difference is expressed using one of a direction component set of (+,0), (-,0), (0,+), and (0,-).
유도된 움직임 벡터 차분의 방향 성분(MmvdSign) 및 크기 성분(MmvdDistance)를 바탕으로 움직임 벡터 차분의 실제 벡터 값(MmvdOffset)이 유도될 수 있다. 일 예로, 움직임 벡터 차분의 벡터 값(MmvdOffset)은 아래의 수학식 1에 따라 유도될 수 있다. 이하에서, MmvdOffset[ x0 ][ y0 ][ 0 ] 및 MmvdOffset[ x0 ][ y0 ][ 1 ]은 각각 움직임 벡터 차분의 x 축 값 및 y 축 값을 의미할 수 있다. An actual vector value (MmvdOffset) of the motion vector difference may be derived based on the direction component (MmvdSign) and the magnitude component (MmvdDistance) of the derived motion vector difference. As an example, the vector value of the motion vector difference (MmvdOffset) may be derived according to Equation 1 below. Hereinafter, MmvdOffset[ x0 ][ y0 ][ 0 ]  and MmvdOffset[ x0 ][ y0 ][ 1 ] may mean the x-axis value and y-axis value of the motion vector difference, respectively.
[수학식 1][Equation 1]
MmvdOffset[ x0 ][ y0 ][ 0 ] = ( MmvdDistance[ x0 ][ y0 ] << 2 ) * MmvdSign[ x0 ][ y0 ][0]MmvdOffset[ x0 ][ y0 ][ 0] = (MmvdDistance[ x0 ][ y0] << 2) * MmvdSign[ x0 ][ y0 ][0]
MmvdOffset[ x0 ][ y0 ][ 1 ] = ( MmvdDistance[ x0 ][ y0 ] << 2 ) * MmvdSign[ x0 ][ y0 ][1]MmvdOffset[ x0 ][ y0 ][ 1] = (MmvdDistance[ x0 ][ y0] << 2) * MmvdSign[ x0 ][ y0 ][1]
유도된 움직임 벡터 차분의 실제 벡터 값(MmvdOffset)을 바탕으로 현재 블록에 대한 L0 움직임 벡터 차분 및 L1 움직임 벡터 차분 중 적어도 하나가 유도될 수 있다. 현재 블록에 대한 L0 움직임 벡터 차분 및 L1 움직임 벡터 차분은 현재 블록의 예측 움직임 벡터를 유도하는데 사용되는 머지 후보의 움직임 정보를 기반으로 유도될 수 있다. 즉, L0 움직임 벡터 차분 및 L1 움직임 벡터 차분은 mmvd_merge_flag를 이용하여 결정된 머지 후보의 움직임 정보를 기반으로 결정될 수 있다.At least one of the L0 motion vector difference and the L1 motion vector difference for the current block may be derived based on the actual vector value (MmvdOffset) of the derived motion vector difference. The L0 motion vector difference and the L1 motion vector difference for the current block may be derived based on motion information of the merge candidate used to derive the predicted motion vector of the current block. That is, the L0 motion vector difference and the L1 motion vector difference may be determined based on motion information of the merge candidate determined using mmvd_merge_flag.
먼저, 현재 블록의 머지 후보가 양방향 움직임 정보를 가지는지 여부가 판단될 수 있다. 머지 후보가 양방향 움직임 정보를 가지는 것으로 판단되는 경우, 현재 픽처와 L0 참조 픽처 간의 POC 차이 및 현재 픽처와 L1 참조 픽처간의 POC 차이가 계산될 수 있다. 이때, 현재 픽처와 L0 참조 픽처 간의 POC 차이와 현재 픽처와 L1 참조 픽처간의 POC 차이가 동일할 경우, L0 움직임 벡터 차분 및 L1 움직임 벡터 차분은 MmvdOffset을 이용하여 동일한 값으로 유도될 수 있다.First, it may be determined whether the merge candidate of the current block has bidirectional motion information. When it is determined that the merge candidate has bidirectional motion information, the POC difference between the current picture and the L0 reference picture and the POC difference between the current picture and the L1 reference picture may be calculated. In this case, when the POC difference between the current picture and the L0 reference picture and the POC difference between the current picture and the L1 reference picture are the same, the L0 motion vector difference and the L1 motion vector difference may be derived to the same value using MmvdOffset.
한편, 현재 픽처와 L0 참조 픽처 간의 POC 차이와 현재 픽처와 L1 참조 픽처간의 POC 차이가 동일하지 않은 경우, L0 움직임 벡터 차분 및 L1 움직임 벡터 차분은 각 픽처들 간의 POC 차이 및 MmvdOffset을 이용하여 서로 다른 값으로 유도될 수 있다.Meanwhile, when the POC difference between the current picture and the L0 reference picture and the POC difference between the current picture and the L1 reference picture are not the same, the L0 motion vector difference and the L1 motion vector difference are different using the POC difference and MmvdOffset between the pictures. It can be derived by value.
일 예로, 현재 픽처와 L0 참조 픽처 간의 POC 차이가 현재 픽처와 L1 참조 픽처간의 POC 차이보다 큰 경우, 먼저 MmvdOffset을 이용하여 L0 움직임 벡터 차분이 유도될 수 있다. 다음으로, 현재 픽처와 L0 참조 픽처 간의 POC 차이와 현재 픽처와 L1 참조 픽처간의 POC 차이의 크기 차를 기반으로 L0 움직임 벡터 차분을 스케일링하여 L1 움직임 벡터 차분이 유도될 수 있다.As an example, when the POC difference between the current picture and the L0 reference picture is greater than the POC difference between the current picture and the L1 reference picture, the L0 motion vector difference may be derived first by using MmvdOffset. Next, the L1 motion vector difference may be derived by scaling the L0 motion vector difference based on the POC difference between the current picture and the L0 reference picture and the size difference of the POC difference between the current picture and the L1 reference picture.
현재 픽처와 L0 참조 픽처 간의 POC 차이가 현재 픽처와 L1 참조 픽처간의 POC 차이보다 작은 경우, 먼저 MmvdOffset을 이용하여 L1 움직임 벡터 차분이 유도될 수 있다. 다음으로, 현재 픽처와 L0 참조 픽처 간의 POC 차이와 현재 픽처와 L1 참조 픽처간의 POC 차이의 크기 차를 기반으로 L1 움직임 벡터 차분을 스케일링하여 L1 움직임 벡터 차분이 유도될 수 있다.When the POC difference between the current picture and the L0 reference picture is smaller than the POC difference between the current picture and the L1 reference picture, the L1 motion vector difference may be derived first by using MmvdOffset. Next, the L1 motion vector difference may be derived by scaling the L1 motion vector difference based on the POC difference between the current picture and the L0 reference picture and the size difference of the POC difference between the current picture and the L1 reference picture.
현재 픽처와 L0 참조 픽처 간의 POC 차이와 현재 픽처와 L1 참조 픽처간의 POC 차이의 절대값이 같으나 부호가 다른 경우, 먼저 MmvdOffset을 이용하여 L0 움직임 벡터 차분 혹은 L1 움직임 벡터 차분 중 하나가 유도될 수 있다. 다음으로, 먼저 유도된 예측 방향의 움직임 벡터 차분의 부호를 변경하여 나머지 예측 방향의 움직임 벡터 차분이 유도될 수 있다.When the absolute value of the POC difference between the current picture and the L0 reference picture and the POC difference between the current picture and the L1 reference picture is the same but the sign is different, first, one of the L0 motion vector difference or the L1 motion vector difference may be derived using MmvdOffset. . Next, the motion vector difference in the remaining prediction directions may be derived by changing the sign of the motion vector difference in the first derived prediction direction.
한편, 현재 블록의 머지 후보가 단방향 움직임 정보만을 가지는 경우, MmvdOffset을 이용하여, 움직임 정보가 존재하는 예측 방향의 움직임 벡터 차분만이 유도될 수 있다. 반면 움직임 정보가 존재하지 않는 예측 방향의 움직임 벡터 차분은 제로 벡터로 유도될 수 있다. 예컨대, 결정된 머지 후보가 L0 움직임 정보만을 가지는 경우, MmvdOffset을 이용하여 L0 움직임 벡터 차분이 유도되고, L1 움직임 벡터 차분은 (0,0)으로 유도될 수 있다.Meanwhile, when the merge candidate of the current block has only unidirectional motion information, only the motion vector difference in the prediction direction in which the motion information exists may be derived using MmvdOffset. On the other hand, a motion vector difference in a prediction direction in which no motion information exists may be derived as a zero vector. For example, when the determined merge candidate has only L0 motion information, the L0 motion vector difference may be derived using MmvdOffset, and the L1 motion vector difference may be derived as (0,0).
도 9는 움직임 벡터 차분을 유도하는 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a method of inducing a motion vector difference.
구문 요소 mmvd_direction_idx는 움직임 벡터 차분이 (+,0), (-,0), (0,+) 및 (0,-) 중 하나의 방향 성분 세트를 가지는 것을 지시하므로, 유도된 움직임 벡터들은 도 9의 중심 좌표를 기준으로 십자 형태로 결정될 수 있다. 즉, 움직임 벡터 차분은 x 축 및 y 축 중 하나의 축에 대해서만 0이 아닌 값을 가질 수 있다.The syntax element mmvd_direction_idx indicates that the motion vector difference has one of (+,0), (-,0), (0,+) and (0,-) direction component set, so that the derived motion vectors are shown in FIG. 9 It may be determined in a cross shape based on the center coordinate of. That is, the motion vector difference may have a non-zero value only for one of the x-axis and y-axis.
또한 L0 움직임 벡터 차분 및 L1 움직임 벡터 차분은 동일한 MmvdOffset을 기반으로 유도되므로, 상호 간의 연관성이 존재할 수 있다. 예컨대, 현재 픽처와 L0 참조 픽처 간의 POC 차이 값과 현재 픽처와 L1 참조 픽처간의 POC 차이 값에 따라, L0 움직임 벡터 차분 및 L1 움직임 벡터 차분은 동일한 값을 가질 수 있다. 또한, 어느 한 움직임 벡터 차분의 값이 미러링 및/또는 스케일링된 값을 나머지 움직임 벡터 차분이 가질 수 있다.In addition, since the L0 motion vector difference and the L1 motion vector difference are derived based on the same MmvdOffset, there may be an association between them. For example, according to the POC difference value between the current picture and the L0 reference picture and the POC difference between the current picture and the L1 reference picture, the L0 motion vector difference and the L1 motion vector difference may have the same value. In addition, the remaining motion vector difference may have a value in which one motion vector difference is mirrored and/or scaled.
다음으로, 영상 복호화 장치는 예측 움직임 벡터와 움직임 벡터 차분을 이용하여 현재 블록의 움직임 벡터를 유도할 수 있다(S550). 한편 영상 부호화 장치는 유도된 예측 움직임 벡터 및 움직임 벡터 차분을 바탕으로 움직임 벡터 차분 정보를 부호화할 수 있다(S650). 현재 블록의 움직임 벡터는 단계 S530에서 유도된 예측 움직임 벡터와 단계 S540에서 유도된 움직임 벡터 차분의 합을 통해 유도될 수 있다. 보다 구체적으로, 현재 블록의 L0 움직임 벡터는 현재 블록의 L0 예측 움직임 벡터 및 L0 움직임 벡터 차분의 합으로 유도될 수 있고, 현재 블록의 L1 움직임 벡터는 현재 블록의 L1 예측 움직임 벡터 및 L1 움직임 벡터 차분의 합으로 유도될 수 있다.Next, the image decoding apparatus may derive the motion vector of the current block by using the difference between the predicted motion vector and the motion vector (S550). Meanwhile, the image encoding apparatus may encode motion vector difference information based on the derived predicted motion vector and the motion vector difference (S650). The motion vector of the current block may be derived through the sum of the difference between the predicted motion vector derived in step S530 and the motion vector derived in step S540. More specifically, the L0 motion vector of the current block can be derived from the sum of the L0 predicted motion vector and the L0 motion vector difference of the current block, and the L1 motion vector of the current block is the L1 predicted motion vector and the L1 motion vector difference of the current block. It can be derived from the sum of
이하에서는, 상술한 움직임 벡터 차분에 대한 해상도 정보를 이용하여 예측 움직임 벡터 및/또는 움직임 벡터의 해상도를 변경 혹은 설정하는 방법에 대해서 설명한다.Hereinafter, a method of changing or setting the resolution of the predicted motion vector and/or the motion vector using the above-described resolution information on the motion vector difference will be described.
도 10은 본 개시의 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 도면이다.10 is a diagram for describing an image decoding method according to an embodiment of the present disclosure.
도 10을 참조하면, 본 개시의 일 실시예에 따른 영상 복호화 방법은, 현재 블록의 예측 모드가 MMVD 모드인지 여부를 판단하는 단계(S1010), 현재 블록의 예측 모드가 MMVD 모드인 경우, 현재 블록에 대한 머지 후보 리스트를 유도하는 단계(S1020), 머지 후보 리스트를 이용하여 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계(S1030), 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계(S1040), 유도된 예측 움직임 벡터의 해상도를 결정하는 단계(S1050), 예측 움직임 벡터 및 움직임 벡터 차분을 이용하여 현재 블록의 움직임 벡터를 유도하는 단계(S1060) 및/또는 유도된 움직임 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 획득하는 단계(S1070)을 포함할 수 있다. 이때, 예측 움직임 벡터의 해상도는 움직임 벡터 차분의 해상도에 기반하여 결정될 수 있다.Referring to FIG. 10, in the video decoding method according to an embodiment of the present disclosure, determining whether a prediction mode of a current block is an MMVD mode (S1010). When a prediction mode of a current block is an MMVD mode, a current block Deriving a merge candidate list for (S1020), deriving a predicted motion vector for the current block using the merge candidate list (S1030), deriving motion vector differences for the current block (S1040), determining the resolution of the derived predicted motion vector (S1050), deriving a motion vector of the current block using the predicted motion vector and the motion vector difference (S1060), and/or using the derived motion vector Thus, it may include obtaining a prediction block for the current block (S1070). In this case, the resolution of the predicted motion vector may be determined based on the resolution of the motion vector difference.
도 11은 본 개시의 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 도면이다.11 is a diagram for describing an image encoding method according to an embodiment of the present disclosure.
도 11을 참조하면, MMVD 모드를 이용한 영상 부호화 방법은, 현재 블록의 예측 모드를 MMVD 모드로 결정하는 단계(S1110), 현재 블록에 대한 머지 후보 리스트를 유도하는 단계(S1120), 머지 후보 리스트를 이용하여 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계(S1130), 상기 예측 움직임 벡터에 기반하여 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계(S1140), 예측 움직임 벡터의 해상도를 결정하는 단계(S1150) 및/또는 상기 유도된 움직임 벡터 차분에 대한 움직임 벡터 차분 정보를 부호화 하는 단계(S1160)을 포함할 수 있다. 이때, 예측 움직임 벡터의 해상도는 움직임 벡터 차분의 해상도에 기반하여 결정될 수 있다.Referring to FIG. 11, the method of encoding an image using the MMVD mode includes determining a prediction mode of a current block as an MMVD mode (S1110), deriving a merge candidate list for the current block (S1120), and a merge candidate list. Deriving a predicted motion vector for the current block by using (S1130), inducing motion vector differences for the current block based on the predicted motion vector (S1140), and determining the resolution of the predicted motion vector It may include determining (S1150) and/or encoding motion vector difference information for the derived motion vector difference (S1160). In this case, the resolution of the predicted motion vector may be determined based on the resolution of the motion vector difference.
단계 S1050 및 단계 S1150을 제외한 단계에 대한 설명은 도 5및 도 6을 통해 설명한 MMVD 모드를 이용한 부호화/복호화 방법과 같으므로 설명을 생략한다.A description of the steps excluding steps S1050 and S1150 is the same as the encoding/decoding method using the MMVD mode described with reference to FIGS. 5 and 6, and thus a description thereof is omitted.
움직임 벡터 차분의 해상도는 상술한 움직임 벡터 차분에 대한 해상도 정보를 바탕으로 결정되므로, 움직임 벡터 차분과 더해져서 움직임 벡터를 유도하는데 사용되는 예측 움직임 벡터의 해상도 역시 움직임 벡터 차분의 해상도와 일치시켜줄 필요가 있다. 본 개시의 일 실시예에 따르면, 예측 움직임 벡터와 움직임 벡터 차분의 해상도가 일치될 수 있어 부호화 효율이 증대될 수 있다. 예컨대, 움직임 벡터 차분의 해상도와 움직임 벡터의 해상도를 정수 해상도로 통일하는 경우, 움직임 벡터의 해상도 역시 정수 해상도로 결정되어 움직임 보상에서의 보간 과정이 생략될 수 있다. Since the resolution of the motion vector difference is determined based on the resolution information on the above-described motion vector difference, the resolution of the predicted motion vector used to induce the motion vector by adding it to the motion vector difference needs to be matched with the resolution of the motion vector difference. have. According to an embodiment of the present disclosure, since resolutions of a predicted motion vector and a motion vector difference may be matched, encoding efficiency may be increased. For example, when the resolution of the motion vector difference and the resolution of the motion vector are unified by an integer resolution, the resolution of the motion vector is also determined as an integer resolution, so that an interpolation process in motion compensation may be omitted.
일 예로, 움직임 벡터 차분의 해상도가 정수 해상도로 결정되는 경우, 영상 부호화/복호화 장치는 예측 움직임 벡터를 라운딩(rounding)하여, 예측 움직임 벡터의 해상도를 정수 해상도로 설정 혹은 변경할 수 있다. 즉, 구문 요소 tile_group_fpel_mmvd_enabled_flag가 1의 값을 가지는 경우, 영상 부호화/복호화 장치는 현재 블록에 대한 예측 움직임 벡터의 해상도를 정수 해상도로 설정 혹은 변경할 수 있다. 반면, 구문 요소 tile_group_fpel_mmvd_enabled_flag가 0의 값을 가지는 경우, 영상 부호화/복호화 장치는 현재 블록에 대한 예측 움직임 벡터의 해상도를 정수 해상도로 설정 혹은 변경하지 않을 수 있다.For example, when the resolution of the motion vector difference is determined to be an integer resolution, the image encoding/decoding apparatus may set or change the resolution of the predicted motion vector to an integer resolution by rounding the predicted motion vector. That is, when the syntax element tile_group_fpel_mmvd_enabled_flag has a value of 1, the video encoding/decoding apparatus may set or change the resolution of the predicted motion vector for the current block as an integer resolution. On the other hand, when the syntax element tile_group_fpel_mmvd_enabled_flag has a value of 0, the video encoding/decoding apparatus may not set or change the resolution of the predicted motion vector for the current block as an integer resolution.
상술한 움직임 벡터의 라운딩 과정은 움직임 벡터의 실제 값에 좌측 쉬프트 및 우측 쉬프트 연산을 수행하여, 일정 자리 수 이하의 벡터 값을 버리는 연산을 의미할 수 있다. 일정 자리 수 이하의 값을 버림에 따라, 움직임 벡터의 해상도가 분수 해상도에서 정수 해상도로 변경될 수 있다. 이때, 라운딩을 수행하기 위해 사용되는 좌측 쉬프팅 값 및 우측 쉬프트 값은 tile_group_fpel_mmvd_enabled_flag 값에 의해 결정될 수 있다. 예를 들어, 좌측 쉬프트 값 및 우측 쉬프트 값은 아래의 수학식 2에 따라 결정될 수 있다.The motion vector rounding process described above may mean an operation in which a vector value less than a certain number of digits is discarded by performing left shift and right shift operations on an actual value of the motion vector. As values less than a certain number of digits are discarded, the resolution of the motion vector may be changed from fractional resolution to integer resolution. In this case, the left shifting value and the right shifting value used to perform rounding may be determined by the tile_group_fpel_mmvd_enabled_flag value. For example, the left shift value and the right shift value may be determined according to Equation 2 below.
[수학식 2][Equation 2]
MmvdMvShift = (tile_group_fpel_mmvd_enabled_flag) << 2MmvdMvShift = (tile_group_fpel_mmvd_enabled_flag) << 2
leftShift = MmvdMvShift, rightShift = MmvdMvShiftleftShift = MmvdMvShift, rightShift = MmvdMvShift
이하의 설명에서 수학식 2의 MmvdMvShift는 제 1 쉬프팅 값으로 명명될 수 있다.In the following description, MmvdMvShift of Equation 2 may be referred to as a first shifting value.
도 12는 본 개시의 다른 일 실시예에 따른 움직임 보상(Motion Compensation) 방법을 설명하기 위한 도면이다.12 is a diagram for describing a motion compensation method according to another embodiment of the present disclosure.
본 개시의 다른 일 실시예에 따르면, 영상 부호화/복호화 장치는 움직임 벡터 차분의 해상도를 고려하여 현재 블록에 대한 움직임 보상을 수행할 수 있다. 도 12의 실시예는 움직임 벡터 차분의 해상도가 정수 해상도로 결정되는 경우의 실시예일 수 있다.According to another embodiment of the present disclosure, the apparatus for encoding/decoding an image may perform motion compensation on a current block in consideration of a resolution of a motion vector difference. The embodiment of FIG. 12 may be an embodiment in which the resolution of the motion vector difference is determined as an integer resolution.
영상 부호화/복호화 장치는 움직임 벡터 차분의 해상도가 정수 해상도를 가지는 경우(S1210), 예측 움직임 벡터 및 움직임 벡터 차분의 합으로 유도된 움직임 벡터의 해상도가 정수 해상도인지 여부를 판단할 수 있다(S1220). 움직임 벡터의 해상도가 정수 해상도가 아닌 경우, 영상 부호화/복호화 장치는 보간을 수행(S1230)하여 분수 해상도 단위로 현재 블록에 대한 움직임 보상을 수행할 수 있다(S1240). 반면, 움직임 벡터의 해상도가 정수 해상도인 경우 별도의 보간 과정 없이 움직임 보상이 수행되어(S1240) 현재 블록에 대한 예측 샘플이 유도될 수 있다.When the resolution of the motion vector difference has an integer resolution (S1210), the image encoding/decoding apparatus may determine whether the resolution of the motion vector derived from the sum of the predicted motion vector and the motion vector difference is an integer resolution (S1220). . When the resolution of the motion vector is not the integer resolution, the image encoding/decoding apparatus may perform interpolation (S1230) to perform motion compensation on the current block in units of fractional resolution (S1240). On the other hand, when the resolution of the motion vector is an integer resolution, motion compensation is performed without a separate interpolation process (S1240), and a prediction sample for the current block may be derived.
본 실시예에 따르면 움직임 벡터의 해상도가 정수 해상도인 경우, 별도의 보간 과정이 수행될 필요가 없어지므로, 부호화 효율이 증대될 수 있다.According to the present embodiment, when the resolution of a motion vector is an integer resolution, since there is no need to perform a separate interpolation process, encoding efficiency can be increased.
도 13은 본 개시의 또 다른 일 실시예에 따른 움직임 추정 방법(Motion Estimation)을 설명하기 위한 도면이다.13 is a diagram for describing a motion estimation method according to another embodiment of the present disclosure.
본 개시의 또 다른 일 실시예에 따르면, 영상 부호화 장치는 움직임 벡터 차분의 해상도를 고려하여 현재 블록에 대한 움직임 추정을 수행할 수 있다. 도 13을 참조하면, 영상 부호화 장치는 최적의 예측 샘플을 유도하기 위해 머지 후보 리스트를 생성하고(S1310), 각 후보 별로(S1320) 움직임 추정을 수행할 수 있다. 움직임 추정 결과, 최적의 예측 샘플을 유도할 수 있는 머지 후보가 결정될 수 있으며, 결정된 후보를 지시하는 머지 후보 인덱스가 부호화될 수 있다.According to another embodiment of the present disclosure, the apparatus for encoding an image may perform motion estimation on a current block in consideration of a resolution of a motion vector difference. Referring to FIG. 13, the image encoding apparatus may generate a merge candidate list (S1310) and perform motion estimation for each candidate (S1320) to derive an optimal prediction sample. As a result of motion estimation, a merge candidate capable of inducing an optimal prediction sample may be determined, and a merge candidate index indicating the determined candidate may be encoded.
영상 부호화 장치는 각 머지 후보의 움직임 벡터 차분의 해상도를 판단할 수 있다(S1330). 예컨대, 특정 후보의 움직임 벡터 차분의 해상도가 정수 해상도인 경우(tile_group_fpel_mmvd_enabled_flag==1), 해당 머지 후보의 예측 움직임 벡터에 대한 라운딩이 수행될 수 있다(S1340). 예측 움직임 벡터의 라운딩 과정은 도 11을 통해 설명한바와 같으므로 여기서는 설명을 생략한다. 라운딩 과정에 따라 예측 움직임 벡터는 정수 해상도를 가지도록 설정될 수 있다. 영상 부호화 장치는 정수 해상도로 설정된 예측 움직임 벡터 및 움직임 벡터 차분을 이용하여, 현재 블록에 대해 정수 단위 움직임 추정(S1360)을 수행할 수 있다.The image encoding apparatus may determine the resolution of the motion vector difference of each merge candidate (S1330). For example, when the resolution of a motion vector difference of a specific candidate is an integer resolution (tile_group_fpel_mmvd_enabled_flag==1), rounding may be performed on the predicted motion vector of the corresponding merge candidate (S1340). Since the rounding process of the predicted motion vector is the same as that described with reference to FIG. 11, the description is omitted here. According to the rounding process, the predicted motion vector may be set to have integer resolution. The image encoding apparatus may perform integer-unit motion estimation (S1360) on the current block by using the predicted motion vector and the motion vector difference set to the integer resolution.
반면, 특정 후보의 움직임 벡터 차분의 해상도가 정수 해상도가 아닌 경우 (tile_group_fpel_mmvd_enabled_flag==0), 참조 픽처에 대한 보간(S1350)이 수행될 수 있다. 영상 부호화 장치는 분수 해상도로 설정된 예측 움직임 벡터 및 움직임 벡터 차분을 이용하여, 현재 블록에 대해 분수 단위 움직임 추정(S1370)을 수행할 수 있다.On the other hand, when the resolution of the motion vector difference of a specific candidate is not an integer resolution (tile_group_fpel_mmvd_enabled_flag==0), interpolation (S1350) for the reference picture may be performed. The image encoding apparatus may perform fractional motion estimation (S1370) on the current block by using the predicted motion vector and the motion vector difference set to the fractional resolution.
본 실시예에 따르면 머지 후보의 움직임 벡터 차분이 정수 해상도를 가지는지 여부에 따라, 영상 부호화 장치는 라운딩 과정 및/또는 보간 과정을 선택적으로 수행할 수 있으므로, 영상 부호화 효율이 증대될 수 있다.According to the present embodiment, the image encoding apparatus may selectively perform a rounding process and/or an interpolation process depending on whether a motion vector difference of a merge candidate has an integer resolution, and thus, image encoding efficiency may be increased.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.The exemplary methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which steps are performed, and each step may be performed simultaneously or in a different order if necessary. In order to implement the method according to the present disclosure, the illustrative steps may include additional steps, other steps may be included excluding some steps, or may include additional other steps excluding some steps.
본 개시에 있어서, 소정의 동작(단계)을 수행하는 영상 부호화 장치 또는 영상 복호화 장치는 해당 동작(단계)의 수행 조건이나 상황을 확인하는 동작(단계)을 수행할 수 있다. 예컨대, 소정의 조건이 만족되는 경우 소정의 동작을 수행한다고 기재된 경우, 영상 부호화 장치 또는 영상 복호화 장치는 상기 소정의 조건이 만족되는지 여부를 확인하는 동작을 수행한 후, 상기 소정의 동작을 수행할 수 있다.In the present disclosure, an image encoding apparatus or an image decoding apparatus performing a predetermined operation (step) may perform an operation (step) of confirming an execution condition or situation of the operation (step). For example, when it is described that a predetermined operation is performed when a predetermined condition is satisfied, the video encoding apparatus or the video decoding apparatus performs an operation to check whether the predetermined condition is satisfied, and then performs the predetermined operation. I can.
본 개시의 다양한 실시예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure are not intended to list all possible combinations, but to describe representative aspects of the present disclosure, and matters described in the various embodiments may be applied independently or may be applied in combination of two or more.
또한, 본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.
또한, 본 개시의 실시예가 적용된 영상 복호화 장치 및 영상 부호화 장치는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, OTT 비디오(Over the top video) 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 또는 데이터 신호를 처리하기 위해 사용될 수 있다. 예를 들어, OTT 비디오(Over the top video) 장치로는 게임 콘솔, 블루레이 플레이어, 인터넷 접속 TV, 홈시어터 시스템, 스마트폰, 태블릿 PC, DVR(Digital Video Recoder) 등을 포함할 수 있다.In addition, the image decoding device and the image encoding device to which the embodiment of the present disclosure is applied include a multimedia broadcasting transmission/reception device, a mobile communication terminal, a home cinema video device, a digital cinema video device, a surveillance camera, a video chat device, and a real-time communication device such as video communication. , Mobile streaming devices, storage media, camcorders, video-on-demand (VoD) service providers, OTT video (Over the top video) devices, Internet streaming service providers, three-dimensional (3D) video devices, video telephony video devices, and medical use. It may be included in a video device or the like, and may be used to process a video signal or a data signal. For example, an OTT video (Over the top video) device may include a game console, a Blu-ray player, an Internet-connected TV, a home theater system, a smartphone, a tablet PC, and a digital video recorder (DVR).
도 12는 본 개시의 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시한 도면이다.12 is a diagram illustrating a content streaming system to which an embodiment of the present disclosure can be applied.
도 12에 도시된 바와 같이, 본 개시의 실시예가 적용된 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.As shown in FIG. 12, the content streaming system to which the embodiment of the present disclosure is applied may largely include an encoding server, a streaming server, a web server, a media storage device, a user device, and a multimedia input device.
상기 인코딩 서버는 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수 있다.The encoding server serves to generate a bitstream by compressing content input from multimedia input devices such as smartphones, cameras, camcorders, etc. into digital data, and transmits it to the streaming server. As another example, when multimedia input devices such as smartphones, cameras, camcorders, etc. directly generate bitstreams, the encoding server may be omitted.
상기 비트스트림은 본 개시의 실시예가 적용된 영상 부호화 방법 및/또는 영상 부호화 장치에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.The bitstream may be generated by an image encoding method and/or an image encoding apparatus to which an embodiment of the present disclosure is applied, and the streaming server may temporarily store the bitstream in a process of transmitting or receiving the bitstream.
상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기초하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 할 수 있다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송할 수 있다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 수행할 수 있다.The streaming server may transmit multimedia data to a user device based on a user request through a web server, and the web server may serve as an intermediary informing the user of a service. When a user requests a desired service from the web server, the web server transmits the request to the streaming server, and the streaming server may transmit multimedia data to the user. In this case, the content streaming system may include a separate control server, and in this case, the control server may play a role of controlling a command/response between devices in the content streaming system.
상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.The streaming server may receive content from a media storage and/or encoding server. For example, when content is received from the encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may store the bitstream for a predetermined time.
상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다.Examples of the user device include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a slate PC, and Tablet PC, ultrabook, wearable device, for example, smartwatch, smart glass, head mounted display (HMD)), digital TV, desktop There may be computers, digital signage, etc.
상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.Each server in the content streaming system may be operated as a distributed server, and in this case, data received from each server may be distributedly processed.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer.
본 개시에 따른 실시예는 영상을 부호화/복호화하는데 이용될 수 있다.An embodiment according to the present disclosure may be used to encode/decode an image.

Claims (14)

  1. 영상 복호화 장치에 의해 수행되는 영상 복호화 방법으로서, 상기 영상 복호화 방법은,A video decoding method performed by a video decoding apparatus, the video decoding method comprising:
    현재 블록의 예측 모드가 MMVD(Merge mode with Motion Vector Difference) 모드인지 여부를 판단하는 단계;Determining whether a prediction mode of the current block is a merge mode with motion vector difference (MMVD) mode;
    상기 현재 블록의 예측 모드가 MMVD 모드로 판단되는 경우, 상기 현재 블록에 대한 머지 후보 리스트를 유도하는 단계;If it is determined that the prediction mode of the current block is the MMVD mode, deriving a merge candidate list for the current block;
    상기 머지 후보 리스트를 이용하여 상기 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계;Deriving a predicted motion vector for the current block by using the merge candidate list;
    상기 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계;Deriving motion vector differences for the current block;
    상기 예측 움직임 벡터의 해상도를 설정하는 단계;Setting a resolution of the predicted motion vector;
    상기 예측 움직임 벡터 및 상기 움직임 벡터 차분을 이용하여 상기 현재 블록에 대한 움직임 벡터를 유도하는 단계; 및Deriving a motion vector for the current block by using the predicted motion vector and the motion vector difference; And
    상기 현재 블록에 대한 움직임 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 획득하는 단계를 포함하되,Including the step of obtaining a prediction block for the current block by using the motion vector for the current block,
    상기 예측 움직임 벡터의 해상도는 상기 움직임 벡터 차분의 해상도에 기반하여 설정되는 것을 특징으로 하는, 영상 복호화 방법.The resolution of the predicted motion vector is set based on the resolution of the difference of the motion vector.
  2. 제 1항에 있어서,The method of claim 1,
    상기 현재 블록에 대한 움직임 벡터 차분 정보를 복호화하는 단계를 더 포함하되,Further comprising the step of decoding motion vector difference information for the current block,
    상기 움직임 벡터 차분 정보는, 상기 움직임 벡터 차분에 대한 크기 정보, 상기 움직임 벡터 차분에 대한 방향 정보 및 상기 움직임 벡터 차분에 대한 해상도 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 영상 복호화 방법.The motion vector difference information, characterized in that it comprises at least one of size information on the motion vector difference, direction information on the motion vector difference, and resolution information on the motion vector difference.
  3. 제 2항에 있어서,The method of claim 2,
    상기 움직임 벡터 차분에 대한 해상도 정보는, 상기 현재 블록의 움직임 벡터 차분이 정수 해상도를 사용하는지 여부를 지시하는 것을 특징으로 하는, 영상 복호화 방법.The resolution information on the motion vector difference indicates whether or not the motion vector difference of the current block uses an integer resolution.
  4. 제 2항에 있어서,The method of claim 2,
    상기 움직임 벡터 차분의 크기는 복수의 테이블을 기반으로 유도되되,The magnitude of the motion vector difference is derived based on a plurality of tables,
    상기 움직임 벡터 차분의 크기를 유도하기 위해 사용되는 테이블은, 상기 움직임 벡터 차분에 대한 해상도 정보를 기반으로 선택되는 것을 특징으로 하는, 영상 복호화 방법.A table used to derive the magnitude of the motion vector difference, characterized in that it is selected based on resolution information on the motion vector difference.
  5. 제 4항에 있어서,The method of claim 4,
    상기 움직임 벡터 차분에 대한 크기 정보는, 상기 움직임 벡터 차분을 유도하기 위해 사용되는 테이블의 값들 중 하나의 값을 지시하는 것을 특징으로 하는, 영상 복호화 방법.The image decoding method, characterized in that the size information on the motion vector difference indicates one of values of a table used to induce the motion vector difference.
  6. 제 2항에 있어서,The method of claim 2,
    상기 움직임 벡터 차분에 대한 방향 정보는, 상기 움직임 벡터 차분이 (+,0), (-,0), (0,+) 및 (0,-) 중 하나의 방향 성분 세트로 표현됨을 지시하는 것을 특징으로 하는, 영상 복호화 방법.The direction information on the motion vector difference indicates that the motion vector difference is expressed as a set of direction components of (+,0), (-,0), (0,+) and (0,-). Characterized in, the video decoding method.
  7. 제 1항에 있어서,The method of claim 1,
    상기 머지 후보 리스트 내의 후보 중 기설정된 개수의 후보만이 상기 예측 움직임 벡터 유도에 이용되는 것을 특징으로 하는, 영상 복호화 방법.A video decoding method, characterized in that only a preset number of candidates among candidates in the merge candidate list is used for deriving the predicted motion vector.
  8. 제 2항에 있어서,The method of claim 2,
    상기 예측 움직임 벡터의 해상도를 설정하는 단계는,The step of setting the resolution of the predicted motion vector,
    상기 예측 움직임 벡터를 라운딩(rounding)하여 상기 예측 움직임 벡터의 해상도를 설정하는 단계를 포함하는 것을 특징으로 하는, 영상 복호화 방법.And setting the resolution of the predicted motion vector by rounding the predicted motion vector.
  9. 제 8항에 있어서,The method of claim 8,
    상기 라운딩은 상기 움직임 벡터 차분에 대한 해상도 정보를 이용하여 결정되는 제 1 쉬프팅(shifting) 값에 기반하여 수행되는 것을 특징으로 하는, 영상 복호화 방법.The rounding is performed based on a first shifting value determined using resolution information for the motion vector difference.
  10. 제 9항에 있어서,The method of claim 9,
    상기 라운딩은 상기 예측 움직임 벡터에 대해 좌측 쉬프트 연산 및 우측 쉬프트 연산이 적용되어 수행되고,The rounding is performed by applying a left shift operation and a right shift operation to the predicted motion vector,
    상기 좌측 쉬프트 연산 및 상기 우측 쉬프트 연산에 사용되는 쉬프팅 값은 상기 제 1 쉬프팅 값으로 결정되는 것을 특징으로 하는, 영상 복호화 방법.The image decoding method, characterized in that the shifting value used for the left shift operation and the right shift operation is determined as the first shifting value.
  11. 메모리 및 적어도 하나의 프로세서를 포함하는 영상 복호화 장치로서,An image decoding apparatus comprising a memory and at least one processor,
    상기 적어도 하나의 프로세서는The at least one processor
    현재 블록의 예측 모드가 MMVD(Merge mode with Motion Vector Difference) 모드인지 여부를 판단하고,It is determined whether the prediction mode of the current block is the Merge mode with Motion Vector Difference (MMVD) mode,
    상기 현재 블록의 예측 모드가 MMVD 모드로 판단되는 경우, 상기 현재 블록에 대한 머지 후보 리스트를 유도하고,When it is determined that the prediction mode of the current block is the MMVD mode, a merge candidate list for the current block is derived,
    상기 머지 후보 리스트를 이용하여 상기 현재 블록에 대한 예측 움직임 벡터를 유도하고,Derive a predicted motion vector for the current block using the merge candidate list,
    상기 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하고,Induce motion vector differences for the current block,
    상기 예측 움직임 벡터의 해상도를 설정하고,Setting the resolution of the predicted motion vector,
    상기 예측 움직임 벡터 및 상기 움직임 벡터 차분을 이용하여 상기 현재 블록에 대한 움직임 벡터를 유도하고,Derive a motion vector for the current block using the predicted motion vector and the motion vector difference,
    상기 현재 블록에 대한 움직임 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 획득하되,Obtaining a prediction block for the current block using a motion vector for the current block,
    상기 예측 움직임 벡터의 해상도는 상기 움직임 벡터 차분의 해상도에 기반하여 설정되는 것을 특징으로 하는, 영상 복호화 장치.The image decoding apparatus, characterized in that the resolution of the predicted motion vector is set based on the resolution of the motion vector difference.
  12. 영상 부호화 장치에 의해 수행되는 영상 부호화 방법으로서, 상기 영상 부호화 방법은,An image encoding method performed by an image encoding apparatus, wherein the image encoding method comprises:
    현재 블록의 예측 모드를 MMVD(Merge mode with Motion Vector Difference) 모드로 결정하는 단계;Determining a prediction mode of the current block as a merge mode with motion vector difference (MMVD) mode;
    상기 현재 블록에 대한 머지 후보 리스트를 유도하는 단계;Deriving a merge candidate list for the current block;
    상기 머지 후보 리스트를 이용하여 상기 현재 블록에 대한 예측 움직임 벡터를 유도하는 단계;Deriving a predicted motion vector for the current block by using the merge candidate list;
    상기 예측 움직임 벡터에 기반하여 상기 현재 블록에 대한 움직임 벡터 차분(Motion Vector Differences)을 유도하는 단계;Inducing motion vector differences for the current block based on the predicted motion vector;
    상기 예측 움직임 벡터의 해상도를 설정하는 단계; 및Setting a resolution of the predicted motion vector; And
    상기 현재 블록에 대한 움직임 벡터 차분 정보를 부호화하는 정보를 더 포함하되,Further comprising information for encoding motion vector difference information for the current block,
    상기 예측 움직임 벡터의 해상도는 상기 움직임 벡터 차분의 해상도에 기반하여 설정되는 것을 특징으로 하는, 영상 부호화 방법.The resolution of the predicted motion vector is set based on the resolution of the difference of the motion vector.
  13. 제 12항에 있어서,The method of claim 12,
    상기 움직임 벡터 차분 정보는, 상기 움직임 벡터 차분에 대한 해상도 정보를 포함하되,The motion vector difference information includes resolution information on the motion vector difference,
    상기 움직임 벡터 차분에 대한 해상도 정보는, 상기 현재 블록의 움직임 벡터 차분이 정수 해상도를 사용하는지 여부를 지시하는 것을 특징으로 하는, 영상 부호화 방법.The resolution information on the motion vector difference indicates whether or not the motion vector difference of the current block uses an integer resolution.
  14. 제 12항의 영상 부호화 방법에 의해 생성된 비트스트림을 전송하는 방법.A method of transmitting a bitstream generated by the video encoding method of claim 12.
PCT/KR2020/003196 2019-03-06 2020-03-06 Image encoding/decoding method and apparatus, and method for transmitting bitstream WO2020180159A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962814825P 2019-03-06 2019-03-06
US62/814,825 2019-03-06

Publications (1)

Publication Number Publication Date
WO2020180159A1 true WO2020180159A1 (en) 2020-09-10

Family

ID=72337935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003196 WO2020180159A1 (en) 2019-03-06 2020-03-06 Image encoding/decoding method and apparatus, and method for transmitting bitstream

Country Status (1)

Country Link
WO (1) WO2020180159A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115529851A (en) * 2021-04-26 2022-12-27 腾讯美国有限责任公司 Geometric partitioning mode and merging mode with motion vector difference signaling
WO2023123478A1 (en) * 2021-12-31 2023-07-06 Oppo广东移动通信有限公司 Prediction methods and apparatuses, devices, system, and storage medium
WO2023132614A1 (en) * 2022-01-04 2023-07-13 현대자동차주식회사 Video encoding/decoding method and device for improving merge mode

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140043807A (en) * 2011-07-01 2014-04-10 퀄컴 인코포레이티드 Video coding using adaptive motion vector resolution
WO2018067672A1 (en) * 2016-10-04 2018-04-12 Qualcomm Incorporated Adaptive motion vector precision for video coding
KR20180059443A (en) * 2015-09-24 2018-06-04 엘지전자 주식회사 Motion vector refinement based inter prediction method and apparatus in video coding system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140043807A (en) * 2011-07-01 2014-04-10 퀄컴 인코포레이티드 Video coding using adaptive motion vector resolution
KR20180059443A (en) * 2015-09-24 2018-06-04 엘지전자 주식회사 Motion vector refinement based inter prediction method and apparatus in video coding system
WO2018067672A1 (en) * 2016-10-04 2018-04-12 Qualcomm Incorporated Adaptive motion vector precision for video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIU, HONGBIN ET AL.: "AHG11: MMVD without Fractional Distances for SCC", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC1/SC 29/WG 11. 13TH MEETING, no. JVET-M0255, 28 January 2019 (2019-01-28), Marrakech, MA, XP030200414 *
PARK, NAERI ET AL.: "CE4-related : Candidates optimization on MMVD", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, no. JVET -M0307-v2., 12 January 2019 (2019-01-12), Marrakech, MA, XP030201769 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115529851A (en) * 2021-04-26 2022-12-27 腾讯美国有限责任公司 Geometric partitioning mode and merging mode with motion vector difference signaling
WO2023123478A1 (en) * 2021-12-31 2023-07-06 Oppo广东移动通信有限公司 Prediction methods and apparatuses, devices, system, and storage medium
WO2023132614A1 (en) * 2022-01-04 2023-07-13 현대자동차주식회사 Video encoding/decoding method and device for improving merge mode

Similar Documents

Publication Publication Date Title
WO2020184991A1 (en) Method and apparatus for video encoding/decoding using ibc mode, and method for transmitting bitstream
WO2021137597A1 (en) Image decoding method and device using dpb parameter for ols
WO2020180159A1 (en) Image encoding/decoding method and apparatus, and method for transmitting bitstream
WO2021015537A1 (en) Image encoding/decoding method and device for signaling chroma component prediction information according to whether palette mode is applicable, and method for transmitting bitstream
WO2020141879A1 (en) Affine motion prediction-based video decoding method and device using subblock-based temporal merge candidate in video coding system
WO2020167097A1 (en) Derivation of inter-prediction type for inter prediction in image coding system
WO2020256506A1 (en) Video encoding/decoding method and apparatus using multiple reference line intra-prediction, and method for transmitting bitstream
WO2021029744A1 (en) Image encoding/decoding method and apparatus for determining prediction mode of chroma block by referring to luma sample position, and method for transmitting bitstream
WO2020256455A1 (en) Image decoding method for deriving prediction sample on basis of default merge mode, and device therefor
WO2020185047A1 (en) Image encoding/decoding method and apparatus for performing intra prediction, and method for transmitting bitstream
WO2020141886A1 (en) Sbtmvp-based inter prediction method and apparatus
WO2020197243A1 (en) Image encoding/decoding method and device using symmetric motion vector difference (smvd), and method for transmitting bitstream
WO2021125700A1 (en) Prediction weighted table-based image/video coding method and apparatus
WO2020184966A1 (en) Image encoding/decoding method and device, and method for transmitting bitstream
WO2020251270A1 (en) Image or video coding based on temporal motion information in units of subblocks
WO2020251340A1 (en) Motion vector prediction-based image/video coding method and device
WO2020180043A1 (en) Image coding method based on lmcs, and device therefor
WO2021201663A1 (en) Image encoding/decoding method and device signaling sps, and method for transmitting bitstream
WO2021112633A1 (en) Method and apparatus for encoding/decoding image on basis of picture header including information relating to co-located picture, and method for transmitting bitstream
WO2021015512A1 (en) Image encoding/decoding method and apparatus using ibc, and method for transmitting bitstream
WO2021034122A1 (en) Image encoding/decoding method and device for performing prediction on basis of hmvp candidate, and method for transmitting bitstream
WO2021125702A1 (en) Image/video coding method and device based on weighted prediction
WO2021091214A1 (en) Video decoding method and device for coding chroma quantization parameter offset-related information
WO2021015513A1 (en) Image encoding/decoding method and device using filtering, and method for transmitting bitstream
WO2020184990A1 (en) Image encoding/decoding method and apparatus using ibc prediction, and method for transmitting bitstream

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20766772

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20766772

Country of ref document: EP

Kind code of ref document: A1