WO2019027286A1 - 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 - Google Patents

어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 Download PDF

Info

Publication number
WO2019027286A1
WO2019027286A1 PCT/KR2018/008845 KR2018008845W WO2019027286A1 WO 2019027286 A1 WO2019027286 A1 WO 2019027286A1 KR 2018008845 W KR2018008845 W KR 2018008845W WO 2019027286 A1 WO2019027286 A1 WO 2019027286A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
affine
current block
motion vector
flag
Prior art date
Application number
PCT/KR2018/008845
Other languages
English (en)
French (fr)
Inventor
이재호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US16/636,263 priority Critical patent/US11089317B2/en
Priority to CN202410534253.0A priority patent/CN118214883A/zh
Priority to KR1020207004148A priority patent/KR102345442B1/ko
Priority to EP18840631.8A priority patent/EP3661209A1/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020237021482A priority patent/KR102664781B1/ko
Priority to KR1020227032285A priority patent/KR102549228B1/ko
Priority to CN202410534881.9A priority patent/CN118214884A/zh
Priority to KR1020247014995A priority patent/KR20240065329A/ko
Priority to CN201880057060.3A priority patent/CN111066324B/zh
Priority to JP2020505788A priority patent/JP7393326B2/ja
Priority to KR1020217042670A priority patent/KR102472053B1/ko
Publication of WO2019027286A1 publication Critical patent/WO2019027286A1/ko
Priority to US17/363,648 priority patent/US11736707B2/en
Priority to US18/217,126 priority patent/US20230353768A1/en
Priority to JP2023198969A priority patent/JP2024015036A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a method and apparatus for encoding / decoding video signals, and more particularly to a method and apparatus for adaptively performing affine prediction.
  • Compressive encoding refers to a series of signal processing techniques for transmitting digitized information over a communication line or for storing it in a form suitable for a storage medium.
  • Media such as video, image, and audio can be subject to compression coding.
  • a technique for performing compression coding on an image is referred to as video image compression.
  • Next-generation video content will feature high spatial resolution, high frame rate, and high dimensionality of scene representation. Processing such content will result in a tremendous increase in terms of memory storage, memory access rate, and processing power.
  • the present invention proposes a method of encoding and decoding a video signal more efficiently.
  • the present invention can be applied to encoding or decoding in consideration of both the AF4 mode, which is a four parameter affine prediction mode using four parameters, and the AF6 mode, which is a six parameter affine prediction mode using six parameters .
  • the present invention also proposes a method for adaptively determining (or selecting) an optimal coding mode based on at least one of an AF4 mode or an AF6 mode based on a block size.
  • the present invention also proposes a method for adaptively determining (or selecting) an optimal coding mode based on at least one of an AF4 mode or an AF6 mode based on whether neighboring blocks are coded by affine prediction.
  • the present invention provides a method for adaptively performing affine prediction based on a block size.
  • the present invention also provides a method for adaptively performing affine prediction based on whether neighboring blocks are coded by affine prediction.
  • the present invention also provides a method for adaptively determining (or selecting) an optimal coding mode based on at least one of an AF4 mode or an AF6 mode.
  • the present invention provides a method for adaptively performing affine prediction based on whether at least one predetermined condition is satisfied, wherein the predetermined condition is a block size, a number of pixels of a block , The width of the block, the height of the block, and whether the neighboring block is coded by affine prediction.
  • the predetermined condition is a block size, a number of pixels of a block , The width of the block, the height of the block, and whether the neighboring block is coded by affine prediction.
  • the present invention provides a method for adaptively performing affine prediction, thereby improving the performance of affine prediction and reducing the complexity of affine prediction. Coding can be performed.
  • FIG. 1 shows a schematic block diagram of an encoder in which the encoding of a video signal is performed, in which the present invention is applied.
  • Fig. 2 shows a schematic block diagram of a decoder in which decoding of a video signal is performed, according to an embodiment to which the present invention is applied.
  • FIG. 3 is a diagram for explaining a block division structure of a QT (QuadTree, hereinafter referred to as 'QT') to which the present invention can be applied.
  • FIG. 4 is a diagram for explaining a BT (Binary Tree, hereinafter referred to as 'BT') block division structure to which the present invention can be applied.
  • BT Binary Tree
  • FIG. 5 is a diagram for explaining a block division structure of a TT (Ternary Tree) block according to an embodiment of the present invention.
  • FIG. 6 is a diagram for explaining an AT (Asymmetric Tree) block partitioning structure to which the present invention can be applied.
  • FIG. 7 is a diagram for explaining an inter prediction mode as an embodiment to which the present invention is applied.
  • FIG. 8 is a diagram for explaining an affine motion model as an embodiment to which the present invention is applied.
  • FIG. 9 is a diagram for explaining an affine motion prediction method using a control point motion vector according to an embodiment of the present invention. Referring to FIG.
  • FIG. 10 is a flowchart illustrating a process of processing a video signal including a current block using an affine prediction mode according to an embodiment of the present invention.
  • 11 is a flowchart of a method for adaptively determining an optimal coding mode based on at least one of an AF4 mode and an AF6 mode according to an embodiment (1-1) to which the present invention is applied.
  • Fig. 12 shows a flowchart for performing adaptive decoding based on the AF4 mode or the AF6 mode as an embodiment (1-2) to which the present invention is applied.
  • FIG. 13 shows an embodiment (1-3) to which the present invention is applied, showing a syntax structure for performing decoding based on the AF4 mode or the AF6 mode.
  • FIG. 14 is an embodiment (2-1) to which the present invention is applied, in which adaptively determines an optimal coding mode among the motion vector prediction modes including the AF4 mode or the AF6 mode based on the condition A Fig.
  • Fig. 15 shows a flowchart for performing adaptive decoding according to the AF4 mode or the AF6 mode based on the condition A (condition A) as an embodiment (2-2) to which the present invention is applied.
  • FIG. 16 shows a syntax structure for performing decoding according to the AF4 mode or the AF6 mode on the basis of the condition A (condition A) according to the embodiment (2-3) to which the present invention is applied.
  • FIG. 17 shows an embodiment (3-1) to which the present invention is applied.
  • the motion vector prediction modes including the AF4 mode or the AF6 mode, based on at least one of the condition B (condition B) and the condition C
  • a coding mode adaptively determining an optimum coding mode among the plurality of coding modes.
  • FIG. 18 is an embodiment (3-2) to which the present invention is applied and adaptively decodes according to the AF4 mode or the AF6 mode based on at least one of the condition B (condition B) and the condition C (condition C) Fig.
  • Fig. 19 is a schematic block diagram of a syntax structure (or a decoder) according to an embodiment (3-3) to which the present invention is applied and which performs decoding in accordance with at least one of the condition B (condition B) or the condition C .
  • FIG. 20 is a flowchart of a method for adaptively determining an optimal coding mode among motion vector prediction modes including an AF4 mode or an AF6 mode based on a coding mode of a neighboring block, according to an embodiment (4-1) to which the present invention is applied .
  • FIG. 21 shows a flowchart for performing adaptive decoding according to the AF4 mode or the AF6 mode based on the coding mode of the neighboring block, according to an embodiment (4-2) to which the present invention is applied.
  • FIG. 22 shows a syntax structure for performing decoding according to the AF4 mode or the AF6 mode based on a coding mode of a neighboring block, according to an embodiment (4-3) to which the present invention is applied.
  • FIG. 23 shows an embodiment (5-1) to which the present invention is applied.
  • the AF4 mode or the AF6 mode is set based on at least one of a condition A (condition A), a condition B (condition B)
  • FIG. 4 is a flowchart illustrating a method of adaptively determining an optimal coding mode among the motion vector prediction modes included in FIG.
  • FIG. 24 shows an embodiment (5-2) to which the present invention is applied.
  • the condition A condition A
  • the condition B condition B
  • FIG. 2 is a flowchart illustrating a decoding process according to the present invention.
  • FIG. 25 shows an embodiment (5-3) to which the present invention is applied.
  • the condition A condition A
  • the condition B based on at least one of the condition A (condition A)
  • the condition B And then performs a decoding process.
  • FIG. 26 shows an embodiment (6-1) to which the present invention is applied.
  • FIG. 27 is a flowchart (6-2) of an embodiment (6-2) to which the present invention is applied and which performs adaptive decoding according to the AF4 mode or the AF6 mode based on at least one of a coding condition of a condition A .
  • FIG. 28 shows an embodiment (6-3) to which the present invention is applied, showing a syntax structure for performing decoding according to the AF4 mode or the AF6 mode based on at least one of a coding condition of a condition A (condition A) .
  • 29 shows a flowchart for generating a motion vector predictor based on at least one of the AF4 mode and the AF6 mode, to which the present invention is applied.
  • FIG. 30 shows a flowchart for generating a motion vector predictor based on AF4_flag and AF6_flag according to an embodiment to which the present invention is applied.
  • FIG. 31 shows a flowchart for adaptively decoding according to the AF4 mode or the AF6 mode based on whether or not a neighboring block is coded in the AF mode, according to an embodiment to which the present invention is applied.
  • 32 shows an embodiment in which the present invention is applied, and shows a syntax for performing adaptive decoding based on AF4_flag and AF6_flag.
  • FIG. 33 shows an embodiment in which the present invention is applied, and shows a syntax for performing adaptive decoding according to the AF4 mode or the AF6 mode based on whether or not a neighboring block is coded in the AF mode.
  • 35 shows a content streaming system to which the present invention is applied.
  • the present invention provides a method of decoding a video signal including a current block based on an Affine Motion Prediction Mode (AF Mode), the method comprising the steps of: determining whether the AF mode is applied to the current block; Wherein the AF mode represents a motion prediction mode using an affine motion model; Determining whether an AF4 mode is used when the AF mode is applied to the current block, wherein the AF4 mode is a mode in which a motion vector is calculated using four parameters constituting the affine motion model, ≪ / RTI > If the AF4 mode is used, a motion vector predictor is generated using the four parameters. If the AF4 mode is not used, a motion vector predictor is generated using six parameters constituting the affine motion model step; And obtaining a motion vector of the current block based on the motion vector predictor.
  • AF Mode Affine Motion Prediction Mode
  • the method may further comprise obtaining an affine flag from the video signal, wherein the affine flag indicates whether the AF mode is applied to the current block, Whether or not the AF mode is applied is confirmed based on the affine flag.
  • the method further includes obtaining an affine parameter flag from the video signal when the AF mode is applied to the current block according to the affine flag, wherein the affine parameter flag And whether the motion vector predictor is generated using the four parameters or using the six parameters.
  • the affine flag and the affine parameter flag are defined in at least one level of a slice, a maximum coding unit, a coding unit or a prediction unit.
  • the method further comprises checking whether the size of the current block satisfies a predetermined condition, wherein the predetermined condition is a number of pixels in the current block, a width and / Wherein the step of determining whether the AF mode is applied to the current block is performed if at least one of the current block and the current block is larger than a predetermined threshold and the current block size satisfies a predetermined condition .
  • the current block when the size of the current block does not satisfy the predetermined condition, the current block is decoded based on a coding mode other than the AF mode.
  • the method may further include, if the AF mode is applied to the current block, checking whether the AF mode is applied to the neighboring block, wherein when the AF mode is applied to the neighboring block , A motion vector predictor is generated using the four parameters, and if the AF mode is not applied to the neighboring block, checking whether the AF4 mode is used is performed.
  • the present invention relates to an apparatus for decoding a video signal including a current block based on an affine motion prediction mode (AF mode), comprising: a step of checking whether the AF mode is applied to the current block, A motion vector predictor is generated using four parameters when the AF4 mode is used, and an affine motion model is generated when the AF4 mode is not used. and an inter prediction unit for generating a motion vector predictor using the six parameters constituting the motion vector predictor and obtaining a motion vector of the current block based on the motion vector predictor, (affine motion model), and the AF4 mode indicates the affine motion model (affine m and a motion vector prediction unit for estimating a motion vector using four parameters constituting the motion vector.
  • affine motion prediction mode affine motion prediction mode
  • the apparatus further includes a parsing unit for parsing an affine flag from the video signal, the affine flag indicating whether or not the AF mode is applied to the current block, Whether or not the AF mode is applied is confirmed based on the affine flag.
  • the apparatus includes: a parsing unit for obtaining a affine parameter flag from the video signal when the AF mode is applied to the current block according to the affine flag, wherein the affine parameter flag And whether the motion vector predictor is generated using the four parameters or using the six parameters.
  • the apparatus includes the inter prediction unit for checking whether a size of the current block satisfies a predetermined condition, wherein the predetermined condition is a number of pixels in the current block, a width and / Wherein the step of determining whether the AF mode is applied to the current block is performed if at least one of the current block size and the current block size is greater than a preset threshold value, do.
  • the apparatus includes the inter-prediction unit for checking whether or not an AF mode is applied to a neighboring block when the AF mode is applied to the current block, A motion vector predictor is generated using the four parameters, and if the AF mode is not applied to the neighboring block, checking whether the AF4 mode is used is performed.
  • signals, data, samples, pictures, frames, blocks, etc. may be appropriately replaced in each coding process.
  • partitioning, decomposition, splitting, and division may be appropriately substituted for each coding process.
  • FIG. 1 shows a schematic block diagram of an encoder in which the encoding of a video signal is performed, in which the present invention is applied.
  • the encoder 100 includes an image divider 110, a transform unit 120, a quantization unit 130, an inverse quantization unit 140, an inverse transform unit 150, a filtering unit 160, A picture buffer (DPB) 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190.
  • an image divider 110 a transform unit 120, a quantization unit 130, an inverse quantization unit 140, an inverse transform unit 150, a filtering unit 160, A picture buffer (DPB) 170, an inter prediction unit 180, an intra prediction unit 185, and an entropy encoding unit 190.
  • DPB picture buffer
  • the image divider 110 may divide an input image (or a picture or a frame) input to the encoder 100 into one or more processing units.
  • the processing unit may be a coding tree unit (CTU), a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
  • the partitioning may be performed by at least one of QT (Quad Tree), BT (Binary Tree), TT (Ternary Tree) and AT (Asymmetric Tree).
  • the terms are used only for convenience of explanation of the present invention, and the present invention is not limited to the definition of the term.
  • the term coding unit is used as a unit used in a process of encoding or decoding a video signal, but the present invention is not limited thereto but may be appropriately interpreted according to the contents of the invention.
  • the encoder 100 can generate a residual signal by subtracting a prediction signal output from the inter prediction unit 180 or the intra prediction unit 185 from the input image signal, The dual signal is transmitted to the conversion unit 120.
  • the conversion unit 120 may apply a conversion technique to the residual signal to generate a transform coefficient.
  • the conversion process may be applied to a pixel block having the same size of a square, or to a block having a variable size other than a square.
  • the quantization unit 130 quantizes the transform coefficients and transmits the quantized transform coefficients to the entropy encoding unit 190.
  • the entropy encoding unit 190 entropy-codes the quantized signals and outputs them as a bitstream.
  • the quantized signal output from the quantization unit 130 may be used to generate a prediction signal.
  • the quantized signal can be reconstructed by applying inverse quantization and inverse transform through the inverse quantization unit 140 and the inverse transform unit 150 in the loop.
  • a reconstructed signal can be generated by adding the restored residual signal to a prediction signal output from the inter prediction unit 180 or the intra prediction unit 185.
  • the filtering unit 160 applies filtering to the restored signal and outputs the restored signal to the playback apparatus or the decoded picture buffer 170.
  • the filtered signal transmitted to the decoding picture buffer 170 may be used as a reference picture in the inter prediction unit 180. [ As described above, not only the picture quality but also the coding efficiency can be improved by using the filtered picture as a reference picture in the inter picture prediction mode.
  • the decoded picture buffer 170 may store the filtered picture for use as a reference picture in the inter-prediction unit 180.
  • the inter-prediction unit 180 performs temporal prediction and / or spatial prediction to remove temporal redundancy and / or spatial redundancy with reference to a reconstructed picture.
  • the reference picture used for prediction is a transformed signal obtained through quantization and inverse quantization in units of blocks at the time of encoding / decoding in the previous time, blocking artifacts or ringing artifacts may exist have.
  • the inter-prediction unit 180 can interpolate signals between pixels by sub-pixel by applying a low-pass filter in order to solve the performance degradation due to discontinuity or quantization of such signals.
  • a subpixel means a virtual pixel generated by applying an interpolation filter
  • an integer pixel means an actual pixel existing in a reconstructed picture.
  • the interpolation method linear interpolation, bi-linear interpolation, wiener filter and the like can be applied.
  • the interpolation filter may be applied to a reconstructed picture to improve the accuracy of the prediction.
  • the inter-prediction unit 180 generates an interpolation pixel by applying an interpolation filter to an integer pixel, and uses an interpolated block composed of interpolated pixels as a prediction block Prediction can be performed.
  • the intra prediction unit 185 can predict a current block by referring to samples in the vicinity of a block to be currently encoded.
  • the intraprediction unit 185 may perform the following procedure to perform intraprediction. First, a reference sample necessary for generating a prediction signal can be prepared. Then, a prediction signal can be generated using the prepared reference sample. Thereafter, the prediction mode is encoded. At this time, reference samples can be prepared through reference sample padding and / or reference sample filtering. Since the reference samples have undergone prediction and reconstruction processes, quantization errors may exist. Therefore, a reference sample filtering process can be performed for each prediction mode used for intraprediction to reduce such errors.
  • a prediction signal generated through the inter prediction unit 180 or the intra prediction unit 185 may be used to generate a reconstructed signal or may be used to generate a residual signal.
  • Fig. 2 shows a schematic block diagram of a decoder in which decoding of a video signal is performed, according to an embodiment to which the present invention is applied.
  • the decoder 200 includes a parsing unit (not shown), an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, a filtering unit 240, a decoded picture buffer (DPB) A decoded picture buffer unit 250, an inter prediction unit 260, an intra prediction unit 265, and a reconstruction unit (not shown).
  • the decoder 200 may receive the signal output from the encoder 100 of FIG. 1 and may parse or obtain the syntax element through a parser (not shown). The parsed or obtained signal may be entropy-decoded through the entropy decoding unit 210.
  • the inverse quantization unit 220 obtains a transform coefficient from the entropy-decoded signal using the quantization step size information.
  • the inverse transform unit 230 obtains a residual signal by inversely transforming the transform coefficient.
  • the restoring unit (not shown) adds the obtained residual signal to the prediction signal output from the inter-prediction unit 260 or the intra-prediction unit 265 to generate a reconstructed signal.
  • the filtering unit 240 applies filtering to a reconstructed signal and outputs the reconstructed signal to a playback apparatus or a decoding picture buffer unit 250.
  • the filtered signal transmitted to the decoding picture buffer unit 250 may be used as a reference picture in the inter prediction unit 260.
  • the embodiments described in the filtering unit 160, the inter-prediction unit 180 and the intra-prediction unit 185 of the encoder 100 respectively include the filtering unit 240 of the decoder, the inter-prediction unit 260, The same can be applied to the intra prediction unit 265.
  • the reconstructed video signal output through the decoder 200 may be reproduced through a reproducing apparatus.
  • FIG. 3 is a diagram for explaining a block division structure of a QT (QuadTree, hereinafter referred to as 'QT') to which the present invention can be applied.
  • One block in video coding can be segmented based on QT (QuadTree).
  • QT QualityTree
  • one sub-block divided by QT can be further recursively partitioned using QT.
  • a leaf block that is not QT-divided can be divided by at least one of BT (Binary Tree), TT (Ternary Tree), or AT (Asymmetric Tree).
  • BT can have two types of segmentation: horizontal BT (2NxN, 2NxN) and vertical BT (Nx2N, Nx2N).
  • TT can have two types of segmentation: horizontal TT (2Nx1 / 2N, 2NxN, 2Nx1 / 2N) and vertical TT (1 / 2Nx2N, Nx2N, 1 / 2Nx2N).
  • AT is a horizontal-up AT (2Nx1 / 2N, 2Nx3 / 2N), a horizontal-down AT (2Nx3 / 2N, 2Nx1 / 2N), a vertical-left AT (1 / 2Nx2N, 3 / 2Nx2N) / 2Nx2N, 1 / 2Nx2N).
  • Each BT, TT, and AT can be recursively further partitioned using BT, TT, and AT.
  • FIG. 3 shows an example of QT division.
  • the block A can be divided into four sub-blocks (A0, A1, A2, A3) by QT.
  • the sub-block A1 can be further divided into four sub-blocks (B0, B1, B2, B3) by QT.
  • FIG. 4 is a diagram for explaining a BT (Binary Tree, hereinafter referred to as 'BT') block division structure to which the present invention can be applied.
  • BT Binary Tree
  • FIG. 4 shows an example of BT division.
  • Block B3 which is no longer partitioned by QT, can be divided into vertical BT (C0, C1) or horizontal BT (D0, D1).
  • each sub-block can be further recursively partitioned, such as in the form of horizontal BT (E0, E1) or vertical BT (F0, F1).
  • FIG. 5 is a diagram for explaining a block division structure of a TT (Ternary Tree) block according to an embodiment of the present invention.
  • FIG. 5 shows an example of TT division.
  • Block B3 which is no longer partitioned by QT, may be divided into vertical TT (C0, C1, C2) or horizontal TT (D0, D1, D2).
  • each sub-block can be further recursively divided into a horizontal TT (E0, E1, E2) or a vertical TT (F0, F1, F2).
  • FIG. 6 is a diagram for explaining an AT (Asymmetric Tree) block partitioning structure to which the present invention can be applied.
  • Block B3 which is no longer partitioned by QT, may be partitioned into vertical AT (C0, C1) or horizontal AT (D0, D1).
  • each subblock can be further recursively partitioned, such as in the form of horizontal AT (E0, E1) or vertical TT (F0, F1).
  • BT, TT, and AT segmentation can be used together.
  • a subblock divided by BT can be divided by TT or AT.
  • subblocks divided by TT can be divided by BT or AT.
  • a subblock divided by AT can be divided by BT or TT.
  • each subblock may be partitioned into a vertical BT, or after a vertical BT partition, each subblock may be partitioned into a horizontal BT.
  • the two kinds of division methods have the same shape in the final division although the division order is different.
  • searching is performed from left to right and from top to bottom, and searching for a block means a procedure for determining whether or not each divided sub-block is further divided into blocks, or when a block is not further divided, Refers to a coding order of a block, or a search order when referring to information of another neighboring block in a sub-block.
  • FIG. 7 is a diagram for explaining an inter prediction mode as an embodiment to which the present invention is applied.
  • a merge mode In the inter prediction mode to which the present invention is applied, a merge mode, an AMVP (Advanced Motion Vector Prediction) mode or an affine prediction mode (AFM) is used to reduce the amount of motion information .
  • AMVP Advanced Motion Vector Prediction
  • AFM affine prediction mode
  • the merge mode refers to a method of deriving a motion parameter (or information) from a neighboring block spatially or temporally.
  • the set of candidates available in the merge mode consists of spatial neighbor candidates, temporal candidates, and generated candidates.
  • each spatial candidate block is available according to the order of ⁇ A1, B1, B0, A0, B2 ⁇ . At this time, if the candidate block is encoded in the intra-prediction mode and motion information does not exist, or if the candidate block is located outside the current picture (or slice), the candidate block can not be used.
  • the spatial merge candidate can be constructed by excluding unnecessary candidate blocks from the candidate blocks of the current processing block. For example, if the candidate block of the current prediction block is the first prediction block in the same coding block, the candidate blocks excluding the candidate block and the same motion information may be excluded.
  • the temporal merge candidate configuration process proceeds according to the order of ⁇ T0, T1 ⁇ .
  • a right bottom block T0 of a collocated block of a reference picture is available, the block is configured as a temporal merge candidate.
  • a collocated block refers to a block existing at a position corresponding to a current processing block in a selected reference picture. Otherwise, the block (T1) located at the center of the collocated block is constructed as a temporal merge candidate.
  • the maximum number of merge candidates can be specified in the slice header. If the number of merge candidates is greater than the maximum number, the spatial candidates and temporal candidates smaller than the maximum number are retained. Otherwise, additional merge candidates (i.e., combined bi-predictive merging candidates) are generated by combining the candidates added so far until the number of merge candidates reaches the maximum number of candidates .
  • the encoder constructs a merge candidate list by performing the above-described method and performs motion estimation (Motion Estimation) to obtain a merge index (for example, merge_idx [x0] [y0] ) To signal the decoder.
  • FIG. 7B illustrates a case where the B1 block is selected in the merge candidate list. In this case, "Index 1" can be signaled to the decoder as a merge index.
  • the decoder constructs a merge candidate list in the same way as the encoder and derives the motion information for the current block from the motion information of the candidate block corresponding to the merge index received from the encoder in the merge candidate list. Then, the decoder generates a prediction block for the current processing block based on the derived motion information.
  • the AMVP mode refers to a method of deriving motion vector prediction values from neighboring blocks.
  • the horizontal and vertical motion vector difference (MVD), reference index, and inter prediction mode are signaled to the decoder.
  • the horizontal and vertical motion vector values are calculated using the derived motion vector prediction value and the motion vector difference (MVD) provided from the encoder.
  • the encoder constructs a motion vector prediction value candidate list and performs motion estimation (motion estimation), thereby selecting a motion reference flag (i.e., candidate block information) (e.g., 'mvp_lX_flag [x0] y0] ') to the decoder.
  • the decoder constructs a motion vector prediction value candidate list in the same manner as the encoder and derives the motion vector prediction value of the current processing block using the motion information of the candidate block indicated by the motion reference flag received from the encoder in the motion vector prediction value candidate list.
  • the decoder obtains a motion vector value for the current processing block using the derived motion vector prediction value and the motion vector difference value transmitted from the encoder.
  • the decoder generates a prediction block for the current processing block based on the derived motion information (i.e., motion compensation).
  • the motion vector is scaled.
  • the candidate composition is terminated. If the number of selected candidates is less than two, temporal motion candidates are added.
  • a decoder decodes motion parameters for a processing block (e.g., a prediction unit).
  • the decoder can decode the signaled merge index from the encoder.
  • the motion parameter of the current processing block can be derived from the motion parameter of the candidate block indicated by the merge index.
  • the decoder can decode the horizontal and vertical motion vector difference (MVD) signaled from the encoder, the reference index and the inter prediction mode.
  • the motion vector prediction value is derived from the motion parameter of the candidate block indicated by the motion reference flag, and the motion vector value of the current processing block can be derived using the motion vector prediction value and the received motion vector difference value.
  • the decoder performs motion compensation on the prediction unit using the decoded motion parameters (or information).
  • the encoder / decoder performs motion compensation for predicting an image of the current unit from a previously decoded picture by using the decoded motion parameters.
  • the AF mode refers to a motion prediction mode using an affine motion model, and may include at least one of an affine merge mode and an affine inter mode.
  • the affine inter mode may include at least one of an AF4 mode or an AF6 mode.
  • the AF4 mode represents a four parameter affine prediction mode using four parameters
  • the AF6 mode represents a six parameter affine prediction mode using six parameters.
  • the AF4 mode or the AF6 mode does not need to be defined as a separate prediction mode, and the AF4 mode or the AF6 mode uses only four parameters or six parameters It can be understood by distinguishing whether or not it is used.
  • FIG. 8 The AF mode will be described in more detail in FIGS. 8 to 10.
  • FIG. 8 The AF mode will be described in more detail in FIGS. 8 to 10.
  • FIG. 8 is a diagram for explaining an affine motion model as an embodiment to which the present invention is applied.
  • a common video coding technique uses a translation motion model to represent the motion of a coding block.
  • the translation motion model represents a parallel-shifted block-based prediction method. That is, the motion information of the coding block is expressed using one motion vector.
  • the optimal motion vector for each pixel in the actual coding block may be different from each other. If optimal motion vectors can be determined for each pixel or sub-block unit only with a small amount of information, the coding efficiency can be increased.
  • the present invention proposes an inter prediction-based image processing method that reflects not only a parallel-shifted block-based prediction method but also various motion of an image to enhance the performance of inter prediction.
  • the present invention proposes an affine motion estimation method that performs encoding / decoding using an affine motion model.
  • the affine motion model represents a prediction method of deriving a motion vector on a pixel-by-pixel or sub-block-by-block basis using a motion vector of a control point.
  • an affine motion prediction mode using an affine motion model is referred to as an AF mode (Affine Mode).
  • the present invention also provides a method for adaptively performing affine prediction based on a block size.
  • the present invention also provides a method for adaptively performing affine prediction based on whether neighboring blocks are coded by affine prediction.
  • the present invention also provides a method for adaptively determining (or selecting) an optimal coding mode based on at least one of an AF4 mode or an AF6 mode.
  • the AF4 mode represents a four parameter affine prediction mode using four parameters
  • the AF6 mode represents a six parameter affine prediction mode using six parameters.
  • the affine motion model can represent the four motions shown in FIG.
  • an affine motion model can model arbitrary image distortions caused by image translations, image scaling, image rotations, and image shear. have.
  • the affine motion model can be expressed in various ways, but in the present invention, distortion is indicated (or identified) by using motion information at a specific reference point (or reference pixel / sample) of the block, And the like.
  • the reference point may be referred to as a control point (CP) (or a control pixel, a control sample), and a motion vector at this reference point may be referred to as a control point motion vector (CPMV).
  • CP control point
  • CPMV control point motion vector
  • the degree of distortion that can be expressed can vary depending on the number of control points.
  • the affine motion model can be expressed using six parameters (a, b, c, d, e, f) as shown in the following Equation (1).
  • (x, y) represents the position of the upper left pixel of the coding block.
  • v x and v y represent motion vectors at (x, y), respectively.
  • FIG. 9 is a diagram for explaining an affine motion prediction method using a control point motion vector according to an embodiment of the present invention. Referring to FIG.
  • the upper left control point (control point) of the current block (901) (CP 0) ( 902) ( hereinafter referred to as a first control point), upper right control point (control point) (CP 1) (Hereinafter referred to as a second control point) and a lower left control point (CP 2 ) 904 (hereinafter referred to as a third control point) may have independent motion information. It can be expressed as CP 0 , CP 1 , and CP 2 , respectively. However, this is an embodiment of the present invention, and the present invention is not limited thereto. For example, it is possible to define various control points such as a right-side control point, a center control point, and a control point for each sub-block.
  • At least one of the first to third control points may be a pixel included in the current block.
  • at least one of the first to third control points may be a pixel adjacent to a current block not included in the current block.
  • Motion information for each pixel or sub-block of the current block 901 may be derived using motion information of one or more control points of the control points.
  • an affine motion model using the motion vectors of the upper left control point 902, the upper right control point 903, and the lower left control point 904 of the current block 901 can be defined as Equation 2 below .
  • the motion vector of the upper left control point 902 The motion vector of the upper right control point 903, Is a motion vector of the lower left control point 904, . ≪ / RTI >
  • w represents the width of the current block 901
  • h represents the height of the current block 901.
  • an affine motion model expressing three movements of translation, scale, and rotate, which can be expressed by the affine motion model.
  • this is referred to as a simplified affine motion model or a similarity affine motion model.
  • the simplified affine motion model can be expressed using four parameters (a, b, c, d) as shown in the following Equation (3).
  • ⁇ v x , v y ⁇ represents a motion vector at ⁇ x, y ⁇ , respectively.
  • An affine motion model that uses four parameters in this way can be referred to as AF4.
  • the present invention is not limited to this, and when six parameters are used, it is referred to as AF6, and the above embodiments can be applied equally.
  • a motion model which is an AF4 affine model can be defined as the following Equation (4).
  • Equation (4) w represents the width of the current block and h represents the height of the current block. And, Respectively represent motion vectors at ⁇ x, y ⁇ positions.
  • the encoder or decoder may determine (or derive) a motion vector of each pixel location using a control point motion vector (e.g., a motion vector of the upper left control point 1001 and the upper right control point 1002).
  • a control point motion vector e.g., a motion vector of the upper left control point 1001 and the upper right control point 1002.
  • a set of motion vectors determined through affine motion prediction may be defined as an affine motion vector field.
  • the affine motion vector field may be determined using at least one of Equations 1 to 4 above.
  • a motion vector through affine motion prediction in the encoding / decoding process can be determined in units of pixels or in units of a predefined (or preset) block (or subblock). For example, when the determination is made on a pixel-by-pixel basis, a motion vector may be derived on the basis of each pixel in the block, and if it is determined on a sub-block basis, a motion vector may be derived on the basis of each sub-block unit in the current block. As another example, when the motion vector is determined in units of subblocks, the motion vector of the corresponding subblock may be derived based on the upper left pixel or the center pixel.
  • the encoder or decoder can determine a motion vector in units of 4x4 sub-blocks using the motion vectors of the upper left control point 801 and the upper right control point 802 of the current block.
  • the motion vector of the corresponding sub-block may be determined based on the center pixel value of each sub-block.
  • Affine motion prediction can be used as an affine merge mode (hereinafter referred to as AF merge mode) and an affine inter mode (hereinafter referred to as AF inter mode).
  • the AF merge mode is a method of encoding or decoding two motion vector motion vectors without encoding the motion vector difference similar to the skip mode or merge mode.
  • the AF inter mode is a method of encoding a control point motion vector predictor and a control point motion vector, and then encoding or decoding a control point motion vector difference (CPMVD) corresponding to the difference.
  • CPMVD control point motion vector difference
  • the motion vector difference of two control points is transmitted in the case of the AF4 mode, and the difference of motion vectors of three control points is transmitted in the AF6 mode.
  • the AF4 mode since the AF4 mode transmits a smaller number of motion vector difference values than the AF6 mode, it has an advantage that the control point motion vector (CPMV) can be expressed with a small number of bits.
  • the AF6 mode transmits three CPMVDs Therefore, it is possible to generate an excellent predictor, thereby reducing the bit for residual coding.
  • the present invention proposes a method of considering both (or simultaneously) the AF4 mode and the AF6 mode in the AF inter mode.
  • FIG. 10 is a flowchart illustrating a process of processing a video signal including a current block using an Arde prediction mode (hereinafter, referred to as 'AF mode') to which the present invention is applied.
  • 'AF mode' an Rastere prediction mode
  • the present invention provides a method for processing a video signal including a current block using an AF mode.
  • the video signal processing apparatus may generate a candidate list of motion vector pairs using motion vectors of pixels or blocks adjacent to at least two control points of the current block (S1010).
  • the control point represents a corner pixel of the current block
  • the motion vector pair represents a motion vector of the upper left corner pixel and the upper right corner pixel of the current block.
  • control point includes at least two of an upper left corner pixel, an upper right corner pixel, a lower left corner pixel, or a lower right corner pixel of the current block
  • candidate list includes the upper left corner pixel, An upper right corner pixel, and pixels or blocks adjacent to the lower left corner pixel.
  • the candidate list includes motion vectors of a diagonal adjacent pixel (A), an upper adjacent pixel (B), and a left adjacent pixel (C) of the upper left corner pixel, D and the motion vectors of the diagonal adjacent pixel E and the motion vectors of the left adjacent pixel F and the diagonal adjacent pixel G of the lower left corner pixel.
  • the method may further comprise adding an AMVP candidate list to the candidate list if the motion vector pair of the candidate list is less than two.
  • the control point motion vector of the current block is determined as a motion vector derived based on the center positions of the left subblock and the right subblock in the current block,
  • the motion vector of the current block is determined as a motion vector based on a center position of an upper sub-block and a lower sub-block in the current block.
  • the control point motion vector of the left subblock in the current block is determined by the average value of the first control point motion vector and the third control point motion vector, and the control point motion Vector is determined by a mean value of a second control point motion vector and a fourth control point motion vector, and when the current block is 4xN size, a control point motion vector of an upper sub-block in the current block is a first control point motion vector, And the control point motion vector of the lower sub-block is determined by an average value of the third control point motion vector and the fourth control point motion vector.
  • the method may signal a prediction mode or flag information indicating whether the AF mode is performed.
  • the video signal processing apparatus may receive the prediction mode or flag information, perform the AF mode according to the prediction mode or the flag information, and derive a motion vector according to the AF mode.
  • the AF mode is a mode for deriving a motion vector in units of pixels or sub-blocks using a control point motion vector of the current block.
  • the video signal processing apparatus may determine a final candidate list of a predetermined number of motion vector pairs based on a divergence value of the motion vector pair (S1020).
  • the final candidate list is determined in descending order of the divergence value, and the divergence value is a value indicating the similarity of the directions of the motion vectors.
  • the video signal processing apparatus may determine a control point motion vector of the current block based on a rate-distortion cost from the final candidate list (S1030).
  • the video signal processing apparatus may generate a motion vector predictor of the current block based on the control point motion vector (S1040).
  • 11 is a flowchart of a method for adaptively determining an optimal coding mode based on at least one of an AF4 mode and an AF6 mode according to an embodiment (1-1) to which the present invention is applied.
  • the video signal processing apparatus may perform prediction based on at least one of a skip mode, a merge mode, and an inter mode (S1110).
  • the merge mode may include not only the general merge mode but also the AF merge mode described above
  • the inter mode may include the general inter mode as well as the AF inter mode described above.
  • the video signal processing apparatus may perform motion vector prediction based on at least one of AF4 mode and AF6 mode (S1120).
  • steps S1110 and S1120 are not limited to the order.
  • the video signal processing apparatus may compare the results of step S1120 and determine an optimal coding mode among the modes (S1130). At this time, the results of step S1120 may be compared based on a Rate-Distortion Cost.
  • the video signal processing apparatus can generate a motion vector predictor of the current block based on an optimal coding mode, and subtract the motion vector predictor from the motion vector of the current block to obtain a motion vector difference value .
  • Fig. 12 shows a flowchart for performing adaptive decoding based on the AF4 mode or the AF6 mode as an embodiment (1-2) to which the present invention is applied.
  • the decoder can receive the bitstream (S1210).
  • the bitstream may include information on the coding mode of the current block in the video signal.
  • the decoder can check whether the coding mode of the current block is the AF mode (S1220).
  • the AF mode means an affine motion prediction mode using an affine motion model.
  • the AF mode may be an affine merge mode or an affine inter mode.
  • the affine inter mode may include at least one of AF4 mode and AF6 mode.
  • the step S1220 may be confirmed by an affine flag indicating whether or not the AF mode is performed.
  • the decoder may perform decoding (i.e., motion vector prediction) according to a coding mode other than the AF mode (S1230). For example, a skip mode, a merge mode, or an inter mode may be used.
  • the decoder can check whether the AF4 mode is applied to the current block (S1240).
  • the step S1240 may be confirmed by a parameter flag indicating whether AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • the affine parameter flag may include at least one of AF4_flag and AF6_flag.
  • the execution of the AF4 mode means that the motion vector prediction is performed using an affine motion model represented by four parameters.
  • the execution of the AF6 mode implies performing the motion vector prediction using the affine motion model represented by four parameters.
  • the affine flag and the affine parameter flag may be defined at a level of at least one of a slice, a maximum coding unit, a coding unit or a prediction unit.
  • AF_flag AF_flag
  • AF4_flag AF6_flag
  • AF6_flag may be defined at the slice level and again defined at the block level or the prediction unit level.
  • FIG. 13 shows an embodiment (1-3) to which the present invention is applied, showing a syntax structure for performing decoding based on the AF4 mode or the AF6 mode.
  • the decoder acquires the merge_flag to check whether the merge mode is applied to the current block (S1310).
  • the decoder may obtain an affine_flag (S1320).
  • affine_flag indicates whether the AF mode is performed or not.
  • affine_flag 1, that is, if the AF mode is performed for the current block, the decoder can obtain the affine_param_flag (S1330).
  • affine_param_flag indicates whether the AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • the decoder can obtain mvd_CP0 and mvd_CP1 which are two motion vector difference values (S1340).
  • mvd_CP0 represents a motion vector difference value for the control point
  • mvd_CP1 represents a motion vector difference value for the control point 1.
  • the decoder can obtain mvd_CPO, mvd_CP1 and mvd_CP2, which are three motion vector difference values (S1350).
  • FIG. 14 is an embodiment (2-1) to which the present invention is applied, in which adaptively determines an optimal coding mode among the motion vector prediction modes including the AF4 mode or the AF6 mode based on the condition A Fig.
  • the encoder may perform prediction based on at least one of a skip mode, a merge mode, or an inter mode (S1410).
  • the encoder may determine whether the condition A is satisfied for the current block to determine an optimal coding mode for motion vector prediction (S1420).
  • condition A may mean a condition for a block size.
  • the embodiments of Table 1 below can be applied.
  • Example 1 of Table 1 the condition A indicates whether the number of pixels (pixNum) of the current block is larger than a threshold value TH1.
  • the threshold value is 64, 128, 256, 512, 1024, ...
  • TH1 64 means that the block size is 4x16, 8x8, or 16x4, and
  • TH1 128 means that the block size is 32x4, 16x8, 8x16, or 4x32 .
  • Example 2 it indicates whether the width and the height of the current block are both greater than the threshold value TH1.
  • Example 3 it indicates whether the width of the current block is greater than the threshold value TH1 or whether the height of the current block is greater than the threshold value TH1.
  • the encoder may perform motion vector prediction based on at least one of the AF4 mode and the AF6 mode (S1430).
  • the encoder may compare the results of steps S1410 and S1430 to determine an optimal coding mode among the motion vector prediction modes including the AF4 mode or the AF6 mode (S1440).
  • the encoder can determine an optimal coding mode among the modes other than the AF mode (S1440).
  • the encoder can generate a motion vector predictor of the current block based on the optimal coding mode, and subtract the motion vector predictor from the motion vector of the current block to obtain a motion vector difference value.
  • Fig. 15 shows a flowchart for performing adaptive decoding according to the AF4 mode or the AF6 mode based on the condition A (condition A) as an embodiment (2-2) to which the present invention is applied.
  • the decoder can receive the bit stream (S1510).
  • the bitstream may include information on the coding mode of the current block in the video signal.
  • the decoder can determine whether the condition A is satisfied for the current block to determine an optimal coding mode for motion vector prediction (S1520).
  • the condition A may mean a condition for a block size.
  • the embodiments of Table 1 above can be applied.
  • the decoder can check whether the coding mode of the current block is the AF mode (S1530).
  • the AF mode means an affine motion prediction mode using an affine motion model, and the embodiments described herein can be applied.
  • the step S1530 may be confirmed by an affine flag indicating whether or not the AF mode is performed.
  • the decoder may perform decoding (i.e., motion vector prediction) according to a coding mode other than the AF mode (S 1540 ). For example, a skip mode, a merge mode, or an inter mode may be used.
  • the decoder can check whether the AF4 mode is applied to the current block (S1550).
  • the step S1550 may be confirmed by a parameter flag indicating whether AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • FIG. 16 shows a syntax structure for performing decoding according to the AF4 mode or the AF6 mode on the basis of the condition A (condition A) according to the embodiment (2-3) to which the present invention is applied.
  • the decoder acquires the merge_flag to check whether the merge mode is applied to the current block (S1610).
  • the decoder can check whether the condition A is satisfied (S1620).
  • the condition A may mean a condition for a block size.
  • the embodiments of Table 1 above can be applied.
  • affine_flag indicates whether the AF mode is performed or not.
  • affine_flag 1, that is, if the AF mode is performed for the current block, the decoder can obtain the affine_param_flag (S1630).
  • affine_param_flag indicates whether the AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • the decoder can obtain two motion vector difference values mvd_CPO and mvd_CP1 (S1640).
  • mvd_CP0 represents a motion vector difference value for the control point
  • mvd_CP1 represents a motion vector difference value for the control point 1.
  • the decoder can obtain mvd_CPO, mvd_CP1 and mvd_CP2, which are three motion vector difference values (S1650).
  • FIG. 17 shows an embodiment (3-1) to which the present invention is applied.
  • the motion vector prediction modes including the AF4 mode or the AF6 mode, based on at least one of the condition B (condition B) and the condition C
  • a coding mode adaptively determining an optimum coding mode among the plurality of coding modes.
  • the present invention provides a method for adaptively selecting an AF4 mode and an AF6 mode based on the size of a current block.
  • the AF6 mode transmits an additional motion vector difference value in addition to the AF4 mode, which is effective in a relatively large block. Accordingly, if the current block size is smaller than (or equal to) a predetermined size, encoding is performed only considering the AF4 mode, and if the current block is greater than or equal to a predetermined size, Can be performed.
  • both the AF4 mode and the AF6 mode can be considered and only the optimal mode can be signaled.
  • the encoder may perform prediction based on at least one of a skip mode, a merge mode, and an inter mode (S1710).
  • the encoder can check whether the condition B is satisfied for the current block (S1720).
  • the condition B may mean a condition for a block size.
  • Table 2 the embodiments of Table 2 below can be applied.
  • Example 1 of Table 2 the condition B indicates whether the number of pixels (pixNum) of the current block is smaller than a threshold value TH2.
  • the threshold value is 64, 128, 256, 512, 1024, ...
  • TH2 64 means that the block size is 4x16, 8x8, or 16x4, and
  • TH2 128 means that the block size is 32x4, 16x8, 8x16, or 4x32 .
  • the condition B indicates whether both the width and the height of the current block are less than the threshold value TH2.
  • the condition B indicates whether the width of the current current block is smaller than the threshold value TH2 or the height of the current block is smaller than the threshold value TH2.
  • the encoder can perform motion vector prediction based on the AF4 mode (S1730).
  • the encoder can check whether the condition C is satisfied with respect to the current block (S1740).
  • the condition C may mean a condition for a block size.
  • the embodiments of Table 3 below can be applied.
  • Example 1 of Table 3 the condition A indicates whether the number of pixels (pixNum) of the current block is greater than or equal to a threshold value TH3.
  • the threshold value is 64, 128, 256, 512, 1024, ...
  • TH3 64 means that the block size is 4x16, 8x8, or 16x4, and
  • TH3 128 means that the block size is 32x4, 16x8, 8x16 or 4x32 .
  • Example 2 it indicates whether the width and the height of the current block are both greater than or equal to the threshold value TH3.
  • Example 3 it indicates whether the width of the current block is greater than or equal to the threshold value TH1, or whether the height of the current block is greater than or equal to the threshold value TH1.
  • the encoder can perform motion vector prediction based on the AF6 mode (S1760).
  • the encoder can perform motion vector prediction based on the AF4 mode and the AF6 mode (S1750).
  • the threshold value TH2 and the threshold value TH3 may be determined so as to satisfy the following equation (5).
  • the encoder may compare the results of steps S1710, S1730, S1750, and S1760 to determine an optimal coding mode among the motion vector prediction modes including the AF4 mode or the AF6 mode (S1770).
  • the encoder can generate a motion vector predictor of the current block based on the optimal coding mode, and subtract the motion vector predictor from the motion vector of the current block to obtain a motion vector difference value.
  • FIG. 18 is an embodiment (3-2) to which the present invention is applied and adaptively decodes according to the AF4 mode or the AF6 mode based on at least one of the condition B (condition B) and the condition C (condition C) Fig.
  • the decoder can check whether the coding mode of the current block is the AF mode (S1810).
  • the AF mode is an affine motion prediction mode using an affine motion model, and the embodiments described herein can be applied, and redundant description will be omitted.
  • the decoder can check whether the condition B is satisfied for the current block (S1820).
  • the condition B may mean a condition for a block size.
  • the embodiments of Table 2 above can be applied, and redundant descriptions are omitted.
  • the decoder can perform motion vector prediction based on the AF4 mode (S1830).
  • the decoder can check whether the condition C is satisfied with respect to the current block (S 1840).
  • the condition C may mean a condition for a block size.
  • the embodiments of Table 3 above can be applied, and redundant descriptions are omitted.
  • the threshold value TH2 and the threshold value TH3 may be determined to satisfy Equation (5).
  • the decoder can perform motion vector prediction based on the AF6 mode (S1860).
  • the decoder can check whether the AF4 mode is applied to the current block (S1850).
  • the step S1850 may be confirmed by a parameter flag which is an affirmative flag indicating whether the AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • the decoder may perform decoding (i.e., motion vector prediction) according to a coding mode other than the AF mode (S 1870).
  • a coding mode other than the AF mode For example, a skip mode, a merge mode, or an inter mode may be used.
  • Fig. 19 is a schematic block diagram of a syntax structure (or a decoder) according to an embodiment (3-3) to which the present invention is applied and which performs decoding in accordance with at least one of the condition B (condition B) or the condition C .
  • the decoder acquires the merge_flag to check whether the merge mode is applied to the current block (S1910).
  • the decoder may obtain an affine_flag (S1920).
  • affine_flag indicates whether the AF mode is performed or not.
  • the decoder can check whether the condition B is satisfied (S1620).
  • the condition B may mean a condition for a block size.
  • the embodiments of Table 2 above can be applied.
  • affine_param_flag indicates whether the AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • affine_param_flag 0 means that motion vector prediction is performed according to the AF4 mode.
  • affine_param_flag 1 means that motion vector prediction is performed according to the AF6 mode.
  • the decoder can obtain the affine_param_flag (S1950).
  • the decoder can obtain mvd_CPO and mvd_CP1 which are two motion vector difference values (S1960).
  • the decoder can obtain mvd_CPO, mvd_CP1 and mvd_CP2, which are three motion vector difference values (S1970).
  • FIG. 20 is a flowchart of a method for adaptively determining an optimal coding mode among motion vector prediction modes including an AF4 mode or an AF6 mode based on a coding mode of a neighboring block, according to an embodiment (4-1) to which the present invention is applied .
  • the encoder may perform prediction based on at least one of a skip mode, a merge mode, or an inter mode (S2010).
  • the encoder can check whether the neighboring block is coded in the AF mode (S2020).
  • the encoder may perform motion vector prediction based on the AF4 mode (S2030).
  • the encoder can perform motion vector prediction based on the AF4 mode and perform motion vector prediction based on the AF6 mode (S2040).
  • the encoder may compare the results of steps S2030 and S2040 to determine an optimal coding mode among the motion vector prediction modes including the AF4 mode or the AF6 mode (S2050).
  • the encoder can generate a motion vector predictor of the current block based on the optimal coding mode, and subtract the motion vector predictor from the motion vector of the current block to obtain a motion vector difference value.
  • FIG. 21 shows a flowchart for performing adaptive decoding according to the AF4 mode or the AF6 mode based on the coding mode of the neighboring block, according to an embodiment (4-2) to which the present invention is applied.
  • the decoder may receive the bitstream (S2110).
  • the bitstream may include information on the coding mode of the current block in the video signal.
  • the decoder can check whether the coding mode of the current block is the AF mode (S2120).
  • the decoder may perform decoding (i.e., motion vector prediction) according to a coding mode other than the AF mode (S2170). For example, a skip mode, a merge mode, or an inter mode may be used.
  • the decoder can check whether the neighboring block is coded in the AF mode (S2130).
  • the decoder may perform motion vector prediction based on the AF4 mode (S2140).
  • the decoder can check whether the AF4 mode is applied to the current block (S2150).
  • the step S2150 may be confirmed by a parameter flag indicating whether AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • FIG. 22 shows a syntax structure for performing decoding according to the AF4 mode or the AF6 mode based on a coding mode of a neighboring block, according to an embodiment (4-3) to which the present invention is applied.
  • the decoder acquires the merge_flag to check whether the merge mode is applied to the current block (S2210).
  • the decoder may obtain an affine_flag (S2220).
  • affine_flag indicates whether the AF mode is performed or not.
  • affine_flag 1, that is, if the AF mode is performed on the current block, the decoder can check whether the neighboring block is coded in the AF mode (S2230).
  • affine_param_flag indicates whether the AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • the decoder can set affine_param_flag to 0 (S2240).
  • the decoder can obtain mvd_CPO and mvd_CP1, which are two motion vector difference values (S2250).
  • the decoder can obtain mvd_CPO, mvd_CP1, and mvd_CP2, which are three motion vector difference values (S2260).
  • FIG. 23 shows an embodiment (5-1) to which the present invention is applied.
  • the AF4 mode or the AF6 mode is set based on at least one of a condition A (condition A), a condition B (condition B)
  • FIG. 4 is a flowchart illustrating a method of adaptively determining an optimal coding mode among the motion vector prediction modes included in FIG.
  • the present invention shows an embodiment in which Embodiment 2 and Embodiment 3 are combined.
  • FIG. 23 an example of the case in which all the conditions A, B, and C are considered is explained, and the order of the conditions can be applied differently.
  • the encoder may perform prediction based on at least one of a skip mode, a merge mode, and an inter mode (S1710).
  • the encoder can check whether the condition A is satisfied for the current block (S2320).
  • the condition A may mean a condition for a block size, and the embodiments of Table 1 may be applied.
  • the encoder can determine an optimal coding mode among modes other than the AF mode (S2380).
  • the encoder can check whether the condition B is satisfied with respect to the current block (S2330).
  • the condition B may mean a condition for a block size, and the embodiments of Table 2 may be applied.
  • the encoder can perform motion vector prediction based on the AF4 mode (S2340).
  • the encoder can check whether the condition C is satisfied with respect to the current block (S2350).
  • the condition C may mean a condition for a block size, and the embodiments of Table 3 may be applied.
  • the encoder can perform motion vector prediction based on the AF6 mode (S2370).
  • the encoder can perform the motion vector prediction based on the AF4 mode and the motion vector prediction based on the AF6 mode (S2360).
  • the threshold value TH2 and the threshold value TH3 may be determined to satisfy Equation (5).
  • the encoder may compare the results of steps S2310, S2340, S2360, and S2370 to determine an optimal coding mode (S2380).
  • the encoder can generate a motion vector predictor of the current block based on the optimal coding mode, and subtract the motion vector predictor from the motion vector of the current block to obtain a motion vector difference value.
  • FIG. 24 shows an embodiment (5-2) to which the present invention is applied.
  • the condition A condition A
  • the condition B condition B
  • FIG. 2 is a flowchart illustrating a decoding process according to the present invention.
  • the decoder can check whether the condition A is satisfied for the current block (S2410).
  • the condition A may mean a condition for a block size.
  • the embodiments of Table 1 above can be applied.
  • the decoder can check whether the coding mode of the current block is the AF mode (S2420).
  • the AF mode is an affine motion prediction mode using an affine motion model, and the embodiments described herein can be applied, and redundant description will be omitted.
  • the decoder may perform decoding (i.e., motion vector prediction) according to a coding mode other than the AF mode (S2480 ). For example, a skip mode, a merge mode, or an inter mode may be used.
  • the decoder can check whether the condition B is satisfied for the current block (S2430).
  • the condition B may mean a condition for a block size.
  • the embodiments of Table 2 above can be applied, and redundant descriptions are omitted.
  • the decoder can perform motion vector prediction based on the AF4 mode (S2440).
  • the decoder can check whether the condition C is satisfied with respect to the current block (S2450).
  • the condition C may mean a condition for a block size.
  • the embodiments of Table 3 above can be applied, and redundant descriptions are omitted.
  • the threshold value TH2 and the threshold value TH3 may be determined to satisfy Equation (5).
  • the decoder can perform motion vector prediction based on the AF6 mode (S2470).
  • the decoder can check whether the AF4 mode is applied to the current block (S2460).
  • the step S2460 may be confirmed by a parameter flag indicating whether AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • FIG. 25 shows an embodiment (5-3) to which the present invention is applied.
  • the condition A condition A
  • the condition B based on at least one of the condition A (condition A)
  • the condition B And then performs a decoding process.
  • the decoder acquires the merge_flag to check whether the merge mode is applied to the current block (S2510).
  • the decoder can check whether the condition A is satisfied (S2520).
  • the condition A may mean a condition for a block size.
  • the embodiments of Table 1 above can be applied.
  • affine_flag indicates whether the AF mode is performed or not.
  • the decoder can check whether the condition B is satisfied (S2530).
  • the condition B may mean a condition for a block size.
  • the embodiments of Table 2 above can be applied.
  • affine_param_flag indicates whether the AF4 mode is performed (or whether affine motion prediction is performed by four parameters).
  • affine_param_flag 0 means that motion vector prediction is performed according to the AF4 mode.
  • affine_param_flag 1 means that motion vector prediction is performed according to the AF6 mode.
  • the decoder can obtain the affine_param_flag (S2560).
  • the decoder can obtain mvd_CPO and mvd_CP1 which are two motion vector difference values (S2570).
  • the decoder can obtain mvd_CPO, mvd_CP1 and mvd_CP2, which are three motion vector difference values (S2580).
  • FIG. 26 shows an embodiment (6-1) to which the present invention is applied.
  • the encoder may perform prediction based on at least one of a skip mode, a merge mode, or an inter mode (S2610).
  • the encoder can check whether the condition A is satisfied for the current block (S2620).
  • the condition A may mean a condition for a block size, and the embodiments of Table 1 may be applied.
  • the encoder can determine an optimal coding mode among modes other than the AF mode (S2660).
  • the encoder can check whether the neighboring block is coded in the AF mode (S2630).
  • the encoder may perform motion vector prediction based on the AF4 mode (S2640).
  • the encoder may perform motion vector prediction based on the AF4 mode, and may perform motion vector prediction based on the AF6 mode (S2650).
  • the encoder may compare the results of steps S2610, S2640, and S2650 to determine an optimal coding mode (S2660).
  • the encoder can generate a motion vector predictor of the current block based on the optimal coding mode, and subtract the motion vector predictor from the motion vector of the current block to obtain a motion vector difference value.
  • FIG. 27 is a flowchart (6-2) of an embodiment (6-2) to which the present invention is applied and which performs adaptive decoding according to the AF4 mode or the AF6 mode based on at least one of a coding condition of a condition A .
  • the decoder can receive the bitstream (S2710).
  • the bitstream may include information on the coding mode of the current block in the video signal.
  • the decoder can determine whether the condition A is satisfied for the current block to determine an optimal coding mode for motion vector prediction (S2720).
  • the condition A may mean a condition for a block size.
  • the embodiments of Table 1 above can be applied.
  • the decoder can check whether the coding mode of the current block is the AF mode (S2730).
  • steps S2730 through S2780 the contents described in steps S2120 through S2170 of FIG. 21 may be applied, and redundant description will be omitted.
  • FIG. 28 shows an embodiment (6-3) to which the present invention is applied, showing a syntax structure for performing decoding according to the AF4 mode or the AF6 mode based on at least one of a coding condition of a condition A (condition A) .
  • the decoder acquires the merge_flag to check whether the merge mode is applied to the current block (S2810).
  • the decoder can check whether the condition A is satisfied (S2820).
  • the condition A may mean a condition for a block size.
  • the embodiments of Table 1 above can be applied.
  • affine_flag indicates whether the AF mode is performed or not.
  • steps S2830 to S2860 the contents described in steps S2230 to S2260 of FIG. 22 may be applied, and redundant description will be omitted.
  • 29 shows a flowchart for generating a motion vector predictor based on at least one of the AF4 mode and the AF6 mode, to which the present invention is applied.
  • the decoder can check whether or not the AF mode is applied to the current block (S2910).
  • the AF mode represents a motion prediction mode using an affine motion model.
  • the decoder may obtain an affine flag from a video signal, and whether or not the AF mode is applied to the current block may be ascertained based on the affine flag.
  • the decoder can check whether the AF4 mode is used (S2920).
  • the AF4 mode represents a mode for predicting a motion vector using four parameters constituting the affine motion model.
  • the decoder can obtain a affine parameter flag from the video signal, Is generated using the four parameters or using the six parameters.
  • the affine flag and the affine parameter flag may be defined in at least one level of a slice, a maximum coding unit, a coding unit or a prediction unit.
  • the decoder If the AF4 mode is used, the decoder generates a motion vector predictor using the four parameters. If the AF4 mode is not used, the decoder uses six parameters constituting the affine motion model to generate a motion vector A predictor may be generated (S2930).
  • the decoder may obtain a motion vector of the current block based on the motion vector predictor (S2940).
  • the decoder can check whether the size of the current block meets predetermined conditions. At this time, the preset condition indicates whether at least one of the number of pixels in the current block, the width and / or height of the current block is greater than a predetermined threshold value.
  • the decoder can check whether the AF mode is applied to the current block.
  • the current block may be decoded based on a coding mode other than the AF mode.
  • the decoder can check whether or not the AF mode is applied to the neighboring block.
  • the motion vector predictor is generated using the four parameters. If the AF mode is not applied to the neighboring block, the decoder checks whether the AF4 mode is used . ≪ / RTI >
  • FIG. 30 shows a flowchart for generating a motion vector predictor based on AF4_flag and AF6_flag according to an embodiment to which the present invention is applied.
  • the decoder can obtain at least one of AF4 flag and AF6 flag from the video signal (S3010).
  • AF4_flag indicates whether or not the AF4 mode is performed for the current block
  • AF6_flag indicates whether or not the AF6 mode is performed for the current block.
  • At this time, at least one of the AF4 flag and the AF6 flag is defined at the slice level, and can be defined again at the block level or the prediction unit level.
  • the present invention is not limited to this, and at least one of the AF4 flag and the AF6 flag may be defined in at least one of a slice, a maximum coding unit, a coding unit, and a prediction unit.
  • the decoder can check the values of AF4 flag and AF6 flag (S3020).
  • the execution of the AF4 mode means that the motion vector prediction is performed using the affine motion model expressed by four parameters.
  • AF6_flag 1
  • AF4_flag 0
  • the AF6 mode is not performed for the current block.
  • the execution of the AF6 mode implies performing the motion vector prediction using the affine motion model represented by four parameters.
  • the decoder can perform motion vector prediction according to modes other than the AF4 mode and the AF6 mode (S3030).
  • the decoder can perform motion vector prediction according to the AF4 mode (S3040).
  • the decoder can perform motion vector prediction according to the AF6 mode (S3050).
  • the decoder can perform the motion vector prediction according to the AF4 mode or the AF6 mode (S3060).
  • FIG. 31 shows a flowchart for adaptively decoding according to the AF4 mode or the AF6 mode based on whether or not a neighboring block is coded in the AF mode, according to an embodiment to which the present invention is applied.
  • the decoder can check whether or not the AF mode is applied to the current block (S3110).
  • the decoder can check whether the neighboring block is coded in the AF mode (S3120).
  • the decoder can acquire at least one of AF4 flag or AF6_flag (S3130).
  • the decoder may obtain a motion vector of the current block based on the motion vector predictor (S3150).
  • 32 shows an embodiment in which the present invention is applied, and shows a syntax for performing adaptive decoding based on AF4_flag and AF6_flag.
  • the decoder can obtain AF4 flag and AF6 flag at the slice level (S3010).
  • AF4_flag indicates whether or not the AF4 mode is performed for the current block
  • AF6_flag indicates whether or not the AF6 mode is performed for the current block.
  • the AF4_flag may be expressed by affine_4_flag
  • the AF6_flag may be expressed by affine_6_flag.
  • the decoder may adaptively perform decoding based on AF4_flag and AF6_flag at the block level or prediction unit level.
  • the decoder can acquire the affine flag (S3220).
  • the affine flag may indicate whether or not the AF mode is performed.
  • the decoder may adaptively perform decoding according to the values of AF4_flag and AF6_flag.
  • FIG. 33 shows an embodiment in which the present invention is applied, and shows a syntax for performing adaptive decoding according to the AF4 mode or the AF6 mode based on whether or not a neighboring block is coded in the AF mode.
  • the decoder can parse or obtain the affine_param_flag (S3310). At this time, the decoder can perform decoding according to the AF4 mode or the AF6 mode according to the affine_param_flag value at the block level or the prediction unit level.
  • the video coding system may include a source device and a receiving device.
  • the source device may deliver the encoded video / image information or data in the form of a file or stream to a receiving device via a digital storage medium or network.
  • the source device may include a video source, an encoding apparatus, and a transmitter.
  • the receiving device may include a receiver, a decoding apparatus, and a renderer.
  • the encoding apparatus may be referred to as a video / image encoding apparatus, and the decoding apparatus may be referred to as a video / image decoding apparatus.
  • the transmitter may be included in the encoding device.
  • the receiver may be included in the decoding apparatus.
  • the renderer may include a display unit, and the display unit may be composed of a separate device or an external component.
  • a video source can acquire video / image through capturing, compositing, or generating a video / image.
  • the video source may include a video / video capture device and / or a video / video generation device.
  • the video / video capture device may include, for example, one or more cameras, video / video archives including previously captured video / images, and the like.
  • the video / image generation device may include, for example, a computer, tablet, smart phone, and the like (electronically) to generate video / images.
  • a virtual video / image may be generated through a computer or the like. In this case, the video / image capturing process may be replaced in the process of generating related data.
  • the encoding device may encode the input video / image.
  • the encoding apparatus can perform a series of procedures such as prediction, conversion, and quantization for compression and coding efficiency.
  • the encoded data (encoded video / image information) can be output in the form of a bitstream.
  • the transmitting unit may transmit the encoded video / image information or data output in the form of a bit stream to a receiving unit of the receiving device through a digital storage medium or a network in the form of a file or a stream.
  • the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD and the like.
  • the transmission unit may include an element for generating a media file through a predetermined file format, and may include an element for transmission over a broadcast / communication network.
  • the receiving unit may extract the bitstream and transmit it to the decoding apparatus.
  • the decoding apparatus may perform a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoding apparatus to decode the video / image.
  • the renderer may render the decoded video / image.
  • the rendered video / image can be displayed through the display unit.
  • 35 shows a content streaming system to which the present invention is applied.
  • the content streaming system to which the present invention is applied may include an encoding server, a streaming server, a web server, a media repository, a user device, and a multimedia input device.
  • the encoding server compresses content input from multimedia input devices such as a smart phone, a camera, and a camcorder into digital data to generate a bit stream and transmit the bit stream to the streaming server.
  • multimedia input devices such as a smart phone, a camera, a camcorder, or the like directly generates a bitstream
  • the encoding server may be omitted.
  • the bitstream may be generated by an encoding method or a bitstream generating method to which the present invention is applied, and the streaming server may temporarily store the bitstream in the process of transmitting or receiving the bitstream.
  • the streaming server transmits multimedia data to a user device based on a user request through the web server, and the web server serves as a medium for informing the user of what services are available.
  • the web server delivers it to the streaming server, and the streaming server transmits the multimedia data to the user.
  • the content streaming system may include a separate control server. In this case, the control server controls commands / responses among the devices in the content streaming system.
  • the streaming server may receive content from a media repository and / or an encoding server. For example, when receiving the content from the encoding server, the content can be received in real time. In this case, in order to provide a smooth streaming service, the streaming server can store the bit stream for a predetermined time.
  • Examples of the user device include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC, Such as tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glass, HMDs (head mounted displays)), digital TVs, desktops Computers, and digital signage.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • slate PC Such as tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glass, HMDs (head mounted displays)), digital TVs, desktops Computers, and digital signage.
  • Each of the servers in the content streaming system can be operated as a distributed server. In this case, data received at each server can be distributed.
  • the embodiments described in the present invention can be implemented and executed on a processor, a microprocessor, a controller, or a chip.
  • the functional units shown in FIGS. 1, 2, 34, and 35 may be implemented and executed on a computer, a processor, a microprocessor, a controller, or a chip.
  • the decoder and encoder to which the present invention is applied can be applied to multimedia communication devices such as a multimedia broadcasting transmitting and receiving device, a mobile communication terminal, a home cinema video device, a digital cinema video device, a surveillance camera, a video chatting device, (3D) video device, a video telephony video device, and a medical video device, and can be used to process video signals and data signals, Lt; / RTI >
  • the processing method to which the present invention is applied may be produced in the form of a computer-executed program, and may be stored in a computer-readable recording medium.
  • the multimedia data having the data structure according to the present invention can also be stored in a computer-readable recording medium.
  • the computer-readable recording medium includes all kinds of storage devices in which computer-readable data is stored.
  • the computer readable recording medium includes, for example, a Blu-ray Disc (BD), a universal serial bus (USB), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk and an optical data storage device .
  • the computer-readable recording medium includes media implemented in the form of a carrier wave (for example, transmission over the Internet).
  • the bit stream generated by the encoding method can be stored in a computer-readable recording medium or transmitted over a wired or wireless communication network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

본 발명은, 어파인 움직임 예측 모드(AF 모드, Affine mode)에 기초하여 현재 블록을 포함하는 비디오 신호를 디코딩하는 방법에 있어서, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계, 여기서 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 나타냄; 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, AF4 모드가 이용되는지 여부를 확인하는 단계, 여기서 상기 AF4 모드는 상기 어파인 움직임 모델(affine motion model)을 구성하는 4개의 파라미터를 이용하여 움직임 벡터를 예측하는 모드를 나타냄; AF4 모드가 이용되면 상기 4개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, AF4 모드가 이용되지 않으면 상기 어파인 움직임 모델(affine motion model)을 구성하는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성하는 단계; 및 상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.

Description

어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
본 발명은 비디오 신호의 인코딩/디코딩 방법 및 장치에 관한 것이며, 보다 구체적으로 어파인 예측(affine prediction)을 적응적으로 수행하는 방법 및 장치에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 영상, 이미지, 음성 등의 미디어가 압축 부호화의 대상이 될 수 있으며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다.
차세대 비디오 컨텐츠는 고해상도(high spatial resolution), 고프레임율(high frame rate) 및 영상 표현의 고차원화(high dimensionality of scene representation)라는 특징을 갖게 될 것이다. 그러한 컨텐츠를 처리하기 위해서는 메모리 저장(memory storage), 메모리 액세스율(memory access rate) 및 처리 전력(processing power) 측면에서 엄청난 증가를 가져올 것이다.
따라서, 차세대 비디오 컨텐츠를 보다 효율적으로 처리하기 위한 코딩 툴을 디자인할 필요가 있다.
본 발명은 보다 효율적으로 비디오 신호를 인코딩, 디코딩하는 방법을 제안하고자 한다.
또한, 본 발명은 4개 파라미터를 이용하는 어파인 예측(Four parameter affine prediction) 모드인 AF4 모드 및 6개 파라미터를 이용하는 어파인 예측(six parameter affine prediction) 모드인 AF6 모드를 모두 고려해서 인코딩 또는 디코딩하는 방법을 제안하고자 한다.
또한, 본 발명은 블록 크기에 기초하여 AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 최적의 코딩 모드를 적응적으로 결정(또는 선택)하는 방법을 제안하고자 한다.
또한, 본 발명은 이웃 블록이 어파인 예측에 의해 코딩되었는지 여부에 기초하여 AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 최적의 코딩 모드를 적응적으로 결정(또는 선택)하는 방법을 제안하고자 한다.
상기의 기술적 과제를 해결하기 위해,
본 발명은, 블록 크기에 기초하여 어파인 예측(affine prediction)을 적응적으로 수행하는 방법을 제공한다.
또한, 본 발명은 이웃 블록이 어파인 예측에 의해 코딩되었는지 여부에 기초하여 어파인 예측(affine prediction)을 적응적으로 수행하는 방법을 제공한다.
또한, 본 발명은 AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 최적의 코딩 모드를 적응적으로 결정(또는 선택)하는 방법을 제공한다.
또한, 본 발명은 적어도 하나의 기설정된 조건을 만족하는지 여부에 기초하여 어파인 예측(affine prediction)을 적응적으로 수행하는 방법을 제공하며, 이 경우 상기 기설정된 조건은 블록 크기, 블록의 픽셀 개수, 블록의 너비, 블록의 높이, 이웃 블록이 어파인 예측에 의해 코딩되었는지 여부 중 적어도 하나를 포함할 수 있다.
본 발명은 어파인 예측(affine prediction)을 적응적으로 수행하는 방법을 제공함으로서, 어파인 예측(affine prediction)의 성능을 향상시킬 수 있고, 어파인 예측(affine prediction)의 복잡도를 감소시킴으로써 보다 효율적인 코딩을 수행할 수 있다.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 3은 본 발명이 적용될 수 있는 실시예로서, QT(QuadTree, 이하 ‘QT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
도 4는 본 발명이 적용될 수 있는 실시예로서, BT(Binary Tree, 이하 ‘BT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
도 5는 본 발명이 적용될 수 있는 실시예로서, TT(Ternary Tree, 이하 ‘TT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
도 6은 본 발명이 적용될 수 있는 실시예로서, AT(Asymmetric Tree, 이하 ‘AT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
도 7은 본 발명이 적용되는 실시예로서, 인터 예측 모드를 설명하기 위한 도면이다.
도 8은 본 발명이 적용되는 실시예로서, 어파인 움직임 모델(affine motion model)을 설명하기 위한 도면이다.
도 9는 본 발명이 적용되는 실시예로서, 제어점 움직임 벡터(control point motion vector)를 이용한 어파인 움직임 예측 방법을 설명하기 위한 도면이다.
도 10은 본 발명이 적용되는 실시예로서, 어파인 예측 모드(Affine prediction mode)를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 과정을 설명하는 흐름도이다.
도 11은 본 발명이 적용되는 실시예(1-1)로서, AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
도 12는 본 발명이 적용되는 실시예(1-2)로서, AF4 모드 또는 AF6 모드에 기초하여 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 13은 본 발명이 적용되는 실시예(1-3)로서, AF4 모드 또는 AF6 모드에 기초하여 디코딩을 수행하는 신택스 구조를 나타낸다.
도 14는 본 발명이 적용되는 실시예(2-1)로서, 조건 A(condition A)에 기초하여 AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
도 15는 본 발명이 적용되는 실시예(2-2)로서, 조건 A(condition A)에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 16은 본 발명이 적용되는 실시예(2-3)로서, 조건 A(condition A)에 기초하여 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
도 17은 본 발명이 적용되는 실시예(3-1)로서, 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
도 18은 본 발명이 적용되는 실시예(3-2)로서, 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 19는 본 발명이 적용되는 실시예(3-3)로서, 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
도 20은 본 발명이 적용되는 실시예(4-1)로서, 이웃 블록의 코딩 모드에 기초하여 AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
도 21은 본 발명이 적용되는 실시예(4-2)로서, 이웃 블록의 코딩 모드에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 22는 본 발명이 적용되는 실시예(4-3)로서, 이웃 블록의 코딩 모드에 기초하여 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
도 23은 본 발명이 적용되는 실시예(5-1)로서, 조건 A(condition A), 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
도 24는 본 발명이 적용되는 실시예(5-2)로서, 조건 A(condition A), 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 25은 본 발명이 적용되는 실시예(5-3)로서, 조건 A(condition A), 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
도 26은 본 발명이 적용되는 실시예(6-1)로서, 조건 A(condition A) 또는 이웃 블록의 코딩 모드 중 적어도 하나에 기초하여 AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
도 27은 본 발명이 적용되는 실시예(6-2)로서, 조건 A(condition A) 또는 이웃 블록의 코딩 모드 중 적어도 하나에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 28은 본 발명이 적용되는 실시예(6-3)로서, 조건 A(condition A) 또는 이웃 블록의 코딩 모드 중 적어도 하나에 기초하여 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
도 29는 본 발명이 적용되는 실시예로서, AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 움직임 벡터 예측자를 생성하는 흐름도를 나타낸다.
도 30은 본 발명이 적용되는 실시예로서, AF4_flag 및 AF6_flag 에 기초하여 움직임 벡터 예측자를 생성하는 흐름도를 나타낸다.
도 31은 본 발명이 적용되는 실시예로서, 이웃 블록이 AF 모드로 코딩되었는지 여부에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
도 32는 본 발명이 적용되는 실시예로서, AF4_flag 및 AF6_flag 에 기초하여 적응적으로 디코딩을 수행하는 신택스를 나타낸다.
도 33은 본 발명이 적용되는 실시예로서, 이웃 블록이 AF 모드로 코딩되었는지 여부에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 신택스를 나타낸다.
도 34는 본 발명이 적용되는 비디오 코딩 시스템을 나타낸다.
도 35는 본 발명이 적용되는 컨텐츠 스트리밍 시스템을 나타낸다.
본 발명은, 어파인 움직임 예측 모드(AF 모드, Affine mode)에 기초하여 현재 블록을 포함하는 비디오 신호를 디코딩하는 방법에 있어서, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계, 여기서 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 나타냄; 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, AF4 모드가 이용되는지 여부를 확인하는 단계, 여기서 상기 AF4 모드는 상기 어파인 움직임 모델(affine motion model)을 구성하는 4개의 파라미터를 이용하여 움직임 벡터를 예측하는 모드를 나타냄; AF4 모드가 이용되면 상기 4개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, AF4 모드가 이용되지 않으면 상기 어파인 움직임 모델(affine motion model)을 구성하는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성하는 단계; 및 상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.
본 발명에서, 상기 방법은, 상기 비디오 신호로부터 어파인 플래그를 획득하는 단계를 더 포함하되, 상기 어파인 플래그는 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 나타내고, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부는 상기 어파인 플래그에 기초하여 확인되는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 상기 어파인 플래그에 따라 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 상기 비디오 신호로부터 어파인 파라미터 플래그를 획득하는 단계를 더 포함하되, 상기 어파인 파라미터 플래그는 상기 움직임 벡터 예측자가 상기 4개의 파라미터를 이용하여 생성되는지 또는 상기 6개의 파라미터를 이용하여 생성되는지 여부를 나타내는 것을 특징으로 한다.
본 발명에서, 상기 어파인 플래그 및 상기 어파인 파라미터 플래그는 슬라이스, 최대 코딩 유닛, 코딩 유닛 또는 예측 유닛 중 적어도 하나의 레벨에서 정의되는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 상기 현재 블록의 크기가 기설정된 조건을 만족하는지를 확인하는 단계를 더 포함하되, 상기 기설정된 조건은 상기 현재 블록 내 픽셀 개수, 상기 현재 블록의 너비 및/또는 높이 중 적어도 하나가 기설정된 임계값보다 큰지 여부를 나타내고, 상기 현재 블록의 크기가 기설정된 조건을 만족하는 경우, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계가 수행되는 것을 특징으로 한다.
본 발명에서, 상기 현재 블록의 크기가 기설정된 조건을 만족하지 않는 경우, 상기 현재 블록은 상기 AF 모드가 아닌 다른 코딩 모드에 기초하여 디코딩되는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 이웃 블록에 대해 AF 모드가 적용되었는지 여부를 확인하는 단계를 더 포함하되, 상기 이웃 블록에 대해 AF 모드가 적용된 경우, 움직임 벡터 예측자는 상기 4개 파라미터를 이용하여 생성되고, 상기 이웃 블록에 대해 AF 모드가 적용되지 않은 경우, 상기 AF4 모드가 이용되는지 여부를 확인하는 단계를 수행하는 것을 특징으로 한다.
본 발명은, 어파인 움직임 예측 모드(AF 모드)에 기초하여 현재 블록을 포함하는 비디오 신호를 디코딩하는 장치에 있어서, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하고, 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, AF4 모드가 이용되는지 여부를 확인하고, AF4 모드가 이용되면 4개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, AF4 모드가 이용되지 않으면 어파인 움직임 모델(affine motion model)을 구성하는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, 상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 인터 예측부를 포함하되, 상기 AF 모드는 상기 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 나타내고, 상기 AF4 모드는 상기 어파인 움직임 모델(affine motion model)을 구성하는 4개의 파라미터를 이용하여 움직임 벡터를 예측하는 모드를 나타내는 것을 특징으로 하는 장치를 제공한다.
본 발명에서, 상기 장치는, 상기 비디오 신호로부터 어파인 플래그를 파싱하는 파싱부를 더 포함하되, 상기 어파인 플래그는 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 나타내고, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부는 상기 어파인 플래그에 기초하여 확인되는 것을 특징으로 한다.
본 발명에서, 상기 장치는, 상기 어파인 플래그에 따라 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 상기 비디오 신호로부터 어파인 파라미터 플래그를 획득하는 상기 파싱부를 포함하되, 상기 어파인 파라미터 플래그는 상기 움직임 벡터 예측자가 상기 4개의 파라미터를 이용하여 생성되는지 또는 상기 6개의 파라미터를 이용하여 생성되는지 여부를 나타내는 것을 특징으로 한다.
본 발명에서, 상기 장치는, 상기 현재 블록의 크기가 기설정된 조건을 만족하는지를 확인하는 상기 인터 예측부를 포함하되, 상기 기설정된 조건은 상기 현재 블록 내 픽셀 개수, 상기 현재 블록의 너비 및/또는 높이 중 적어도 하나가 기설정된 임계값보다 큰지 여부를 나타내고, 상기 현재 블록의 크기가 기설정된 조건을 만족하는 경우, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계가 수행되는 것을 특징으로 한다.
본 발명에서, 상기 장치는, 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 이웃 블록에 대해 AF 모드가 적용되었는지 여부를 확인하는 상기 인터 예측부를 포함하되, 상기 이웃 블록에 대해 AF 모드가 적용된 경우, 움직임 벡터 예측자는 상기 4개 파라미터를 이용하여 생성되고, 상기 이웃 블록에 대해 AF 모드가 적용되지 않은 경우, 상기 AF4 모드가 이용되는지 여부를 확인하는 단계를 수행하는 것을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하며, 도면에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어를 사용하여 설명한다. 그러한 경우에는 해당 부분의 상세 설명에서 그 의미를 명확히 기재하므로, 본 발명의 설명에서 사용된 용어의 명칭만으로 단순 해석되어서는 안 될 것이며 그 해당 용어의 의미까지 파악하여 해석되어야 함을 밝혀두고자 한다.
또한, 본 발명에서 사용되는 용어들은 발명을 설명하기 위해 선택된 일반적인 용어들이나, 유사한 의미를 갖는 다른 용어가 있는 경우 보다 적절한 해석을 위해 대체 가능할 것이다. 예를 들어, 신호, 데이터, 샘플, 픽쳐, 프레임, 블록 등의 경우 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다. 또한, 파티셔닝(partitioning), 분해(decomposition), 스플리팅 (splitting) 및 분할(division) 등의 경우에도 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 1을 참조하면, 인코더(100)는 영상 분할부(110), 변환부(120), 양자화부(130), 역양자화부(140), 역변환부(150), 필터링부(160), 복호 픽쳐 버퍼(DPB: Decoded Picture Buffer) (170), 인터 예측부(180), 인트라 예측부(185) 및 엔트로피 인코딩부(190)를 포함하여 구성될 수 있다.
영상 분할부(110)는 인코더(100)에 입력된 입력 영상(Input image) (또는, 픽쳐, 프레임)를 하나 이상의 처리 유닛으로 분할할 수 있다. 예를 들어, 상기 처리 유닛은 코딩 트리 유닛(CTU: Coding Tree Unit), 코딩 유닛(CU: Coding Unit), 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)일 수 있다. 이때, 상기 분할은 QT(QuadTree), BT(Binary Tree), TT(Ternary Tree), AT(Asymmetric Tree) 중 적어도 하나의 방식에 의해 수행될 수 있다.
다만, 상기 용어들은 본 발명에 대한 설명의 편의를 위해 사용할 뿐이며, 본 발명은 해당 용어의 정의에 한정되지 않는다. 또한, 본 명세서에서는 설명의 편의를 위해, 비디오 신호를 인코딩 또는 디코딩하는 과정에서 이용되는 단위로써 코딩 유닛이라는 용어를 사용하지만, 본 발명은 그에 한정되지 않으며 발명 내용에 따라 적절하게 해석 가능할 것이다.
인코더(100)는 입력 영상 신호에서 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호(prediction signal)를 감산하여 레지듀얼 신호(residual signal)를 생성할 수 있고, 생성된 레지듀얼 신호는 변환부(120)로 전송된다.
변환부(120)는 레지듀얼 신호에 변환 기법을 적용하여 변환 계수(transform coefficient)를 생성할 수 있다. 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.
양자화부(130)는 변환 계수를 양자화하여 엔트로피 인코딩부(190)로 전송하고, 엔트로피 인코딩부(190)는 양자화된 신호(quantized signal)를 엔트로피 코딩하여 비트스트림으로 출력할 수 있다.
양자화부(130)로부터 출력된 양자화된 신호(quantized signal)는 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 신호(quantized signal)는 루프 내의 역양자화부(140) 및 역변환부(150)를 통해 역양자화 및 역변환을 적용함으로써 레지듀얼 신호를 복원할 수 있다. 복원된 레지듀얼 신호를 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호(prediction signal)에 더함으로써 복원 신호(reconstructed signal)가 생성될 수 있다.
한편, 위와 같은 압축 과정에서 인접한 블록들이 서로 다른 양자화 파라미터에 의해 양자화됨으로써 블록 경계가 보이는 열화가 발생될 수 있다. 이러한 현상을 블록킹 열화(blocking artifacts)라고 하며, 이는 화질을 평가하는 중요한 요소 중의 하나이다. 이러한 열화를 줄이기 위해 필터링 과정을 수행할 수 있다. 이러한 필터링 과정을 통해 블록킹 열화를 제거함과 동시에 현재 픽쳐에 대한 오차를 줄임으로써 화질을 향상시킬 수 있게 된다.
필터링부(160)는 복원 신호에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼(170)에 전송한다. 복호 픽쳐 버퍼(170)에 전송된 필터링된 신호는 인터 예측부(180)에서 참조 픽쳐로 사용될 수 있다. 이처럼, 필터링된 픽쳐를 화면간 예측 모드에서 참조 픽쳐로 이용함으로써 화질 뿐만 아니라 부호화 효율도 향상시킬 수 있다.
복호 픽쳐 버퍼(170)는 필터링된 픽쳐를 인터 예측부(180)에서의 참조 픽쳐로 사용하기 위해 저장할 수 있다.
인터 예측부(180)는 복원 픽쳐(reconstructed picture)를 참조하여 시간적 중복성 및/또는 공간적 중복성을 제거하기 위해 시간적 예측 및/또는 공간적 예측을 수행한다. 여기서, 예측을 수행하기 위해 이용되는 참조 픽쳐는 이전 시간에 부호화/복호화 시 블록 단위로 양자화와 역양자화를 거친 변환된 신호이기 때문에, 블로킹 아티팩트(blocking artifact)나 링잉 아티팩트(ringing artifact)가 존재할 수 있다.
따라서, 인터 예측부(180)는 이러한 신호의 불연속이나 양자화로 인한 성능 저하를 해결하기 위해, 로우패스 필터(lowpass filter)를 적용함으로써 픽셀들 사이의 신호를 서브 픽셀 단위로 보간할 수 있다. 여기서, 서브 픽셀은 보간 필터를 적용하여 생성된 가상의 픽셀을 의미하고, 정수 픽셀은 복원된 픽쳐에 존재하는 실제 픽셀을 의미한다. 보간 방법으로는 선형 보간, 양선형 보간(bi-linear interpolation), 위너 필터(wiener filter) 등이 적용될 수 있다.
보간 필터는 복원 픽쳐(reconstructed picture)에 적용되어 예측의 정밀도를 향상시킬 수 있다. 예를 들어, 인터 예측부(180)는 정수 픽셀에 보간 필터를 적용하여 보간 픽셀을 생성하고, 보간 픽셀들(interpolated pixels)로 구성된 보간 블록(interpolated block)을 예측 블록(prediction block)으로 사용하여 예측을 수행할 수 있다.
인트라 예측부(185)는 현재 부호화를 진행하려고 하는 블록의 주변에 있는 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 인트라 예측부(185)는 인트라 예측을 수행하기 위해 다음과 같은 과정을 수행할 수 있다. 먼저, 예측 신호를 생성하기 위해 필요한 참조 샘플을 준비할 수 있다. 그리고, 준비된 참조 샘플을 이용하여 예측 신호를 생성할 수 있다. 이후, 예측 모드를 부호화하게 된다. 이때, 참조 샘플은 참조 샘플 패딩 및/또는 참조 샘플 필터링을 통해 준비될 수 있다. 참조 샘플은 예측 및 복원 과정을 거쳤기 때문에 양자화 에러가 존재할 수 있다. 따라서, 이러한 에러를 줄이기 위해 인트라 예측에 이용되는 각 예측 모드에 대해 참조 샘플 필터링 과정이 수행될 수 있다.
상기 인터 예측부(180) 또는 상기 인트라 예측부(185)를 통해 생성된 예측 신호(prediction signal)는 복원 신호를 생성하기 위해 이용되거나 레지듀얼 신호를 생성하기 위해 이용될 수 있다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 2를 참조하면, 디코더(200)는 파싱부(미도시), 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(230), 필터링부(240), 복호 픽쳐 버퍼(DPB: Decoded Picture Buffer Unit) (250), 인터 예측부(260), 인트라 예측부(265) 및 복원부(미도시)를 포함하여 구성될 수 있다.
디코더(200)는 도 1의 인코더(100)로부터 출력된 신호를 수신할 수 있고, 파싱부(미도시)를 통해 신택스 엘리먼트를 파싱 또는 획득할 수 있다. 파싱 또는 획득된 신호는 엔트로피 디코딩부(210)를 통해 엔트로피 디코딩될 수 있다.
역양자화부(220)에서는 양자화 스텝 사이즈 정보를 이용하여 엔트로피 디코딩된 신호로부터 변환 계수(transform coefficient)를 획득한다.
역변환부(230)에서는 변환 계수를 역변환하여 레지듀얼 신호(residual signal)를 획득하게 된다.
복원부(미도시)는 획득된 레지듀얼 신호를 인터 예측부(260) 또는 인트라 예측부(265)로부터 출력된 예측 신호(prediction signal)에 더함으로써 복원 신호(reconstructed signal)를 생성한다.
필터링부(240)는 복원 신호(reconstructed signal)에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼부(250)에 전송한다. 복호 픽쳐 버퍼부(250)에 전송된 필터링된 신호는 인터 예측부(260)에서 참조 픽쳐로 사용될 수 있다.
본 명세서에서, 인코더(100)의 필터링부(160), 인터 예측부(180) 및 인트라 예측부(185)에서 설명된 실시예들은 각각 디코더의 필터링부(240), 인터 예측부(260) 및 인트라 예측부(265)에도 동일하게 적용될 수 있다.
상기 디코더(200)를 통해 출력된 복원 영상 신호(reconstructed video signal)는 재생 장치를 통해 재생될 수 있다.
도 3은 본 발명이 적용될 수 있는 실시예로서, QT(QuadTree, 이하 ‘QT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
비디오 코딩에서 하나의 블록은 QT(QuadTree) 기반으로 분할될 수 있다. 또한, QT에 의해서 분할된 하나의 서브 블록 (sub block)은 QT를 사용하여 재귀적으로 더 분할될 수 있다. 더 이상 QT 분할되지 않는 리프 블록 (leaf block)은 BT(Binary Tree), TT(Ternary Tree) 또는 AT(Asymmetric Tree) 중 적어도 하나의 방식에 의해서 분할될 수 있다. BT는 horizontal BT (2NxN, 2NxN)과 vertical BT (Nx2N, Nx2N)의 두 가지 형태의 분할을 가질 수 있다. TT는 horizontal TT (2Nx1/2N, 2NxN, 2Nx1/2N)와 vertical TT (1/2Nx2N, Nx2N, 1/2Nx2N)의 두 가지 형태의 분할을 가질 수 있다. AT는 horizontal-up AT (2Nx1/2N, 2Nx3/2N), horizontal-down AT (2Nx3/2N, 2Nx1/2N), vertical-left AT (1/2Nx2N, 3/2Nx2N), vertical-right AT (3/2Nx2N, 1/2Nx2N) 의 네 가지 형태의 분할을 가질 수 있다. 각각의 BT, TT, AT는 BT, TT, AT를 사용하여 재귀적으로 더 분할될 수 있다.
상기 도 3은 QT 분할의 예를 보여준다. 블록 A는 QT에 의해서 4개의 서브 블록 (A0, A1, A2, A3)으로 분할될 수 있다. 서브 블록 A1은 다시 QT에 의해서 4개의 서브 블록 (B0, B1, B2, B3)로 분할될 수 있다.
도 4는 본 발명이 적용될 수 있는 실시예로서, BT(Binary Tree, 이하 ‘BT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
상기 도 4는 BT 분할의 예를 보여준다. QT에 의해서 더 이상 분할되지 않는 블록 B3은 vertical BT (C0, C1) 또는 horizontal BT (D0, D1)으로 분할될 수 있다. 블록 C0와 같이 각각의 서브 블록은 horizontal BT (E0, E1) 또는 vertical BT (F0, F1)의 형태와 같이 재귀적으로 더 분할될 수 있다.
도 5는 본 발명이 적용될 수 있는 실시예로서, TT(Ternary Tree, 이하 ‘TT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
상기 도 5는 TT 분할의 예를 보여준다. QT에 의해서 더 이상 분할되지 않는 블록 B3은 vertical TT (C0, C1, C2) 또는 horizontal TT (D0, D1, D2)으로 분할될 수 있다. 블록 C1와 같이 각각의 서브 블록은 horizontal TT (E0, E1, E2) 또는 vertical TT (F0, F1, F2)의 형태와 같이 재귀적으로 더 분할될 수 있다.
도 6은 본 발명이 적용될 수 있는 실시예로서, AT(Asymmetric Tree, 이하 ‘AT’라 함) 블록 분할 구조를 설명하기 위한 도면이다.
상기 도 6은 AT 분할의 예를 보여준다. QT에 의해서 더 이상 분할되지 않는 블록 B3은 vertical AT (C0, C1) 또는 horizontal AT (D0, D1)으로 분할 될 수 있다. 블록 C1와 같이 각각의 서브 블록은 horizontal AT (E0, E1) 또는 vertical TT (F0, F1)의 형태와 같이 재귀적으로 더 분할 될 수 있다.
한편, BT, TT, AT 분할은 함께 사용하여 분할이 가능하다. 예를 들어, BT에 의해 분할된 서브 블록은 TT 또는 AT에 의한 분할이 가능하다. 또한, TT에 의해 분할된 서브 블록은 BT 또는 AT에 의한 분할이 가능하다. AT에 의해 분할된 서브 블록은 BT 또는 TT에 의한 분할이 가능하다. 예를 들어, horizontal BT 분할 이후, 각각의 서브 블록이 vertical BT로 분할될 수 있고, 또는 vertical BT 분할 이후, 각각의 서브 블록이 horizontal BT로 분할될 수도 있다. 상기 두 종류의 분할 방법은 분할 순서는 다르지만 최종적으로 분할되는 모양은 동일하다.
또한, 블록이 분할되면 블록을 탐색하는 순서를 다양하게 정의할 수 있다. 일반적으로, 좌측에서 우측으로, 상단에서 하단으로 탐색을 수행하며, 블록을 탐색한다는 것은 각 분할된 서브 블록의 추가적인 블록 분할 여부를 결정하는 순서를 의미하거나, 블록이 더 이상 분할되지 않을 경우 각 서브 블록의 부호화 순서를 의미하거나, 또는 서브 블록에서 다른 이웃 블록의 정보를 참조할 때의 탐색 순서를 의미할 수 있다.
도 7은 본 발명이 적용되는 실시예로서, 인터 예측 모드를 설명하기 위한 도면이다.
인터 예측 모드
본 발명이 적용되는 인터 예측 모드에서는 움직임 정보의 양을 줄이기 위하여 머지(Merge) 모드, AMVP(Advanced Motion Vector Prediction) 모드 또는 어파인 예측 모드(Affine prediction mode, 이하 ‘AF 모드’라 함)가 이용될 수 있다.
1) 머지(Merge) 모드
머지(Merge) 모드는 공간적(spatially) 또는 시간적(temporally)으로 이웃하는 블록으로부터 움직임 파라미터(또는 정보)를 도출하는 방법을 의미한다.
머지 모드에서 이용 가능한 후보의 세트는 공간적으로 이웃하는 후보(spatial neighbor candidates), 시간적 후보(temporal candidates) 및 생성된 후보(generated candidates)로 구성된다.
도 7(a)를 참조하면, {A1, B1, B0, A0, B2}의 순서에 따라 각 공간적 후보 블록이 이용 가능한지 여부가 판단된다. 이때, 후보 블록이 인트라 예측 모드로 인코딩되어 움직임 정보가 존재하지 않는 경우 또는 후보 블록이 현재 픽쳐(또는 슬라이스)의 밖에 위치하는 경우에는 해당 후보 블록은 이용할 수 없다.
공간적 후보의 유효성의 판단 후, 현재 처리 블록의 후보 블록에서 불필요한 후보 블록을 제외함으로써 공간적 머지 후보가 구성될 수 있다. 예를 들어, 현재 예측 블록의 후보 블록이 동일 코딩 블록 내 첫 번째 예측 블록인 경우 해당 후보 블록을 제외하고 또한 동일한 움직임 정보를 가지는 후보 블록들을 제외할 수 있다.
공간적 머지 후보 구성이 완료되면, {T0, T1}의 순서에 따라 시간적 머지 후보 구성 과정이 진행된다.
시간적 후보 구성에 있어서, 참조 픽쳐의 동일 위치(collocated) 블록의 우하단(right bottom) 블록(T0)이 이용 가능한 경우, 해당 블록을 시간적 머지 후보로 구성한다. 동일 위치(collocated) 블록은 선택된 참조 픽쳐에서 현재 처리 블록에 대응되는 위치에 존재하는 블록을 의미한다. 반면, 그렇지 않은 경우, 동일 위치(collocated) 블록의 중앙(center)에 위치하는 블록(T1)을 시간적 머지 후보로 구성한다.
머지 후보의 최대 개수는 슬라이스 헤더에서 특정될 수 있다. 머지 후보의 개수가 최대 개수보다 큰 경우, 최대 개수 보다 작은 개수의 공간적 후보와 시간적 후보가 유지된다. 그렇지 않은 경우, 머지 후보의 개수는 후보 개수가 최대 개수가 될 때까지 현재까지 추가된 후보들을 조합하여 추가적인 머지 후보(즉, 조합된 쌍예측 머지 후보(combined bi-predictive merging candidates))가 생성된다.
인코더에서는 위와 같은 방법으로 머지 후보 리스트를 구성하고, 움직임 추정(Motion Estimation)을 수행함으로써 머지 후보 리스트에서 선택된 후보 블록 정보를 머지 인덱스(merge index)(예를 들어, merge_idx[x0][y0]')로써 디코더에게 시그널링한다. 도 7(b)에서는 머지 후보 리스트에서 B1 블록이 선택된 경우를 예시하고 있으며, 이 경우, 머지 인덱스(merge index)로 "인덱스 1(Index 1)"이 디코더로 시그널링될 수 있다.
디코더에서는 인코더와 동일하게 머지 후보 리스트를 구성하고, 머지 후보 리스트에서 인코더로부터 수신한 머지 인덱스(merge index)에 해당하는 후보 블록의 움직임 정보로부터 현재 블록에 대한 움직임 정보를 도출한다. 그리고, 디코더는 도출한 움직임 정보를 기반으로 현재 처리 블록에 대한 예측 블록을 생성한다.
2) AMVP(Advanced Motion Vector Prediction) 모드
AMVP 모드는 주변 블록으로부터 움직임 벡터 예측 값을 유도하는 방법을 의미한다. 따라서, 수평 및 수직 움직임 벡터 차분 값(MVD: motion vector difference), 참조 인덱스 및 인터 예측 모드가 디코더로 시그널링된다. 수평 및 수직 움직임 벡터 값은 유도된 움직임 벡터 예측 값과 인코더로부터 제공된 움직임 벡터 차분 값(MVD: motion vector difference)를 이용하여 계산된다.
즉, 인코더에서는 움직임 벡터 예측값 후보 리스트를 구성하고, 움직임 추정(Motion Estimation)을 수행함으로써 움직임 벡터 예측값 후보 리스트에서 선택된 움직임 참조 플래그(즉, 후보 블록 정보)(예를 들어, 'mvp_lX_flag[x0][y0]')를 디코더에게 시그널링한다. 디코더에서는 인코더와 동일하게 움직임 벡터 예측값 후보 리스트를 구성하고, 움직임 벡터 예측값 후보 리스트에서 인코더로부터 수신한 움직임 참조 플래그에서 지시된 후보 블록의 움직임 정보를 이용하여 현재 처리 블록의 움직임 벡터 예측값을 도출한다. 그리고, 디코더는 도출된 움직임 벡터 예측값과 인코더로부터 전송된 움직임 벡터 차이값을 이용하여 현재 처리 블록에 대한 움직임 벡터값을 획득하게 된다. 그리고, 디코더는 도출한 움직임 정보를 기반으로 현재 처리 블록에 대한 예측 블록을 생성한다(즉, 움직임 보상).
AMVP 모드의 경우, 앞서 도 7에서 5개의 이용 가능한 후보들 중에서 2개의 공간적 움직임 후보가 선택된다. 첫 번째 공간적 움직임 후보는 좌측에 위치한 {A0, A1} 세트로부터 선택되고, 두 번째 공간적 움직임 후보는 상위에 위치한 {B0, B1, B2} 세트로부터 선택된다. 이때, 이웃한 후보 블록의 참조 인덱스가 현재 예측 블록과 동일하지 않은 경우, 움직임 벡터가 스케일링된다.
공간적 움직임 후보의 탐색 결과 선택된 후보 개수가 2개라면 후보 구성을 종료하나, 2개 미만인 경우 시간적 움직임 후보가 추가된다.
디코더(예를 들어, 인터 예측부)는 처리 블록(예를 들어, 예측 유닛)에 대한 움직임 파라미터를 디코딩한다.
예를 들어, 처리 블록이 머지 모드를 이용하는 경우, 디코더는 인코더로부터 시그널링된 머지 인덱스를 디코딩할 수 있다. 그리고, 머지 인덱스에서 지시된 후보 블록의 움직임 파라미터로부터 현재 처리 블록의 움직임 파라미터를 도출할 수 있다.
또한, 처리 블록이 AMVP 모드가 적용된 경우, 디코더는 인코더로부터 시그널링된 수평 및 수직 움직임 벡터 차분 값(MVD: motion vector difference), 참조 인덱스 및 인터 예측 모드를 복호화할 수 있다. 그리고, 움직임 참조 플래그로부터 지시된 후보 블록의 움직임 파라미터로부터 움직임 벡터 예측값을 도출하고, 움직임 벡터 예측값과 수신한 움직임 벡터 차분 값을 이용하여 현재 처리 블록의 움직임 벡터값을 도출할 수 있다.
디코더는 디코딩된 움직임 파라미터(또는 정보)를 이용하여 예측 유닛에 대한 움직임 보상을 수행한다.
즉, 인코더/디코더에서는 복호화된 움직임 파라미터를 이용하여, 이전에 디코딩된 픽쳐로부터 현재 유닛의 영상을 예측하는 움직임 보상(motion compensation)을 수행한다.
3) AF 모드(Affine Mode)
상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 의미하며, 어파인 머지 모드(affine merge mode) 또는 어파인 인터 모드(affine inter mode) 중 적어도 하나를 포함할 수 있다. 상기 어파인 인터 모드(affine inter mode)는 AF4 모드 또는 AF6 모드 중 적어도 하나를 포함할 수 있다. 여기서, AF4 모드는 4개 파라미터를 이용하는 어파인 예측(Four parameter affine prediction) 모드를 나타내고, AF6 모드는 6개 파라미터를 이용하는 어파인 예측(six parameter affine prediction) 모드를 나타낸다.
다만, 본 발명에서는 설명의 편의상 AF4 모드 또는 AF6 모드라 표현하지만, 이는 반드시 별도의 예측 모드로 정의되어야 할 필요는 없고, 상기 AF4 모드 또는 AF6 모드는 단지 4개 파라미터를 이용하는지 또는 6개 파라미터를 이용하는지에 의해 구분되어 이해될 수 있다.
상기 AF 모드에 대해서는 도 8 내지 도 10에서 보다 상세히 설명하도록 한다.
도 8은 본 발명이 적용되는 실시예로서, 어파인 움직임 모델(affine motion model)을 설명하기 위한 도면이다.
일반적인 영상 부호화 기술은 코딩 블록의 움직임을 표현하기 위하여 병진 움직임 모델(translation motion model)을 사용한다. 여기서, 병진 움직임 모델(translation motion model)은 평행 이동된 블록 기반의 예측 방법을 나타낸다. 즉, 코딩 블록의 움직임 정보는 하나의 움직임 벡터를 이용하여 표현된다. 그러나, 실제 코딩 블록 내에서 각 픽셀별 최적의 움직임 벡터는 서로 다를 수 있다. 만약, 적은 정보만으로 픽셀별 또는 서브 블록 단위별로 최적의 움직임 벡터를 결정할 수 있다면 코딩 효율을 높일 수 있다.
따라서, 본 발명은 인터 예측의 성능을 높이기 위해 평행 이동된 블록 기반의 예측 방법뿐만 아니라, 영상의 다양한 움직임을 반영한 인터 예측 기반 영상 처리 방법을 제안한다.
또한, 본 발명은 어파인 움직임 모델(affine motion model)을 사용하여 인코딩/디코딩을 수행하는 어파인 움직임 예측 방법에 대해 제안한다. 어파인 움직임 모델은 제어점의 움직임 벡터를 이용하여 픽셀 단위 또는 서브 블록 단위로 움직임 벡터를 유도하는 예측 방법을 나타낸다. 본 명세서에서, 어파인 움직임 모델(affine motion model)을 이용하는 어파인 움직임 예측 모드를 AF 모드(Affine Mode)라 한다.
또한, 본 발명은 블록 크기에 기초하여 어파인 예측(affine prediction)을 적응적으로 수행하는 방법을 제공한다.
또한, 본 발명은 이웃 블록이 어파인 예측에 의해 코딩되었는지 여부에 기초하여 어파인 예측(affine prediction)을 적응적으로 수행하는 방법을 제공한다.
또한, 본 발명은 AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 최적의 코딩 모드를 적응적으로 결정(또는 선택)하는 방법을 제공한다. 여기서, AF4 모드는 4개 파라미터를 이용하는 어파인 예측(Four parameter affine prediction) 모드를 나타내고, AF6 모드는 6개 파라미터를 이용하는 어파인 예측(six parameter affine prediction) 모드를 나타낸다.
상기 도 8을 참조하면, 영상의 왜곡을 움직임 정보로서 표현하기 위해 다양한 방법이 사용될 수 있으며, 특히 어파인 움직임 모델은 도 8에 도시된 4가지 움직임을 표현할 수 있다.
예를 들어, 어파인 움직임 모델은 영상의 이동(translate), 영상의 확대/축소(scale), 영상의 회전(rotate), 영상의 비뚤림(shear)를 비롯하여 유발되는 임의의 영상 왜곡을 모델링할 수 있다.
어파인 움직임 모델은 다양한 방법으로 표현될 수 있으나, 그 중에서 본 발명에서는 블록의 특정 기준점(또는 기준 픽셀/샘플)에서의 움직임 정보를 활용하여 왜곡을 표시(또는 식별)하고, 이를 이용하여 인터 예측을 수행하는 방법을 제안한다. 여기서, 기준점은 제어점(CP: Control Point)(또는 제어 픽셀, 제어 샘플)이라고 지칭될 수 있으며, 이러한 기준점에서의 움직임 벡터는 제어점 움직임 벡터(CPMV: Control Point Motion Vector)라고 지칭될 수 있다. 이러한 제어점의 개수에 따라 표현할 수 있는 왜곡의 정도가 달라질 수 있다.
어파인 움직임 모델은 다음 수학식 1과 같이 6개의 파라미터(a, b, c, d, e, f)를 이용하여 표현될 수 있다.
Figure PCTKR2018008845-appb-M000001
여기서, (x,y)는 코딩 블록의 좌상측 픽셀의 위치를 나타낸다. 그리고, vx 및 vy는 각각 (x,y) 에서의 움직임 벡터를 나타낸다.
도 9는 본 발명이 적용되는 실시예로서, 제어점 움직임 벡터(control point motion vector)를 이용한 어파인 움직임 예측 방법을 설명하기 위한 도면이다.
도 9(a)를 참조하면, 현재 블록(901)의 좌상측 제어점(control point) (CP0) (902)(이하, 제1 제어점이라 함), 우상측 제어점(control point) (CP1) (903)(이하, 제2 제어점이라 함) 및 좌하측 제어점(control point) (CP2) (904)(이하, 제3 제어점이라 함)은 각각 독립적인 움직임 정보를 가질 수 있다. 이를 각각 CP0, CP1, CP2 라 표현할 수 있다. 그러나, 이는 본 발명의 일실시예에 해당하고, 본 발명은 이에 한정되지 않는다. 예를 들어, 우하측 제어점, 센터 제어점, 그외 서브 블록의 위치별 제어점 등 다양하게 제어점을 정의할 수 있다.
본 발명의 일실시예로, 상기 제1 제어점 내지 제3 제어점 중 적어도 하나는 현재 블록에 포함된 픽셀일 수 있다. 또는, 다른 예로, 상기 제1 제어점 내지 제3 제어점 중 적어도 하나는 현재 블록에 포함되지 않는 현재 블록에 인접한 픽셀일 수 있다.
상기 제어점들 중 하나 이상의 제어점의 움직임 정보를 이용하여 현재 블록(901)의 픽셀 별 또는 서브 블록 별 움직임 정보가 유도될 수 있다.
예를 들어, 현재 블록(901)의 좌상측 제어점(902), 우상측 제어점(903) 및 좌하측 제어점(904)의 움직임 벡터를 이용한 어파인 움직임 모델은 다음 수학식 2와 같이 정의될 수 있다.
Figure PCTKR2018008845-appb-M000002
여기서,
Figure PCTKR2018008845-appb-I000001
를 좌상측 제어점(902)의 움직임 벡터,
Figure PCTKR2018008845-appb-I000002
를 우상측 제어점(903)의 움직임 벡터,
Figure PCTKR2018008845-appb-I000003
를 좌하측 제어점(904)의 움직임 벡터라고 할 때,
Figure PCTKR2018008845-appb-I000004
로 정의될 수 있다. 그리고, 수학식 2에서 w는 현재 블록(901)의 너비(width), h는 현재 블록(901)의 높이(height)를 나타낸다. 그리고,
Figure PCTKR2018008845-appb-I000005
는 {x,y} 위치의 움직임 벡터를 나타낸다.
본 발명에서는, 어파인 움직임 모델이 표현할 수 있는 움직임 중 병진(translation), 스케일(scale), 회전(rotate)의 3가지 움직임을 표현하는 어파인 움직임 모델을 정의할 수 있다. 본 명세서에서는 이를 간이 어파인 움직임 모델(simplified affine motion model or similarity affine motion model)이라 부르기로 한다.
상기 간이 어파인 움직임 모델은 다음 수학식 3과 같이 4개의 파라미터(a, b, c, d)를 이용하여 표현될 수 있다.
Figure PCTKR2018008845-appb-M000003
여기서, {vx,vy}는 각각 {x,y} 위치의 움직임 벡터를 나타낸다. 이와 같이 4개의 파라미터를 이용하는 어파인 움직임 모델을 AF4라 부를 수 있다. 본 발명은 이에 한정되지 않으며, 6개의 파라미터를 이용하는 경우에는 AF6라 하며, 위 실시예들을 동일하게 적용할 수 있다.
상기 도 9(b)를 살펴보면,
Figure PCTKR2018008845-appb-I000006
를 현재 블록의 좌상측 제어점(1001)의 움직임 벡터,
Figure PCTKR2018008845-appb-I000007
를 우상측 제어점(1002)의 움직임 벡터라고 할 때,
Figure PCTKR2018008845-appb-I000008
={v0x,v0y},
Figure PCTKR2018008845-appb-I000009
={v1x,v1y}로 정의될 수 있다. 이때, AF4의 어파인 움직임 모델을 다음의 수학식 4와 같이 정의될 수 있다.
Figure PCTKR2018008845-appb-M000004
수학식 4에서 w는 현재 블록의 너비(width), h는 현재 블록의 높이(height)를 나타낸다. 그리고,
Figure PCTKR2018008845-appb-I000010
는 각각 {x,y} 위치의 움직임 벡터를 나타낸다.
인코더 또는 디코더는 제어점 움직임 벡터(예를 들어, 좌상측 제어점(1001) 및 우상측 제어점(1002)의 움직임 벡터)를 이용하여 각 픽셀 위치의 움직임 벡터를 결정(또는 유도)할 수 있다.
본 발명에서, 어파인 움직임 예측을 통해 결정되는 움직임 벡터들의 집합을 어파인 움직임 벡터 필드로 정의할 수 있다. 상기 어파인 움직임 벡터 필드는 상기 수학식 1 내지 4 중 적어도 하나를 이용하여 결정될 수 있다.
부호화/복호화 과정에서 어파인 움직임 예측을 통한 움직임 벡터는 픽셀 단위 또는 미리 정의된(또는 미리 설정된) 블록(또는 서브 블록) 단위로 결정될 수 있다. 예를 들어, 픽셀 단위로 결정되는 경우 블록 내 각 픽셀을 기준으로 움직임 벡터가 유도될 수 있고, 서브 블록 단위로 결정되는 경우 현재 블록 내 각 서브 블록 단위를 기준으로 움직임 벡터가 유도될 수 있다. 다른 예로, 서브 블록 단위로 결정되는 경우, 움직임 벡터는 좌상측 픽셀 또는 중앙 픽셀을 기준으로 해당 서브 블록의 움직임 벡터가 유도될 수 있다.
이하, 본 발명의 설명에 있어 설명의 편의를 위해, 어파인 움직임 예측을 통한 움직임 벡터가 4x4 블록 단위로 결정되는 경우를 위주로 설명하나, 본 발명은 이에 한정되는 것은 아니며, 본 발명은 픽셀 단위 또는 다른 크기의 블록 단위로 적용될 수 있다.
한편, 상기 도 9(b)를 참조하면, 현재 블록의 크기가 16x16 인 경우를 가정한다. 인코더 또는 디코더는 현재 블록의 좌상측 제어점(801) 및 우상측 제어점(802)의 움직임 벡터를 이용하여 이용하여 4x4 서브 블록 단위로 움직임 벡터를 결정할 수 있다. 그리고, 각 서브 블록의 중앙 픽셀 값을 기준으로 해당 서브 블록의 움직임 벡터가 결정될 수 있다.
상기 도 9(b)에서, 각 서브 블록의 중앙에 표시된 화살표는 어파인 움직임 모델(Affin motion model)에 의해 획득된 움직임 벡터를 나타낸다.
어파인 움직임 예측은 어파인 머지 모드(이하, ‘AF 머지 모드’라 함)와 어파인 인터 모드(이하, ‘AF 인터 모드’라 함)로 이용될 수 있다. AF 머지 모드는 스킵 모드 또는 머지 모드와 유사하게 움직임 벡터 차이(motion vector difference)를 부호화하지 않고, 2개의 제어점 움직임 벡터를 유도하여 부호화 또는 복호화하는 방법이다. AF 인터 모드는 제어점 움직임 벡터 예측자(motion vector predictor)와 제어점 움직임 벡터를 결정한 후, 그 차이에 해당하는 제어점 움직임 벡터 차이(control point motion vector difference, CPMVD)를 부호화 또는 복호화 방법이다. 이 경우, AF4 모드의 경우에는 2개의 제어점의 움직임 벡터 차이가 전송되고, AF6 모드의 경우에는 3개의 제어점의 움직임 벡터 차이가 전송된다.
이때, AF4 모드는 AF6 모드에 비해 적은 개수의 움직임 벡터 차이값을 전송하기 때문에 적은 비트로 제어점 움직임 벡터(Control Point Motion Vector, CPMV) 를 표현할 수 있다는 장점이 있고, AF6 모드는 3개의 CPMVD를 전송하기 때문에 우수한 예측자 생성이 가능하여 차분 코딩(residual coding)을 위한 비트를 줄일 수 있다는 장점이 있다.
따라서, 본 발명에서는 AF 인터 모드에서 AF4 모드 및 AF6 모드를 모두(또는 동시에) 고려하는 방법을 제안한다.
도 10은 본 발명이 적용되는 실시예로서, 어파인 예측 모드(이하, ‘AF 모드’라 함)를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 과정을 설명하는 흐름도이다.
본 발명은, AF 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 방법을 제공한다.
먼저, 비디오 신호 처리 장치는 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블록의 움직임 벡터를 이용하여 움직임 벡터 쌍(motion vector pair)의 후보 리스트를 생성할 수 있다(S1010). 여기서, 상기 제어점은 상기 현재 블록의 코너 픽셀을 의미하고, 상기 움직임 벡터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽셀의 움직임 벡터를 나타낸다.
일실시예로, 상기 제어점은 상기 현재 블록의 좌상측 코너 픽셀, 우상측 코너 픽셀, 좌하측 코너 픽셀 또는 우하측 코너 픽셀 중 적어도 2개를 포함하고, 상기 후보 리스트는 상기 좌상측 코너 픽셀, 상기 우상측 코너 픽셀 및 상기 좌하측 코너 픽셀에 인접한 픽셀들 또는 블록들에 의해 구성될 수 있다.
일실시예로, 상기 후보 리스트는 상기 좌상측 코너 픽셀의 대각 인접 픽셀(A), 상측 인접 픽셀(B) 및 좌측 인접 픽셀(C)의 움직임 벡터들, 상기 우상측 코너 픽셀의 상측 인접 픽셀(D) 및 대각 인접 픽셀(E)의 움직임 벡터들, 및 상기 좌하측 코너 픽셀의 좌측 인접 픽셀(F) 및 대각 인접 픽셀(G)의 움직임 벡터들에 기초하여 생성될 수 있다.
일실시예로, 상기 방법은, 상기 후보 리스트의 움직임 벡터 쌍이 2개보다 작은 경우, AMVP 후보 리스트를 상기 후보 리스트에 추가하는 단계를 더 포함할 수 있다.
일실시예로, 상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블록의 제어점 움직임 벡터는 상기 현재 블록 내 좌측 서브 블록 및 우측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 벡터로 결정되고, 상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록의 제어점 움직임 벡터는 상기 현재 블록 내 상측 서브 블록 및 하측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 벡터로 결정되는 것을 특징으로 한다.
일실시예로, 상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블록 내 좌측 서브 블록의 제어점 움직임 벡터는 제1제어점 움직임 벡터와 제3제어점 움직임 벡터의 평균값에 의해 결정되고, 우측 서브 블록의 제어점 움직임 벡터는 제2제어점 움직임 벡터와 제4제어점 움직임 벡터의 평균값에 의해 결정되며, 상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록 내 상측 서브 블록의 제어점 움직임 벡터는 제1제어점 움직임 벡터와 제2제어점 움직임 벡터의 평균값에 의해 결정되고, 하측 서브 블록의 제어점 움직임 벡터는 제3제어점 움직임 벡터와 제4제어점 움직임 벡터의 평균값에 의해 결정되는 것을 특징으로 한다.
다른 일실시예로, 상기 방법은, 상기 AF 모드가 수행되는지 여부를 나타내는 예측 모드 또는 플래그 정보를 시그널링할 수 있다.
이 경우, 상기 비디오 신호 처리 장치는 상기 예측 모드 또는 플래그 정보를 수신하고, 상기 예측 모드 또는 상기 플래그 정보에 따라 상기 AF 모드를 수행하고, 상기 AF 모드에 따라 움직임 벡터를 유도할 수 있다. 여기서, 상기 AF 모드는 상기 현재 블록의 제어점 움직임 벡터를 이용하여 픽셀 또는 서브 블록 단위로 움직임 벡터를 유도하는 모드를 나타내는 것을 특징으로 한다.
한편, 상기 비디오 신호 처리 장치는 상기 움직임 벡터 쌍의 발산값(divergence value)에 기초하여 기설정된 개수의 움직임 벡터 쌍의 최종 후보 리스트를 결정할 수 있다(S1020). 여기서, 상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 벡터들의 방향의 유사성을 나타내는 값을 의미한다.
상기 비디오 신호 처리 장치는 상기 최종 후보 리스트로부터 율-왜곡 비용에 기초하여 상기 현재 블록의 제어점 움직임 벡터를 결정할 수 있다(S1030).
상기 비디오 신호 처리 장치는 상기 제어점 움직임 벡터에 기초하여 상기 현재 블록의 움직임 벡터 예측자를 생성할수 있다(S1040).
도 11은 본 발명이 적용되는 실시예(1-1)로서, AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
비디오 신호 처리 장치는 스킵 모드, 머지 모드, 또는 인터 모드 중 적어도 하나에 기초하여 예측을 수행할 수 있다(S1110). 여기서, 머지 모드를 일반적인 머지 모드 뿐만 아니라 앞서 설명한 AF 머지 모드를 포함할 수 있고, 인터 모드는 일반적인 인터 모드 뿐만 아니라 앞서 설명한 AF 인터 모드를 포함할 수 있다.
상기 비디오 신호 처리 장치는 AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1120). 여기서, 상기 S1110 단계와 상기 S1120 단계는 그 순서에 제한되지 않는다.
상기 비디오 신호 처리 장치는 상기 S1120 단계의 결과들을 비교하여, 상기 모드들 중 최적의 코딩 모드를 결정할 수 있다(S1130). 이때, 상기 S1120 단계의 결과들은 율-왜곡 비용(Rate-Distortion Cost)에 기초하여 비교될 수 있다.
이후, 상기 비디오 신호 처리 장치는 최적의 코딩 모드에 기초하여 현재 블록의 움직임 벡터 예측자를 생성할 수 있고, 상기 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 감산하여 움직임 벡터 차이값을 획득할 수 있다.
이후, 상기 도 1 및 도 2에서 설명하였던 인코딩/디코딩 과정이 동일하게 적용될 수 있다.
도 12는 본 발명이 적용되는 실시예(1-2)로서, AF4 모드 또는 AF6 모드에 기초하여 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는 비트스트림을 수신할 수 있다(S1210). 상기 비트스트림은 비디오 신호 내 현재 블록의 코딩 모드에 대한 정보를 포함할 수 있다.
상기 디코더는 상기 현재 블록의 코딩 모드가 AF 모드인지 여부를 확인할 수 있다(S1220). 여기서, 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 어파인 움직임 예측 모드를 의미하며, 예를 들어, 어파인 머지 모드(affine merge mode) 또는 어파인 인터 모드(affine inter mode) 중 적어도 하나를 포함할 수 있고, 상기 어파인 인터 모드(affine inter mode)는 AF4 모드 또는 AF6 모드 중 적어도 하나를 포함할 수 있다.
이때, 상기 S1220 단계는 AF 모드가 수행되는지 여부를 나타내는 어파인 플래그에 의해 확인될 수 있다. 예를 들어, 상기 어파인 플래그는 affine_flag 로 표현될 수 있다. 상기 affine_flag = 1 이면, 현재 블록에 대해 AF 모드가 수행되는 것을 나타내고, 상기 affine_flag = 0 이면, 현재 블록에 대해 AF 모드가 수행되지 않는 것을 나타낸다.
현재 블록에 대해 AF 모드가 수행되지 않는 경우, 상기 디코더는 상기 AF 모드가 아닌 코딩 모드에 따라 디코딩(즉, 움직임 벡터 예측)을 수행할 수 있다(S1230). 예를 들어, 스킵 모드, 머지 모드 또는 인터 모드가 이용될 수 있다.
현재 블록에 대해 AF 모드가 수행되는 경우, 상기 디코더는 상기 현재 블록에 대해 AF4 모드가 적용되는지 여부를 확인할 수 있다(S1240).
이때, 상기 S1240 단계는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타내는 어파인 파라미터 플래그에 의해 확인될 수 있다. 예를 들어, 상기 어파인 파라미터 플래그는 affine_param_flag 로 표현될 수 있다. 상기 affine_param_flag = 0 이면, AF4 모드에 따라 움직임 벡터 예측이 수행되고(S1250), 상기 affine_param_flag = 1 이면, AF6 모드에 따라 움직임 벡터 예측이 수행되는 것을 의미할 수 있으나(S1260), 본 발명은 이에 한정되지 않는다.
예를 들어, 상기 어파인 파라미터 플래그는 AF4_flag 및 AF6_flag 중 적어도 하나를 포함할 수 있다.
AF4_flag 는 현재 블록에 대해 AF4 모드가 수행되는지 여부를 나타낸다. AF4_flag = 1이면 현재 블록에 대해 AF4 모드가 수행되고, AF4_flag = 0이면 현재 블록에 대해 AF4 모드가 수행되지 않는다. 여기서, AF4 모드가 수행된다는 것은 4개의 파라미터로 표현되는 어파인 움직임 모델을 이용하여 움직임 벡터 예측을 수행하는 것을 의미한다.
AF6_flag 는 현재 블록에 대해 AF6 모드가 수행되는지 여부를 나타낸다. AF6_flag = 1이면 현재 블록에 대해 AF6 모드가 수행되고, AF4_flag = 0이면 현재 블록에 대해 AF6 모드가 수행되지 않는다. 여기서, AF6 모드가 수행된다는 것은 4개의 파라미터로 표현되는 어파인 움직임 모델을 이용하여 움직임 벡터 예측을 수행하는 것을 의미한다.
상기 어파인 플래그 및 상기 어파인 파라미터 플래그는 슬라이스, 최대 코딩 유닛, 코딩 유닛 또는 예측 유닛 중 적어도 하나의 레벨에서 정의될 수 있다.
예를 들어, AF_flag, AF4_flag 및 AF6_flag 중 적어도 하나는 슬라이스 레벨에서 정의되고, 다시 블록 레벨 또는 예측 유닛 레벨에서 정의될 수 있다.
도 13은 본 발명이 적용되는 실시예(1-3)로서, AF4 모드 또는 AF6 모드에 기초하여 디코딩을 수행하는 신택스 구조를 나타낸다.
디코더는 merge_flag를 획득하여, 현재 블록에 대해 머지 모드가 적용되는지 여부를 확인할 수 있다(S1310).
상기 현재 블록에 대해 머지 모드가 적용되지 않는 경우, 상기 디코더는 affine_flag 를 획득할 수 있다(S1320). 여기서, affine_flag 는 AF 모드가 수행되는지 여부를 나타낸다.
상기 affine_flag = 1 이면, 즉 현재 블록에 대해 AF 모드가 수행되면, 상기 디코더는 affine_param_flag 를 획득할 수 있다(S1330). 여기서, affine_param_flag 는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타낸다.
상기 affine_param_flag = 0 이면, 즉 AF4 모드에 따라 움직임 벡터 예측이 수행되면, 상기 디코더는 2개의 움직임 벡터 차이값인, mvd_CP0 및 mvd_CP1을 획득할 수 있다(S1340). 여기서, mvd_CP0 는 제어점 0에 대한 움직임 벡터 차이값을 나타내고, mvd_CP1 은 제어점 1에 대한 움직임 벡터 차이값을 나타낸다.
그리고, 상기 affine_param_flag = 1 이면, 즉 AF6 모드에 따라 움직임 벡터 예측이 수행되면, 상기 디코더는 3개의 움직임 벡터 차이값인, mvd_CP0, mvd_CP1 및 mvd_CP2를 획득할 수 있다(S1350).
도 14는 본 발명이 적용되는 실시예(2-1)로서, 조건 A(condition A)에 기초하여 AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
인코더는 스킵 모드, 머지 모드, 또는 인터 모드 중 적어도 하나에 기초하여 예측을 수행할 수 있다(S1410).
상기 인코더는, 움직임 벡터 예측을 위한 최적의 코딩 모드를 결정하기 위해 현재 블록에 대해 조건 A가 만족되는지 여부를 확인할 수 있다(S1420).
여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 다음 표 1의 실시예들이 적용될 수 있다.
Figure PCTKR2018008845-appb-T000001
상기 표 1의 Example 1에서, 상기 조건 A는 상기 현재 블록의 픽셀 개수(pixNum)가 임계값(TH1)보다 큰지 여부를 나타낸다. 이때, 상기 임계값은 64, 128, 256, 512, 1024, … 등의 값을 가질 수 있으며, 예를 들어, TH1 = 64 는 블록 크기가 4x16, 8x8, 또는 16x4 인 경우를 의미하고, TH1 = 128 은 블록 크기가 32x4, 16x8, 8x16 또는 4x32 인 경우를 의미할 수 있다.
Example 2의 경우, 상기 현재 블록의 너비(width) 및 높이(height)가 모두 임계값(TH1)보다 큰지 여부를 나타낸다.
Example 3의 경우, 상기 현재 블록의 너비(width)가 임계값(TH1)보다 크거나 또는 상기 현재 블록의 높이(height)가 임계값(TH1)보다 큰지 여부를 나타낸다.
상기 조건 A가 만족되는 경우, 상기 인코더는 AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1430).
상기 인코더는 상기 S1410 및 상기 S1430 단계들의 결과들을 비교하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 결정할 수 있다(S1440).
한편, 상기 조건 A가 만족되지 않는 경우, 상기 인코더는 AF 모드가 아닌 모드들 중에서 최적의 코딩 모드를 결정할 수 있다(S1440).
이후, 상기 인코더는 최적의 코딩 모드에 기초하여 현재 블록의 움직임 벡터 예측자를 생성할 수 있고, 상기 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 감산하여 움직임 벡터 차이값을 획득할 수 있다.
이후, 상기 도 1 및 도 2에서 설명하였던 인코딩/디코딩 과정이 동일하게 적용될 수 있다.
도 15는 본 발명이 적용되는 실시예(2-2)로서, 조건 A(condition A)에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는 비트스트림을 수신할 수 있다(S1510). 상기 비트스트림은 비디오 신호 내 현재 블록의 코딩 모드에 대한 정보를 포함할 수 있다.
상기 디코더는, 움직임 벡터 예측을 위한 최적의 코딩 모드를 결정하기 위해 현재 블록에 대해 조건 A가 만족되는지 여부를 확인할 수 있다(S1520). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 디코더는 상기 현재 블록의 코딩 모드가 AF 모드인지 여부를 확인할 수 있다(S1530). 여기서, 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 어파인 움직임 예측 모드를 의미하며, 본 명세서에서 설명한 실시예들이 적용될 수 있다.
이때, 상기 S1530 단계는 AF 모드가 수행되는지 여부를 나타내는 어파인 플래그에 의해 확인될 수 있다. 예를 들어, 상기 어파인 플래그는 affine_flag 로 표현될 수 있다. 상기 affine_flag = 1 이면, 현재 블록에 대해 AF 모드가 수행되는 것을 나타내고, 상기 affine_flag = 0 이면, 현재 블록에 대해 AF 모드가 수행되지 않는 것을 나타낸다.
상기 조건 A가 만족되지 않는 경우이거나, 상기 현재 블록에 대해 AF 모드가 수행되지 않는 경우, 상기 디코더는 상기 AF 모드가 아닌 코딩 모드에 따라 디코딩(즉, 움직임 벡터 예측)을 수행할 수 있다(S1540). 예를 들어, 스킵 모드, 머지 모드 또는 인터 모드가 이용될 수 있다.
상기 현재 블록에 대해 AF 모드가 수행되는 경우, 상기 디코더는 상기 현재 블록에 대해 AF4 모드가 적용되는지 여부를 확인할 수 있다(S1550).
이때, 상기 S1550 단계는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타내는 어파인 파라미터 플래그에 의해 확인될 수 있다. 예를 들어, 상기 어파인 파라미터 플래그는 affine_param_flag 로 표현될 수 있다. 상기 affine_param_flag = 0 이면, AF4 모드에 따라 움직임 벡터 예측이 수행되고(S1560), 상기 affine_param_flag = 1 이면, AF6 모드에 따라 움직임 벡터 예측이 수행되는 것을 의미할 수 있으나(S1570), 본 발명은 이에 한정되지 않는다.
도 16은 본 발명이 적용되는 실시예(2-3)로서, 조건 A(condition A)에 기초하여 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
디코더는 merge_flag를 획득하여, 현재 블록에 대해 머지 모드가 적용되는지 여부를 확인할 수 있다(S1610).
상기 현재 블록에 대해 머지 모드가 적용되지 않는 경우, 상기 디코더는 조건 A가 만족되는지 여부를 확인할 수 있다(S1620). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 디코더는 affine_flag 를 획득할 수 있다(S1620). 여기서, affine_flag 는 AF 모드가 수행되는지 여부를 나타낸다.
상기 affine_flag = 1 이면, 즉 현재 블록에 대해 AF 모드가 수행되면, 상기 디코더는 affine_param_flag 를 획득할 수 있다(S1630). 여기서, affine_param_flag 는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타낸다.
상기 affine_param_flag = 0 이면, 즉 AF4 모드에 따라 움직임 벡터 예측이 수행되면, 상기 디코더는 2개의 움직임 벡터 차이값인, mvd_CP0 및 mvd_CP1을 획득할 수 있다(S1640). 여기서, mvd_CP0 는 제어점 0에 대한 움직임 벡터 차이값을 나타내고, mvd_CP1 은 제어점 1에 대한 움직임 벡터 차이값을 나타낸다.
그리고, 상기 affine_param_flag = 1 이면, 즉 AF6 모드에 따라 움직임 벡터 예측이 수행되면, 상기 디코더는 3개의 움직임 벡터 차이값인, mvd_CP0, mvd_CP1 및 mvd_CP2를 획득할 수 있다(S1650).
도 17은 본 발명이 적용되는 실시예(3-1)로서, 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
본 발명은 현재 블록의 크기에 기초하여 AF4 모드와 AF6 모드를 적응적으로 선택하는 방법을 제공한다.
예를 들어, AF6 모드는 AF4 모드보다 추가적으로 1개의 움직임 벡터 차이값을 전송하여 하므로, 상대적으로 큰 블록에서는 효과적이다. 따라서, 현재 블록의 크기가 기설정된 크기보다 작은(또는 작거나 같은) 경우 AF4 모드만을 고려하여 인코딩을 수행하고 상기 현재 블록이 기설정된 크기보다 크거나 같은(또는 큰) 경우 AF6 모드만을 고려하여 인코딩을 수행할 수 있다.
한편, AF4 모드 또는 AF6 모드 중 명확하게 하나만 유리하다고 판단되지 않는 영역의 경우에는, AF4 모드 및 AF6 모드 모두를 고려하고 이 중 최적의 모드만을 시그널링 할 수 있다.
상기 도 17을 살펴보면, 인코더는 스킵 모드, 머지 모드, 또는 인터 모드 중 적어도 하나에 기초하여 예측을 수행할 수 있다(S1710).
상기 인코더는, 현재 블록에 대해 조건 B가 만족되는지 여부를 확인할 수 있다(S1720). 여기서, 상기 조건 B는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 다음 표 2의 실시예들이 적용될 수 있다.
Figure PCTKR2018008845-appb-T000002
상기 표 2의 Example 1에서, 상기 조건 B는 상기 현재 블록의 픽셀 개수(pixNum)가 임계값(TH2)보다 작은지 여부를 나타낸다. 이때, 상기 임계값은 64, 128, 256, 512, 1024, … 등의 값을 가질 수 있으며, 예를 들어, TH2 = 64 는 블록 크기가 4x16, 8x8, 또는 16x4 인 경우를 의미하고, TH2 = 128 은 블록 크기가 32x4, 16x8, 8x16 또는 4x32 인 경우를 의미할 수 있다.
Example 2의 경우, 상기 조건 B는 상기 현재 블록의 너비(width) 및 높이(height)가 모두 임계값(TH2)보다 작은지 여부를 나타낸다.
Example 3의 경우, 상기 조건 B는 기 현재 블록의 너비(width)가 임계값(TH2)보다 작거나 또는 상기 현재 블록의 높이(height)가 임계값(TH2)보다 작은지 여부를 나타낸다.
상기 조건 B가 만족되는 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1730).
상기 조건 B가 만족되지 않는 경우, 상기 인코더는 상기 현재 블록에 대해 조건 C가 만족되는지 여부를 확인할 수 있다(S1740). 여기서, 상기 조건 C는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 다음 표 3의 실시예들이 적용될 수 있다.
Figure PCTKR2018008845-appb-T000003
상기 표 3의 Example 1에서, 상기 조건 A는 상기 현재 블록의 픽셀 개수(pixNum)가 임계값(TH3)보다 크거나 같은지 여부를 나타낸다. 이때, 상기 임계값은 64, 128, 256, 512, 1024, … 등의 값을 가질 수 있으며, 예를 들어, TH3 = 64 는 블록 크기가 4x16, 8x8, 또는 16x4 인 경우를 의미하고, TH3 = 128 은 블록 크기가 32x4, 16x8, 8x16 또는 4x32 인 경우를 의미할 수 있다.
Example 2의 경우, 상기 현재 블록의 너비(width) 및 높이(height)가 모두 임계값(TH3)보다 크거나 같은지 여부를 나타낸다.
Example 3의 경우, 상기 현재 블록의 너비(width)가 임계값(TH1)보다 크거나 같은지, 또는 상기 현재 블록의 높이(height)가 임계값(TH1)보다 크거나 같은지 여부를 나타낸다.
상기 조건 C가 만족되는 경우, 상기 인코더는 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1760).
상기 조건 C가 만족되지 않는 경우, 상기 인코더는 AF4 모드 및 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1750).
한편, 상기 조건 B(condition B) 및 상기 조건 C(condition C)에서, 임계값(TH2)와 임계값(TH3)은 다음 수학식 5를 만족하도록 결정될 수 있다.
Figure PCTKR2018008845-appb-M000005
상기 인코더는 상기 S1710, S1730, S1750, S1760 단계들의 결과들을 비교하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 결정할 수 있다(S1770).
이후, 상기 인코더는 최적의 코딩 모드에 기초하여 현재 블록의 움직임 벡터 예측자를 생성할 수 있고, 상기 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 감산하여 움직임 벡터 차이값을 획득할 수 있다.
이후, 상기 도 1 및 도 2에서 설명하였던 인코딩/디코딩 과정이 동일하게 적용될 수 있다.
도 18은 본 발명이 적용되는 실시예(3-2)로서, 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는 현재 블록의 코딩 모드가 AF 모드인지 여부를 확인할 수 있다(S1810). 여기서, 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 어파인 움직임 예측 모드를 의미하며, 본 명세서에서 설명한 실시예들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
상기 현재 블록에 대해 AF 모드가 수행되는 경우, 상기 디코더는 상기 현재 블록에 대해 조건 B가 만족되는지 여부를 확인할 수 있다(S1820). 여기서, 상기 조건 B는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 2의 실시예들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
상기 조건 B가 만족되는 경우, 상기 디코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1830).
상기 조건 B가 만족되지 않는 경우, 상기 디코더는 상기 현재 블록에 대해 조건 C가 만족되는지 여부를 확인할 수 있다(S1840). 여기서, 상기 조건 C는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 3의 실시예들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
한편, 상기 조건 B(condition B) 및 상기 조건 C(condition C)에서, 임계값(TH2)와 임계값(TH3)은 상기 수학식 5를 만족하도록 결정될 수 있다.
상기 조건 C가 만족되는 경우, 상기 디코더는 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S1860).
상기 조건 C가 만족되지 않는 경우, 상기 디코더는 상기 현재 블록에 대해 AF4 모드가 적용되는지 여부를 확인할 수 있다(S1850).
이때, 상기 S1850 단계는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타내는 어파인 파라미터 플래그에 의해 확인될 수 있다.
예를 들어, 상기 어파인 파라미터 플래그는 affine_param_flag 로 표현될 수 있다. 상기 affine_param_flag = 0 이면, AF4 모드에 따라 움직임 벡터 예측이 수행되고(S1830), 상기 affine_param_flag = 1 이면, AF6 모드에 따라 움직임 벡터 예측이 수행되는 것을 의미할 수 있으나(S1860), 본 발명은 이에 한정되지 않는다.
한편, 상기 현재 블록에 대해 AF 모드가 수행되지 않는 경우, 상기 디코더는 상기 AF 모드가 아닌 코딩 모드에 따라 디코딩(즉, 움직임 벡터 예측)을 수행할 수 있다(S1870). 예를 들어, 스킵 모드, 머지 모드 또는 인터 모드가 이용될 수 있다.
도 19는 본 발명이 적용되는 실시예(3-3)로서, 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
디코더는 merge_flag를 획득하여, 현재 블록에 대해 머지 모드가 적용되는지 여부를 확인할 수 있다(S1910).
상기 현재 블록에 대해 머지 모드가 적용되지 않는 경우, 상기 디코더는 affine_flag 를 획득할 수 있다(S1920). 여기서, affine_flag 는 AF 모드가 수행되는지 여부를 나타낸다.
상기 affine_flag = 1 이면, 즉 현재 블록에 대해 AF 모드가 수행되면, 상기 디코더는 조건 B가 만족되는지 여부를 확인할 수 있다(S1620). 여기서, 상기 조건 B는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 2의 실시예들이 적용될 수 있다.
상기 조건 B가 만족되는 경우, 상기 디코더는 affine_param_flag 를 0으로 설정할 수 있다(S1930). 여기서, affine_param_flag 는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타낸다. affine_param_flag = 0 은, AF4 모드에 따라 움직임 벡터 예측을 수행하는 것을 의미한다.
상기 조건 B가 만족되지 않고 조건 C가 만족되는 경우, 상기 디코더는 affine_param_flag 를 1로 설정할 수 있다(S1940). 여기서, affine_param_flag = 1 은, AF6 모드에 따라 움직임 벡터 예측을 수행하는 것을 의미한다.
반면, 상기 조건 B가 만족되지 않고 상기 조건 C도 만족되지 않는 경우, 상기 디코더는 affine_param_flag 를 획득할 수 있다(S1950).
상기 affine_param_flag = 0 이면, 상기 디코더는 2개의 움직임 벡터 차이값인, mvd_CP0 및 mvd_CP1을 획득할 수 있다(S1960).
상기 affine_param_flag = 1 이면, 상기 디코더는 3개의 움직임 벡터 차이값인, mvd_CP0, mvd_CP1 및 mvd_CP2를 획득할 수 있다(S1970).
도 20은 본 발명이 적용되는 실시예(4-1)로서, 이웃 블록의 코딩 모드에 기초하여 AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
인코더는 스킵 모드, 머지 모드, 또는 인터 모드 중 적어도 하나에 기초하여 예측을 수행할 수 있다(S2010).
상기 인코더는, 이웃 블록이 AF 모드로 코딩되었는지 여부를 확인할 수 있다(S2020). 여기서, 이웃 블록이 AF 모드로 코딩되었는지 여부는 isNeighborAffine() 로 표현될 수 있다. 예를 들어, isNeighborAffine() = 0 이면, 이웃 블록은 AF 모드로 코딩되지 않은 경우를 의미하고, isNeighborAffine() = 1 이면, 이웃 블록은 AF 모드로 코딩된 경우를 의미할 수 있다.
상기 이웃 블록이 AF 모드로 코딩되지 않은 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2030).
상기 이웃 블록이 AF 모드로 코딩된 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행하고, AF6 모드에 기초해서도 움직임 벡터 예측을 수행할 수 있다(S2040).
상기 인코더는 상기 S2030 및 상기 S2040 단계들의 결과들을 비교하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 결정할 수 있다(S2050).
이후, 상기 인코더는 최적의 코딩 모드에 기초하여 현재 블록의 움직임 벡터 예측자를 생성할 수 있고, 상기 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 감산하여 움직임 벡터 차이값을 획득할 수 있다.
이후, 상기 도 1 및 도 2에서 설명하였던 인코딩/디코딩 과정이 동일하게 적용될 수 있다.
도 21은 본 발명이 적용되는 실시예(4-2)로서, 이웃 블록의 코딩 모드에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는 비트스트림을 수신할 수 있다(S2110). 상기 비트스트림은 비디오 신호 내 현재 블록의 코딩 모드에 대한 정보를 포함할 수 있다.
상기 디코더는 상기 현재 블록의 코딩 모드가 AF 모드인지 여부를 확인할 수 있다(S2120).
상기 현재 블록에 대해 AF 모드가 수행되지 않는 경우, 상기 디코더는 상기 AF 모드가 아닌 코딩 모드에 따라 디코딩(즉, 움직임 벡터 예측)을 수행할 수 있다(S2170). 예를 들어, 스킵 모드, 머지 모드 또는 인터 모드가 이용될 수 있다.
현재 블록에 대해 AF 모드가 수행되는 경우, 상기 디코더는 이웃 블록이 AF 모드로 코딩되었는지 여부를 확인할 수 있다(S2130). 여기서, 이웃 블록이 AF 모드로 코딩되었는지 여부는 isNeighborAffine() 로 표현될 수 있다. 예를 들어, isNeighborAffine() = 0 이면, 이웃 블록은 AF 모드로 코딩되지 않은 경우를 의미하고, isNeighborAffine() = 1 이면, 이웃 블록은 AF 모드로 코딩된 경우를 의미할 수 있다.
상기 이웃 블록이 AF 모드로 코딩된 경우, 상기 디코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2140).
상기 이웃 블록이 AF 모드로 코딩되지 않은 경우, 상기 디코더는 상기 현재 블록에 대해 AF4 모드가 적용되는지 여부를 확인할 수 있다(S2150).
이때, 상기 S2150 단계는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타내는 어파인 파라미터 플래그에 의해 확인될 수 있다. 예를 들어, 상기 어파인 파라미터 플래그는 affine_param_flag 로 표현될 수 있다. 상기 affine_param_flag = 0 이면, AF4 모드에 따라 움직임 벡터 예측이 수행되고(S2140), 상기 affine_param_flag = 1 이면, AF6 모드에 따라 움직임 벡터 예측이 수행된다(S2160).
도 22는 본 발명이 적용되는 실시예(4-3)로서, 이웃 블록의 코딩 모드에 기초하여 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
디코더는 merge_flag를 획득하여, 현재 블록에 대해 머지 모드가 적용되는지 여부를 확인할 수 있다(S2210).
상기 현재 블록에 대해 머지 모드가 적용되지 않는 경우, 상기 디코더는 affine_flag 를 획득할 수 있다(S2220). 여기서, affine_flag 는 AF 모드가 수행되는지 여부를 나타낸다.
상기 affine_flag = 1 이면, 즉 현재 블록에 대해 AF 모드가 수행되면, 상기 디코더는 이웃 블록이 AF 모드로 코딩되었는지 여부를 확인할 수 있다(S2230).
이웃 블록이 AF 모드로 코딩된 경우, 상기 디코더는 affine_param_flag 를 획득할 수 있다(S2230). 여기서, affine_param_flag 는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타낸다.
이웃 블록이 AF 모드로 코딩되지 않은 경우, 상기 디코더는 affine_param_flag 를 0으로 설정할 수 있다(S2240).
상기 affine_param_flag = 0 이면, 즉 AF4 모드에 따라 움직임 벡터 예측이 수행되면, 상기 디코더는 2개의 움직임 벡터 차이값인, mvd_CP0 및 mvd_CP1을 획득할 수 있다(S2250).
그리고, 상기 affine_param_flag = 1 이면, 즉 AF6 모드에 따라 움직임 벡터 예측이 수행되면, 상기 디코더는 3개의 움직임 벡터 차이값인, mvd_CP0, mvd_CP1 및 mvd_CP2를 획득할 수 있다(S2260).
도 23은 본 발명이 적용되는 실시예(5-1)로서, 조건 A(condition A), 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
본 발명은 실시예 2와 실시예 3을 조합하는 실시예를 나타낸다. 도 23에서는 조건 A, B, C를 모두 고려하는 경우의 한 예를 설명하고 있으며, 조건의 순서는 다르게 적용 가능하다.
상기 도 23을 살펴보면, 인코더는 스킵 모드, 머지 모드, 또는 인터 모드 중 적어도 하나에 기초하여 예측을 수행할 수 있다(S1710).
상기 인코더는, 현재 블록에 대해 조건 A가 만족되는지 여부를 확인할 수 있다(S2320). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있으며, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 인코더는 AF 모드를 제외한 모드들 중에서 최적의 코딩 모드를 결정할 수 있다(S2380).
한편, 상기 조건 A가 만족되지 않는 경우, 상기 인코더는 상기 현재 블록에 대해 조건 B가 만족되는지 여부를 확인할 수 있다(S2330). 여기서, 상기 조건 B는 블록 크기에 대한 조건을 의미할 수 있으며, 상기 표 2의 실시예들이 적용될 수 있다.
상기 조건 B가 만족되는 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2340).
상기 조건 B가 만족되지 않는 경우, 상기 인코더는 상기 현재 블록에 대해 조건 C가 만족되는지 여부를 확인할 수 있다(S2350). 여기서, 상기 조건 C는 블록 크기에 대한 조건을 의미할 수 있으며, 상기 표 3의 실시예들이 적용될 수 있다.
상기 조건 C가 만족되는 경우, 상기 인코더는 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2370).
상기 조건 C가 만족되지 않는 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행하고, 또한 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2360).
한편, 상기 조건 B(condition B) 및 상기 조건 C(condition C)에서, 임계값(TH2)와 임계값(TH3)은 상기 수학식 5를 만족하도록 결정될 수 있다.
상기 인코더는 상기 S2310, S2340, S2360, S2370 단계들의 결과들을 비교하여, 최적의 코딩 모드를 결정할 수 있다(S2380).
이후, 상기 인코더는 최적의 코딩 모드에 기초하여 현재 블록의 움직임 벡터 예측자를 생성할 수 있고, 상기 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 감산하여 움직임 벡터 차이값을 획득할 수 있다.
이후, 상기 도 1 및 도 2에서 설명하였던 인코딩/디코딩 과정이 동일하게 적용될 수 있다.
도 24는 본 발명이 적용되는 실시예(5-2)로서, 조건 A(condition A), 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는, 현재 블록에 대해 조건 A가 만족되는지 여부를 확인할 수 있다(S2410). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 디코더는 상기 현재 블록의 코딩 모드가 AF 모드인지 여부를 확인할 수 있다(S2420). 여기서, 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 어파인 움직임 예측 모드를 의미하며, 본 명세서에서 설명한 실시예들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
상기 조건 A가 만족되지 않는 경우이거나, 상기 현재 블록에 대해 AF 모드가 수행되지 않는 경우, 상기 디코더는 상기 AF 모드가 아닌 코딩 모드에 따라 디코딩(즉, 움직임 벡터 예측)을 수행할 수 있다(S2480). 예를 들어, 스킵 모드, 머지 모드 또는 인터 모드가 이용될 수 있다.
상기 현재 블록에 대해 AF 모드가 수행되는 경우, 상기 디코더는 상기 현재 블록에 대해 조건 B가 만족되는지 여부를 확인할 수 있다(S2430). 여기서, 상기 조건 B는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 2의 실시예들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
상기 조건 B가 만족되는 경우, 상기 디코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2440).
상기 조건 B가 만족되지 않는 경우, 상기 디코더는 상기 현재 블록에 대해 조건 C가 만족되는지 여부를 확인할 수 있다(S2450). 여기서, 상기 조건 C는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 3의 실시예들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
한편, 상기 조건 B(condition B) 및 상기 조건 C(condition C)에서, 임계값(TH2)와 임계값(TH3)은 상기 수학식 5를 만족하도록 결정될 수 있다.
상기 조건 C가 만족되는 경우, 상기 디코더는 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2470).
상기 조건 C가 만족되지 않는 경우, 상기 디코더는 상기 현재 블록에 대해 AF4 모드가 적용되는지 여부를 확인할 수 있다(S2460).
이때, 상기 S2460 단계는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타내는 어파인 파라미터 플래그에 의해 확인될 수 있다.
예를 들어, 상기 어파인 파라미터 플래그는 affine_param_flag 로 표현될 수 있다. 상기 affine_param_flag = 0 이면, AF4 모드에 따라 움직임 벡터 예측이 수행되고(S2440), 상기 affine_param_flag = 1 이면, AF6 모드에 따라 움직임 벡터 예측이 수행되는 것을 의미할 수 있으나(S2470), 본 발명은 이에 한정되지 않는다.
도 25은 본 발명이 적용되는 실시예(5-3)로서, 조건 A(condition A), 조건 B(condition B) 또는 조건 C(condition C) 중 적어도 하나에 기초하여, AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
디코더는 merge_flag를 획득하여, 현재 블록에 대해 머지 모드가 적용되는지 여부를 확인할 수 있다(S2510).
상기 현재 블록에 대해 머지 모드가 적용되지 않는 경우, 상기 디코더는 조건 A가 만족되는지 여부를 확인할 수 있다(S2520). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 디코더는 affine_flag 를 획득할 수 있다(S2520). 여기서, affine_flag 는 AF 모드가 수행되는지 여부를 나타낸다.
상기 affine_flag = 1 이면, 즉 현재 블록에 대해 AF 모드가 수행되면, 상기 디코더는 조건 B가 만족되는지 여부를 확인할 수 있다(S2530). 여기서, 상기 조건 B는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 2의 실시예들이 적용될 수 있다.
상기 조건 B가 만족되는 경우, 상기 디코더는 affine_param_flag 를 0으로 설정할 수 있다(S2540). 여기서, affine_param_flag 는 AF4 모드가 수행되는지 여부(또는 4개의 파라미터에 의해 어파인 움직임 예측이 수행되는지 여부)를 나타낸다. affine_param_flag = 0 은, AF4 모드에 따라 움직임 벡터 예측을 수행하는 것을 의미한다.
상기 조건 B가 만족되지 않고 조건 C가 만족되는 경우, 상기 디코더는 affine_param_flag 를 1로 설정할 수 있다(S2550). 여기서, affine_param_flag = 1 은, AF6 모드에 따라 움직임 벡터 예측을 수행하는 것을 의미한다.
반면, 상기 조건 B가 만족되지 않고 상기 조건 C도 만족되지 않는 경우, 상기 디코더는 affine_param_flag 를 획득할 수 있다(S2560).
상기 affine_param_flag = 0 이면, 상기 디코더는 2개의 움직임 벡터 차이값인, mvd_CP0 및 mvd_CP1을 획득할 수 있다(S2570).
상기 affine_param_flag = 1 이면, 상기 디코더는 3개의 움직임 벡터 차이값인, mvd_CP0, mvd_CP1 및 mvd_CP2를 획득할 수 있다(S2580).
도 26은 본 발명이 적용되는 실시예(6-1)로서, 조건 A(condition A) 또는 이웃 블록의 코딩 모드 중 적어도 하나에 기초하여 AF4 모드 또는 AF6 모드를 포함하는 움직임 벡터 예측 모드들 중 최적의 코딩 모드를 적응적으로 결정하는 흐름도를 나타낸다.
인코더는 스킵 모드, 머지 모드, 또는 인터 모드 중 적어도 하나에 기초하여 예측을 수행할 수 있다(S2610).
상기 인코더는, 현재 블록에 대해 조건 A가 만족되는지 여부를 확인할 수 있다(S2620). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있으며, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 인코더는 AF 모드를 제외한 모드들 중에서 최적의 코딩 모드를 결정할 수 있다(S2660).
한편, 상기 조건 A가 만족되지 않는 경우, 상기 인코더는 이웃 블록이 AF 모드로 코딩되었는지 여부를 확인할 수 있다(S2630). 여기서, 이웃 블록이 AF 모드로 코딩되었는지 여부는 isNeighborAffine() 로 표현될 수 있다. 예를 들어, isNeighborAffine() = 0 이면, 이웃 블록은 AF 모드로 코딩되지 않은 경우를 의미하고, isNeighborAffine() = 1 이면, 이웃 블록은 AF 모드로 코딩된 경우를 의미할 수 있다.
상기 이웃 블록이 AF 모드로 코딩되지 않은 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2640).
상기 이웃 블록이 AF 모드로 코딩된 경우, 상기 인코더는 AF4 모드에 기초하여 움직임 벡터 예측을 수행하고, 또한 AF6 모드에 기초하여 움직임 벡터 예측을 수행할 수 있다(S2650).
상기 인코더는 상기 S2610, 상기 S2640 및 상기 S2650 단계들의 결과들을 비교하여, 최적의 코딩 모드를 결정할 수 있다(S2660).
이후, 상기 인코더는 최적의 코딩 모드에 기초하여 현재 블록의 움직임 벡터 예측자를 생성할 수 있고, 상기 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 감산하여 움직임 벡터 차이값을 획득할 수 있다.
이후, 상기 도 1 및 도 2에서 설명하였던 인코딩/디코딩 과정이 동일하게 적용될 수 있다.
도 27은 본 발명이 적용되는 실시예(6-2)로서, 조건 A(condition A) 또는 이웃 블록의 코딩 모드 중 적어도 하나에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는 비트스트림을 수신할 수 있다(S2710). 상기 비트스트림은 비디오 신호 내 현재 블록의 코딩 모드에 대한 정보를 포함할 수 있다.
상기 디코더는, 움직임 벡터 예측을 위한 최적의 코딩 모드를 결정하기 위해 현재 블록에 대해 조건 A가 만족되는지 여부를 확인할 수 있다(S2720). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 디코더는 상기 현재 블록의 코딩 모드가 AF 모드인지 여부를 확인할 수 있다(S2730).
이하, S2730 단계 내지 S2780 단계들은, 상기 도 21의 S2120 단계 내지 S2170 단계에서 설명한 내용들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
도 28은 본 발명이 적용되는 실시예(6-3)로서, 조건 A(condition A) 또는 이웃 블록의 코딩 모드 중 적어도 하나에 기초하여 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행하는 신택스 구조를 나타낸다.
디코더는 merge_flag를 획득하여, 현재 블록에 대해 머지 모드가 적용되는지 여부를 확인할 수 있다(S2810).
상기 현재 블록에 대해 머지 모드가 적용되지 않는 경우, 상기 디코더는 조건 A가 만족되는지 여부를 확인할 수 있다(S2820). 여기서, 상기 조건 A는 블록 크기에 대한 조건을 의미할 수 있다. 예를 들어, 상기 표 1의 실시예들이 적용될 수 있다.
상기 조건 A가 만족되는 경우, 상기 디코더는 affine_flag 를 획득할 수 있다(S2820). 여기서, affine_flag 는 AF 모드가 수행되는지 여부를 나타낸다.
이하, S2830 단계 내지 S2860 단계들은, 상기 도 22의 S2230 단계 내지 S2260 단계에서 설명한 내용들이 적용될 수 있으며, 중복되는 설명은 생략하도록 한다.
도 29는 본 발명이 적용되는 실시예로서, AF4 모드 또는 AF6 모드 중 적어도 하나에 기초하여 움직임 벡터 예측자를 생성하는 흐름도를 나타낸다.
디코더는, 현재 블록에 대해 AF 모드가 적용되는지 여부를 확인할 수 있다(S2910). 여기서 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 나타낸다.
예를 들어, 상기 디코더는 비디오 신호로부터 어파인 플래그를 획득할 수 있고, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부는 상기 어파인 플래그에 기초하여 확인될 수 있다.
상기 디코더는, 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, AF4 모드가 이용되는지 여부를 확인할 수 있다(S2920). 여기서 상기 AF4 모드는 상기 어파인 움직임 모델(affine motion model)을 구성하는 4개의 파라미터를 이용하여 움직임 벡터를 예측하는 모드를 나타낸다.
예를 들어, 상기 어파인 플래그에 따라 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 상기 디코더는 상기 비디오 신호로부터 어파인 파라미터 플래그를 획득할 수 있고, 상기 어파인 파라미터 플래그는 상기 움직임 벡터 예측자가 상기 4개의 파라미터를 이용하여 생성되는지 또는 상기 6개의 파라미터를 이용하여 생성되는지 여부를 나타낸다.
여기서, 상기 어파인 플래그 및 상기 어파인 파라미터 플래그는 슬라이스, 최대 코딩 유닛, 코딩 유닛 또는 예측 유닛 중 적어도 하나의 레벨에서 정의될 수 있다.
상기 디코더는, AF4 모드가 이용되면 상기 4개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, AF4 모드가 이용되지 않으면 상기 어파인 움직임 모델(affine motion model)을 구성하는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성할 수 있다(S2930).
상기 디코더는, 상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득할 수 있다(S2940).
일실시예로, 상기 디코더는, 상기 현재 블록의 크기가 기설정된 조건을 만족하는지를 확인할 수 있다. 이때, 상기 기설정된 조건은 상기 현재 블록 내 픽셀 개수, 상기 현재 블록의 너비 및/또는 높이 중 적어도 하나가 기설정된 임계값보다 큰지 여부를 나타낸다.
예를 들어, 상기 현재 블록의 크기가 기설정된 조건을 만족하는 경우, 상기 디코더는 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인할 수 있다.
반면, 상기 현재 블록의 크기가 기설정된 조건을 만족하지 않는 경우, 상기 현재 블록은 상기 AF 모드가 아닌 다른 코딩 모드에 기초하여 디코딩될 수 있다.
일실시예로, 상기 디코더는, 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 이웃 블록에 대해 AF 모드가 적용되었는지 여부를 확인할 수 있다.
상기 이웃 블록에 대해 AF 모드가 적용된 경우, 움직임 벡터 예측자는 상기 4개 파라미터를 이용하여 생성되고, 상기 이웃 블록에 대해 AF 모드가 적용되지 않은 경우, 상기 디코더는 상기 AF4 모드가 이용되는지 여부를 확인하는 단계를 수행할 수 있다.
도 30은 본 발명이 적용되는 실시예로서, AF4_flag 및 AF6_flag 에 기초하여 움직임 벡터 예측자를 생성하는 흐름도를 나타낸다.
디코더는 비디오 신호로부터 AF4 flag 및 AF6 flag 중 적어도 하나를 획득할 수 있다(S3010). 여기서, AF4_flag 는 현재 블록에 대해 AF4 모드가 수행되는지 여부를 나타내고, AF6_flag 는 현재 블록에 대해 AF6 모드가 수행되는지 여부를 나타낸다.
이때, 상기 AF4 flag 및 상기 AF6 flag 중 적어도 하나는 슬라이스 레벨에서 정의되고, 다시 블록 레벨 또는 예측 유닛 레벨에서 정의될 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 상기 AF4 flag 및 상기 AF6 flag 중 적어도 하나는 슬라이스, 최대 코딩 유닛, 코딩 유닛 또는 예측 유닛 중 적어도 하나의 레벨에서 정의될 수 있다.
상기 디코더는 AF4 flag 및 AF6 flag 의 값들을 확인할 수 있다(S3020).
AF4_flag = 1이면 현재 블록에 대해 AF4 모드가 수행되고, AF4_flag = 0이면 현재 블록에 대해 AF4 모드가 수행되지 않는다. 이때, AF4 모드가 수행된다는 것은 4개의 파라미터로 표현되는 어파인 움직임 모델을 이용하여 움직임 벡터 예측을 수행하는 것을 의미한다.
AF6_flag = 1이면 현재 블록에 대해 AF6 모드가 수행되고, AF4_flag = 0이면 현재 블록에 대해 AF6 모드가 수행되지 않는다. 여기서, AF6 모드가 수행된다는 것은 4개의 파라미터로 표현되는 어파인 움직임 모델을 이용하여 움직임 벡터 예측을 수행하는 것을 의미한다.
AF4 flag =0 , AF6 flag =0 이면, 상기 디코더는 AF4 모드 및 AF6 모드 이외의 모드에 따라 움직임 벡터 예측을 수행할 수 있다(S3030).
AF4 flag =1 , AF6 flag =0 이면, 상기 디코더는 AF4 모드에 따라 움직임 벡터 예측을 수행할 수 있다(S3040).
AF4 flag =0 , AF6 flag =1 이면, 상기 디코더는 AF6 모드에 따라 움직임 벡터 예측을 수행할 수 있다(S3050).
AF4 flag =1 , AF6 flag =1 이면, 상기 디코더는 AF4 모드 또는 AF6 모드에 따라 움직임 벡터 예측을 수행할 수 있다(S3060).
도 31은 본 발명이 적용되는 실시예로서, 이웃 블록이 AF 모드로 코딩되었는지 여부에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 흐름도를 나타낸다.
디코더는 현재 블록에 대해 AF 모드가 적용되는지 여부를 확인할 수 있다( S3110).
상기 디코더는 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 이웃 블록이 AF 모드로 코딩되었는지 여부를 확인할 수 있다(S3120).
상기 디코더는, 이웃 블록이 AF 모드로 코딩된 경우, AF4 flag 또는 AF6_flag 중 적어도 하나를 획득할 수 있다(S3130).
상기 디코더는 AF4 flag 또는 AF6_flag 중 적어도 하나에 기초하여 4개 또는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성할 수 있다(S3140). 예를 들어, AF4 flag =1 이면, 상기 디코더는 AF4 모드에 따라 움직임 벡터 예측을 수행할 수 있고, AF6 flag =1 이면, 상기 디코더는 AF6 모드에 따라 움직임 벡터 예측을 수행할 수 있다.
상기 디코더는 상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득할 수 있다(S3150).
도 32는 본 발명이 적용되는 실시예로서, AF4_flag 및 AF6_flag 에 기초하여 적응적으로 디코딩을 수행하는 신택스를 나타낸다.
디코더는 슬라이스 레벨에서 AF4 flag 및 AF6 flag를 획득할 수 있다(S3010). 여기서, AF4_flag 는 현재 블록에 대해 AF4 모드가 수행되는지 여부를 나타내고, AF6_flag 는 현재 블록에 대해 AF6 모드가 수행되는지 여부를 나타낸다. 상기 AF4_flag 는 affine_4_flag 로 표현될 수 있고, 상기 AF6_flag 는 affine_6_flag 로 표현될 수 있다.
상기 디코더는, 블록 레벨 또는 예측 유닛 레벨에서 AF4_flag 및 AF6_flag 에 기초하여 적응적으로 디코딩을 수행할 수 있다.
affine_4_flag 가 0이 아니거나, affine_6_flag 가 0이 아닌 경우 (즉, affine_4_flag = 0 && affine_6_flag = 0 외의 경우), 상기 디코더는 어파인 플래그를 획득할 수 있다(S3220). 상기 어파인 플래그는 AF 모드가 수행되는지 여부를 나타낼 수 있다.
AF 모드가 수행되는 경우, 상기 디코더는 AF4_flag 및 AF6_flag 값에 따라 적응적으로 디코딩을 수행할 수 있다.
affine_4_flag = 1 && affine_6_flag = 0 인 경우, 상기 디코더는 affine_param_flag 를 0으로 설정할 수 있다. 즉, affine_param_flag = 0 은 AF4 모드가 수행되는 것을 의미한다.
affine_4_flag = 0 && affine_6_flag = 1 인 경우, 상기 디코더는 affine_param_flag 를 1로 설정할 수 있다. 즉, affine_param_flag = 1 은 AF6 모드가 수행되는 것을 의미한다.
affine_4_flag = 1 && affine_6_flag = 1 인 경우, 상기 디코더는 affine_param_flag 를 파싱 또는 획득할 수 있다. 이때, 상기 디코더는 블록 레벨 또는 예측 유닛 레벨에서 affine_param_flag 값에 따라 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행할 수 있다.
그 외 신택스 구조는 앞서 설명한 실시예들이 적용될 수 있으며, 중복되는 설명은 생략한다.
도 33은 본 발명이 적용되는 실시예로서, 이웃 블록이 AF 모드로 코딩되었는지 여부에 기초하여 AF4 모드 또는 AF6 모드에 따라 적응적으로 디코딩을 수행하는 신택스를 나타낸다.
본 실시예의 경우, 도 32와 중복되는 내용은 앞선 설명이 적용될 수 있으며, 다른 부분만 설명하도록 한다.
affine_4_flag = 1 && affine_6_flag = 1 인 경우, 상기 디코더는 이웃 블록이 AF 모드로 코딩되었는지 여부를 확인할 수 있다.
이웃 블록이 AF 모드로 코딩된 경우, 상기 디코더는 affine_param_flag 를 파싱 또는 획득할 수 있다(S3310). 이때, 상기 디코더는 블록 레벨 또는 예측 유닛 레벨에서 affine_param_flag 값에 따라 AF4 모드 또는 AF6 모드에 따라 디코딩을 수행할 수 있다.
반면, 이웃 블록이 AF 모드로 코딩되지 않은 경우, 상기 디코더는 affine_param_flag를 0으로 설정할 수 있다. 즉, affine_param_flag = 0 은 AF4 모드가 수행되는 것을 의미한다.
도 34는 본 발명이 적용되는 비디오 코딩 시스템을 나타낸다.
비디오 코딩 시스템은 소스 디바이스(source device) 및 수신 디바이스(receiving device)를 포함할 수 있다. 소스 디바이스는 인코딩된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 수신 디바이스로 전달할 수 있다.
상기 소스 디바이스는 비디오 소스(video source), 인코딩 장치(encoding apparatus), 전송부(transmitter)를 포함할 수 있다. 상기 수신 디바이스는 수신부(receiver), 디코딩 장치(decoding apparatus) 및 렌더러(renderer)를 포함할 수 있다. 상기 인코딩 장치는 비디오/영상 인코딩 장치라고 불릴 수 있고, 상기 디코딩 장치는 비디오/영상 디코딩 장치라고 불릴 수 있다. 송신기는 인코딩 장치에 포함될 수 있다. 수신기는 디코딩 장치에 포함될 수 있다. 렌더러는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다.
비디오 소스는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 비디오 소스는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.
인코딩 장치는 입력 비디오/영상을 인코딩할 수 있다. 인코딩 장치는 압축 및 코딩 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 인코딩된 데이터(인코딩된 비디오/영상 정보)는 비트스트림(bitstream) 형태로 출력될 수 있다.
전송부는 비트스트림 형태로 출력된 인코딩된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 수신 디바이스의 수신부로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부는 미리 정해진 파일 포멧을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘레멘트를 포함할 수 있다. 수신부는 상기 비트스트림을 추출하여 디코딩 장치로 전달할 수 있다.
디코딩 장치는 인코딩 장치의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 디코딩할 수 있다.
렌더러는 디코딩된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다.
도 35는 본 발명이 적용되는 컨텐츠 스트리밍 시스템을 나타낸다.
상기 도 35를 살펴보면, 본 발명이 적용되는 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.
상기 인코딩 서버는 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수 있다.
상기 비트스트림은 본 발명이 적용되는 인코딩 방법 또는 비트스트림 생성 방법에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.
상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기초하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 한다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송한다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 한다.
상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하게 되는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.
상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다.
상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.
상기 기술된 것과 같이, 본 발명에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 상기 도 1, 도 2, 도 34 및 도 35에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 발명이 적용되는 디코더 및 인코더는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 및 데이터 신호를 처리하기 위해 사용될 수 있다.
또한, 본 발명이 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크(BD), 범용 직렬 버스(USB), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파(예를 들어, 인터넷을 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트 스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다.
이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 다양한 다른 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.

Claims (14)

  1. 어파인 움직임 예측 모드(AF 모드, Affine mode)에 기초하여 현재 블록을 포함하는 비디오 신호를 디코딩하는 방법에 있어서,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계, 여기서 상기 AF 모드는 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 나타냄;
    상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, AF4 모드가 이용되는지 여부를 확인하는 단계, 여기서 상기 AF4 모드는 상기 어파인 움직임 모델(affine motion model)을 구성하는 4개의 파라미터를 이용하여 움직임 벡터를 예측하는 모드를 나타냄;
    AF4 모드가 이용되면 상기 4개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, AF4 모드가 이용되지 않으면 상기 어파인 움직임 모델(affine motion model)을 구성하는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성하는 단계; 및
    상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서, 상기 방법은,
    상기 비디오 신호로부터 어파인 플래그를 획득하는 단계를 더 포함하되,
    상기 어파인 플래그는 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 나타내고,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부는 상기 어파인 플래그에 기초하여 확인되는 것을 특징으로 하는 방법.
  3. 제2항에 있어서, 상기 방법은,
    상기 어파인 플래그에 따라 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 상기 비디오 신호로부터 어파인 파라미터 플래그를 획득하는 단계를 더 포함하되,
    상기 어파인 파라미터 플래그는 상기 움직임 벡터 예측자가 상기 4개의 파라미터를 이용하여 생성되는지 또는 상기 6개의 파라미터를 이용하여 생성되는지 여부를 나타내는 것을 특징으로 하는 방법.
  4. 제1항에 있어서,
    상기 어파인 플래그 및 상기 어파인 파라미터 플래그는 슬라이스, 최대 코딩 유닛, 코딩 유닛 또는 예측 유닛 중 적어도 하나의 레벨에서 정의되는 것을 특징으로 하는 방법.
  5. 제1항에 있어서, 상기 방법은,
    상기 현재 블록의 크기가 기설정된 조건을 만족하는지를 확인하는 단계를 더 포함하되,
    상기 기설정된 조건은 상기 현재 블록 내 픽셀 개수, 상기 현재 블록의 너비 및/또는 높이 중 적어도 하나가 기설정된 임계값보다 큰지 여부를 나타내고,
    상기 현재 블록의 크기가 기설정된 조건을 만족하는 경우, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계가 수행되는 것을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 현재 블록의 크기가 기설정된 조건을 만족하지 않는 경우, 상기 현재 블록은 상기 AF 모드가 아닌 다른 코딩 모드에 기초하여 디코딩되는 것을 특징으로 하는 방법.
  7. 제1항에 있어서, 상기 방법은,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 이웃 블록에 대해 AF 모드가 적용되었는지 여부를 확인하는 단계를 더 포함하되,
    상기 이웃 블록에 대해 AF 모드가 적용된 경우, 움직임 벡터 예측자는 상기 4개 파라미터를 이용하여 생성되고,
    상기 이웃 블록에 대해 AF 모드가 적용되지 않은 경우, 상기 AF4 모드가 이용되는지 여부를 확인하는 단계를 수행하는 것을 특징으로 하는 방법.
  8. 어파인 움직임 예측 모드(AF 모드)에 기초하여 현재 블록을 포함하는 비디오 신호를 디코딩하는 장치에 있어서,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하고,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, AF4 모드가 이용되는지 여부를 확인하고,
    AF4 모드가 이용되면 4개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고, AF4 모드가 이용되지 않으면 어파인 움직임 모델(affine motion model)을 구성하는 6개 파라미터를 이용하여 움직임 벡터 예측자를 생성하고,
    상기 움직임 벡터 예측자에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 인터 예측부를 포함하되,
    상기 AF 모드는 상기 어파인 움직임 모델(affine motion model)을 이용하는 움직임 예측 모드를 나타내고, 상기 AF4 모드는 상기 어파인 움직임 모델(affine motion model)을 구성하는 4개의 파라미터를 이용하여 움직임 벡터를 예측하는 모드를 나타내는 것을 특징으로 하는 장치.
  9. 제8항에 있어서, 상기 장치는,
    상기 비디오 신호로부터 어파인 플래그를 파싱하는 파싱부를 더 포함하되,
    상기 어파인 플래그는 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 나타내고,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부는 상기 어파인 플래그에 기초하여 확인되는 것을 특징으로 하는 장치.
  10. 제9항에 있어서, 상기 장치는,
    상기 어파인 플래그에 따라 상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 상기 비디오 신호로부터 어파인 파라미터 플래그를 획득하는 상기 파싱부를 포함하되,
    상기 어파인 파라미터 플래그는 상기 움직임 벡터 예측자가 상기 4개의 파라미터를 이용하여 생성되는지 또는 상기 6개의 파라미터를 이용하여 생성되는지 여부를 나타내는 것을 특징으로 하는 장치.
  11. 제8항에 있어서,
    상기 어파인 플래그 및 상기 어파인 파라미터 플래그는 슬라이스, 최대 코딩 유닛, 코딩 유닛 또는 예측 유닛 중 적어도 하나의 레벨에서 정의되는 것을 특징으로 하는 장치.
  12. 제8항에 있어서, 상기 장치는,
    상기 현재 블록의 크기가 기설정된 조건을 만족하는지를 확인하는 상기 인터 예측부를 포함하되,
    상기 기설정된 조건은 상기 현재 블록 내 픽셀 개수, 상기 현재 블록의 너비 및/또는 높이 중 적어도 하나가 기설정된 임계값보다 큰지 여부를 나타내고,
    상기 현재 블록의 크기가 기설정된 조건을 만족하는 경우, 상기 현재 블록에 대해 상기 AF 모드가 적용되는지 여부를 확인하는 단계가 수행되는 것을 특징으로 하는 장치.
  13. 제12항에 있어서,
    상기 현재 블록의 크기가 기설정된 조건을 만족하지 않는 경우, 상기 현재 블록은 상기 AF 모드가 아닌 다른 코딩 모드에 기초하여 디코딩되는 것을 특징으로 하는 장치.
  14. 제8항에 있어서, 상기 장치는,
    상기 현재 블록에 대해 상기 AF 모드가 적용되는 경우, 이웃 블록에 대해 AF 모드가 적용되었는지 여부를 확인하는 상기 인터 예측부를 포함하되,
    상기 이웃 블록에 대해 AF 모드가 적용된 경우, 움직임 벡터 예측자는 상기 4개 파라미터를 이용하여 생성되고,
    상기 이웃 블록에 대해 AF 모드가 적용되지 않은 경우, 상기 AF4 모드가 이용되는지 여부를 확인하는 단계를 수행하는 것을 특징으로 하는 장치.
PCT/KR2018/008845 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 WO2019027286A1 (ko)

Priority Applications (14)

Application Number Priority Date Filing Date Title
KR1020227032285A KR102549228B1 (ko) 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
KR1020207004148A KR102345442B1 (ko) 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
EP18840631.8A EP3661209A1 (en) 2017-08-03 2018-08-03 Method and apparatus for processing video signal using affine prediction
KR1020247014995A KR20240065329A (ko) 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
KR1020237021482A KR102664781B1 (ko) 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
CN202410534253.0A CN118214883A (zh) 2017-08-03 2018-08-03 利用仿射预测处理视频信号的方法和装置
CN202410534881.9A CN118214884A (zh) 2017-08-03 2018-08-03 利用仿射预测处理视频信号的方法和装置
US16/636,263 US11089317B2 (en) 2017-08-03 2018-08-03 Method and apparatus for processing video signal using affine prediction
CN201880057060.3A CN111066324B (zh) 2017-08-03 2018-08-03 利用仿射预测处理视频信号的方法和装置
JP2020505788A JP7393326B2 (ja) 2017-08-03 2018-08-03 アフィン予測を用いてビデオ信号を処理する方法及び装置
KR1020217042670A KR102472053B1 (ko) 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
US17/363,648 US11736707B2 (en) 2017-08-03 2021-06-30 Method and apparatus for processing video signal using affine prediction
US18/217,126 US20230353768A1 (en) 2017-08-03 2023-06-30 Method and apparatus for processing video signal using affine prediction
JP2023198969A JP2024015036A (ja) 2017-08-03 2023-11-24 アフィン予測を用いてビデオ信号を処理する方法及び装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762541083P 2017-08-03 2017-08-03
US62/541,083 2017-08-03

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/636,263 A-371-Of-International US11089317B2 (en) 2017-08-03 2018-08-03 Method and apparatus for processing video signal using affine prediction
US17/363,648 Continuation US11736707B2 (en) 2017-08-03 2021-06-30 Method and apparatus for processing video signal using affine prediction

Publications (1)

Publication Number Publication Date
WO2019027286A1 true WO2019027286A1 (ko) 2019-02-07

Family

ID=65232974

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/008845 WO2019027286A1 (ko) 2017-08-03 2018-08-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치

Country Status (6)

Country Link
US (3) US11089317B2 (ko)
EP (1) EP3661209A1 (ko)
JP (2) JP7393326B2 (ko)
KR (5) KR102345442B1 (ko)
CN (3) CN118214883A (ko)
WO (1) WO2019027286A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251416A3 (en) * 2019-09-30 2021-03-18 Huawei Technologies Co., Ltd. Affine motion model restrictions

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11438577B2 (en) * 2018-03-25 2022-09-06 B1 Institute Of Image Technology, Inc. Image encoding/decoding method and device
CN113597767A (zh) * 2019-03-08 2021-11-02 Oppo广东移动通信有限公司 预测方法、编码器、解码器及计算机存储介质
KR102640263B1 (ko) * 2019-06-24 2024-02-23 엘지전자 주식회사 움직임 벡터를 이용한 영상 코딩 방법 및 장치
WO2020242350A2 (en) * 2019-09-30 2020-12-03 Huawei Technologies Co., Ltd. Usage of dct based interpolation filter and enhanced bilinear interpolation filter in affine motion compensation
US11363247B2 (en) * 2020-02-14 2022-06-14 Valve Corporation Motion smoothing in a distributed system
CN112055202B (zh) * 2020-08-21 2021-11-16 浙江大华技术股份有限公司 一种帧间预测方法、视频编码方法及电子设备和存储介质
US20230119972A1 (en) * 2021-10-01 2023-04-20 Mediatek Inc. Methods and Apparatuses of High Throughput Video Encoder

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9438910B1 (en) * 2014-03-11 2016-09-06 Google Inc. Affine motion prediction in video coding
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101003105B1 (ko) * 2008-01-29 2010-12-21 한국전자통신연구원 어파인 변환 기반의 움직임 보상을 이용한 비디오 부호화 및 복호화 방법 및 장치
WO2011013253A1 (ja) * 2009-07-31 2011-02-03 株式会社 東芝 幾何変換動き補償予測を用いる予測信号生成装置、動画像符号化装置及び動画像復号化装置
EP3703373B1 (en) * 2010-10-08 2024-04-17 GE Video Compression, LLC Picture coding supporting block partitioning and block merging
KR102311815B1 (ko) * 2014-06-19 2021-10-13 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통합된 인트라 블록 카피 및 인터 예측 모드
WO2016008157A1 (en) * 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
US11082713B2 (en) 2015-11-20 2021-08-03 Mediatek Inc. Method and apparatus for global motion compensation in video coding system
WO2017130696A1 (ja) * 2016-01-29 2017-08-03 シャープ株式会社 予測画像生成装置、動画像復号装置、および動画像符号化装置
US10560712B2 (en) * 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
US20200014931A1 (en) * 2018-07-06 2020-01-09 Mediatek Inc. Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems
US10462488B1 (en) * 2018-07-13 2019-10-29 Tencent America LLC Method and apparatus for video coding
CN110933427B (zh) * 2018-09-19 2023-05-12 北京字节跳动网络技术有限公司 仿射模式编码的模式相关自适应运动矢量分辨率
EP3881533A4 (en) * 2018-11-14 2022-09-07 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
US11006121B2 (en) * 2019-06-20 2021-05-11 Tencent America LLC LIC signaling methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9438910B1 (en) * 2014-03-11 2016-09-06 Google Inc. Affine motion prediction in video coding
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 3", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3, 1 June 2016 (2016-06-01), Geneva, CH, pages 1 - 34, XP055577005 *
LI, LI ET AL.: "An Efficient Four-Parameter Affine Motion Model for Video Coding", ARXIV:1702.06297V1, vol. 28, no. 8, 21 February 2017 (2017-02-21), pages 1934 - 1948, XP080747890 *
ZOU, FENG ET AL.: "Improved Affine Motion Prediction", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3, 28 May 2016 (2016-05-28), Geneva, CH, pages 1 - 5, XP030150164 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251416A3 (en) * 2019-09-30 2021-03-18 Huawei Technologies Co., Ltd. Affine motion model restrictions
US11985354B2 (en) 2019-09-30 2024-05-14 Huawei Technologies Co., Ltd. Affine motion model restrictions reducing number of fetched reference lines during processing of one block row with enhanced interpolation filter

Also Published As

Publication number Publication date
CN118214884A (zh) 2024-06-18
KR102472053B1 (ko) 2022-11-28
KR102664781B1 (ko) 2024-05-21
US11736707B2 (en) 2023-08-22
JP2024015036A (ja) 2024-02-01
JP2020529778A (ja) 2020-10-08
CN111066324A (zh) 2020-04-24
KR102549228B1 (ko) 2023-06-28
KR20200022506A (ko) 2020-03-03
EP3661209A4 (en) 2020-06-03
JP7393326B2 (ja) 2023-12-06
US20230353768A1 (en) 2023-11-02
US11089317B2 (en) 2021-08-10
KR102345442B1 (ko) 2021-12-31
KR20220130270A (ko) 2022-09-26
US20200169744A1 (en) 2020-05-28
EP3661209A1 (en) 2020-06-03
KR20220000990A (ko) 2022-01-04
KR20240065329A (ko) 2024-05-14
CN118214883A (zh) 2024-06-18
US20210329282A1 (en) 2021-10-21
KR20230098377A (ko) 2023-07-03
CN111066324B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
WO2019027286A1 (ko) 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2018062892A1 (ko) 가중치 인덱스에 기초하여 최적의 예측을 수행하는 방법 및 장치
WO2020180155A1 (ko) 비디오 신호를 처리하기 위한 방법 및 장치
WO2021034123A1 (ko) 가중 예측을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2019050385A2 (ko) 비디오 신호를 엔트로피 인코딩, 디코딩하는 방법 및 장치
WO2020251330A1 (ko) 단순화된 mpm 리스트 생성 방법을 활용하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020055107A1 (ko) 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
WO2020180129A1 (ko) 인터 예측을 위한 비디오 신호의 처리 방법 및 장치
WO2020055161A1 (ko) 영상 코딩 시스템에서 서브 블록 단위의 움직임 예측에 기반한 영상 디코딩 방법 및 장치
WO2020184952A1 (ko) 비디오 신호에서 인터 예측을 위한 움직임 벡터 차분 정보를 처리하기 위한 비디오 신호의 처리 방법 및 장치
WO2020036390A1 (ko) 영상 신호를 처리하기 위한 방법 및 장치
WO2020251328A1 (ko) 인트라 예측 모드 변환에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020013541A1 (ko) 비디오 신호를 처리하기 위한 방법 및 장치
WO2020213976A1 (ko) Bdpcm을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020251329A1 (ko) Mip 모드 매핑이 단순화된 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020130680A1 (ko) 인트라 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
WO2021060844A1 (ko) 팔레트 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021172914A1 (ko) 레지듀얼 코딩에 대한 영상 디코딩 방법 및 그 장치
WO2021006579A1 (ko) 머지 후보의 양방향 예측을 위한 가중치 인덱스를 유도하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021040410A1 (ko) 레지듀얼 코딩에 대한 영상 디코딩 방법 및 그 장치
WO2021006697A1 (ko) 레지듀얼 코딩에 대한 영상 디코딩 방법 및 그 장치
WO2021015536A1 (ko) 팔레트 모드의 적용 여부에 따라 디블로킹 필터링을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021006698A1 (ko) 영상 코딩 시스템에서 영상 코딩 방법 및 장치
WO2020231144A1 (ko) 어파인 tmvp를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020032526A1 (ko) 영상 코딩 시스템에서 컨스트럭티드 어파인 mvp 후보를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18840631

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020505788

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20207004148

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2018840631

Country of ref document: EP

Effective date: 20200226