WO2019045427A1 - 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치 - Google Patents

양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치 Download PDF

Info

Publication number
WO2019045427A1
WO2019045427A1 PCT/KR2018/009940 KR2018009940W WO2019045427A1 WO 2019045427 A1 WO2019045427 A1 WO 2019045427A1 KR 2018009940 W KR2018009940 W KR 2018009940W WO 2019045427 A1 WO2019045427 A1 WO 2019045427A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
current block
complexity
prediction
bio
Prior art date
Application number
PCT/KR2018/009940
Other languages
English (en)
French (fr)
Inventor
임정연
김효성
김형덕
손세훈
신재섭
이경택
이선영
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170175587A external-priority patent/KR102580910B1/ko
Priority to CN202310961499.1A priority Critical patent/CN116744018A/zh
Priority to CN202310960882.5A priority patent/CN116744017A/zh
Priority to US16/642,164 priority patent/US11297344B2/en
Priority to CN202310964061.9A priority patent/CN116744019A/zh
Priority to CN202310960176.0A priority patent/CN116761001A/zh
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to CN201880056369.0A priority patent/CN111034200B/zh
Publication of WO2019045427A1 publication Critical patent/WO2019045427A1/ko
Priority to US17/688,462 priority patent/US11800144B2/en
Priority to US17/688,334 priority patent/US11800142B2/en
Priority to US17/688,374 priority patent/US11800143B2/en
Priority to US17/688,494 priority patent/US11800145B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes

Definitions

  • the present invention relates to image coding or decoding. More particularly, it relates to a bidirectional optical flow for correction of motion compensation.
  • Motion in video sequences is an important source of information. Motion occurs not only with objects but also with camera movements. Apparent motion, also known as optical flow, captures spatio-temporal variations in pixel intensity in the image sequence.
  • Bi-directional Optical Flow is a motion estimation / compensation technique disclosed in JCTVC-C204 and VCEG-AZ05 BIO, which performs sample level motion tuning based on the assumption of optical flow and steady motion motion refinement.
  • the bidirectional optical flow estimation method currently under discussion has the advantage of fine-tuning the motion vector information, there is a disadvantage in that it requires much higher computational complexity than conventional bidirectional prediction for fine motion vector information correction.
  • JCT-VC Joint Photographic Experts Group
  • Non-Patent Document 2 VCEG-AZ05 (E. Alshina, et al., ITU-T SG 16 Question 6, Video Coding Experts Group (VCEG), 52nd Meeting: 19-26 June 2015, Warsaw, Tru)
  • a motion compensation method comprising the steps of: generating a first reference block by a first motion vector that refers to a first reference picture; and generating a second reference block by using a second motion vector that refers to the second reference picture ; Calculating texture complexity of a current block using the first reference block and the second reference block; And generating a prediction block of the current block by selectively using the first and second reference blocks according to the BIO process based on the texture complexity or generating the prediction block of the current block using the BIO process And generating a prediction block of the current block using the first and second reference blocks without applying the motion compensation method. do.
  • a first reference block is generated by a first motion vector that refers to a first reference picture, a reference block that generates a second reference block by a second motion vector that refers to a second reference picture, A block generator; A skip determining unit for calculating a texture complexity of a current block using the first reference block and the second reference block, and determining whether to skip the BIO process by comparing the texture complexity with a threshold value; And generating a prediction block of the current block by using the first and second reference blocks according to the BIO process, based on the determination of the skip determining unit, And a predictive block generator for generating a predictive block of the current block using the first reference block and the second reference block.
  • the present invention also provides a motion compensation apparatus using a bi-directional optical flow (BIO).
  • BIO bi-directional optical flow
  • FIG. 1 is an exemplary block diagram of an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is an exemplary view of a neighboring block of a current block
  • FIG. 3 is an exemplary block diagram of an image decoding apparatus according to an embodiment of the present invention.
  • BIO is a reference diagram for explaining the basic concept of BIO
  • Figure 5 is an illustration of the shape of a mask around a current pixel in a pixel-based BIO
  • FIG. 6 is an exemplary diagram for explaining the setting of the brightness value and the gradient for the pixels at the position outside the reference block in the mask
  • FIG. 7 is a diagram illustrating an example of a mask shape around a sub-block in a sub-block-based BIO
  • FIG. 8 is an exemplary diagram for explaining application of a mask for each pixel in a sub-block-based BIO
  • FIG. 9 is an exemplary view of another mask form centered on a sub-block in a sub-block-based BIO
  • FIG. 10 is a block diagram illustrating a configuration of an apparatus for performing motion compensation by selectively applying a BIO process according to an embodiment of the present invention.
  • FIG. 11 is a view illustrating an example of a process of performing motion compensation by selectively applying a BIO process according to texture complexity of a current block according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating another exemplary process of performing motion compensation by selectively applying a BIO process according to texture complexity of a current block according to an embodiment of the present invention.
  • FIG. 13 is a diagram illustrating another exemplary process of performing motion compensation by selectively applying a BIO process according to texture complexity of a current block according to an embodiment of the present invention.
  • FIG. 14 is a diagram illustrating a process of performing motion compensation by selectively applying a BIO process according to a current block size and a motion vector coding mode according to an embodiment of the present invention
  • 15 is a diagram illustrating a process of performing motion compensation by selectively applying a BIO process according to a CVC condition and a BCC condition according to an embodiment of the present invention.
  • 16 is a diagram illustrating a process of performing motion compensation by selectively applying a BIO process according to motion vector variance values of neighboring blocks according to the present embodiment.
  • BIO can be applied during motion compensation.
  • the BIO estimates motion vectors for all pixels or sub-blocks in the current block through an optical flow, and updates the predicted values of the corresponding pixels or sub-blocks based on the estimated motion vector values of the calculated pixels or sub-blocks .
  • FIG. 1 is an exemplary block diagram of an image encoding apparatus in which the techniques of the present disclosure may be implemented.
  • the image encoding apparatus includes a block division unit 110, a prediction unit 120, a subtracter 130, a transform unit 140, a quantization unit 145, an encoding unit 150, an inverse quantization unit 160, 165, an adder 170, a filter unit 180, and a memory 190.
  • the image encoding apparatus may be implemented such that each component is implemented as a hardware chip or software, and one or more microprocessors execute the function of the software corresponding to each component.
  • the block dividing unit 110 divides each picture constituting an image into a plurality of CTUs (Coding Tree Units), and then recursively divides the CTUs using a tree structure.
  • a leaf node in a tree structure becomes a coding unit (CU) which is a basic unit of coding.
  • CU coding unit
  • a quad tree (QuadTree, QT) in which an upper node (or a parent node) is divided into four sub nodes (or child nodes) of the same size, or a QT structure and an upper node are divided into two lower nodes
  • QTree plus BinaryTree (QTBT) structure combining a binary tree (BT) structure can be used. That is, QTBT can be used to partition the CTU into multiple CUs.
  • a CTU can be first divided into a QT structure.
  • the quadtree partitioning can be repeated until the size of the splitting block reaches the minimum block size (MinQTSize) of the leaf node allowed in QT. If the leaf node of the quadtree is not greater than the maximum block size (MaxBTSize) of the root node allowed in BT, it can be further partitioned into a BT structure.
  • MinQTSize minimum block size
  • MaxBTSize maximum block size
  • a symmetric horizontal splitting and a vertically splitting type i.e., symmetric vertical splitting
  • a vertically splitting type i.e., symmetric vertical splitting
  • the block of the node may be divided into two rectangular blocks having a size ratio of 1: 3, or the block of the corresponding node may be divided into diagonal directions.
  • the division information generated by the block division unit 110 by dividing the CTU by the QTBT structure is encoded by the encoding unit 150 and transmitted to the image decoding apparatus.
  • the CU may have various sizes depending on the QTBT segmentation from the CTU.
  • a block corresponding to a CU to be encoded or decoded i.e., a leaf node of QTBT
  • a 'current block' a block corresponding to a CU to be encoded or decoded
  • the prediction unit 120 generates a prediction block by predicting the current block.
  • the prediction unit 120 includes an intra prediction unit 122 and an inter prediction unit 124.
  • the current blocks in a picture may each be predictively coded.
  • Prediction of the current block is generally performed using an intra prediction technique (using data from a picture containing the current block) or an inter prediction technique (using data from a picture coded prior to a picture containing the current block) .
  • Inter prediction includes both unidirectional prediction and bidirectional prediction.
  • a set of motion information may be available.
  • a set of motion information may include motion information for forward and backward prediction directions.
  • the forward and backward prediction directions are two prediction directions of the bi-directional prediction mode, and the terms “forward " and “ backward " do not necessarily have geometric meanings. Instead, they generally correspond to whether the reference picture is to be displayed before the current picture (" backward ") or later (" forward ").
  • the "forward" and "backward” prediction directions may correspond to reference picture list 0 (RefPicList0) and reference picture list 1 (RefPicList1) of the current picture.
  • the motion information For each prediction direction, the motion information includes a reference index and a motion vector.
  • the reference index can be used to identify the reference picture in the current reference picture list (RefPicList0 or RefPicList1).
  • the motion vector has horizontal (x) and vertical (y) components.
  • the horizontal component represents the horizontal displacement in the reference picture relative to the position of the current block in the current picture, which is needed to locate the x-coordinate of the reference block.
  • the vertical component represents the vertical displacement in the reference picture relative to the position of the current block, which is needed to locate the y coordinate of the reference block.
  • the inter-prediction unit 124 generates a prediction block for the current block through a motion compensation process.
  • a block most similar to the current block is searched in a reference picture coded and decoded earlier than the current picture, and a prediction block for the current block is generated using the searched block.
  • a motion vector corresponding to the displacement between the current block in the current picture and the prediction block in the reference picture is generated.
  • motion estimation is performed on a luma component, and motion vectors calculated based on luma components are used for both luma components and chroma components.
  • the motion information including the information on the reference picture used for predicting the current block and the information on the motion vector is encoded by the encoding unit 150 and transmitted to the video decoding apparatus.
  • the inter-prediction unit 124 selects the first reference picture and the second reference picture from the reference picture list 0 and the reference picture list 1, respectively, and searches for a block similar to the current block in each reference picture Thereby generating a first reference block and a second reference block.
  • the first reference block and the second reference block are averaged or weighted averaged to generate a prediction block for the current block.
  • the coding unit 150 transmits information on two reference pictures used for predicting the current block and motion information including information on two motion vectors.
  • the two motion vectors include a first motion vector (i.e., a motion vector referring to the first reference picture) corresponding to a displacement between the current block position in the current picture and the first reference block in the first reference picture, And a second motion vector corresponding to a displacement between the position of the current block in the current picture and the position of the second reference block in the second reference picture (i.e., a motion vector referring to the second reference picture).
  • a first motion vector i.e., a motion vector referring to the first reference picture
  • a second motion vector corresponding to a displacement between the position of the current block in the current picture and the position of the second reference block in the second reference picture (i.e., a motion vector referring to the second reference picture).
  • the inter-prediction unit 124 may perform the bi-directional optical flow (BIO) process of the present disclosure to generate a prediction block of the current block using bidirectional prediction.
  • BIO bi-directional optical flow
  • the inter-prediction unit 124 may generate a prediction block for the current block using motion compensation according to the BIO process in units of image pixels or sub-blocks have.
  • one or more other units of the encoding apparatus may additionally be involved in performing the BIO process of the present disclosure. Further, since the BIO process is performed by applying an explicit equation using the decoded information shared between the encoding apparatus and the decoding apparatus, signaling of additional information for the BIO process is not required.
  • Whether to apply the BIO process at the time of motion compensation using bidirectional prediction can be determined in various ways. The details of the BIO process and whether or not to apply the BIO process in the motion compensation process will be described later with reference to the drawings of FIG.
  • the motion information of the current block can be transmitted to the decoding apparatus by encoding information capable of identifying the neighboring block. This method is referred to as a 'merge mode'.
  • the inter-prediction unit 124 selects a predetermined number of merge candidate blocks (hereinafter, merge candidates) from neighboring blocks of the current block.
  • the neighboring blocks for deriving the merge candidate include a left block L, an upper block A, an upper right block AR and a lower left block BL adjacent to the current block in the current picture ),
  • upper left block AL may be used in whole or in part.
  • a block located in a reference picture (which may be the same as or different from a reference picture used for predicting the current block) rather than the current picture in which the current block is located may be used as the merge candidate.
  • a co-located block co-located with the current block in the reference picture or blocks adjacent to the same co-located block may be further used as merge candidates.
  • the inter-prediction unit 124 constructs a merged list including a predetermined number of merge candidates using these neighboring blocks.
  • the merge candidate to be used as the motion information of the current block among the merge candidates included in the merge list is selected and merge index information for identifying the selected candidate is generated.
  • the generated merge index information is encoded by the encoding unit 150 and transmitted to the decoding apparatus.
  • Another method of coding motion information is to encode a differential motion vector.
  • the inter-prediction unit 124 derives the predicted motion vector candidates for the motion vector of the current block using neighboring blocks of the current block.
  • the neighboring blocks used for deriving the predicted motion vector candidates are a left block L, an upper block A, an upper right block AR, a lower left block (FIG. 2) adjacent to the current block in the current picture shown in FIG. BL), and upper left block AL may be used in whole or in part.
  • a block located in a reference picture (which may be the same as or different from a reference picture used for predicting the current block), which is not the current picture in which the current block is located, is used as a neighboring block used to derive the predicted motion vector candidates It is possible.
  • a co-located block in the reference picture or a block adjacent to the co-located block in the reference picture may be used.
  • the inter-prediction unit 124 derives the predicted motion vector candidates using the motion vectors of the neighboring blocks, and determines a predicted motion vector for the motion vector of the current block using the predicted motion vector candidates. Then, a differential motion vector is calculated by subtracting the predicted motion vector from the motion vector of the current block.
  • the predictive motion vector can be obtained by applying a predefined function (e.g., median value, mean value calculation, etc.) to the predicted motion vector candidates.
  • a predefined function e.g., median value, mean value calculation, etc.
  • the image decoding apparatus also knows a predefined function.
  • the neighboring blocks used for deriving the predicted motion vector candidates are already encoded and decoded, the motion vector of the neighboring blocks is already known by the video decoding apparatus. Therefore, the image encoding apparatus does not need to encode information for identifying a predicted motion vector candidate. Therefore, in this case, the information on the differential motion vector and the information on the reference picture used for predicting the current block are coded.
  • the predicted motion vector may be determined by selecting one of the predicted motion vector candidates.
  • information for identifying the predictive motion vector candidates selected is further coded together with the information about the differential motion vector and the reference pictures used for predicting the current block.
  • the intra prediction unit 122 predicts pixels in the current block using pixels (reference pixels) located in the vicinity of the current block in the current picture including the current block. There are a plurality of intra prediction modes according to the prediction direction, and the neighboring pixels to be used and the calculation formula are defined differently according to each prediction mode. In particular, the intra prediction unit 122 may determine an intra prediction mode to be used for coding the current block. In some examples, the intra-prediction unit 122 may encode the current block using a plurality of intra-prediction modes and may select an appropriate intra-prediction mode to use from the tested modes. For example, the intra-prediction unit 122 may calculate rate-distortion values using a rate-distortion analysis for various tested intra-prediction modes, and may employ rate- The intra prediction mode may be selected.
  • the intra prediction unit 122 selects one intra prediction mode from a plurality of intra prediction modes, and predicts the current block using neighboring pixels (reference pixels) determined by the selected intra prediction mode and an equation.
  • the information on the selected intra prediction mode is encoded by the encoding unit 150 and transmitted to the video decoding apparatus.
  • the subtractor 130 subtracts the prediction block generated by the intra prediction unit 122 or the inter prediction unit 124 from the current block to generate a residual block.
  • the transform unit 140 transforms the residual signal in the residual block having pixel values in the spatial domain into transform coefficients in the frequency domain.
  • the transform unit 140 may transform the residual signals in the residual block by using the size of the current block as a transform unit or divide the residual block into a plurality of smaller subblocks and transform residual signals into subblock- Conversion. There are various ways of dividing the residual block into smaller sub-blocks. For example, it may be divided into sub blocks of the same size that have been set, or a QT (quadtree) type partition using a residual block as a root node.
  • QT quadtree
  • the quantization unit 145 quantizes the transform coefficients output from the transform unit 140, and outputs the quantized transform coefficients to the encoding unit 150.
  • the encoding unit 150 encodes the quantized transform coefficients using a coding scheme such as CABAC to generate a bitstream.
  • the encoding unit 150 encodes information such as a CTU size, a MinQTSize, a MaxBTSize, a MaxBTDepth, a MinBTSize, a QT division flag, a BT division flag, and a division type associated with the block division so that the video decoding apparatus So that the block can be divided.
  • the encoding unit 150 encodes information on a prediction type indicating whether the current block is coded by intraprediction or inter prediction, and encodes the intra prediction information or the inter prediction information according to the prediction type.
  • a syntax element for the intra-prediction mode is encoded as intra-prediction information.
  • the encoding unit 150 encodes a syntax element for inter-prediction information.
  • the syntax elements for the inter prediction information include the following.
  • mode information indicating whether motion information of the current block is coded in the merge mode or in a mode in which the differential motion vector is coded
  • the encoding unit 150 converts the merge index information indicating which candidate of the merge candidates is selected as a candidate for extracting the motion information of the current block as a syntax element for the motion information .
  • motion information when motion information is coded by a mode for coding a differential motion vector, information on a differential motion vector and information on a reference picture are encoded into syntax elements for motion information. If the predictive motion vector is determined in a manner of selecting one of the plurality of predictive motion vector candidates, the syntax element for the motion information further includes predictive motion vector identification information for identifying the selected candidate .
  • the inverse quantization unit 160 dequantizes the quantized transform coefficients output from the quantization unit 145 to generate transform coefficients.
  • the inverse transform unit 165 transforms the transform coefficients output from the inverse quantization unit 160 from the frequency domain to the spatial domain and restores the residual block.
  • the adder 170 adds the reconstructed residual block and the prediction block generated by the predictor 120 to reconstruct the current block.
  • the pixels in the reconstructed current block are used as reference pixels when intra prediction of the next-order block is performed.
  • the filter unit 180 deblock-filters the boundaries between the restored blocks and stores them in the memory 190 to remove blocking artifacts caused by coding / decoding on a block-by-block basis. When all the blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be coded later.
  • FIG. 3 is an exemplary block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure
  • the image decoding apparatus includes a decoding unit 310, an inverse quantization unit 320, an inverse transform unit 330, a prediction unit 340, an adder 350, a filter unit 360, and a memory 370.
  • each component may be implemented as a hardware chip, or may be implemented as software, and a microprocessor may be implemented to execute functions of software corresponding to each component.
  • the decoding unit 310 decodes the bitstream received from the image encoding apparatus to extract information related to the block division to determine a current block to be decoded and outputs prediction information and residual signal information necessary for restoring the current block .
  • the decoding unit 310 extracts information on a CTU size from an SPS (Sequence Parameter Set) or a PPS (Picture Parameter Set) to determine a size of the CTU, and divides the picture into CTUs of a predetermined size. Then, the CTU is determined as the top layer of the tree structure, that is, the root node, and the CTU is divided using the tree structure by extracting the partition information for the CTU. For example, when the CTU is divided using the QTBT structure, the first flag (QT_split_flag) related to the division of the QT is first extracted and each node is divided into four nodes of the lower layer. For the node corresponding to the leaf node of the QT, the second flag (BT_split_flag) related to the BT division and the division type information are extracted and the corresponding leaf node is divided into the BT structure.
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • the decoding unit 310 extracts information on a prediction type indicating whether the current block is intra-predicted or inter-predicted.
  • the decoding unit 310 extracts a syntax element for the intra prediction information (intra prediction mode) of the current block.
  • the decoding unit 310 extracts a syntax element for the inter prediction information.
  • mode information indicating whether a motion information of a current block is coded by a mode among a plurality of coding modes is extracted.
  • the plurality of encoding modes include a merge mode and a differential motion vector encoding mode.
  • the decoding unit 310 extracts merge index information indicating whether to derive the motion vector of the current block from any of the merge candidates as a syntax element for the motion information.
  • the decoding unit 310 extracts information on the differential motion vector and information on the reference picture referred to by the motion vector of the current block as a syntax element for the motion vector do.
  • the predictive motion vector identification information is included in the bitstream. Therefore, in this case, not only the information on the difference motion vector and the information on the reference picture but also the prediction motion vector identification information is extracted as a syntax element for the motion vector.
  • the decoding unit 310 extracts information on the quantized transform coefficients of the current block as information on the residual signal.
  • the inverse quantization unit 320 dequantizes the quantized transform coefficients and the inverse transform unit 330 generates the residual block for the current block by inversely transforming the dequantized transform coefficients from the frequency domain to the spatial domain to recover the residual signals.
  • the prediction unit 340 includes an intra prediction unit 342 and an inter prediction unit 344.
  • the intra prediction unit 342 is activated when the intra prediction is the prediction type of the current block
  • the inter prediction unit 344 is activated when the intra prediction is the prediction type of the current block.
  • the intra prediction unit 342 determines an intra prediction mode of the current block among the plurality of intra prediction modes from the syntax element for the intra prediction mode extracted from the decoding unit 310, To predict the current block.
  • the inter-prediction unit 344 determines the motion information of the current block using the syntax element for the intra-prediction mode extracted from the decoding unit 310, and predicts the current block using the determined motion information.
  • the inter prediction unit 344 confirms the mode information in the inter prediction, which is extracted from the decoding unit 310.
  • the inter-prediction unit 344 constructs a merge list including a predetermined number of merge candidates using the neighboring blocks of the current block.
  • the way in which the inter prediction unit 344 constructs the merge list is the same as that of the inter prediction unit 124 of the image encoding apparatus.
  • one merge candidate is selected from merge candidates in the merge list using merge index information transmitted from the decoding unit 310.
  • the motion information of the selected merge candidate that is, the motion vector of the merge candidate and the reference picture are set as the motion vector of the current block and the reference picture.
  • the inter-prediction unit 344 derives the predicted motion vector candidates using the motion vectors of the neighboring blocks of the current block, The predicted motion vector for the motion vector of the current frame is determined.
  • the way in which the inter-prediction unit 344 derives the predicted motion vector candidates is the same as that of the inter-prediction unit 124 of the image encoding apparatus. If the video coding apparatus uses any one of the plurality of candidate prediction motion vector candidates as the prediction motion vector of the current block, the syntax element for the motion information includes the prediction motion vector identification information. Accordingly, in this case, the inter-prediction unit 344 can select a candidate indicated by the predicted motion vector identification information among the predicted motion vector candidates as a predicted motion vector.
  • the inter-prediction unit may determine a predicted motion vector by applying the same function as that of the image encoding apparatus.
  • the inter-prediction unit 344 adds the predicted motion vector and the differential motion vector received from the decoding unit 310 to determine a motion vector of the current block.
  • the reference picture referred to by the motion vector of the current block is determined using the information on the reference picture transmitted from the decoding unit 310.
  • the inter prediction unit 344 When the motion vector and the reference picture of the current block are determined in the merge mode or differential motion vector coding mode, the inter prediction unit 344 generates a prediction block of the current block using a block indicated by the motion vector in the reference picture do.
  • the inter-prediction unit 344 selects the first reference picture and the second reference picture from the reference picture list 0 and the reference picture list 1 using syntax elements for inter-prediction information, A first motion vector and a second motion vector that refer to the picture are determined. Then, a first reference block is generated by the first motion vector referring to the first reference picture, and a second reference block is generated by the second motion vector referring to the second reference picture.
  • the prediction block for the current block is generated by averaging or weighted average of the first reference block and the second reference block.
  • the inter-prediction unit 344 may perform the bi-directional optical flow (BIO) process of the present disclosure to generate a prediction block of the current block using bidirectional prediction.
  • BIO bi-directional optical flow
  • the inter-prediction unit 344 may generate a prediction block for the current block using motion compensation according to the BIO process in units of pixels or sub-blocks .
  • Whether to apply the BIO process at the time of motion compensation using bidirectional prediction can be determined in various ways. The details of the BIO process and whether or not to apply the BIO process in the motion compensation process will be described later with reference to the drawings of FIG.
  • the adder 350 adds the residual block output from the inverse transform unit and the prediction block output from the inter prediction unit or the intra prediction unit to reconstruct the current block.
  • the pixels in the reconstructed current block are utilized as reference pixels for intra prediction of a block to be decoded later.
  • the filter unit 360 deblock-filters the boundaries between the restored blocks and stores them in the memory 370 in order to remove blocking artifacts caused by decoding on a block-by-block basis. When all blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be decoded later.
  • the encoding apparatus performs motion estimation and compensation on a coding unit (CU) basis in the inter prediction process, and then transmits the resultant motion vector (MV) value to the decoding apparatus.
  • the coding apparatus and the decoding apparatus Based on the MV value of the CU unit, the MV value can be additionally corrected on a pixel-by-pixel basis using the BIO or on a sub-block (i.e., sub-CU) unit smaller than the CU. That is, the BIO can precisely compensate the motion of the coding block (CU) based on the size of each block from a block of size n ⁇ n to a block of 1 ⁇ 1 size (ie, pixel). Further, since the BIO process is performed by applying an explicit equation using base-decoded information shared by the encoding apparatus and the decoding apparatus, signaling of additional information for the BIO process from the encoding apparatus to the decoding apparatus is not required.
  • BIO is a reference diagram for explaining the basic concept of BIO.
  • the BIO used for image coding and decoding is based on the assumption that the motion vector information is bi-prediction information, the pixels constituting the image move at a constant speed, and the pixel values change little.
  • a bi-directional motion prediction for the current block is performed to generate a bidirectional motion that indicates the corresponding areas (i.e., reference blocks) most similar to the current block to be coded of the current picture in the reference pictures Ref 0 and Ref 1 Assume that vectors (MV 0 , MV 1 ) have been determined.
  • the two bidirectional motion vectors are values indicating the motion of the current block. That is, bidirectional motion vectors are values obtained by setting the current block as one unit and estimating the motion of the unit as a whole.
  • a pixel in the reference picture Ref 0 indicated by the bidirectional motion vector MV 0 corresponding to the pixel P in the current block is P 0 , and corresponds to the pixel P in the current block.
  • the bidirectional motion vector The pixel in the reference picture Ref 1 pointed to by MV 1 is P 1 . It is assumed in FIG. 4 that the motion for the pixel P is slightly different from the overall motion of the current block. For example, if an object located at pixel A in Ref 0 in FIG. 4 moves through pixel P in the current block of the current picture to pixel B in Ref 1, then pixel A and pixel B have a substantially similar value.
  • the point in Ref0 most similar to the pixel P in the current block is not P0 pointed by the bidirectional motion vector MV0 but a point P0 which is shifted by a predetermined displacement vector ( v x ⁇ 0 , v y ⁇ 0 )
  • the point within Ref1 which is most similar to the pixel P in the current block is B not the P1 pointed by the bidirectional motion vector MV1 but the P1 which is shifted by a predetermined displacement vector (- v x ⁇ 1 , -v y ⁇ 1 ) .
  • ⁇ 0 and ⁇ 1 are the time axis distances for Ref0 and Ref1, respectively, based on the current picture, and are calculated based on POC (Picture Order Count).
  • POC Picture Order Count
  • ( v x , v y ) is referred to as "optical flow” or "BIO motion vector”.
  • the reference pixels P0 and P1 indicated by the bidirectional motion vectors MV0 and MV1 More precise prediction is possible than using it.
  • the concept of changing a reference pixel used for predicting one pixel of the current block in consideration of the motion of each pixel in the current block specified by the optical flow ( v x , v y ) Can be expanded to take into account the movement of the unit.
  • BIO-based bidirectional motion compensation is performed on a pixel-by-pixel basis.
  • the decoding apparatus can determine the bidirectional motion vectors (MV 0 , MV 1 ) from the motion vector information included in the bitstream.
  • the current block within the pixel (i, j) and the motion vectors to the corresponding (MV 0) is a reference picture (Ref 0) brightness value of the pixels (luminance value) to I (0) (i, j) points
  • the brightness value of the pixel in the reference picture Ref 1 indicated by the motion vectors MV 1 corresponding to the pixels ( i, j ) in the current block is defined as I (1 , j ).
  • the brightness value of the pixel A in the reference picture Ref 0 indicated by the BIO motion vector ( v x , v y ) corresponds to the pixel in the current block is I (0) ( i + v x ⁇ 0 , j + v y ⁇ 0 )
  • the brightness value of the pixel B in the reference picture Ref 1 may be defined as I (1) ( i - v x ⁇ 1 , j - v y ⁇ 1 ).
  • a and B can be expressed by Equation (1).
  • the bidirectional optical flow ( v x , v y ) of each pixel in the block is determined by a solution that minimizes ⁇ defined by the difference between pixel A and pixel B.
  • Equation (2) Using the linear approximation of A and B derived from Equation (1),? Can be defined as Equation (2).
  • ( i ', j ') denotes the position of the pixels in the mask?.
  • M 2
  • the shape of the mask is as shown in FIG.
  • the comb-like pixel located at the center of the mask is the current pixel ( i , j ), and the pixels in the mask? Are represented by ( i ', j ').
  • the solution that minimizes the objective function ⁇ ( v x , v y ) is calculated as an analytic method.
  • Equation (5) S 1 , s 2 , s 3 , s 4 , s 5 , and s 6 in Equation (4) are expressed by Equation (5).
  • V x and v y can be obtained by solving the simultaneous equations of Equation (4). For example, deriving v x and v y using Cramer's rule is shown in equation (6).
  • r and m are the normalization parameters introduced to avoid division by zero or very low values.
  • v x and v y can be calculated independently, and v x and v y are expressed as in equation (8).
  • Equation 10 The normalization parameters r and m used in Equations (7) to (9) can be defined as Equation (10).
  • d is the bit depth of the pixels of the image.
  • the optical flows v x and v y of each pixel in the block are obtained by calculating using Equations (6) to (9).
  • the bidirectional predictive value pred BIO for the current pixel ( i , j ) according to the BIO can be calculated by Equation (11).
  • a prediction block of a current block is generated using pixels in a reference block.
  • the use of a mask should allow access to pixels other than pixels in the reference block.
  • the mask for the pixel at the upper left position ((0, 0) position) of the reference block as shown in Fig. 6 (a) includes pixels located at positions outside the reference block. I (k) , I x (k) , and I y (k) of a pixel outside the reference block in the mask are referred to as reference It can be used by padding with the corresponding values of the closest pixel in the block.
  • I (k) , Ix (k) , and Iy (k) for external pixels located at the top of the reference block are 5x5, I (k) of the pixels of the top row (row) in the, I x (k), I y (k) as may be padded, I (k) for the outer pixels in the reference block left, I x (k ) And I y (k) may be padded with I (k) , I x (k) , and I y (k) in the leftmost column.
  • the BIO process performed in each pixel in the current block is described.
  • the BIO process may be performed on a block basis, for example, 4x4 units.
  • the BIO performed in units of sub-blocks in the current block can obtain the optical flows v x and v y in units of sub-blocks in the current block using the methods of Equations (6) to (9).
  • the subblock-based BIO is the same principle as the pixel-by-pixel BIO, but only in the range of the mask.
  • the range of the mask? can be extended to include the range of sub-blocks.
  • the mask? Has a size of (2M + N) x (2M + N).
  • M 2 and the size of the sub-block is 4 x 4
  • it has a mask form as shown in Fig.
  • the objective function of Equation (3) for the sub-block is calculated, and the optical flow ( v x , v y ) can be calculated.
  • Equation (3) it is possible to calculate the objective function of Equation (3) for the sub-block by calculating the delta of Equation (2) by applying a mask to each pixel in each sub-block for each pixel, Then, the optical flow ( v x , v y ) for the sub-block can be calculated in a manner that minimizes the objective function.
  • a 5x5 size mask 810a is applied to a pixel at the (0, 0) position of the 4x4 sub-block 820 in the current block, .
  • a 5x5 mask 810b is applied to the pixel at position (0,1) to calculate the delta of Equation (2) for all pixels in the mask 810b.
  • Equation (3) the objective function of Equation (3) can be obtained by squaring the calculated ⁇ for all the pixels in the sub-block. Then, the optical flow ( v x , v y ) that minimizes the objective function can be calculated.
  • the objective function in this example is expressed by Equation (12).
  • Equation (13) s 1 to s 6 used for the optical flow ( v x , v y ) calculation are modified as shown in Equation (13).
  • a method of applying a weight to each position of a mask using a mask of a sub-block unit as shown in FIG. 7 may be used.
  • the weights are applied to the center of the sub-block as a higher weight.
  • ⁇ for the same position can be calculated redundantly.
  • Most of the pixels located in the mask 810a centered at the pixel at the (0,0) position of the sub-block 820 are masked at the pixel at the (1,0) position of the sub- 810b. Therefore, the delta can be calculated in duplicate.
  • Equations (12) and (13) it is possible to simplify the arithmetic operations of Equations (12) and (13) to reduce the computational complexity.
  • the pixel-based or sub-block-based BIO described above requires a large amount of computation. Accordingly, a method for reducing the computation amount according to the BIO in the image encoding or decoding is required. In this disclosure, it is proposed to skip the BIO process in the motion compensation when certain conditions are satisfied in order to reduce the amount of computation.
  • FIG. 10 is a block diagram illustrating a configuration of an apparatus for performing motion compensation by selectively applying a BIO process according to an embodiment of the present invention.
  • the motion compensation apparatus 1000 described in this embodiment can be implemented in the inter prediction unit 124 of the image coding apparatus and / or the inter prediction unit 344 of the image decoding apparatus, and includes a reference block generation unit 1010, A skip determination unit 1020 and a prediction block generation unit 1030.
  • Each of these components may be implemented as a hardware chip, or may be implemented as software, and one or more microprocessors may be implemented to execute the functions of the software corresponding to each component.
  • the reference block generator 1010 generates a first reference block using a first motion vector that refers to a first reference picture in the reference picture list 0 and generates a second reference block by referring to the second reference picture in the reference picture list 1 A second reference block is generated using a motion vector.
  • the skip determining unit 1020 determines whether or not to apply the BIO process in the motion compensation process.
  • the predictive block generator 1030 When it is determined by the skip determining unit 1020 that the BIO process is to be skipped, the predictive block generator 1030 generates a predictive block of the current block by normal motion compensation. That is, the first reference block and the second reference block are averaged or weighted averaged to generate a prediction block of the current block. On the other hand, if it is determined that the BIO process is applied by the skip determining unit 1020, the prediction block generating unit 1030 generates a prediction block of the current block using the first reference block and the second reference block according to the BIO process do. That is, the prediction block of the current block can be generated by applying Equation (11).
  • the skip determining unit 1020 can determine whether to apply the BIO process based on at least one of the following conditions.
  • bidirectional motion vectors (the first motion vector and the second motion vector) satisfy a constant velocity constraint (CVC) and / or a brightness constancy constraint (BCC)
  • Optical flow tends to show poor results in flat areas with few local features, such as edges or corners.
  • the region having such a smooth texture is likely to have been sufficiently well predicted through conventional block-based motion estimation. Therefore, in this embodiment, the texture complexity of the current block is calculated and the BIO process is skipped according to the texture complexity.
  • the texture complexity of the current block can be calculated using the first reference block and the second reference block that are shared by the encoding apparatus and the decoding apparatus so that the encoding apparatus and the decoding apparatus can calculate the texture complexity by itself without additional signaling have. That is, the skip determining unit implemented in the encoding apparatus and the decoding apparatus, respectively, calculates the texture complexity of the current block and determines whether to skip the BIO.
  • the texture complexity can be a local feature detector having a small amount of computation such as a difference value with respect to surrounding pixels, a gradient, Moravec, and the like.
  • This embodiment computes texture complexity using a gradient. Since the gradient for the reference blocks is a value used in the BIO process, the gradient value computed from the texture complexity can be directly applied to the BIO process when the gradient is used.
  • the motion compensation apparatus 1000 of the present embodiment calculates the texture complexity using the horizontal gradient and the vertical gradient of each pixel in the first reference block and the second reference block.
  • the motion compensation apparatus 1000 calculates the complexity in the horizontal direction using the horizontal gradient of each pixel in the first reference block and the second reference block, and calculates the complexity of the first reference block and the second reference block
  • the complexity in the vertical direction is calculated using the vertical gradient of each pixel in the vertical direction.
  • the horizontal direction complexity and the vertical direction complexity can be calculated by Equation (14).
  • D1 and D5 represent the horizontal direction complexity and the vertical direction complexity, respectively, and the CU represents the set of pixel positions in the first reference block and the second reference block corresponding to the position of each pixel of the current block as [i, j] Represents a position corresponding to each pixel in the current block in the first reference block and the second reference block.
  • d 1 (i, j) and d 5 (i, j) can be calculated by Equation (15).
  • the horizontal direction complexity and the vertical direction complexity of Equation (14) can be calculated using d 1 and d 5 in Equation (15). That is, the horizontal gradients ⁇ 0 I x (0) (i, j) in which the temporal distances ( ⁇ 0 , ⁇ 1 ) for the pixels in positions corresponding to each other in the first reference block and the second reference block are considered , , ⁇ 1 I x (1) (i, j) ) for all pixel positions and multiply them by the sum of squares to calculate the horizontal complexity D 1 .
  • the vertical gradients ( ⁇ 0 I y (0) (i, j), ⁇ 1 I y (1 ) are calculated by considering the temporal distances for the pixels in positions corresponding to each other in the first reference block and the second reference block ) (i, j) ) may be computed for all pixel locations and summed to calculate the vertical complexity D 5 .
  • Equation (5) d 1 to d 6 mean values at one pixel position
  • s 1 to s 6 mean the sum of each of d 1 to d 6 calculated at all pixel positions in the mask centered on one pixel. That is, using Equation (15), Equation (5) can be expressed as Equation (16).
  • Equation (16) s 4 has the same value as s 2, and description thereof is omitted.
  • Texture complexity of the current block has a minimum value among the horizontal complexity, and the vertical complexity (Min (D 1, D 5 )), the maximum value (Max (D 1, D 5 )) or average value (Ave (D 1, D 5 ) ). ≪ / RTI >
  • the motion compensation apparatus 1000 skips the BIO process if the texture complexity is smaller than the threshold value T and applies the BIO process if the texture complexity is greater than or equal to the threshold value T.
  • d 1 to d 6 calculated in the equation (14) can be used as it is for the calculation of s 1 to s 6 . That is, in this embodiment, since the texture complexity of the current block is determined using the value to be calculated during the BIO process and the BIO skip is determined using the texture complexity, the additional computation amount for determining the BIO skip can be reduced.
  • the threshold value T can use a method of scaling the normalization parameter used in Equations (7) to (9).
  • the threshold value T is set based on the relational expression of the normalization parameters, the BIO can be skipped by preliminarily determining the area to be 0 even in the BIO.
  • D 1 is the sum of d 1 with respect to all the positions of the pillars in the CU, and s 1 is the sum of all d 1 in the mask ⁇ , so that the size of the CU is W ⁇ H and the size of the mask ⁇ is (2M + 1) ⁇ 2M + 1), the threshold value T can be set as shown in Equation (17).
  • FIG. 11 is a view illustrating an example of a process of performing motion compensation by selectively applying a BIO process according to texture complexity of a current block according to an embodiment of the present invention.
  • the motion compensation apparatus 1000 calculates a horizontal gradient I x (k ) and a vertical gradient I y (k) for each pixel in the first reference block and the second reference block (S1102). Then, d 1 to d 6 are calculated using Equation (15), and the horizontal direction complexity (D 1 ) and the vertical direction complexity (D 5 ) are calculated according to Equation (14) using d 1 and d 5 (S1104). It is determined whether the texture complexity of the current block, which is the minimum value in the horizontal direction complexity D 1 and the vertical direction complexity D 5 , is smaller than the threshold value T (S1106). In this example, it is described that the texture complexity of the current block is the minimum value among the horizontal direction complexity (D 1 ) and the vertical direction complexity (D 5 ), but the texture complexity may be set to the maximum value or the average value as described above.
  • the BIO process is skipped and a prediction block of the current block is generated by normal motion compensation (S1108). That is, the first reference block and the second reference block are averaged or weighted averaged to generate a prediction block of the current block.
  • a prediction block for the current block is generated using the first reference block and the second reference block according to the BIO process.
  • s 1 to s 6 are calculated.
  • the horizontal and vertical gradients for the pixels in the reference blocks have already been calculated in S1102, only the pixels outside the reference block existing in the mask in order to obtain s 1 through s 6 Compute the gradients.
  • S 1 to s 6 may be obtained using only the direction and the vertical direction gradients.
  • d 1 to d 6 are correlated with s 1 to s 6 (see Equation 16)
  • already calculated d 1 to d 6 may be used to calculate s 1 to s 6 .
  • optical flows ( v x , v y ) in units of pixels or sub-blocks are determined using any one of Equations (6) to (9) (S 1112). Then , a prediction block of the current block is generated according to Equation (11) by applying the optical flow ( v x , v y ) to the corresponding pixel in the current block or the corresponding sub-block (S 1114).
  • FIG. 12 is a diagram illustrating another exemplary process of performing motion compensation by selectively applying a BIO process according to texture complexity of a current block according to the present embodiment.
  • the example disclosed in FIG. 12 differs from FIG. 11 only in the order of calculating d 1 to d 6 . That is, d 1 to d 6 of d 1 and d is a need to 50,000 in order to calculate the texture complexity of the current block. Thus, obtaining a d 1 and d 5, first, as shown in S1204 and calculates the texture complexity, and the remaining d2, d3, d4 (d2 equal), d5 is calculated in the case where the texture complexity of performing a large BIO process than the threshold value (S1210).
  • the other processes are substantially the same as those in Fig.
  • the table below shows experimental results comparing motion compensation according to the BIO process and motion compensation selectively applying the BIO process based on the texture complexity according to the present embodiment.
  • the sequences used in the experiment are 4 Class A1 (4K), 5 Class B (FHD), 4 Class C (832 ⁇ 480) and 4 Class D (416 ⁇ 240) did.
  • Experimental conditions were random access (RA) configuration and QP values were set to 22, 27, 32, and 37 to compare BD rates.
  • the examples described above relate to determining whether to skip the entire BIO process.
  • FIG. 13 is a diagram illustrating another exemplary process of performing motion compensation by selectively applying a BIO process according to texture complexity of a current block according to the present embodiment.
  • the motion compensation apparatus 1000 calculates a horizontal gradient I x (k ) and a vertical gradient I y (k) for each pixel in the first reference block and the second reference block (S1310). And calculates a calculation for d 1 and d 5 by using the equation (15), and the horizontal complexity by using the d 1 (D 1) and the vertical complexity by using d 5 (D 5) (S1320 ).
  • step S1320 a process of determining whether to skip the optical flow in the horizontal direction (S1330) and whether to skip the optical flow in the vertical direction (S1340).
  • S1330 a process of determining whether to skip the optical flow in the horizontal direction
  • S1340 a process of determining whether to skip the optical flow in the vertical direction
  • step S1330 the motion compensation apparatus 1000 determines whether the horizontal direction complexity D 1 is smaller than the threshold value T (S1331).
  • the horizontal complexity (D 1) is less than the threshold value (T) and sets the horizontal optical flow (v x) to 0 (S1332). This means that the horizontal optical flow is not applied.
  • d 3 is calculated (S 1333), and s 1 and s 3 are calculated using d 1 and d 3 (S1334). Referring to Equations (7) to (9), only s 1 and s 3 are required when calculating the horizontal optical flow ( v x ).
  • d 1 has been already calculated at the S1320, S1333, and calculates a d 3 in the use of d 1 and d 3 in S1334 calculates the s 1 and s 3. Then, the horizontal optical flow v x is calculated using s 1 and s 3 according to any one of the expressions (7) to (9) (S 1335).
  • the flow proceeds to S1340 in which it is determined whether to skip the optical flow in the vertical direction. It is determined whether or not the vertical direction complexity D 5 is smaller than the threshold value T (S1341). Vertical complexity (D 5) is less than the threshold (T) set the vertical optical flow (v y) to 0 (S1342). This means that the vertical optical flow is not applied. If the threshold value (T) greater than or equal to d 2, and d calculate 6 and (S1343), d 2, d 5, with a d 6, s 2, s 5, s 6 vertical complexity (D 5) (S1344). In calculating the vertical optical flow ( v y ) using Equation (7) or (9), only s 2 , s 5 , s 6 are required.
  • d 5 is has already been calculated at the S1320, and calculates a d 2 and d 6 in S1343 and using d 2, d 5, d 6 in S1344 calculates the s 2, s 5, s 6 . Then, the vertical optical flow ( v y ) is calculated using s 2 , s 5 , s 6 according to any one of Equations (7) and (9) (S 1345).
  • the texture complexity of the current block is estimated using pixels in the reference block.
  • the texture complexity of the current block may be computed using the actual pixels in the current block.
  • the encoding apparatus may calculate horizontal and vertical complexity using horizontal and vertical gradients of pixels in the current block. That is, the horizontal direction complexity is calculated using the sum of squares of the horizontal gradients of the pixels in the current block, and the vertical direction complexity is calculated using the square sum of the vertical direction gradients. And determines whether to skip the BIO process using the horizontal and vertical complexities.
  • the decoding apparatus can not calculate the texture complexity in the same manner as the encoding apparatus because the pixels in the current block can not be known.
  • the coding apparatus should further signal the information indicating the BIO skip to the decoding apparatus. That is, the skip determining unit implemented in the decoding apparatus decodes information indicating whether or not to skip the BIO received from the encoding apparatus, and selectively skips the BIO process as indicated by the information.
  • Embodiment 2 BIO Skip according to Size of Current Block and / or Motion Information Coding Mode
  • the CU corresponding to the leaf node of the tree structure, that is, the current block can have various sizes.
  • the motion vector of the current block may have a value substantially similar to the BIO of the pixel or subblock unit, so that the correction effect obtained by performing the BIO may be small.
  • the reduction in complexity obtained by skipping the BIO is likely to be greater than the loss of precision due to the BIO skip.
  • the motion vector of the current block may be encoded in the merge mode as described above, or may be encoded into a mode of encoding the differential motion vector. If the motion vector of the current block is coded in the merge mode, the motion vector of the current block is merged with the motion vector of the neighboring block. That is, the motion vector of the current block is set equal to the motion vector of the neighboring block. In this case, an additional correction effect can be obtained through the BIO.
  • the present embodiment skips the BIO process using at least one of the size of the current block or the mode information indicating the coding mode of the motion vector.
  • FIG. 14 is a diagram illustrating a process of performing motion compensation by selectively applying a BIO process according to a coding mode of a current block size and a motion vector according to an embodiment of the present invention. 14 determines whether to skip a BIO using both the size of the current block and the coding mode of the motion vector. However, it is also within the scope of the present invention to use either one.
  • the motion compensation apparatus 1000 first determines whether the size of the current block CU, which is a current block to be coded, is smaller than a threshold size (S1402). If the size of the current block CU is larger than the threshold size, a prediction block of the current block is generated according to the BIO process (S1408).
  • the size of the current block CU is less than the threshold size, it is determined whether the motion vector MV of the current block CU is encoded by the merge mode (S1404). If it is not encoded in the merge mode, the BIO process is skipped and a prediction block of the current block is generated through normal motion compensation (S1406). When encoded by the merge mode, a prediction block of the current block is generated according to the BIO process (S1408).
  • w t ⁇ h t is defined as 8 ⁇ 8
  • Example 3 BIO skipping according to CVC and / or BCC
  • the BIO is based on the assumption that the objects in the image move at a constant speed and there is little change in pixel values. These are defined as constant velocity constraint (CVC) and brightness constancy constraint (BCC), respectively.
  • CVC constant velocity constraint
  • BCC brightness constancy constraint
  • the bidirectional motion vector of the current block satisfies the BCC condition
  • the first reference block located in the first reference picture Ref 0 indicated by (MV x 0 , MV y 0 ) and the first reference block located in (MV x 1 , MV y 1 ) 2 means that the difference of the reference block located in the reference picture Ref1 becomes zero.
  • the difference between the two reference blocks can be calculated by Sum of Absolute Difference (SAD), Sum of Squared Errors (SSE), and the like.
  • the CVC condition and the BCC condition can be expressed as follows.
  • T CVC and T BCC are thresholds for CVC and BCC , respectively.
  • BIO is a first reference picture optical flow for (Ref0) (+ v x, + v y) and the second reference picture (Ref1) optical flow for the (- v x, - v y ) is
  • the size starts with the assumption that they have different signs. Accordingly, bi-directional motion vectors (MVx 0, MVy 0) and (MVx 1, MVy 1) is not sikindaneun meet the assumptions of BIO the x component of the bi-directional motion vector (MV x 0 and MVx 1) will have a different sign, and , and y components (MVy 0 and MVy 1 ) have different signs.
  • a constant velocity in order to satisfy the condition MV x 0 the current picture and a first reference value divided by the time-base distance is ⁇ 0 between the picture absolute magnitude (absolute value) and MVx first time base between the present picture and the second reference picture
  • the absolute magnitude of the value divided by the distance, ⁇ 1 must be the same.
  • the absolute value of the value obtained by dividing MVy 0 by ⁇ 0 and the value obtained by dividing MVy 1 by ⁇ 1 must be the same. Therefore, introducing the concept of the threshold value can be expressed as the above CVC condition.
  • the BCC condition is satisfied when the SAD between the reference blocks referred to by the bidirectional motion vectors MVx 0 and MVy 0 and MVx 1 and MVy 1 is equal to or less than the threshold value T BCC .
  • other indicators may be used to represent the difference between two reference blocks, such as SSE instead of SAD.
  • FIG. 15 is a diagram illustrating a process of performing motion compensation by selectively applying a BIO process according to the CVC condition and the BCC condition according to the present embodiment.
  • the motion compensation apparatus 1000 determines whether the bidirectional motion vectors MVx 0 and MVy 0 and MVx 1 and MVy 1 of the current block satisfy the CVC and BCC conditions (S1502) The BIO process is skipped and a prediction block is generated in accordance with normal motion compensation (S1504).
  • a prediction block of the current block is generated according to the BIO process (S1506).
  • BIO process 15 illustrates the case where the BIO process is skipped when both the CVC condition and the BCC condition are satisfied. However, this is merely an example, and even if the BIO skip is determined using any one of the CVC condition and the BCC condition, Do.
  • Embodiment 4 BIO skip according to the degree of variation of motion vectors of neighboring blocks
  • the optical flow estimated in pixel or sub-block units in the current block is likely to have a similar value.
  • the optical flow in the pixel or sub-block unit in the current block is also likely to have the same value as the motion vector of the current block.
  • the motion vector variance of neighboring blocks can be expressed as Equation (19).
  • L is a set of neighboring blocks and l is the total number of neighboring blocks.
  • ( m , n ) represents the index of the neighboring block, and t ⁇ (0, 1).
  • 16 is a diagram illustrating a process of performing motion compensation by selectively applying a BIO process according to motion vector variance values of neighboring blocks according to the present embodiment.
  • the motion compensator 1000 compares the variance of the motion vectors of neighboring blocks with a predetermined threshold (S1602). If the motion vector variance value of the neighboring block is lower than the threshold value, the BIO process is skipped and the prediction block is generated according to the normal motion compensation (S1604). On the other hand, if the motion vector variance value of the neighboring block is higher than the threshold value, a prediction block of the current block is generated according to the BIO process (S1606).
  • the respective conditions are individually used to determine whether to skip the BIO.
  • the present invention is not limited to determining BIO skipping using any one of the conditions. It is also within the scope of the present invention to determine whether to BIO skip by selectively combining a plurality of conditions described in this disclosure . For example, there is a method of determining BIO skip using the size condition of the current block and the texture complexity of the current block, a method of determining BIO skip using the size condition of the current block, the CVC condition and / or the BCC condition, And a method for determining whether or not to skip a BIO using at least one of the BCC conditions and the texture complexity of the current block are all included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 동영상 부호화 과정 중에서 화면 간 예측 보정을 위한 적응적인 양방향 옵티컬 플로우(bi-directional optical flow; BIO) 추정 방법을 개시하고 있으며, 구체적으로 제1 참조픽처를 참조하는 제1 움직임벡터에 의해 제1 참조블록을 생성하고, 제2 참조픽처를 참조하는 제2 움직임벡터에 의해 제2 참조블록을 생성하는 단계, 제1 참조블록과 제2 참조블록을 이용하여 현재블록의 텍스처 복잡도를 연산하는 단계, 현재블록의 예측블록을 생성하되, 텍스처 복잡도에 근거하여 선택적으로 BIO 프로세스에 따라 제1 및 제2 참조블록을 이용하여 현재블록의 예측블록을 생성하거나 또는 BIO 프로세스를 적용하지 않고 제1 및 제2 참조블록을 이용하여 현재블록의 예측블록을 생성하는 단계를 포함한다. 본 발명은 픽셀 레벨 혹은 서브 블록 레벨의 양방향 옵티컬 플로우의 복잡성 및/또는 비용을 감소시키는 효과가 있다.

Description

양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
본 발명은 영상 부호화 또는 복호화에 관한 것이다. 보다 상세하게는, 움직임 보상의 보정을 위한 양방향 옵티컬 플로우(bidrectional optical flow)와 관련된다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래 기술을 구성하는 것은 아니다.
비디오 코딩에 관한 한 압축은 공간적 및 시간적 차원에서 데이터 중복성을 활용하여 이루어진다. 공간 중복성 감소는 변환 코딩에 의해 크게 달성된다. 시간적 중복성은 예측 코딩을 통해 감소된다. 움직임 궤적을 따라 시간 상관이 최대화되는 것을 관찰하면, 움직임 보상 예측이 이러한 목적으로 사용된다. 이러한 맥락에서 움직임 추정의 주된 목적은, 장면에서 '실제' 움직임을 찾지 않는 것이 아니라, 압축 효율을 극대화하는 것이다. 즉, 움직임 벡터는 신호의 정확한 예측을 제공해야 한다. 또한, 움직임 정보는 압축된 비트스트림에서 오버헤드로서 전송되어야 하기 때문에 압축된 표현을 가능하게 해야 한다. 효율적인 움직임 추정은 비디오 코딩에서 높은 압축을 달성하는 데 중요하다.
비디오 시퀀스에서 움직임은 중요한 정보 소스이다. 움직임(motion)은 물체는 물론 카메라 움직임으로 인해서도 발생한다. 옵티컬 플로우(optical flow)로도 알려진 외관상의 움직임은 이미지 시퀀스에서 픽셀 강도(pixel intensity)의 시공간적인 변화(spatio-temporal variations)를 포착한다.
양방향 옵티컬 플로우(Bi-directional Optical Flow; BIO)는 JCTVC-C204 및 VCEG-AZ05 BIO에 개시된 움직임 추정/보상 기술로서, 옵티컬 플로우 및 일정한 움직임(steady motion)의 가정에 기초하여 샘플 레벨의 모션 조정(motion refinement)을 수행한다. 현재 논의 중인 양방향 옵티컬 플로우 추정 방법의 경우 움직임 벡터 정보의 세밀한 보정이 가능하다는 장점이 있으나 세밀한 움직임 벡터 정보 보정을 위해 전통적인 양방향 예측보다 훨씬 높은 연산 복잡도를 요하는 단점이 있다.
비특허문헌1: JCTVC-C204 (E. Alshina, et al., Bi-directional optical flow, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 3rd Meeting: Guangzhou, CN, 7-15 October, 2010)
비특허문헌2: VCEG-AZ05 (E. Alshina, et al., Known tools performance investigation for next generation video coding, ITU-T SG 16 Question 6, Video Coding Experts Group (VCEG), 52nd Meeting: 19-26 June 2015, Warsaw, Poland)
본 발명은 양방향 옵티컬 플로우(bi-directional optical flow; BIO)의 연산 복잡성을 줄이면서도 화질 열화를 감소시키는 데에 그 목적이 있다.
본 발명의 일 측면에 의하면, 제1 참조픽처를 참조하는 제1 움직임벡터에 의해 제1 참조블록을 생성하고, 제2 참조픽처를 참조하는 제2 움직임벡터에 의해 제2 참조블록을 생성하는 단계; 상기 제1 참조블록과 상기 제2 참조블록을 이용하여 현재블록의 텍스처 복잡도를 연산하는 단계; 및 상기 현재블록의 예측블록을 생성하되, 상기 텍스처 복잡도에 근거하여 선택적으로, 상기 BIO 프로세스에 따라 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하거나 또는 상기 BIO 프로세스를 적용하지 않고 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 단계를 포함하는 것을 특징으로 하는 양방향 옵티컬 플로우(Bi-directional Optical flow, BIO)를 이용한 움직임 보상 방법을 제공한다.
본 발명의 다른 측면에 의하면, 제1 참조픽처를 참조하는 제1 움직임벡터에 의해 제1 참조블록을 생성하고, 제2 참조픽처를 참조하는 제2 움직임벡터에 의해 제2 참조블록을 생성하는 참조블록 생성부; 상기 제1 참조블록과 상기 제2 참조블록을 이용하여 현재블록의 텍스처 복잡도를 연산하고, 상기 텍스처 복잡도와 임계값을 비교하여 BIO 프로세스의 스킵 여부를 결정하는 스킵 결정부; 및 상기 스킵 결정부의 결정에 근거하여 선택적으로, 상기 BIO 프로세스에 따라 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하거나 또는 상기 BIO 프로세스를 적용하지 않고 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 예측블록 생성부를 포함하는 것을 특징으로 하는 양방향 옵티컬 플로우(Bi-directional Optical flow, BIO)를 이용한 움직임 보상 장치를 제공한다.
도 1은 본 발명의 실시예에 따른 영상 부호화 장치에 대한 예시적인 블록도
도 2는 현재블록의 주변블록에 대한 예시도,
도 3은 본 발명의 실시예에 따른 영상 복호화 장치에 대한 예시적인 블록도,
도 4는 BIO의 기본적인 개념을 설명하기 위한 참조도,
도 5는 픽셀 기반의 BIO에서 현재픽셀을 중심으로 하는 마스크의 형태에 대한 예시도,
도 6은 마스크 내에서 참조블록을 벗어나는 위치의 픽셀들에 대한 밝기값 및 그래디언트를 패당 방식으로 설정하는 것을 설명하기 위한 예시도,
도 7은 서브블록 기반의 BIO에서 서브블록을 중심으로 하는 마스크의 형태에 대한 예시도,
도 8은 서브블록 기반의 BIO에서 각 픽셀 단위로 마스크를 적용하는 것을 설명하기 위한 예시도,
도 9는 서브블록 기반의 BIO에서 서브블록을 중심으로 하는 또 다른 마스크의 형태에 대한 예시도,
도 10은 본 발명의 일 실시예에 따른 BIO 프로세스를 선택적으로 적용하여 움직임 보상을 수행하는 장치의 구성을 도시한 블록도,
도 11은 본 발명의 일 실시예에 따른 현재블록의 텍스처 복잡도에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정에 대한 하나의 예시도,
도 12는 본 발명의 일 실시예에 따른 현재블록의 텍스처 복잡도에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정에 대한 다른 예시도,
도 13은 본 발명의 일 실시예에 따른 현재블록의 텍스처 복잡도에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정에 대한 또 다른 예시도,
도 14는 본 발명의 일 실시예에 따른 현재블록의 크기 및 움직임벡터의 부호화 모드에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정에 대한 예시도,
도 15는 본 발명의 일 실시예에 따른 CVC 조건 및 BCC 조건에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정을 도시한 예시도,
도 16은 본 실시예에 따른 주변 블록들의 움직임 벡터 분산값에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정을 도시한 예시도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 개시의 기술들은, 일반적으로, 양방향 옵티컬 플로우(bi-directional optical flow; BIO) 기법의 복잡성 및/또는 비용을 감소시키는 것과 관련된다. BIO는 움직임 보상 동안에 적용될 수 있다. 일반적으로, BIO는 현재블록 내 모든 픽셀 또는 서브블록 각각에 대한 움직임 벡터를 옵티컬 플로우를 통해 산정하고, 산정된 각 픽셀 또는 서브블록의 움직임 벡터 값에 근거하여 해당 픽셀 또는 서브블록의 예측값을 갱신하는 데 사용된다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다.
영상 부호화 장치는 블록 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 부호화부(150), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함한다. 영상 부호화 장치는 각 구성요소가 하드웨어 칩으로 구현될 수 있으며, 또는 소프트웨어로 구현되고 하나 이상의 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
블록 분할부(110)는 영상을 구성하는 각 픽처(picture)를 복수의 CTU(Coding Tree Unit)으로 분할한 이후에, CTU를 트리 구조(tree structure)를 이용하여 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU (coding unit)가 된다. 트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 이러한 QT 구조 및 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT) 구조를 혼용한 QTBT (QuadTree plus BinaryTree) 구조가 사용될 수 있다. 즉, CTU를 다수의 CU로 분할하기 위해 QTBT를 사용할 수 있다.
QTBT (QuadTree plus BinaryTree) 구조에서, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달 할 때까지 반복 될 수 있다. 쿼드트리의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 크지 않은 경우, BT 구조로 더 파티셔닝될 수 있다. BT에서는 복수의 분할 타입이 존재할 수 있다. 예컨대, 일부 예시에서, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. 또한, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태로는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태를 포함할 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태를 포함할 수도 있다.
블록 분할부(110)가 QTBT 구조에 의해 CTU를 분할하여 생성하는 분할 정보는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
CU는 CTU로부터의 QTBT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다.
예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다.
일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 일반적으로 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.
각각의 인터 예측된 블록에 대해, 움직임 정보 세트가 이용 가능할 수 있다. 한 세트의 움직임 정보는 순방향(forward) 및 역방향(backward) 예측 방향에 대한 움직임 정보를 포함할 수 있다. 여기서, 순방향 및 역방향 예측 방향은 양방향(bi-directional) 예측 모드의 2개의 예측 방향이고, 용어 "순방향" 및 "역방향"은 반드시 기하학적 의미를 가질 필요는 없다. 대신에, 이들은 일반적으로 참조픽처가 현재 픽처 전에("역방향") 또는 후에("순방향")에 표시될지 여부에 대응한다. 일부 예에서, "순방향" 및 "역방향" 예측 방향은 현재 픽처의 참조픽처 리스트 0(RefPicList0) 및 참조픽처 리스트 1(RefPicList1)에 대응할 수 있다.
각 예측 방향에 대해, 움직임 정보는 참조 인덱스 및 움직임 벡터를 포함한다. 참조 인덱스는 현재 참조픽처 리스트 (RefPicList0 또는 RefPicList1) 내의 참조픽처를 식별하는데 사용될 수 있다. 움직임 벡터는 수평(x) 및 수직(y) 성분을 갖는다. 일반적으로, 수평 성분은 참조 블록의 x 좌표를 위치 시키는데 필요한, 현재 픽처에서의 현재블록의 위치에 상대적인 참조픽처 내의 수평 변위(horizontal displacement)를 나타낸다. 수직 성분은 참조 블록의 y 좌표를 위치 시키는데 필요한, 현재블록의 위치에 상대적인 참조픽처 내의 수직 변위(vertical displacement)를 나타낸다.
인터 예측부(124)는 움직임 보상 과정을 통해 현재블록에 대한 예측블록을 생성한다. 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
한편, 양방향 예측의 경우, 인터 예측부(124)는 참조픽처 리스트 0 및 참조픽처 리스트 1로부터 각각 제1 참조픽처 및 제2 참조픽처를 선택하고, 각 참조픽처 내에서 현재블록과 유사한 블록을 탐색하여 제1 참조블록과 제2 참조블록을 생성한다. 그리고, 제1 참조블록과 제2 참조블록을 평균 또는 가중 평균하여 현재블록에 대한 예측블록을 생성한다. 그리고 현재블록을 예측하기 위해 사용한 두 개의 참조픽처에 대한 정보 및 두 개의 움직임벡터에 대한 정보를 포함하는 움직임 정보를 부호화부(150)로 전달한다. 여기서, 두 개의 움직임벡터는 현재픽처 내에서 현재블록의 위치와 제1 참조픽처 내에서 제1 참조블록의 위치 간의 변위에 해당하는 제1 움직임벡터(즉, 제1 참조픽처를 참조하는 움직임벡터)와 현재픽처 내에서 현재블록의 위치와 제2 참조픽처 내에서 제2 참조블록의 위치 간의 변위에 해당하는 제2 움직임벡터(즉, 제2 참조픽처를 참조하는 움직임벡터)를 의미한다.
또한, 인터 예측부(124)는 양방향 예측을 이용하여 현재블록의 예측블록을 생성하기 위해 본 개시의 양방향 옵티컬 플로우(bi-directional optical flow; BIO) 프로세스를 수행할 수도 있다. 다시 말해, 인터 예측부(124)는 현재블록에 대한 양방향의 움직임 벡터들을 결정한 후에, 영상 픽셀 단위 혹은 서브 블록 단위로 BIO 프로세스에 따른 움직인 보상을 사용하여 현재블록에 대한 예측 블록을 생성할 수 있다. 다른 예들에서, 부호화 장치의 하나 이상의 다른 유닛들이 추가적으로 본 개시의 BIO 프로세스를 수행하는 데 관여할 수도 있다. 또한, BIO 프로세스는 부호화 장치와 복호화 장치가 서로 공유하는 기 복호화된 정보를 이용한 명시적인 방정식을 적용하여 수행되므로, BIO 프로세스를 위한 추가적인 정보의 시그널링은 요구되지 않는다.
양방향 예측을 이용한 움직임 보상시에 BIO 프로세스를 적용할지 여부는 다양한 방법으로 결정될 수 있다. BIO 프로세스에 대한 상세 및 움직임 보상 과정에서 BIO 프로세스를 적용할지 여부에 대한 상세는 도 4 이하의 도면들을 참조하여 후술한다.
움직임 정보를 부호화하는 데에 소요되는 비트량을 최소화하기 위해 다양한 방법이 사용될 수 있다.
예컨대, 현재블록의 참조픽처와 움직임벡터가 주변블록의 참조픽처 및 움직임벡터와 동일한 경우에는 그 주변블록을 식별할 수 있는 정보를 부호화함으로써, 현재블록의 움직임 정보를 복호화 장치로 전달할 수 있다. 이러한 방법을 '머지 모드 (merge mode)'라 한다.
머지 모드에서, 인터 예측부(124)는 현재블록의 주변블록들로부터 기 결정된 개수의 머지 후보블록(이하, '머지 후보'라 함)들을 선택한다.
머지 후보를 유도하기 위한 주변블록으로는, 도 2에 도시된 바와 같이, 현재 픽처 내에서 현재블록에 인접한 좌측블록(L), 상단블록(A), 우상단블록(AR), 좌하단블록(BL), 좌상단블록(AL) 중에서 전부 또는 일부가 사용될 수 있다. 또한, 현재블록이 위치한 현재 픽처가 아닌 참조픽처(현재블록을 예측하기 위해 사용된 참조픽처와 동일할 수도 있고 다를 수도 있음) 내에 위치한 블록이 머지 후보로서 사용될 수도 있다. 예컨대, 참조픽처 내에서 현재블록과 동일 위치에 있는 블록(co-located block) 또는 그 동일 위치의 블록에 인접한 블록들이 머지 후보로서 추가로 더 사용될 수 있다.
인터 예측부(124)는 이러한 주변블록들을 이용하여 기 결정된 개수의 머지 후보를 포함하는 머지 리스트를 구성한다. 머지 리스트에 포함된 머지 후보들 중에서 현재블록의 움직임정보로서 사용할 머지 후보를 선택하고 선택된 후보를 식별하기 위한 머지 인덱스 정보를 생성한다. 생성된 머지 인덱스 정보는 부호화부(150)에 의해 부호화되어 복호화 장치로 전달된다.
움직임 정보를 부호화하는 또 다른 방법은 차분 움직임벡터를 부호화하는 것이다.
이 방법에서, 인터 예측부(124)는 현재블록의 주변블록들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터 후보들을 유도한다. 예측 움직임벡터 후보들을 유도하기 위해 사용되는 주변블록으로는, 도 2에 도시된 현재 픽처 내에서 현재블록에 인접한 좌측블록(L), 상단블록(A), 우상단블록(AR), 좌하단블록(BL), 좌상단블록(AL) 중에서 전부 또는 일부가 사용될 수 있다. 또한, 현재블록이 위치한 현재 픽처가 아닌 참조픽처(현재블록을 예측하기 위해 사용된 참조픽처와 동일할 수도 있고 다를 수도 있음) 내에 위치한 블록이 예측 움직임벡터 후보들을 유도하기 위해 사용되는 주변블록으로서 사용될 수도 있다. 예컨대, 참조픽처 내에서 현재블록과 동일 위치에 있는 블록(co-located block) 또는 그 동일 위치의 블록에 인접한 블록들이 사용될 수 있다.
인터 예측부(124)는 이 주변블록들의 움직임벡터를 이용하여 예측 움직임벡터 후보들을 유도하고, 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정한다. 그리고, 현재블록의 움직임벡터로부터 예측 움직임벡터를 감산하여 차분 움직임벡터를 산출한다.
예측 움직임벡터는 예측 움직임벡터 후보들에 기 정의된 함수(예컨대, 중앙값, 평균값 연산 등)를 적용하여 구할 수 있다. 이 경우, 영상 복호화 장치도 기 정의된 함수를 알고 있다. 또한, 예측 움직임벡터 후보를 유도하기 위해 사용하는 주변블록은 이미 부호화 및 복호화가 완료된 블록이므로 영상 복호화 장치도 그 주변블록의 움직임벡터도 이미 알고 있다. 그러므로 영상 부호화 장치는 예측 움직임벡터 후보를 식별하기 위한 정보를 부호화할 필요가 없다. 따라서, 이 경우에는 차분 움직임벡터에 대한 정보와 현재블록을 예측하기 위해 사용한 참조픽처에 대한 정보가 부호화된다.
한편, 예측 움직임벡터는 예측 움직임벡터 후보들 중 어느 하나를 선택하는 방식으로 결정될 수도 있다. 이 경우에는 차분 움직임벡터에 대한 정보 및 현재블록을 예측하기 위해 사용한 참조픽처에 대한 정보와 함께, 선택된 예측 움직임벡터 후보를 식별하기 위한 정보가 추가로 부호화된다.
인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재하며, 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다. 특히, 인트라 예측부(122)는 현재블록을 부호화하는데 사용할 인트라 예측 모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측 모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측 모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측 모드를 선택할 수도 있다.
인트라 예측부(122)는 복수의 인트라 예측 모드 중에서 하나의 인트라 예측 모드를 선택하고, 선택된 인트라 예측 모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측 모드에 대한 정보는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차 블록을 생성한다.
변환부(140)는 공간 영역의 픽셀 값들을 가지는 잔차 블록 내의 잔차 신호를 주파수 도메인의 변환 계수로 변환한다. 변환부(140)는 잔차 블록 내의 잔차 신호들을 현재블록의 크기를 변환 단위로 사용하여 변환할 수 있으며, 또는 잔차 블록을 더 작은 복수의 서브블록을 분할하고 서브블록 크기의 변환 단위로 잔차 신호들을 변환할 수도 있다. 잔차 블록을 더 작은 서브블록으로 분할하는 방법은 다양하게 존재할 수 있다. 예컨대, 기정의된 동일한 크기의 서브블록으로 분할할 수도 있으며, 또는 잔차 블록을 루트 노드로 하는 QT(quadtree) 방식의 분할을 사용할 수도 있다.
양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 부호화부(150)로 출력한다.
부호화부(150)는 양자화된 변환 계수들을 CABAC 등의 부호화 방식을 사용하여 부호화하여 비트스트림을 생성한다. 또한, 부호화부(150)는 블록 분할과 관련된 CTU size, MinQTSize, MaxBTSize, MaxBTDepth, MinBTSize, QT 분할 플래그, BT 분할 플래그, 분할 타입 등의 정보를 부호화하여, 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다.
부호화부(150)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보 또는 인터 예측정보를 부호화한다.
현재블록이 인트라 예측된 경우에는 인트라 예측정보로서 인트라 예측 모드에 대한 신택스 요소(syntax element)를 부호화한다. 현재블록이 인터 예측된 경우, 부호화부(150)는 인터 예측정보에 대한 신택스 요소를 부호화한다. 인터 예측정보에 대한 신택스 요소는 다음을 포함한다.
(1) 현재블록의 움직임정보가 머지 모드로 부호화되는지 아니면 차분 움직임벡터를 부호화하는 모드로 부호화되는지 여부를 지시하는 모드 정보
(2) 움직임정보에 대한 신택스 요소
움직임정보가 머지 모드에 의해 부호화되는 경우, 부호화부(150)는 머지 후보들 중 어느 후보가 현재블록의 움직임정보를 추출하기 위한 후보로서 선택되는지를 지시하는 머지 인덱스 정보를 움직임정보에 대한 신택스 요소로 부호화한다.
반면, 움직임정보가 차분 움직임벡터를 부호화하는 모드에 의해 부호화되는 경우, 차분 움직임벡터에 대한 정보 및 참조픽처에 대한 정보를 움직임정보에 대한 신택스 요소로 부호화한다. 만약, 예측 움직임벡터가 복수의 예측 움직임벡터 후보들 중 어느 하나의 후보를 선택하는 방식으로 결정되는 경우에는, 움직임정보에 대한 신택스 요소는 그 선택된 후보를 식별하기 위한 예측 움직임벡터 식별 정보를 추가로 더 포함한다.
역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.
가산부(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.
필터부(180)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 디블록킹 필터링하고 메모리(190)에 저장한다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조픽처로 사용된다.
이하에서는 영상 복호화 장치에 대해 설명한다.
도 3은 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.
영상 복호화 장치는 복호화부(310), 역양자화부(320), 역변환부(330), 예측부(340), 가산기(350), 필터부(360) 및 메모리(370)를 포함한다. 도 2의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치는 각 구성요소가 하드웨어 칩으로 구현될 수 있으며, 또는 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
복호화부(310)는 영상 부호화 장치로부터 수신한 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출하여 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측 정보와 잔차신호에 대한 정보 등을 추출한다.
복호화부(310)는 SPS (Sequence Parameter Set) 또는 PPS (Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고 CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할 정보를 추출함으로써 CTU를 트리 구조를 이용하여 분할한다. 예컨대, QTBT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT의 분할과 관련된 제2 플래그(BT_split_flag) 및 분할 타입 정보를 추출하여 해당 리프 노드를 BT 구조로 분할한다.
한편, 복호화부(310)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다.
예측 타입 정보가 인트라 예측을 지시하는 경우, 복호화부(310)는 현재블록의 인트라 예측정보(인트라 예측 모드)에 대한 신택스 요소를 추출한다.
예측 타입 정보가 인터 예측을 지시하는 경우, 복호화부(310)는 인터 예측정보에 대한 신택스 요소를 추출한다. 먼저, 현재블록의 움직임정보가 복수의 부호화 모드 중 어느 모드에 의해 부호화되었는지 여부를 지시하는 모드 정보를 추출한다. 여기서, 복수의 부호화 모드는 머지 모드 및 차분 움직임벡터 부호화 모드를 포함한다. 모드 정보가 머지 모드를 지시하는 경우, 복호화부(310)는 머지 후보들 중 어느 후보로부터 현재블록의 움직임벡터를 유도할지 여부를 지시하는 머지 인덱스 정보를 움직임정보에 대한 신택스 요소로서 추출한다. 반면, 모드 정보가 차분 움직임벡터 부호화 모드를 지시하는 경우, 복호화부(310)는 차분 움직임벡터에 대한 정보 및 현재블록의 움직임벡터가 참조하는 참조픽처에 대한 정보를 움직임벡터에 대한 신택스 요소로서 추출한다. 한편, 영상 부호화 장치가 복수의 예측 움직임벡터 후보들 중에서 어느 하나의 후보를 현재블록의 예측 움직임벡터로 사용한 경우에는 예측 움직임벡터 식별정보가 비트스트림에 포함된다. 따라서 이 경우에는, 차분 움직임벡터에 대한 정보와 참조픽처에 대한 정보뿐만 아니라 예측 움직임벡터 식별정보도 움직임벡터에 대한 신택스 요소로서 추출한다.
한편, 복호화부(310)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.
역양자화부(320)는 양자화된 변환계수들을 역양자화하고 역변환부(330)는 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 잔차블록을 생성한다.
예측부(340)는 인트라 예측부(342) 및 인터 예측부(344)를 포함한다. 인트라 예측부(342)는 현재블록의 예측 타입인 인트라 예측일 때 활성화되고, 인터 예측부(344)는 현재블록의 예측 타입인 인트라 예측일 때 활성화된다.
인트라 예측부(342)는 복호화부(310)로부터 추출된 인트라 예측 모드에 대한 신택스 요소로부터 복수의 인트라 예측 모드 중 현재블록의 인트라 예측 모드를 결정하고, 인트라 예측 모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다.
인터 예측부(344)는 복호화부(310)로부터 추출된 인트라 예측 모드에 대한 신택스 요소를 이용하여 현재블록의 움직임정보를 결정하고, 결정된 움직임정보를 이용하여 현재블록을 예측한다.
먼저, 인터 예측부(344)는 복호화부(310)로부터 추출된 인터 예측에서의 모드 정보를 확인한다. 모드 정보가 머지 모드를 지시하는 경우, 인터 예측부(344)는 현재블록의 주변블록을 이용하여 기 결정된 개수의 머지 후보를 포함하는 머지 리스트를 구성한다. 인터 예측부(344)가 머지 리스트를 구성하는 방법은 영상 부호화 장치의 인터 예측부(124)와 동일하다. 그리고, 복호화부(310)으로부터 전달된 머지 인덱스 정보를 이용하여 머지 리스트 내의 머지 후보들 중에서 하나의 머지 후보를 선택한다. 그리고 선택된 머지 후보의 움직임정보, 즉, 머지 후보의 움직임벡터와 참조픽처를 현재블록의 움직임벡터와 참조픽처로 설정한다.
반면, 모드 정보가 차분 움직임벡터 부호화 모드를 지시하는 경우, 인터 예측부(344)는 현재블록의 주변블록들의 움직임벡터를 이용하여 예측 움직임벡터 후보들을 유도하고, 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정한다. 인터 예측부(344)가 예측 움직임벡터 후보들을 유도하는 방법은 영상 부호화 장치의 인터 예측부(124)와 동일하다. 만약, 영상 부호화 장치가 복수의 예측 움직임벡터 후보들 중에서 어느 하나의 후보를 현재블록의 예측 움직임벡터로 사용한 경우에는 움직임정보에 대한 신택스 요소는 예측 움직임벡터 식별정보를 포함한다. 따라서, 이 경우에, 인터 예측부(344)는 예측 움직임벡터 후보들 중 예측 움직임벡터 식별정보에 의해 지시되는 후보를 예측 움직임벡터로 선택할 수 있다. 그러나, 영상 부호화 장치가 복수의 예측 움직임벡터 후보들에 기 정의된 함수를 사용하여 예측 움직임벡터를 결정한 경우에는, 인터 예측부는 영상 부호화 장치와 동일한 함수를 적용하여 예측 움직임벡터를 결정할 수도 있다. 현재블록의 예측 움직임벡터가 결정되면, 인터 예측부(344)는 예측 움직임벡터와 복호화부(310)로부터 전달된 차분 움직임벡터를 가산하여 현재블록의 움직임벡터를 결정한다. 그리고 복호화부(310)로부터 전달된 참조픽처에 대한 정보를 이용하여 현재블록의 움직임벡터가 참조하는 참조픽처를 결정한다.
머지 모드 또는 차분 움직임벡터 부호화 모드에서 현재블록의 움직임벡터와 참조픽처가 결정되면, 인터 예측부(344)는 참조픽처 내에서 움직임벡터가 지시하는 위치의 블록을 이용하여 현재블록의 예측블록을 생성한다.
한편, 양방향 예측의 경우, 인터 예측부(344)는 인터 예측정보에 대한 신택스 요소를 이용하여 참조픽처 리스트 0 및 참조픽처 리스트 1로부터 각각 제1 참조픽처 및 제2 참조픽처를 선택하고, 각 참조픽처를 참조하는 제1 움직임벡터와 제2 움직임벡터를 결정한다. 그리고, 제1 참조픽처를 참조하는 제1 움직임벡터에 의해 제1 참조블록을 생성하고, 제2 참조픽처를 참조하는 제2 움직임벡터에 의해 제2 참조블록을 생성한다. 현재블록에 대한 예측블록은 제1 참조블록과 제2 참조블록을 평균 또는 가중 평균하여 생성한다.
또한, 인터 예측부(344)는 양방향 예측을 이용하여 현재블록의 예측블록을 생성하기 위해 본 개시의 양방향 옵티컬 플로우(bi-directional optical flow; BIO) 프로세스를 수행할 수도 있다. 다시 말해, 인터 예측부(344)는 현재블록에 대한 양방향의 움직임 벡터들을 결정한 후에, 픽셀 단위 혹은 서브 블록 단위로 BIO 프로세스에 따른 움직인 보상을 사용하여 현재블록에 대한 예측 블록을 생성할 수 있다.
양방향 예측을 이용한 움직임 보상시에 BIO 프로세스를 적용할지 여부는 다양한 방법으로 결정될 수 있다. BIO 프로세스에 대한 상세 및 움직임 보상 과정에서 BIO 프로세스를 적용할지 여부에 대한 상세는 도 4 이하의 도면들을 참조하여 후술한다.
가산기(350)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.
필터부(360)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)를 제거하기 위해 복원된 블록 간의 경계를 디블록킹 필터링하고 메모리(370)에 저장한다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 복호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조픽처로 사용된다.
본 개시는 움직임 보상에서의 양방향 옵티컬 플로우(bi-directional optical flow, BIO)의 적용과 관련된다. 부호화 장치는 인터 예측 과정에서 코딩 블록(CU: coding unit) 단위의 움직임 추정 및 보상을 수행한 후, 그 결과물인 움직임 벡터(MV) 값을 복호화 장치 측에 전송하게 되고, 부호화 장치 및 복호화 장치는 CU 단위의 MV 값을 기반으로 BIO를 이용하여 픽셀 단위로 혹은 CU 보다 작은 서브 블록(즉, sub-CU) 단위로 MV 값을 추가적으로 보정할 수 있다. 즉, BIO는 n×n 크기의 블록에서부터 1×1 크기의 블록(즉, 픽셀) 단위로 코딩 블록(CU)의 움직임을 각 블록의 크기를 기준으로 정밀하게 움직임을 보상할 수 있다. 또한, BIO 프로세스는 부호화 장치와 복호화 장치가 서로 공유하는 기 복호화된 정보를 이용한 명시적인 방정식을 적용하여 수행되므로, 부호화 장치로부터 복호화 장치로 BIO 프로세스를 위한 추가적인 정보의 시그널링은 요구되지 않는다.
도 4는 BIO의 기본적인 개념을 설명하기 위한 참조도이다.
영상 부호화 및 복호화 시 이용하는 BIO는 움직임 벡터 정보가 양방향 (bi-prediction) 정보여야 하고, 영상을 구성하는 픽셀이 일정한 속도로 이동하고 픽셀 값의 변화가 거의 없다는 가정을 기반으로 한다.
우선, 현재블록에 대한 (통상의) 양방향 움직임 예측에 의하여 참조픽처들(Ref0과 Ref1)에서 현재 픽처의 부호화되는 현재블록과 가장 유사한 대응 영역들(즉, 참조 블록들)을 가리키는 양방향 움직임 벡터들(MV0,MV1)이 결정되었다고 가정하자. 해당 두 개의 양방향 움직임 벡터들은 현재블록의 움직임을 나타내는 값이다. 즉, 양방향 움직임 벡터들은 현재블록을 하나의 단위로 설정하고, 해당 단위에 대한 움직임을 전체적으로 추정한 값이다.
도 4의 예시에서, 현재블록 내 픽셀 P와 대응되는 것으로 양방향 움직임 벡터(MV0)가 가리키는 참조픽처(Ref0)내 픽셀은 P0이며, 현재블록 내 픽셀 P와 대응되는 것으로 양방향 움직임 벡터(MV1)가 가리키는 참조픽처(Ref1)내 픽셀은 P1이다. 그리고, 도 4에서 픽셀 P에 대한 움직임은 현재블록의 전체적인 움직임과는 조금 상이하다라고 가정하자. 예컨대, 도 4의 Ref0내 픽셀 A에 위치하는 물체가 현재 픽처의 현재블록 내 픽셀 P를 지나 Ref1 내 픽셀 B로 움직였다면, 픽셀 A 및 픽셀 B는 상당히 유사한 값을 가지게 된다. 또한, 이 경우, 현재블록 내 픽셀 P와 가장 유사한 Ref0 내 지점은 양방향 움직임 벡터(MV0)가 가리키는 P0이 아니라, P0를 소정의 변위 벡터(v x τ 0 , v y τ 0)만큼 이동시킨 A이며, 현재블록 내 픽셀 P와 가장 유사한 Ref1 내 지점은 양방향 움직임 벡터(MV1)가 가리키는 P1이 아니라, P1를 소정의 변위 벡터(-v x τ 1 , -v y τ 1)만큼 이동시킨 B이다. τ 0τ 1은 현재 픽처를 기준으로 각각 Ref0와 Ref1에 대한 시간축 거리를 의미하며, POC (Picture Order Count)를 기반으로 계산된다. 이하에서는, 편의상, (v x ,v y)를 “옵티컬 플로우(optical flow)” 또는 “BIO 움직임벡터”라고 지칭한다.
그러므로, 현재 픽처 내 현재블록의 픽셀(P)값을 예측함에 있어서, 두 참조 픽셀(A, B)의 값을 이용하면, 양방향 움직임 벡터(MV0, MV1)가 가리키는 참조 픽셀(P0, P1)을 이용하는 것보다 좀 더 정확한 예측이 가능하다. 위와 같이, 옵티컬 플로우 (v x , v y)에 의해 특정되는 현재블록 내 픽셀 단위의 움직임을 고려하여 현재블록의 한 픽셀을 예측하는 데 사용되는 참조 픽셀을 변경하는 개념은 현재블록 내 서브블록들 단위의 움직임을 고려하는 것으로 확장될 수 있다.
이하에서는, BIO 기법에 따라, 현재블록 내 픽셀에 대한 예측값을 생성하는 이론적인 방법을 설명하기로 한다. 설명의 편의를 위해, BIO 기반의 양방향 움직임 보상을 픽셀 단위로 수행하는 것을 전제로 한다.
현재블록에 대한 (통상의) 블록 단위 양방향 움직임 예측에 의하여 참조픽처(Ref0과 Ref1)에서 현재 픽처의 부호화되는 현재블록과 가장 유사한 대응 영역들(즉, 참조 블록들)을 가리키는 양방향 움직임 벡터들(MV0,MV1)이 결정되었다고 가정한다. 복호화 장치는 비트스트림에 포함된 움직임 벡터 정보로부터 양방향 움직임 벡터들(MV0,MV1)를 결정할 수 있다. 또한, 현재블록 내 픽셀 (i, j)와 대응되는 것으로 움직임 벡터들(MV0)가 가리키는 참조픽처(Ref0)내 픽셀의 밝기 값(luminance value)을 I (0)(i, j)라고 정의하고, 현재블록 내 픽셀 (i, j)와 대응되는 것으로 움직임 벡터들(MV1)가 가리키는 참조픽처(Ref1)내 픽셀의 밝기값을 I (1)(i,j)라고 정의한다.
BIO 움직임 벡터 (v x ,v y)가 현재블록 내 픽셀에 대응되는 것으로 가리키는 참조픽처 Ref0내의 픽셀 A의 밝기값은 I (0)(i + v x τ 0, j + v y τ 0)로 정의될 수 있으며, 참조픽처 Ref1내의 픽셀 B의 밝기값은 I (1)(i - v x τ 1, j - v y τ 1)로 정의될 수 있다. 여기서, 테일러 급수의 1차 항만을 사용하여 선형 근사(linear approximation)를 수행하면, A와 B를 수학식 1과 같이 표현할 수 있다.
Figure PCTKR2018009940-appb-M000001
여기서, I x (k)I y (k) (k = 0, 1)는 Ref0 및 Ref1의 (i, j) 위치에서의 수평 및 수직 방향의 그래디언트 값을 나타낸다. τ 0τ 1은 현재 픽처를 기준으로 각각 Ref0와 Ref1에 대한 시간축 거리를 의미하며, POC (Picture Order Count)를 기반으로 계산된다. 수식으로 τ 0 = POC(current) - POC(Ref0), τ 1 = POC(Ref1) - POC(current) 이다.
블록 내 각 픽셀의 양방향 옵티컬 플로우 (v x, v y)는 픽셀 A와 픽셀 B의 차이값으로 정의되는 Δ를 최소화하는 해로 결정한다. 수학식 1에서 유도된 A와 B의 선형 근사를 이용하여 Δ를 수학식 2로 정의할 수 있다.
Figure PCTKR2018009940-appb-M000002
간략하게 표기하기 위해, 위 수학식 2의 각 항에서 픽셀의 위치 (i, j)는 생략되었다.
보다 강건한(robust) 옵티컬 플로우 추정을 위해 움직임이 지역적으로 주변 픽셀들과 일관성이 있다는 가정을 도입한다. 현재 예측하고자 하는 픽셀 (i, j)에 대한 BIO 움직임 벡터는 현재 예측하고자 하는 픽셀 (i, j)를 중심으로 하는 (2M+1)x(2M+1) 크기의 마스크 Ω 내 존재하는 모든 픽셀 (i', j')에 대한 수학식 2의 차이값 Δ들을 고려한다. 즉, 현재 픽셀 (i, j)에 대한 옵티컬 플로우는 다음의 수학식 3과 같이, 마스크 Ω 내의 각 픽셀에 대하여 획득된 차이값 Δ[i',j']의 제곱합인 목적함수 Φ(v x, v y)를 최소로 하는 벡터로 결정될 수 있다.
Figure PCTKR2018009940-appb-M000003
여기서, (i', j')은 마스크 Ω 내 픽셀들의 위치를 의미한다. 예컨대, M = 2인 경우, 마스크의 형태는 도 5와 같다. 마스크의 중심에 위치한 빗 금친 픽셀은 현재 픽셀 (i, j)이며, 마스크 Ω 내 픽셀들은 (i', j') 으로 표현된다.
블록 내 각 픽셀 (i, j)의 옵티컬 플로우 (v x, v y)를 구하기 위해 목적함수 Φ(v x, v y)를 최소화하는 해를 해석적 방법(analytic method)으로 계산한다. 목적함수 Φ(v x, v y)를 각각 v xv y로 편미분하여 ∂Φ(v x, v y)/∂v x = 0 과 ∂Φ(v x, v y)/∂v y = 0을 유도하고 두 방정식을 연립하면 수학식 4를 얻을 수 있다.
Figure PCTKR2018009940-appb-M000004
수학식 4의 s 1, s 2, s 3, s 4, s 5, s 6는 수학식 5와 같다.
Figure PCTKR2018009940-appb-M000005
여기서, s 2 = s 4이므로, s 4s 2로 대체하여 사용한다.
수학식 4의 연립방정식을 풀어서 v xv y를 구할 수 있다. 일례로, Cramer's rule을 사용하여 v xv y를 유도하면 수학식 6과 같다.
Figure PCTKR2018009940-appb-M000006
또 다른 일례로, 수학식 4의 첫 번째 방정식에 v y = 0을 대입하여 v x의 근사값을 계산하고, 두 번째 방정식에 먼저 계산된 v x를 대입하여 v y의 근사값을 계산하는 단순화된 방법을 사용할 수도 있으며, 이 경우 v xv y는 수학식 7과 같이 표현된다.
Figure PCTKR2018009940-appb-M000007
여기서, rm은 0 또는 매우 낮은 값으로 나눗셈이 수행되는 것을 피하기 위해 도입한 정규화 파라미터이다. 수식(7)에서 s 1 + r > m이 만족되지 않을 경우 v x(i, j) = 0으로 설정하며, s 5 + r > m이 만족되지 않을 경우 v y(i, j) = 0으로 설정한다.
또 다른 일례로, 수학식 4의 첫 번째 방정식에 v y = 0을 대입하여 v x의 근사값을 계산하고, 두 번째 방정식에 v x = 0을 대입하여 v y의 근사값을 계산하는 방법을 사용할 수 있다. 이 방법을 사용하면 v xv y를 각각 독립적으로 계산할 수 있으며, v xv y는 수학식 8과 같이 표현된다.
Figure PCTKR2018009940-appb-M000008
또 다른 일례로, 수학식 4의 첫 번째 방정식에 v y = 0을 대입하여 v x의 근사값을 계산하고, 두 번째 방정식에 v x의 근사값을 대입하여 구한 v y의 첫 번째 근사값과 v x = 0을 대입하여 구한 v y의 두 번째 근사값의 평균값으로 v y를 계산하는 방법을 사용할 수 있다. 해당 방법을 사용하여 v xv y를 구하면 수학식 9와 같다.
Figure PCTKR2018009940-appb-M000009
수학식 7 내지 9에서 사용된 정규화 파라미터 r과 m은 수학식 10과 같이 정의될 수 있다.
Figure PCTKR2018009940-appb-M000010
여기서 d는 영상의 픽셀들의 비트 뎁스(bit depth)를 의미한다.
블록 내 각 픽셀에 대해 수학식 6 내지 수학식 9 등의 방법을 사용하여 계산함으로써 블록 내 각 픽셀들의 옵티컬 플로우 v xv y를 획득한다.
현재 픽셀의 옵티컬 플로우 (v x , v y)가 결정되면, BIO에 따른 현재 픽셀 (i, j)에 대한 양방향 예측값(pred BIO)은 수학식 11에 의해 계산될 수 있다.
Figure PCTKR2018009940-appb-M000011
수학식 11에서, (I (0)+I (1))/2는 통상적인 블록 단위 양방향 움직임 보상이므로, 나머지 항들은 BIO 오프셋(offset)으로 지칭될 수 있다.
한편, 통상적인 양방향 움직임 보상에서는 참조블록 내의 픽셀들을 이용하여 현재블록의 예측블록을 생성한다. 반면, 마스크의 사용은 참조블록 내의 픽셀들 이외의 다른 픽셀들에 대한 접근을 허용해야 한다. 예컨대, 도 6(a)에서와 같은 참조블록의 최좌측상단 위치((0,0) 위치)의 픽셀에 대한 마스크는 참조블록 외부의 위치에 위치하는 픽셀들을 포함한다. 통상적인 양방향 움직임 보상에서와 동일한 메모리 접근을 유지하기 위해 그리고 BIO의 연산 복잡도를 줄이기 위해, 마스크 내에서 참조블록을 벗어나는 픽셀의 I (k) , I x (k) , I y (k) 는 참조블록 내에서 가장 가까운 픽셀의 해당 값들로 패딩하여 사용할 수 있다. 예컨대, 도 6(b)에 도시된 바와 같이, 마스크의 크기가 5x5인 경우, 참조블록 상단에 위치한 외부 픽셀들에 대한 I (k) , I x (k) , I y (k) 은 참조블록 내의 최상단 행(row)의 픽셀들의 I (k) , I x (k) , I y (k) 로 패딩할 수 있고, 참조블록 좌측에 위치한 외부 픽셀들에 대한 I (k) , I x (k) , I y (k) 은 최좌측 열(column)의 I (k) , I x (k) , I y (k) 로 패딩할 수도 있다.
이상에서는 현재블록 내의 각 픽셀 단위로 수행되는 BIO 프로세스를 설명하였다. 그러나, 연산의 복잡도를 줄이기 위해 BIO 프로세스는 블록 기반, 예컨대, 4x4 단위로 수행될 수도 있다. 현재블록 내의 서브블록 단위로 수행되는 BIO는 수식(6) 내지 수식(9) 등의 방법을 사용하여 현재블록 내 각 서브블록들의 단위로 옵티컬 플로우 v xv y를 획득할 수 있다. 서브블록 기반의 BIO는 픽셀 단위의 BIO와 그 원리가 동일하며 단지 마스크의 범위만 다르다.
일례로서, 마스크 Ω의 범위가 서브블록의 범위를 포함하도록 확장될 수 있다. 서브블록의 크기가 N×N일 때, 마스크 Ω는 (2M+N)×(2M+N) 크기를 갖는다. 예를 들어 M = 2이고 서브블록의 크기가 4×4인 경우, 도 7과 같은 마스크 형태를 가진다. 서브블록을 포함하는 마스크 Ω 내의 모든 픽셀에 대해 수학식 2의 Δ들을 연산하여 서브블록에 대한 수학식 3의 목적함수를 구하고 수학식 4의 내지 9를 적용하여 서브블록 단위의 옵티컬 플로우 (v x , v y)를 계산할 수 있다.
다른 일례로서, 서브블록 내의 모든 픽셀에 대해 각 픽셀 단위로 마스크를 적용하여 수학식 2의 Δ들을 연산하고 연산된 Δ들을 제곱합하여 서브블록에 대한 수학식 3의 목적함수를 구할 수 있다. 그리고, 그 목적함수를 최소화하는 방식으로 그 서브블록에 대한 옵티컬 플로우 (v x , v y)를 계산할 수 있다. 예컨대, 도 8을 참조하면, 현재블록 내 4x4 서브블록(820)의 (0,0) 위치의 픽셀에 대해 5x5 크기의 마스크(810a)를 적용하여 마스크(810a) 내의 모든 픽셀에 대해 수학식 2의 Δ들을 연산한다. 그리고, (0,1) 위치의 픽셀에 대해 5x5 크기의 마스크(810b)를 적용하여 마스크(810b) 내의 모든 픽셀에 대해 수학식 2의 Δ들을 연산한다. 이러한 과정을 통해 서브블록 내의 모든 픽셀들에 대해 계산된 Δ들을 제곱합하여 수학식 3의 목적함수를 구할 수 있다. 그리고 그 목적함수를 최소로 하는 옵티컬 플로우 (v x , v y)를 계산할 수 있다. 본 예시에서의 목적함수는 수학식 12와 같이 표현된다.
Figure PCTKR2018009940-appb-M000012
여기서, bk는 현재블록 내의 k 번째 서브블록을 나타내고, Ω(x, y)는 k 번째 서브블록 내의 (x, y) 좌표를 가지는 픽셀에 대한 마스크를 나타낸다. 그리고, 옵티컬 플로우 (v x , v y) 연산을 위해 사용되는 s 1 내지 s 6는 수학식 13과 같이 수정된다.
Figure PCTKR2018009940-appb-M000013
위 수학식에서
Figure PCTKR2018009940-appb-I000001
Figure PCTKR2018009940-appb-I000002
는 각각 I x (k) , Iy (k), 즉, 수평방향 그래디언트 및 수직방향 그래디언트를 나타낸다.
또 다른 일례로서, 도 7과 같이 서브블록 단위의 마스크를 사용하되 마스크의 각 위치마다 가중치를 적용하는 방법을 사용할 수도 있다. 가중치는 서브블록의 중심으로 갈수록 더 높은 가중치가 적용된다. 예를 들어, 도 8을 참조하면, 서브블록 내의 각 픽셀 단위로 마스크를 적용하는 경우 동일한 위치에 대한 Δ들이 중복 계산될 수 있다. 서브 블록(820)의 (0,0) 위치의 픽셀에 중심을 둔 마스크 (810a) 내에 위치하는 픽셀들 대부분은, 서브 블록(820)의 (1,0) 위치의 픽셀에 중심을 둔 마스크 (810b) 내에도 위치한다. 따라서, Δ들이 중복하여 계산될 수 있다. 중복되는 Δ를 반복적으로 계산하는 대신 마스크 내의 각 위치에 대해 중복되는 횟수에 따른 가중치를 부여할 수 있다. 예컨대, M = 2이고 서브블록의 크기가 4×4인 경우, 도 9와 같이 가중치가 부여된 마스크 형태를 가질 수 있다. 이와 같이 방식을 취하면, 수학식 12 및 13의 연산을 단순화하여 연산 복잡도를 줄일 수 있다.
이상에서 설명한 픽셀 기반 또는 서브블록 기반의 BIO는 많은 연산량을 필요로 한다. 따라서, 영상 부호화 또는 복호화에서 BIO에 따른 연산량을 줄이기 위한 방법이 요구되며 본 개시에서는 연산량을 줄이기 위해 일정한 조건을 만족하는 경우 움직임 보상에서 BIO 프로세스를 스킵하는 것을 제안한다.
도 10은 본 발명의 일 실시예에 따른 BIO 프로세스를 선택적으로 적용하여 움직임 보상을 수행하는 장치의 구성을 도시한 블록도이다.
본 실시예에서 설명하는 움직임 보상 장치(1000)는 영상 부호화 장치의 인터 예측부(124) 및/또는 영상 복호화 장치의 인터 예측부(344)에 구현될 수 있으며, 참조블록 생성부(1010), 스킵 결정부(1020) 및 예측블록 생성부(1030)를 포함할 수 있다. 이들 각 구성요소는 하드웨어 칩으로 구현될 수 있으며, 또는 소프트웨어로 구현되고 하나 이상의 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
참조블록 생성부(1010)는, 참조픽처 리스트 0 내의 제1 참조픽처를 참조하는 제1 움직임벡터를 이용하여 제1 참조블록을 생성하고, 참조픽처 리스트 1 내의 제2 참조픽처를 참조하는 제2 움직임벡터를 이용하여 제2 참조블록을 생성한다.
스킵 결정부(1020)는 움직임 보상 과정에서 BIO 프로세스를 적용할지 여부를 결정한다.
예측블록 생성부(1030)는, 스킵 결정부(1020)에 의해 BIO 프로세스가 스킵되는 것으로 결정되는 경우, 통상적인 움직임 보상에 의해 현재블록의 예측블록을 생성한다. 즉, 제1 참조블록과 제2 참조블록을 평균 또는 가중평균하여 현재블록의 예측블록을 생성한다. 반면, 스킵 결정부(1020)에 의해 BIO 프로세스가 적용되는 것으로 결정되면, 예측블록 생성부(1030)는 BIO 프로세스에 따라 제1 참조블록 및 제2 참조블록을 이용하여 현재블록의 예측블록을 생성한다. 즉, 수학식 11을 적용하여 현재블록의 예측블록을 생성할 수 있다.
스킵 결정부(1020)는 다음 중 하나 이상 조건에 근거하여 BIO 프로세스를 적용할지 여부를 결정할 수 있다.
- 현재블록의 텍스처(texture) 복잡도
- 현재블록의 크기, 및/또는 움직임 정보 부호화 모드를 지시하는 모드 정보
- 양방향 움직임벡터(제1 움직임벡터 및 제2 움직임벡터)가 등속도 운동 조건(constant velocity constraint, CVC) 및/또는 밝기 항상성 조건(brightness constancy constraint, BCC)을 충족하는지 여부
- 주변 블록들의 움직임 벡터들의 변동의 정도
이하에서는, 각 조건을 이용하여 BIO 프로세스를 적용할지 여부를 결정하는 구체적인 방법을 설명한다.
실시예 1: 텍스처 복잡도에 따른 BIO 스킵
옵티컬 플로우는 에지나 코너와 같이 지역적 특징(local feature)이 거의 없는 평탄한 영역에서는 강건하지 못한 결과를 보이는 경향이 있다. 또한 이러한 평탄한 텍스처를 가지고 있는 영역은 이미 종래의 블록 단위 움직임 추정을 통해서 충분히 잘 예측되었을 가능성이 높다. 따라서, 본 실시예에서는 현재블록의 텍스처 복잡도를 연산하여 텍스처 복잡도에 따라 BIO 프로세스를 스킵한다.
추가적인 시그널링 없이 부호화 장치와 복호화 장치가 스스로 텍스처 복잡도를 연산할 수 있도록 하기 위해, 현재블록의 텍스처 복잡도는 부호화 장치와 복호화 장치가 서로 공유하는 제1 참조블록과 제2 참조블록을 이용하여 연산될 수 있다. 즉, 부호화 장치와 복호화 장치에 각각 구현된 스킵 결정부는 스스로 현재블록의 텍스처 복잡도를 연산하여 BIO 스킵 여부를 판단한다.
한편, 텍스처 복잡도는 주변 픽셀과의 차이값, 그래디언트, 모라벡(Moravec) 등의 연산량이 적은 지역 특징 검출자(local feature detector)를 사용할 수 있다. 본 실시예는 그래디언트를 이용하여 텍스처 복잡도를 연산한다. 참조블록들에 대한 그래디언트는 BIO 프로세스에서 사용되는 값이므로, 그래디언트를 이용하면 텍스처 복잡도에서 연산된 그래디언트의 값들을 BIO 프로세스를 수행할 때 그대로 적용할 수 있다는 장점이 있다.
본 실시예의 움직임 보상 장치(1000)는 제1 참조블록과 제2 참조블록 내의 각 픽셀의 수평방향 그래디언트와 수직방향 그래디언트를 이용하여 텍스처 복잡도를 연산한다. 하나의 예시로서, 움직임 보상 장치(1000)는 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 수평방향 그래디언트를 이용하여 수평방향의 복잡도를 계산하고, 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 수직방향 그래디언트를 이용하여 수직방향의 복잡도를 계산한다. 예를 들어, 수평방향 복잡도와 수직방향 복잡도는 수학식 14에 의해 연산될 수 있다.
Figure PCTKR2018009940-appb-M000014
여기서, D1과 D5는 각각 수평방향 복잡도와 수직방향 복잡도를 나타내고, CU는 현재블록의 각 픽셀의 위치에 대응하는 제1 참조블록과 제2 참조블록 내의 픽셀 위치들의 집합을, [i, j]는 제1 참조블록과 제2 참조블록에서 현재블록 내의 각 픽셀에 대응하는 위치를 나타낸다. 그리고, d1(i, j)과 d5(i, j)는 수학식 15에 의해 계산될 수 있다.
Figure PCTKR2018009940-appb-M000015
수학식 15의 d1과 d5를 이용하여 수학식 14의 수평방향 복잡도 및 수직방향 복잡도를 연산할 수 있다. 즉, 제1 참조블록 및 제2 참조블록 내에서 서로 대응하는 위치의 픽셀에 대한 시간축 거리(τ 0, τ 1)가 고려된 수평방향 그래디언트들 (τ 0 I x (0) (i,j), τ 1 I x (1) (i,j))의 합을 모든 픽셀 위치에 대해 계산하고 이들을 제곱합하여 수평방향 복잡도 D1을 연산할 수 있다. 그리고, 제1 참조블록 및 제2 참조블록 내에서 서로 대응하는 위치의 픽셀에 대한 시간축 거리가 고려된 수직방향 그래디언트들(τ 0 I y (0) (i,j), τ 1 I y (1) (i,j))의 합을 모든 픽셀 위치에 대해 계산하고 이들을 제곱합하여 수직방향 복잡도 D5을 연산할 수 있다.
수학식 15에 d4가 누락되어 있는데, d4는 d2와 동일한 값을 가진다. 수학식 15의 d1 내지 d6은 수학식 5의 s1 내지 s6과 연관됨을 알 수 있다. d1 내지 d6는 한 픽셀 위치에서의 값을 의미하고, s1 내지 s6는 한 픽셀을 중심으로 하는 마스크 내의 모든 픽셀 위치에서 계산한 d1들 내지 d6들 각각의 합을 의미한다. 즉, 수학식 15를 이용하면 수학식 5는 다음의 수학식 16과 같이 표현될 수 있다. 수학식 16에서 s4는 s2와 동일한 값을 가지므로 기재를 생략한다.
Figure PCTKR2018009940-appb-M000016
현재블록에 대한 텍스처 복잡도는 수평방향 복잡도와 수직방향 복잡도 간의 최소값(Min(D 1, D 5)), 최대값(Max(D 1, D 5))또는 평균값(Ave(D 1, D 5)) 중 어느 하나로 설정될 수 있다. 움직임 보상 장치(1000)는 텍스처 복잡도가 임계값 T보다 작으면 BIO 프로세스를 스킵하고 임계값 T보다 크거나 또는 같으면 BIO 프로세스를 적용한다. BIO 프로세스를 적용하는 경우, 수학식 14에서 연산된 d1 내지 d6가 s1 내지 s6의 계산을 위해 그대로 사용될 수 있다. 즉, 본 실시예는 BIO 과정 중에 연산되어야 하는 값을 이용하여 현재블록의 텍스처 복잡도를 구하고 이를 이용하여 BIO 스킵 여부를 결정하므로, BIO 스킵 여부를 판단하기 위한 추가적인 연산량을 줄일 수 있다는 장점이 있다.
한편, 임계값 T는 수학식 7 내지 수학식 9에서 사용된 정규화 파라미터를 스케일링하는 방법을 사용할 수 있다. 정규화 파라미터 rms 1 > m - rs 5 > m - r인 관계식을 가지고 있으며, s 1 <= m - r인 경우 BIO를 수행하더라도 v x는 0이 되며, s 5 <= m - r인 경우 BIO를 수행하더라도 v y는 0이 된다.
따라서, 정규화 파라미터의 관계식을 기반으로 임계값 T를 설정하면 BIO를 수행하더라도 0이 되는 영역을 CU 단위로 미리 판별하여 BIO를 스킵할 수 있다. D 1은 CU 내 모든 필셀 위치에 대한 d1의 총합이고, s 1은 마스크 Ω 내 모든 d 1의 총합이므로, CU의 크기가 W×H이고, 마스크 Ω의 크기가 (2M+1)×(2M+1)일 때, 임계값 T를 수학식 17과 같이 설정할 수 있다.
Figure PCTKR2018009940-appb-M000017
도 11은 본 실시예에 따른 현재블록의 텍스처 복잡도에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정에 대한 하나의 예시도이다.
움직임 보상 장치(1000)는 제1 참조블록과 제2 참조블록 내의 각 픽셀에 대해, 수평방향 그래디언트(Ix (k))와 수직방향 그래디언트(Iy (k))를 연산한다(S1102). 그리고, 수학식 15를 이용하여 d1 내지 d6을 계산하고, 이 중 d1과 d5를 이용하여 수학식 14에 따라 수평방향 복잡도(D1) 및 수직방향 복잡도(D5)를 계산한다(S1104). 수평방향 복잡도(D1) 및 수직방향 복잡도(D5) 중의 최소값인 현재블록의 텍스처 복잡도가 임계값(T)보다 작은지 여부를 판단한다(S1106). 본 예시에서는 현재블록의 텍스처 복잡도가 수평방향 복잡도(D1) 및 수직방향 복잡도(D5) 중의 최소값인 것으로 설명하나, 전술한 바와 같이 텍스처 복잡도는 최대값 또는 평균값으로 설정될 수도 있다.
만약, 현재블록의 텍스처 복잡도가 임계값(T)보다 작으면 BIO 프로세스를 스킵하고 통상적인 움직임 보상에 의해 현재블록의 예측블록을 생성한다(S1108). 즉, 제1 참조블록과 제2 참조블록을 평균 또는 가중평균하여 현재블록의 예측블록을 생성한다.
반면, 현재블록의 텍스처 복잡도가 임계값(T)보다 크거나 또는 같으면 BIO 프로세스에 따라 제1 참조블록과 제2 참조블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 먼저, s1 내지 s6을 연산한다. 이 때, 이미 참조블록들 내의 픽셀들에 대한 수평방향 및 수직방향 그래디언트들은 이미 S1102에서 연산되었으므로, s1 내지 s6를 구하기 위해 마스크 내에 존재하는 참조블록 외부의 픽셀들에 대해서만 수평방향 및 수직방향 그래디언트들을 연산하면 된다. 또는, 전술한 바와 같이 참조블록 외부의 픽셀들에 대한 수평방향 그래디언트와 수직방향 그래디언트를 참조블록 내부의 가까운 픽셀들의 해당값들로 패딩하는 경우에는, 이미 계산된 참조블록들 내의 픽셀들에 대한 수평방향 및 수직방향 그래디언트들만을 이용하여 s1 내지 s6를 구할 수도 있다.
또는, d1 내지 d6은 s1 내지 s6과 서로 연관되므로(수학식 16 참조), 이미 계산된 d1 내지 d6을 s1 내지 s6을 계산하는 데에 이용할 수도 있다.
s1 내지 s6가 연산되면, 수학식 6 내지 9 중 어느 하나를 이용하여 픽셀 또는 서브블록 단위의 옵티컬 플로우 (v x , v y)를 결정한다(S1112). 그리고 현재블록 내의 해당 픽셀 또는 해당 서브블록에 옵티컬 플로우 (v x , v y)를 적용하여, 수학식 11에 따라 현재블록의 예측블록을 생성한다(S1114).
도 12는 본 실시예에 따른 현재블록의 텍스처 복잡도에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정을 나타내는 다른 예시도이다.
도 12에 개시된 예시는 d1 내지 d6을 계산하는 순서만 도 11과 다르다. 즉, 현재블록의 텍스처 복잡도를 계산하기 위해서는 d1 내지 d6 중 d1과 d5만 필요하다. 따라서, S1204에서와 같이 d1과 d5를 먼저 구하여 텍스처 복잡도를 계산하고, 나머지 d2, d3, d4(d2와 동일), d5는 텍스처 복잡도가 임계값보다 커 BIO 프로세스를 수행하는 경우에 계산한다(S1210). 그 이외의 과정은 도 11과 실질적으로 동일하다.
아래 표는 BIO 프로세스에 따른 움직임 보상과, 본 실시예에 따른 텍스처 복잡도에 근거하여 선택적으로 BIO 프로세스를 적용한 움직임 보상을 비교한 실험 결과를 나타낸다.
Figure PCTKR2018009940-appb-T000001
실험에 사용된 시퀀스는 Class A1 (4K) 4개, Class B (FHD) 5개, Class C (832×480) 4개, Class D(416×240) 4개이며, 각 영상들의 전체 프레임을 실험했다. 실험환경은 Random Access (RA) configuration이며, QP값은 22, 27, 32, 37로 세팅하여 실험을 하여 BD rate를 비교하였다.
본 실시예에 따르면 평균적으로 19% 정도 BIO가 skip되었으며, 연산량의 부담이 가장 큰 Class A1 (4K)에서는 32% BIO가 skip되었다. 영상의 해상도가 높아질수록 스킵되는 비율이 증가하는 경향을 확인할 수 있으며, 실질적으로 해상도가 높을수록 연산량의 부담이 크므로 의미있는 결과라고 볼 수 있다.
또한 평균적으로 0.02%의 Y BD rate 증가가 있었으나, 일반적으로 0.1% 이하의 BD rate 차이는 무시할 수 있는 정도의 차이로 받아들여지고 있다. 따라서 본 예시에 따라 BIO를 선택적으로 스킵하더라도 압축효율이 거의 동일함을 알 수 있다.
한편, 이상에서 설명한 예시들은 BIO 프로세스 전체를 스킵할 지 여부를 결정하는 것에 관련된다. 그러나, BIO 프로세스 전체를 스킵하는 대신 수평방향의 옵티컬 플로우(v x)와 수직방향의 옵티컬 플로우(v y)를 각각 독립적으로 스킵하는 것도 가능하다. 즉, 수평방향의 복잡도(D1)가 임계값(T)보다 작으면 v x=0으로 하여 수평방향에 대한 BIO 프로세스를 스킵하고, 수직방향의 복잡도(D5)가 임계값(T)보다 작으면 v y=0으로 하여 수직방향에 대한 BIO 프로세스를 스킵한다.
도 13는 본 실시예에 따른 현재블록의 텍스처 복잡도에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정에 대한 또 다른 예시도이다.
움직임 보상 장치(1000)는 제1 참조블록과 제2 참조블록 내의 각 픽셀에 대해, 수평방향 그래디언트(Ix (k))와 수직방향 그래디언트(Iy (k))를 연산한다(S1310). 그리고, 수학식 15를 이용하여 d1 및 d5를 계산하고, d1을 이용하여 수평방향 복잡도(D1) 그리고 d5를 이용하여 수직방향 복잡도(D5)를 계산한다(S1320).
S1320에서 수평방향 복잡도(D1)과 수직방향 복잡도(D5)가 계산되면, 수평방향의 옵티컬 플로우를 스킵할 것인지 여부를 결정하는 과정(S1330)과 수직방향의 옵티컬 플로우를 스킵할 것인지 여부를 결정하는 과정(S1340)을 수행한다. 도 13에서는 수평방향의 옵티컬 플로우 스킵을 먼저 결정하는 것으로 설명하나, 수직방향 옵티컬 플로우 스킵을 먼저 결정하는 것도 당연히 가능하다.
먼저 S1330에서, 움직임 보상 장치(1000)는 수평방향 복잡도(D1)가 임계값(T)보다 작은지 여부를 판단한다(S1331). 수평방향 복잡도(D1)가 임계값(T)보다 작다면 수평방향 옵티컬 플로우(v x )를 0으로 설정한다(S1332). 이는 수평방향 옵티컬 플로우를 적용하지 않음을 의미한다. 만약, 수평방향 복잡도(D1)가 임계값(T)보다 크거나 같으면 d3를 계산하고(S1333), d1과 d3를 이용하여 s1과 s3를 연산한다(S1334). 수학식 7 내지 9를 참조하면, 수평방향 옵티컬 플로우(v x)를 계산하는 경우 s1과 s3만이 요구된다. d1은 S1320에서 이미 계산되었으므로, S1333에서 d3를 계산하고 S1334에서 d1과 d3를 이용하여 s1과 s3를 계산한다. 그리고, 수학식 7 내지 9 중 어느 하나에 따라 s1과 s3를 이용하여 수평방향 옵티컬 플로우(v x)를 계산한다(S1335).
이후, 수직방향의 옵티컬 플로우를 스킵할 것인지 여부를 결정하는 S1340으로 진행한다. 수직방향 복잡도(D5)가 임계값(T)보다 작은지 여부를 판단한다(S1341). 수직방향 복잡도(D5)가 임계값(T)보다 작다면 수직방향 옵티컬 플로우(v y )를 0으로 설정한다(S1342). 이는 수직방향 옵티컬 플로우를 적용하지 않음을 의미한다. 만약, 수직방향 복잡도(D5)가 임계값(T)보다 크거나 같으면 d2와 d6을 계산하고(S1343), d2, d5, d6을 이용하여 s2, s5, s6을 연산한다(S1344). 수학식 7 또는 9를 이용하여 수직방향 옵티컬 플로우(v y)를 계산하는 경우, s2, s5, s6만이 요구된다. d5은 S1320에서 이미 계산되었으므로, S1343에서 d2와 d6을 계산하고 S1344에서 d2, d5, d6을 이용하여 s2, s5, s6를 계산한다. 그리고, 수학식 7 또는 9 중 어느 하나에 따라 s2, s5, s6를 이용하여 수직방향 옵티컬 플로우(v y)를 계산한다(S1345).
한편, 만약 수학식 8을 이용하여 수직방향 옵티컬 플로우(v y)를 계산하는 경우에는, s5, s6만이 요구된다. 따라서, 이 경우에는 S1343과 S1344에서 d2 및 s2의 계산을 생략해도 무방하다.
이렇게 연산된 수평방향 옵티컬 플로우(v x)와 수직방향 옵티컬 플로우(v y)를 수학식 11에 대입하면, 현재블록의 예측블록이 생성된다. 수학식 11에서 수평방향 옵티컬 플로우가 스킵되는 경우에는 v x=0 이므로, 수평방향 옵티컬 플로우(v x)는 예측블록 생성에 기여하지 않는다. 마찬가지로 수직방향 옵티컬 플로우가 스킵되는 경우에는 v y = 0 이므로, 수직방향 옵티컬 플로우(v x)는 예측블록 생성에 기여하지 않는다. 만약, 수평방향과 수직방향 옵티컬 플로우가 모드 스킵되는 경우에는 v x = 0 이고 v y = 0이므로, 제1 참조블록과 제2 참조블록을 평균하여 예측블록을 생성한다. 즉, 통상적인 움직임 보상을 통해 예측블록을 생성하게 된다.
이상에서 설명한 실시예 1에서는 참조블록 내의 픽셀을 이용하여 현재블록의 텍스처 복잡도를 추정하는 것으로 설명하였다. 그러나 현재블록의 텍스처 복잡도는 현재블록 내의 실제 픽셀들을 이용하여 연산될 수도 있다. 예컨대, 부호화 장치는 현재블록 내의 픽셀들의 수평 및 수직방향 그래디언트를 이용하여 수평방향 복잡도 및 수직방향 복잡도를 계산할 수도 있다. 즉, 현재블록 내의 각 픽셀들의 수평방향 그래디언트들의 제곱합을 이용하여 수평방향 복잡도를 연산하고 수직방향 그래디언트들의 제곱합을 이용하여 수직방향 복잡도를 연산한다. 그리고 수평방향 및 수직방향 복잡도들을 이용하여 BIO 프로세스의 스킵 여부를 결정한다. 이 경우, 부호화 장치와는 달리 복호화 장치는 현재블록 내의 픽셀들을 알 수 없으므로 부호화 장치와 동일한 방식으로 텍스처 복잡도를 연산할 수 없다. 따라서, 부호화 장치는 복호화 장치로 BIO 스킵 여부를 지시하는 정보를 추가적인 시그널링해야 한다. 즉, 복호화 장치에 구현되는 스킵 결정부는 부호화 장치로부터 수신한 BIO 스킵 여부를 지시하는 정보를 복호화하여 그 정보가 지시하는 바에 따라 BIO 프로세스를 선택적으로 스킵한다.
실시예 2: 현재블록의 크기, 및/또는 움직임 정보 부호화 모드에 따른 BIO 스킵
전술한 바와 같이, CTU로부터의 트리 구조 분할에 따라 트리 구조의 리프 노드에 해당하는 CU, 즉, 현재블록은 다양한 크기를 가질 수 있다.
현재블록의 크기가 충분히 작을 경우, 현재블록의 움직임벡터는 픽셀 또는 서브블록 단위의 BIO와 상당히 유사한 값을 가질 가능성이 있으므로, BIO를 수행하여 얻는 보정 효과가 적을 수 있다. 이러한 경우, BIO를 skip하여 얻는 복잡도 감소가 BIO skip으로 인한 정밀도 손실보다 더 큰 이득이 될 가능성이 높다.
한편, 현재블록의 움직임벡터는 전술한 바와 같이 머지 모드로 부호화될 수도 있고 차분 움직임벡터를 부호화하는 모드로 부호화될 수도 있다. 현재블록의 움직임벡터가 머지 모드(merge mode)로 부호화된 경우라면, 현재블록의 움직임벡터는 주변블록의 움직임벡터와 병합된다. 즉, 현재블록의 움직임벡터는 주변블록의 움직임벡터와 동일하게 설정된다. 이 경우에는, BIO를 통해 추가적인 보정 효과를 얻을 수 있다.
따라서 본 실시예는 현재블록의 크기 또는 움직임벡터의 부호화 모드를 지시하는 모드 정보 중 적어도 하나 이상을 이용하여 BIO 프로세스를 스킵한다.
도 14는 본 실시예에 따른 현재블록의 크기 및 움직임벡터의 부호화 모드에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정을 도시한 예시도이다. 도 14는 현재블록의 크기와 움직임벡터의 부호화 모드를 모두 이용하여 BIO 스킵 여부를 결정하고 있지만, 어느 하나를 이용하는 것도 본 발명의 범위에 포함된다.
움직임 보상 장치(1000)는 먼저 부호화 대상 블록인 현재블록(CU)의 크기가 임계 크기 이하인지 여부를 판단한다(S1402). 현재블록(CU)의 크기가 임계 크기보다 크면 BIO 프로세스에 따라 현재블록의 예측블록을 생성한다(S1408).
반면, 현재블록(CU)의 크기가 임계 크기 이하이면, 현재블록(CU)의 움직임벡터(MV)가 머지 모드에 의해 부호화되었는지 여부를 판단한다(S1404). 머지 모드에 의해 부호화되지 않은 경우 BIO 프로세스를 스킵하고 통상적인 움직임 보상을 통해 현재블록의 예측블록을 생성한다(S1406). 머지 모드에 의해 부호화된 경우에는, BIO 프로세스에 따라 현재블록의 예측블록을 생성한다(S1408).
예를 들어 wt×ht가 8×8로 정의될 때, 이보다 작거나 같은 8×8, 8×4, 4×8, 4×4 등의 크기를 갖는 현재블록의 움직임 벡터가 머지 모드로 부호화되지 않은 경우, BIO 프로세스가 스킵된다.
한편, S1308에서 BIO 프로세스에 따라 예측블록을 생성하는 과정에서, 실시예 1에 따라, 즉, 현재블록의 텍스처 복잡도에 따라 BIO 스킵 여부를 추가로 더 판단하는 것도 가능하다.
실시예 3: CVC 및/또는 BCC에 따른 BIO 스킵
BIO는 영상 내의 객체가 일정한 속도로 이동하고 픽셀 값의 변화가 거의 없다는 가정을 기반으로 한다. 이를 각각 등속도 운동 조건(constant velocity constraint, CVC)과 밝기 항상성 조건(brightness constancy constraint, BCC)으로 정의한다.
현재블록 단위로 추정된 양방향 움직임벡터 (MVx0, MVy0)와 (MVx1, MVy1)가 이미 CVC와 BCC 두 조건을 잘 만족하고 있다면, 동일한 가정을 기반으로 동작하는 BIO 또한 현재블록의 양방향 움직임 벡터와 유사한 값을 가질 가능성이 높다.
현재블록의 양방향 움직임벡터 (MVx0, MVy0)와 (MVx1, MVy1)가 CVC 조건을 만족한다는 것은 두 움직임벡터가 부호는 서로 반대이고 시간당 움직임의 변위가 같다는 것을 의미한다.
현재블록의 양방향 움직임벡터가 BCC 조건을 만족한다는 것은 (MVx 0, MVy 0)가 가리키는 제1 참조픽처(Ref0)에 위치한 제1 참조블록과 (MVx 1, MVy 1)가 가리키는 제2 참조픽처(Ref1)에 위치한 참조 블록의 차이가 0이 됨을 의미한다. 두 참조 블록의 차이는 SAD(Sum of Absolute Difference), SSE(Sum of Squared Errors) 등에 의해 계산될 수 있다.
일례로서, CVC 조건과 BCC 조건은 다음과 같이 표현될 수 있다.
Figure PCTKR2018009940-appb-M000018
여기서 TCVC와 TBCC는 각각 CVC 조건과 BCC 조건의 임계값이다.
도 4를 참조하면, BIO는 제1 참조픽처(Ref0)에 대한 옵티컬 플로우 (+v x, +v y)와 제2 참조픽처(Ref1)에 대한 옵티컬 플로우 (-v x, -v y)가 크기는 서로 다른 부호를 가진다는 가정에서 출발한다. 따라서, 양방향 움직임벡터 (MVx0, MVy0)와 (MVx1, MVy1)가 BIO의 가정을 충족시킨다는 것은 양방향 움직임벡터의 x 성분들(MVx 0와 MVx1)은 서로 다른 부호를 가져야 하고, y 성분들(MVy0와 MVy1)도 서로 다른 부호를 가져야 함을 의미한다. 또한, 등속도를 조건을 만족하기 위해서 MVx 0를 현재픽처와 제1 참조픽처 간의 시간축 거리인 τ 0로 나눈 값의 절대 크기(absolute value)와 MVx1을 현재픽처와 제2 참조픽처 간의 시간축 거리인 τ 1로 나눈 값의 절대 크기가 동일해야 한다. 마찬가지로, MVy0τ 0로 나눈 값과 MVy1τ 1로 나눈 값의 절대 크기가 동일해야 한다. 따라서, 임계값의 개념을 도입하면 위 CVC 조건과 같이 표현될 수 있다.
한편, BCC 조건은 양방향 움직임벡터 (MVx0, MVy0)와 (MVx1, MVy1)가 각각 참조하는 참조블록들 간의 SAD가 임계값(TBCC) 이하인 경우에 충족된다. 물론 SAD 대신 SSE 등과 같이 두 참조블록 간의 차이를 대표할 수 있는 다른 지표가 사용되어도 무방하다.
도 15는 본 실시예에 따른 CVC 조건 및 BCC 조건에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정을 도시한 예시도이다.
움직임 보상 장치(1000)는 현재블록의 양방향 움직임벡터 (MVx0, MVy0)와 (MVx1, MVy1)가 CVC 조건 및 BCC 조건을 충족하는지 여부를 판단한다(S1502), 두 조건 모두를 충족하면 BIO 프로세스를 스킵하고 통상적인 움직임 보상에 따라 예측블록을 생성한다(S1504).
반면, 두 조건 중 어느 하나라도 충족되지 않으면, BIO 프로세스에 따라 현재블록의 예측블록을 생성한다(S1506).
도 15에서는 CVC 조건 및 BCC 조건을 모두 충족하는 경우에 BIO 프로세스를 스킵하는 것으로 설명하였으나, 이는 하나의 예시에 지나지 않으며 CVC 조건과 BCC 조건 중 어느 하나의 조건을 이용하여 BIO 스킵 여부를 결정해도 무방하다.
실시예 4: 주변 블록들의 움직임 벡터들의 변동의 정도에 따른 BIO 스킵
현재 블록의 주변 블록들에서 블록 단위로 추정된 양방향 움직임벡터들이 비슷한 값을 가진다면, 현재블록 내에서 픽셀 또는 서브블록 단위로 추정된 옵티컬 플로우 또한 비슷한 값을 가질 가능성이 높다.
따라서, 주변 블록들의 움직임 벡터들의 변동의 정도, 예컨대, 분산 또는 표준편차를 기반으로 현재블록의 BIO 스킵 여부를 판단하는 것이 가능하다. 극단적인 예로 주변 블록들의 움직임 벡터 분산이 0이라면, 현재블록 내의 픽셀 또는 서브블록 단위의 옵티컬 플로우 또한 현재블록의 움직임 벡터와 동일한 값을 가지게 될 가능성이 높으므로 BIO를 스킵한다.
일례로서, 주변 블록들의 움직임 벡터 분산을 수학식 19와 같이 표현할 수 있다.
Figure PCTKR2018009940-appb-M000019
여기서, L은 주변 블록들의 집합이며 l은 주변 블록의 총 개수이다. (m, n)은 주변 블록의 인덱스를 나타내며 t ∈ (0, 1)이다.
도 16은 본 실시예에 따른 주변 블록들의 움직임 벡터 분산값에 따라 선택적으로 BIO 프로세스를 적용하여 움직임 보상을 수행하는 과정을 도시한 예시도이다.
움직임 보상 장치(1000)는 주변 블록들의 움직임 벡터들의 분산과 미리 정해진 임계값을 비교한다 (S1602). 주변 블록의 움직임 벡터 분산값이 임계값보다 낮다면 BIO 프로세스를 스킵하고 통상적인 움직임 보상에 따라 예측블록을 생성한다(S1604). 반면, 주변 블록의 움직임 벡터 분산값이 임계값보다 높다면, BIO 프로세스에 따라 현재블록의 예측블록을 생성한다(S1606).
이상에서는 실시예 1 내지 4를 통해 각 조건들을 개별적으로 사용하여 BIO 스킵 여부를 결정하는 것을 설명하였다. 그러나 본 발명이 어느 하나의 조건을 이용하여 BIO 스킵 여부를 결정하는 것에 국한되는 것은 아니며, 본 개시에 기술된 복수 개의 조건을 선택적으로 조합하여 BIO 스킵 여부를 결정하는 것도 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. 예컨대, 현재블록의 크기 조건과 현재블록의 텍스처 복잡도를 이용하여 BIO 스킵 여부를 결정하는 방법, 현재블록의 크기 조건과 CVC 조건 및/또는 BCC 조건을 이용하여 BIO 스킵 여부를 결정하는 방법, CVC 조건 및 BCC 조건 중 하나 이상과 현재블록의 텍스처 복잡도를 이용하여 BIO 스킵 여부를 결정하는 방법 등과 같이 본 개시에 기술하는 다양한 방식들을 선택적으로 조합하는 것은 모두 본 발명의 범위에 포함되는 것으로 이해되어야 한다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
CROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은, 본 명세서에 그 전체가 참고로서 포함되는, 2017년 08월 29일자로 한국에 출원한 특허출원번호 제10-2017-0109632호 및 2017년 12월 19일자로 한국에 출원한 특허출원번호 제10-2017-0175587호에 대해 우선권을 주장한다.

Claims (12)

  1. 영상 부호화 또는 복호화에서 양방향 옵티컬 플로우(Bi-directional Optical flow, BIO)를 이용한 움직임 보상 방법에서 있어서,
    제1 참조픽처를 참조하는 제1 움직임벡터에 의해 제1 참조블록을 생성하고, 제2 참조픽처를 참조하는 제2 움직임벡터에 의해 제2 참조블록을 생성하는 단계;
    상기 제1 참조블록과 상기 제2 참조블록을 이용하여 현재블록의 텍스처 복잡도를 연산하는 단계; 및
    상기 현재블록의 예측블록을 생성하되, 상기 텍스처 복잡도에 근거하여 선택적으로, 상기 BIO 프로세스에 따라 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하거나 또는 상기 BIO 프로세스를 적용하지 않고 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 단계
    를 포함하는 것을 특징으로 하는 움직임 보상 방법.
  2. 제1항에 있어서,
    상기 텍스처 복잡도는 상기 제1 및 제2 참조블록 내 픽셀들의 수평방향 그래디언트(gradient)들과 수직방향 그래디언트들을 이용하여 연산하는 것을 특징으로 하는 움직임 보상 방법.
  3. 제2항에 있어서,
    상기 텍스처 복잡도는,
    상기 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 상기 수평방향 그래디언트를 이용하여 계산한 수평방향 복잡도와 상기 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 상기 수직방향 그래디언트를 이용하여 계산한 수직방향 복잡도 간의 최소값, 최소값 또는 평균값 중 하나인 것을 특징으로 하는 움직임 보상 방법.
  4. 제2항에 있어서,
    상기 현재블록의 예측블록을 생성하는 단계는,
    상기 텍스처 복잡도가 임계값보다 크면, 상기 BIO 프로세스에 따라 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 단계; 및
    상기 텍스처 복잡도가 상기 임계값보다 작으면, 상기 BIO 프로세를 적용하지 않고 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 단계
    를 포함하는 것을 특징으로 하는 움직임 보상 방법.
  5. 제2항에 있어서,
    상기 텍스처 복잡도는,
    상기 제1 참조블록 및 상기 제2 참조블록 내의 픽셀들의 상기 수평방향 그래디언트들을 이용하여 계산한 수평방향 복잡도와 상기 제1 참조블록 및 상기 제2 참조블록 내의 픽셀들의 상기 수직방향 그래디언트들을 이용하여 계산한 수직방향 복잡도를 포함하는 것을 특징으로 하는 움직임 보상 방법.
  6. 제5항에 있어서,
    임계값보다 작은 복잡도를 가지는 방향에 대한 BIO 프로세스를 스킵하고 상기 임계값보다 큰 복잡도를 가지는 방향에 대한 BIO 프로세스를 적용함으로써, 상기 현재블록의 예측블록을 생성하는 것을 특징으로 하는 움직임 보상 방법.
  7. 영상 부호화 또는 복호화에서 양방향 옵티컬 플로우(Bi-directional Optical flow, BIO)를 이용하여 움직임 보상을 수행하기 위한 장치에 있어서,
    제1 참조픽처를 참조하는 제1 움직임벡터에 의해 제1 참조블록을 생성하고, 제2 참조픽처를 참조하는 제2 움직임벡터에 의해 제2 참조블록을 생성하는 참조블록 생성부;
    상기 제1 참조블록과 상기 제2 참조블록을 이용하여 현재블록의 텍스처 복잡도를 연산하고, 상기 텍스처 복잡도와 임계값을 비교하여 BIO 프로세스의 스킵 여부를 결정하는 스킵 결정부; 및
    상기 스킵 결정부의 결정에 근거하여 선택적으로, 상기 BIO 프로세스에 따라 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하거나 또는 상기 BIO 프로세스를 적용하지 않고 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 예측블록 생성부
    를 포함하는 것을 특징으로 하는 움직임 보상 장치.
  8. 제7항에 있어서,
    상기 스킵 결정부는 상기 제1 및 제2 참조블록 내 픽셀들의 수평방향 그래디언트(gradient)들과 수직방향 그래디언트들을 이용하여 상기 텍스처 복잡도를 연산하는 것을 특징으로 하는 움직임 보상 장치.
  9. 제8항에 있어서,
    상기 텍스처 복잡도는,
    상기 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 상기 수평방향 그래디언트를 이용하여 계산한 수평방향 복잡도와 상기 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 상기 수직방향 그래디언트를 이용하여 계산한 수직방향 복잡도 간의 최소값, 최소값 또는 평균값 중 하나인 것을 특징으로 하는 움직임 보상 장치.
  10. 제8항에 있어서,
    예측블록 생성부는,
    상기 텍스처 복잡도가 임계값보다 크면, 상기 BIO 프로세스에 따라 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하고,
    상기 텍스처 복잡도가 상기 임계값보다 작으면, 상기 BIO 프로세를 적용하지 않고 상기 제1 및 제2 참조블록을 이용하여 상기 현재블록의 예측블록을 생성하는 것을 특징으로 하는 움직임 보상 장치.
  11. 제8항에 있어서,
    상기 텍스처 복잡도는,
    상기 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 상기 수평방향 그래디언트를 이용하여 계산한 수평방향 복잡도와 상기 제1 참조블록 및 상기 제2 참조블록 내의 각 픽셀의 상기 수직방향 그래디언트를 이용하여 계산한 수직방향 복잡도를 포함하는 것을 특징으로 하는 움직임 보상 장치.
  12. 제11항에 있어서,
    상기 예측블록 생성부는 임계값보다 작은 복잡도를 가지는 방향에 대한 BIO 프로세스를 스킵하고 상기 임계값보다 큰 복잡도를 가지는 방향에 대한 BIO 프로세스를 적용함으로써, 상기 현재블록의 예측블록을 생성하는 것을 특징으로 하는 움직임 보상 장치.
PCT/KR2018/009940 2017-08-29 2018-08-29 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치 WO2019045427A1 (ko)

Priority Applications (10)

Application Number Priority Date Filing Date Title
CN201880056369.0A CN111034200B (zh) 2017-08-29 2018-08-29 使用双向光流的运动补偿方法和设备
CN202310960882.5A CN116744017A (zh) 2017-08-29 2018-08-29 视频编码装置、视频解码装置和存储比特流的方法
US16/642,164 US11297344B2 (en) 2017-08-29 2018-08-29 Motion compensation method and device using bi-directional optical flow
CN202310964061.9A CN116744019A (zh) 2017-08-29 2018-08-29 视频编码方法、视频解码方法和传输比特流的方法
CN202310960176.0A CN116761001A (zh) 2017-08-29 2018-08-29 视频编码装置、视频解码装置和存储比特流的方法
CN202310961499.1A CN116744018A (zh) 2017-08-29 2018-08-29 视频编码方法、视频解码方法和传输比特流的方法
US17/688,462 US11800144B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow
US17/688,334 US11800142B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow
US17/688,374 US11800143B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow
US17/688,494 US11800145B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20170109632 2017-08-29
KR10-2017-0109632 2017-08-29
KR1020170175587A KR102580910B1 (ko) 2017-08-29 2017-12-19 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
KR10-2017-0175587 2017-12-19

Related Child Applications (5)

Application Number Title Priority Date Filing Date
US16/642,164 A-371-Of-International US11297344B2 (en) 2017-08-29 2018-08-29 Motion compensation method and device using bi-directional optical flow
US17/688,494 Continuation US11800145B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow
US17/688,374 Continuation US11800143B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow
US17/688,334 Continuation US11800142B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow
US17/688,462 Continuation US11800144B2 (en) 2017-08-29 2022-03-07 Motion compensation method and device using bidirectional optical flow

Publications (1)

Publication Number Publication Date
WO2019045427A1 true WO2019045427A1 (ko) 2019-03-07

Family

ID=65527873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/009940 WO2019045427A1 (ko) 2017-08-29 2018-08-29 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치

Country Status (4)

Country Link
US (5) US11297344B2 (ko)
KR (2) KR20230135036A (ko)
CN (4) CN116744018A (ko)
WO (1) WO2019045427A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020253769A1 (zh) * 2019-06-21 2020-12-24 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN112804534A (zh) * 2019-11-14 2021-05-14 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113170176A (zh) * 2019-06-24 2021-07-23 华为技术有限公司 视频编码器、视频解码器及相应方法
KR20220024877A (ko) * 2019-06-24 2022-03-03 후아웨이 테크놀러지 컴퍼니 리미티드 이중 예측 옵티컬 플로 계산 및 이중 예측 보정에서 블록 레벨 경계 샘플 그레이디언트 계산을 위한 정수 그리드 참조 샘플의 위치를 계산하는 방법
JP2022547988A (ja) * 2019-09-10 2022-11-16 エルジー エレクトロニクス インコーポレイティド Bdofを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
RU2797358C1 (ru) * 2019-09-23 2023-06-02 Ханчжоу Хиквижен Диджитал Текнолоджи Ко., Лтд. Способ, устройство и аппарат для кодирования и декодирования

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116744018A (zh) * 2017-08-29 2023-09-12 Sk电信有限公司 视频编码方法、视频解码方法和传输比特流的方法
CN112840659A (zh) * 2018-09-14 2021-05-25 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
EP3861731A4 (en) 2018-11-05 2021-11-24 Beijing Bytedance Network Technology Co. Ltd. INTERPOLATION TO INTERPRDICTION WITH REFINEMENT
WO2020141833A1 (ko) * 2019-01-02 2020-07-09 디지털인사이트 주식회사 영상 복호화 방법, 영상 부호화 방법, 영상 복호화 장치, 영상 부호화 장치 및 컴퓨터 판독 가능한 기록 매체
JP6867611B2 (ja) * 2019-03-11 2021-04-28 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
KR20220006055A (ko) * 2019-05-11 2022-01-14 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 다중 인트라 코딩 방법 사이의 상호 작용
WO2020244571A1 (en) 2019-06-04 2020-12-10 Beijing Bytedance Network Technology Co., Ltd. Motion candidate list construction using neighboring block information
KR20220016075A (ko) * 2019-06-04 2022-02-08 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 모션 후보 리스트 구성 프로세스의 조건부 구현
CN114128295B (zh) 2019-07-14 2024-04-12 北京字节跳动网络技术有限公司 视频编解码中几何分割模式候选列表的构建
CN114450959A (zh) 2019-09-28 2022-05-06 北京字节跳动网络技术有限公司 视频编解码中的几何分割模式
WO2020251414A2 (en) * 2019-09-29 2020-12-17 Huawei Technologies Co., Ltd. Method and apparatus of generating weighting masks for integer-slope split directions in inter prediction
US11792423B2 (en) * 2019-11-22 2023-10-17 Qualcomm Incorporated Early termination of motion vector refinement process in video coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110112240A (ko) * 2010-04-06 2011-10-12 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2017034089A1 (ko) * 2015-08-23 2017-03-02 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017036399A1 (en) * 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
WO2017058899A1 (en) * 2015-09-28 2017-04-06 Qualcomm Incorporated Improved bi-directional optical flow for video coding
WO2017082698A1 (ko) * 2015-11-11 2017-05-18 삼성전자 주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011158A (ja) * 2006-06-29 2008-01-17 Matsushita Electric Ind Co Ltd 動きベクトル探索方法及び動きベクトル探索装置
US8917769B2 (en) * 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
CN102316317B (zh) 2010-07-10 2013-04-24 华为技术有限公司 一种生成图像预测值的方法和装置
US9241160B2 (en) 2010-07-21 2016-01-19 Dolby Laboratories Licensing Corporation Reference processing using advanced motion models for video coding
US9451277B2 (en) * 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
WO2014107074A1 (ko) 2013-01-04 2014-07-10 삼성전자 주식회사 스케일러블 비디오의 부호화 및 복호화를 위한 움직임 보상 방법 및 장치
CN105025201B (zh) 2015-07-29 2017-11-14 武汉大学 一种时空连续的视频背景修复方法
CN116744018A (zh) * 2017-08-29 2023-09-12 Sk电信有限公司 视频编码方法、视频解码方法和传输比特流的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110112240A (ko) * 2010-04-06 2011-10-12 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2017034089A1 (ko) * 2015-08-23 2017-03-02 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017036399A1 (en) * 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
WO2017058899A1 (en) * 2015-09-28 2017-04-06 Qualcomm Incorporated Improved bi-directional optical flow for video coding
WO2017082698A1 (ko) * 2015-11-11 2017-05-18 삼성전자 주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113747175A (zh) * 2019-06-21 2021-12-03 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596479A (zh) * 2019-06-21 2021-11-02 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
RU2810304C2 (ru) * 2019-06-21 2023-12-26 Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка Кодер, декодер, способ кодирования и способ декодирования
CN113411594A (zh) * 2019-06-21 2021-09-17 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411605A (zh) * 2019-06-21 2021-09-17 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411602A (zh) * 2019-06-21 2021-09-17 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411606A (zh) * 2019-06-21 2021-09-17 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411598A (zh) * 2019-06-21 2021-09-17 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
WO2020253769A1 (zh) * 2019-06-21 2020-12-24 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596481A (zh) * 2019-06-21 2021-11-02 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596480A (zh) * 2019-06-21 2021-11-02 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596478A (zh) * 2019-06-21 2021-11-02 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596476A (zh) * 2019-06-21 2021-11-02 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411598B (zh) * 2019-06-21 2022-05-31 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596477A (zh) * 2019-06-21 2021-11-02 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113613020A (zh) * 2019-06-21 2021-11-05 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113613021A (zh) * 2019-06-21 2021-11-05 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113709503A (zh) * 2019-06-21 2021-11-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411599A (zh) * 2019-06-21 2021-09-17 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596480B (zh) * 2019-06-21 2022-08-12 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411605B (zh) * 2019-06-21 2022-05-31 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596477B (zh) * 2019-06-21 2022-07-01 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113596478B (zh) * 2019-06-21 2022-04-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411594B (zh) * 2019-06-21 2022-05-31 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113411599B (zh) * 2019-06-21 2022-05-31 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
KR102660120B1 (ko) * 2019-06-24 2024-04-22 후아웨이 테크놀러지 컴퍼니 리미티드 이중 예측 옵티컬 플로 계산 및 이중 예측 보정에서 블록 레벨 경계 샘플 그레이디언트 계산을 위한 정수 그리드 참조 샘플의 위치를 계산하는 방법
KR20220024877A (ko) * 2019-06-24 2022-03-03 후아웨이 테크놀러지 컴퍼니 리미티드 이중 예측 옵티컬 플로 계산 및 이중 예측 보정에서 블록 레벨 경계 샘플 그레이디언트 계산을 위한 정수 그리드 참조 샘플의 위치를 계산하는 방법
CN113170176B (zh) * 2019-06-24 2022-04-26 华为技术有限公司 视频编码器、视频解码器及相应方法
EP3982633A4 (en) * 2019-06-24 2022-08-10 Huawei Technologies Co., Ltd. VIDEO ENCODER, VIDEO DECODER AND METHOD THEREOF
JP2022539030A (ja) * 2019-06-24 2022-09-07 華為技術有限公司 ビデオエンコーダ、ビデオデコーダ、及び対応する方法
AU2020308366B2 (en) * 2019-06-24 2023-12-14 Huawei Technologies Co., Ltd. Video encoder, video decoder and corresponding method
CN113170176A (zh) * 2019-06-24 2021-07-23 华为技术有限公司 视频编码器、视频解码器及相应方法
JP7410191B2 (ja) 2019-06-24 2024-01-09 華為技術有限公司 ビデオエンコーダ、ビデオデコーダ、及び対応する方法
RU2819065C2 (ru) * 2019-06-24 2024-05-13 Хуавей Текнолоджиз Ко., Лтд. Видеокодер, видеодекодер и соответствующий способ
JP2022547988A (ja) * 2019-09-10 2022-11-16 エルジー エレクトロニクス インコーポレイティド Bdofを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
RU2797358C1 (ru) * 2019-09-23 2023-06-02 Ханчжоу Хиквижен Диджитал Текнолоджи Ко., Лтд. Способ, устройство и аппарат для кодирования и декодирования
CN112804534A (zh) * 2019-11-14 2021-05-14 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN112804534B (zh) * 2019-11-14 2022-03-01 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备

Also Published As

Publication number Publication date
CN116744019A (zh) 2023-09-12
US11800142B2 (en) 2023-10-24
US20210084325A1 (en) 2021-03-18
US11800144B2 (en) 2023-10-24
CN116744018A (zh) 2023-09-12
CN116744017A (zh) 2023-09-12
US20220191539A1 (en) 2022-06-16
US20220191538A1 (en) 2022-06-16
CN116761001A (zh) 2023-09-15
US20220191541A1 (en) 2022-06-16
US20220191540A1 (en) 2022-06-16
US11800143B2 (en) 2023-10-24
KR20230135036A (ko) 2023-09-22
US11800145B2 (en) 2023-10-24
US11297344B2 (en) 2022-04-05
KR20230135037A (ko) 2023-09-22

Similar Documents

Publication Publication Date Title
WO2019045427A1 (ko) 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
WO2017188566A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2018105757A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2018066927A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017034089A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2012173415A2 (ko) 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2019190211A1 (ko) 모션 보상을 이용하는 비디오 신호 처리 방법 및 장치
WO2013002557A2 (ko) 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2011126309A2 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2012081879A1 (ko) 인터 예측 부호화된 동영상 복호화 방법
WO2013032073A1 (ko) Amvp 모드에서의 예측 블록 생성 방법
WO2013109092A1 (ko) 영상 부호화 및 복호화 방법 및 장치
WO2019117640A1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
WO2014107074A1 (ko) 스케일러블 비디오의 부호화 및 복호화를 위한 움직임 보상 방법 및 장치
WO2012005549A2 (en) Methods and apparatuses for encoding and decoding motion vector
WO2011053022A2 (en) Method and apparatus for encoding/decoding image with reference to a plurality of frames
WO2019045392A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016085231A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018199468A1 (ko) 움직임 보상을 위한 옵티컬 플로우 추정 방법 및 장치
WO2015020504A1 (ko) 병합 모드 결정 방법 및 장치
WO2018212569A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017069505A1 (ko) 영상의 부호화/복호화 방법 및 이를 위한 장치
WO2013109124A1 (ko) 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2018021585A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2019013434A1 (ko) 움직임벡터를 부호화 또는 복호화하기 위한 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18852414

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18852414

Country of ref document: EP

Kind code of ref document: A1