WO2012081949A2 - Method and apparatus for inter prediction - Google Patents

Method and apparatus for inter prediction Download PDF

Info

Publication number
WO2012081949A2
WO2012081949A2 PCT/KR2011/009772 KR2011009772W WO2012081949A2 WO 2012081949 A2 WO2012081949 A2 WO 2012081949A2 KR 2011009772 W KR2011009772 W KR 2011009772W WO 2012081949 A2 WO2012081949 A2 WO 2012081949A2
Authority
WO
WIPO (PCT)
Prior art keywords
motion information
motion
motion vector
reference picture
information
Prior art date
Application number
PCT/KR2011/009772
Other languages
French (fr)
Korean (ko)
Other versions
WO2012081949A3 (en
Inventor
임성창
김휘용
정세윤
조숙희
김종호
이하현
이진호
최진수
김진웅
안치득
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/989,126 priority Critical patent/US10397599B2/en
Priority to JP2013540905A priority patent/JP2014501091A/en
Priority claimed from KR1020110137042A external-priority patent/KR20120068743A/en
Publication of WO2012081949A2 publication Critical patent/WO2012081949A2/en
Publication of WO2012081949A3 publication Critical patent/WO2012081949A3/en
Priority to US16/456,629 priority patent/US10708614B2/en
Priority to US16/887,370 priority patent/US11206424B2/en
Priority to US17/525,053 priority patent/US11743486B2/en
Priority to US18/347,483 priority patent/US20230353774A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to image processing, and more particularly, to an inter prediction method and apparatus.
  • an inter prediction technique for predicting a pixel value included in a current picture from a previous and / or subsequent picture in time, and for predicting a pixel value included in a current picture using pixel information in the current picture.
  • An intra prediction technique an entropy encoding technique of allocating a short code to a symbol with a high frequency of appearance and a long code to a symbol with a low frequency of appearance may be used.
  • An object of the present invention is to provide an image encoding method and apparatus for improving image encoding / decoding efficiency.
  • Another object of the present invention is to provide an image decoding method and apparatus for improving image encoding / decoding efficiency.
  • Another object of the present invention is to provide an inter prediction method and apparatus for improving image encoding / decoding efficiency.
  • Another object of the present invention is to provide a method and apparatus for encoding temporal motion information that can increase image encoding / decoding efficiency.
  • Another technical problem of the present invention is to provide a method and apparatus for decoding temporal motion information that can increase image encoding / decoding efficiency.
  • An embodiment of the present invention is an inter prediction method.
  • the method includes deriving reference motion information for a decoding target unit in a current picture, and performing motion compensation on the decoding target unit using the derived reference motion information.
  • Reference motion information is motion information included in a reference picture for the current picture, and includes a reference picture list, a reference picture index, a motion vector, and a prediction direction. And a motion vector predictor.
  • deriving of the reference motion information may further include extracting the reference motion information from the reference picture.
  • the extracting the reference motion information comprises: counting the number of occurrences of each of the plurality of motion information in the reference picture, obtaining count information, and based on the obtained count information, the reference
  • the method may further include selecting the reference motion information from among the plurality of motion information in the picture.
  • the extracting of the reference motion information comprises: performing a median operation on motion information in the reference picture to derive a motion information median value and converting the motion information median value to the reference motion.
  • the method may further include extracting the information.
  • the extracting of the reference motion information may further include performing sub-sampling on the motion information in the reference picture.
  • the method of claim 5, wherein the performing of the subsampling includes selecting a block having a predetermined position among a plurality of second sized blocks included in the first sized block in the reference picture, and moving the corresponding block.
  • the method may further include extracting the information as the reference motion information, and each motion information in the reference picture may be stored in units of the second size block.
  • the extracting of the reference motion information comprises: grouping motion information in the reference picture into a plurality of groups and based on a frequency of occurrence of motion information in each of the plurality of groups. And selecting the number of pieces of motion information as the reference motion information, wherein in the grouping step, a depth value of a unit included in the reference picture, a size of a unit included in the reference picture, and The grouping may be performed based on at least one characteristic of a partition form of a unit included in the reference picture.
  • the extracting of the reference motion information comprises: dividing the reference picture into a plurality of areas, and in each of the plurality of areas, a predetermined number of pieces of motion information are based on a frequency of occurrence of motion information.
  • the method may further include selecting reference motion information.
  • the step of extracting the reference motion information may include selecting a predetermined number of motion information based on a frequency of occurrence of motion information in each of the reference pictures. It may further include.
  • step of extracting the reference motion information, for each of the reference picture, the step of deriving a temporal distance from the current picture and based on the derived temporal distance, the selected motion information Scaling may be further included.
  • performing the motion compensation comprises: receiving and decoding a motion vector difference with respect to the decoding target unit, deriving a predicted motion vector with respect to the decoding target unit Deriving a motion vector for the decoding target unit using the decoded motion vector difference and the derived predicted motion vector, and using the derived motion vector, motion compensation for the decoding target unit. It may further comprise the step of performing.
  • the predicting motion vector deriving step comprises: generating a motion vector candidate for the decoding target unit using the reference motion information and using the motion vector candidate, The method may further include deriving a predicted motion vector.
  • the performing of motion compensation comprises: receiving and decoding a merge index, generating a merge candidate list using the reference motion information, and the merge candidate
  • the method may further include selecting motion information indicated by the merge index from a merge candidate included in a list, and performing motion compensation on the decoding target unit by using the selected motion information.
  • the step of performing motion compensation includes: receiving and decoding an encoded motion information index; among the reference motion information, a motion indicated by the motion information index
  • the method may further include selecting information and performing motion compensation on the decoding target unit by using the selected motion information.
  • the deriving of the reference motion information may further include receiving encoded reference motion information and decoding the received reference motion information.
  • the received reference motion information may be decoded using differential pulse code modulation (DPCM).
  • DPCM differential pulse code modulation
  • image encoding / decoding efficiency can be improved.
  • the image decoding method According to the image decoding method according to the present invention, the image encoding / decoding efficiency can be improved.
  • image encoding / decoding efficiency can be improved.
  • image encoding / decoding efficiency can be improved.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
  • 3 is a conceptual diagram schematically illustrating an embodiment in which one unit is divided into a plurality of sub-units.
  • FIG. 4 is a flowchart schematically illustrating an embodiment of an inter prediction method in an encoder.
  • FIG. 5 shows an embodiment of a reference picture division method.
  • FIG. 6 illustrates an embodiment of a reference picture used for inter prediction and / or motion compensation for an encoding target unit.
  • FIG. 7 is a flowchart schematically illustrating an embodiment of an inter prediction method in a decoder.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus 100 may include a motion predictor 111, a motion compensator 112, an intra predictor 120, a switch 115, a subtractor 125, and a converter 130. And a quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference picture buffer 190.
  • the image encoding apparatus 100 may encode an input image in an intra mode or an inter mode and output a bitstream.
  • Intra prediction means intra prediction and inter prediction means inter prediction.
  • the switch 115 may be switched to intra, and in the inter mode, the switch 115 may be switched to inter.
  • the image encoding apparatus 100 may generate a prediction block for an input block of an input image and then encode a residual between the input block and the prediction block.
  • the intra predictor 120 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
  • the motion predictor 111 may obtain a motion vector by searching for a region that best matches an input block in the reference image stored in the reference picture buffer 190 during the motion prediction process.
  • the motion compensator 112 may generate a prediction block by performing motion compensation using the motion vector.
  • the motion vector is a two-dimensional vector used for inter prediction, and may indicate an offset between the current encoding / decoding target picture and the reference picture.
  • the subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block.
  • the transform unit 130 may output a transform coefficient by performing a transform on the residual block.
  • the quantization unit 140 may output the quantized coefficient by quantizing the input transform coefficient according to the quantization parameter.
  • the entropy encoder 150 may output a bit stream by performing entropy encoding based on the values calculated by the quantizer 140 or the encoding parameter values calculated in the encoding process.
  • the entropy encoder 150 may use an encoding method such as exponential golomb, context-adaptive variable length coding (CAVLC), or context-adaptive binary arithmetic coding (CABAC) for entropy encoding.
  • CAVLC context-adaptive variable length coding
  • CABAC context-adaptive binary arithmetic coding
  • the image encoding apparatus Since the image encoding apparatus according to the embodiment of FIG. 1 performs inter prediction encoding, that is, inter prediction encoding, the currently encoded image needs to be decoded and stored to be used as a reference image. Accordingly, the quantized coefficients are inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170. The inverse quantized and inverse transformed coefficients are added to the prediction block by the adder 175 and a reconstruction block is generated.
  • the reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstruction block or the reconstruction picture. can do.
  • the filter unit 180 may be referred to as an adaptive in-loop filter.
  • the deblocking filter can remove block distortion generated at the boundary between blocks.
  • SAO can add an appropriate offset to the pixel value to compensate for coding errors.
  • the ALF may perform filtering based on a value obtained by comparing the reconstructed image with the original image.
  • the reconstructed block that has passed through the filter unit 180 may be stored in the reference picture buffer 190.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
  • the image decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, a motion compensator 250, and an adder ( 255, a filter unit 260, and a reference picture buffer 270.
  • the image decoding apparatus 200 may receive a bitstream output from the encoder and perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image.
  • the switch In the intra mode, the switch may be switched to intra, and in the inter mode, the switch may be switched to inter.
  • the image decoding apparatus 200 may obtain a residual block from the input bitstream, generate a prediction block, and then add the residual block and the prediction block to generate a reconstructed block, that is, a reconstruction block.
  • the entropy decoder 210 may entropy decode the input bitstream according to a probability distribution to generate symbols including symbols in the form of quantized coefficients.
  • the entropy decoding method is similar to the entropy coding method described above.
  • the entropy decoding method When the entropy decoding method is applied, a small number of bits are allocated to a symbol having a high probability of occurrence and a large number of bits are allocated to a symbol having a low probability of occurrence, whereby the size of the bit string for each symbol is increased. Can be reduced. Therefore, the compression performance of image decoding can be improved through an entropy decoding method.
  • the quantized coefficient is inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and as a result of the inverse quantization / inverse transformation of the quantized coefficient, a residual block may be generated.
  • the intra predictor 240 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
  • the motion compensator 250 may generate a predictive block by performing motion compensation using the reference image stored in the motion vector and the reference picture buffer 270.
  • the residual block and the prediction block may be added through the adder 255, and the added block may pass through the filter unit 260.
  • the filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture.
  • the filter unit 260 may output a reconstructed image, that is, a reconstructed image.
  • the reconstructed picture may be stored in the reference picture buffer 270 and used for inter prediction.
  • a unit means a unit of image encoding and decoding.
  • a coding or decoding unit refers to a divided unit when an image is divided and encoded or decoded.
  • a block, a coding unit (CU), an encoding block, and a prediction unit (PU) are used.
  • One unit may be further divided into smaller sub-units.
  • the prediction unit refers to a basic unit that is a unit of performing prediction and / or motion compensation.
  • the prediction unit may be divided into a plurality of partitions, and each partition may be called a prediction unit partition.
  • each of the plurality of partitions may be a basic unit that is a unit of performing prediction and / or motion compensation.
  • each partition in which the prediction unit is divided may also be called a prediction unit.
  • the encoder and the decoder may perform inter prediction and / or motion compensation on the encoding / decoding target unit.
  • the encoding / decoding target unit may mean a prediction unit and / or a prediction unit partition.
  • the encoder and the decoder may improve the encoding / decoding efficiency by using a motion vector of a reconstructed neighbor unit and / or a collocated unit.
  • the reconstructed neighboring unit is a neighboring unit adjacent to the encoding / decoding target unit or located at a corner of the encoding / decoding target unit, and may mean a unit that has already been encoded or decoded.
  • the same position unit may mean a unit that exists at the same spatial position as the encoding / decoding target unit in the reconstructed reference picture.
  • the motion vector of the unit included in the reference picture is referred to as a temporal motion vector.
  • the motion vector of the same location unit may be called a temporal motion vector.
  • the encoder and the decoder may use the reconstructed motion vector and / or temporal motion vector as the motion vector of the encoding / decoding target unit.
  • the encoder since the motion vector and the temporal motion vector of the reconstructed neighboring unit are used in the encoding / decoding target unit, the encoder may not encode the motion vector for the encoding / decoding target unit. Therefore, the amount of bits transmitted to the decoder can be reduced, and the coding efficiency can be improved.
  • the inter prediction mode may include a skip mode and / or a direct mode.
  • the encoder may use an identifier and / or an index indicating whether one of the reconstructed neighboring units uses a motion vector.
  • the inter prediction mode in which the identifier and / or index is used may be called a merge mode.
  • the encoder and the decoder may perform prediction and / or compensation by using the motion vector of the encoding / decoding target unit and then predict the encoding / decoding target unit when encoding the motion vector of the encoding / decoding target unit.
  • a predicted motion vector can be used.
  • the predicted motion vector may be a motion vector or a temporal motion vector of the reconstructed neighboring unit. That is, the encoder and the decoder can efficiently encode the motion vector of the encoding / decoding target unit by using the reconstructed motion vector or temporal motion vector as the predictive motion vector.
  • the encoder may generate a motion vector difference by the difference between the motion vector of the encoding target unit and the predictive motion vector.
  • the motion vector difference may mean a difference value between the motion vector of the encoding target unit and the predictive motion vector.
  • the encoder may encode the generated motion vector difference and transmit the encoded motion vector difference to the decoder.
  • the decoder may decode the motion vector difference and derive the motion vector of the decoding target unit through the sum of the decoded motion vector difference and the predictive motion vector.
  • Such an inter prediction method may be referred to as a motion vector prediction (MVP).
  • MVP motion vector prediction
  • the encoder may use an identifier and / or an index indicating which unit of the reconstructed neighboring unit is used.
  • MVP in which the identifier and / or index is additionally used, may be called Advanced Motion Vector Prediction (AMVP).
  • AMVP Advanced Motion Vector Prediction
  • the motion information in the reference picture may be used for prediction and / or motion compensation of the current encoding / decoding target unit.
  • Motion information in the reference picture used for prediction and / or motion compensation of the current encoding / decoding target unit may be referred to as temporal motion information.
  • the temporal motion information may include, for example, a temporal motion vector.
  • motion information refers to coding parameters used for inter prediction and motion compensation.
  • the encoding parameter may include information that may be inferred in the encoding or decoding process as well as information encoded by the encoder and transmitted to the decoder, such as a syntax element, and refers to information required when encoding or decoding an image. do.
  • the motion information may include at least one of a reference picture list, a reference picture index, a motion vector, a prediction direction, and a motion vector predictor. have.
  • the reference picture list is a list consisting of a plurality of reference pictures used for inter prediction.
  • Two reference picture lists may be used for inter prediction, one may be referred to as reference picture list 0 and the other may be referred to as reference picture list 1.
  • the prediction direction included in the motion information may be information indicating which reference picture list is used for inter prediction. That is, the prediction direction may indicate whether reference picture list 0 is used, reference picture list 1 is used, or whether both reference picture list 0 and reference picture list 1 are used.
  • the reference picture index is an index indicating a reference picture used for inter prediction of the encoding / decoding target unit among the reference pictures included in the reference picture list.
  • the motion vector predictor may mean a motion vector of a unit that is a prediction candidate and / or a unit that is a prediction candidate when the encoder and the decoder predict the motion vector.
  • the above-described encoding parameter may include not only motion information but also values and / or statistics such as an inter prediction mode, a coded block pattern (CBP), a block size, block partition information, and the like.
  • the block division information may include information about a depth of the unit. The depth information may indicate the number and / or degree of division of the unit.
  • 3 is a conceptual diagram schematically illustrating an embodiment in which one unit is divided into a plurality of sub-units.
  • One unit may be hierarchically divided with depth information based on a tree structure.
  • Each divided subunit may have depth information. Since the depth information indicates the number and / or degree of division of the unit, the depth information may include information about the size of the sub-unit.
  • the highest node may be called a root node and may have the smallest depth value. At this time, the highest node may have a depth of level 0 and may represent the first unit that is not divided.
  • a lower node having a depth of level 1 may indicate a unit in which the first unit is divided once, and a lower node having a depth of level 2 may indicate a unit in which the first unit is divided twice.
  • unit 320 corresponding to node a in 320 of FIG. 3 may be a unit divided once in an initial unit and may have a depth of level 1.
  • a leaf node of level 3 may indicate a unit in which the first unit is divided three times.
  • the unit d corresponding to the node d in 320 of FIG. 3 may be a unit divided three times in the first unit and may have a depth of level 3.
  • FIG. the leaf node at level 3, which is the lowest node, may have the deepest depth.
  • temporal motion information (for example, temporal motion vector) Can be used.
  • the inter prediction method using temporal motion information has a disadvantage in that a reference picture for a picture to be encoded / decoded must be stored in a memory.
  • motion information eg, a temporal motion vector
  • an error may propagate as the encoding / decoding process proceeds. Therefore, the inter prediction method using temporal motion information may also have disadvantages in terms of error resiliency. Therefore, there is a need for an inter prediction method capable of efficiently encoding / decoding motion information in a reference picture and improving error robustness.
  • FIG. 4 is a flowchart schematically illustrating an embodiment of an inter prediction method in an encoder.
  • the encoder may extract motion information of a reference picture with respect to the current picture (S410).
  • the encoder may extract N pieces of motion information among the motion information included in the reference picture.
  • the extracted motion information may be used for inter prediction and / or motion compensation of a coding target unit in a current picture.
  • N represents a positive integer, and in the embodiments described below, N means a positive integer.
  • the encoder may extract motion information of the reference picture by using at least one of the motion information extraction methods described below.
  • the encoder may extract the motion information according to the frequency of occurrence of the motion information in the reference picture. At this time, for example, the encoder may select and extract N pieces of motion information in order of occurrence frequency among the motion information in the reference picture.
  • Table 1 below shows an embodiment of a method for extracting motion information according to the frequency of occurrence of motion information.
  • the encoder may count the number of motion vector occurrences in the reference picture to obtain count information.
  • the encoder may select N motion vectors in order of occurrence frequency.
  • the extracted motion vector may be [0,0], [1,0], [0, -1].
  • the encoder may obtain count information for each component of the motion vector, not the motion vector itself, in the encoding process.
  • each component of the motion vector may mean an x component and a y component.
  • the encoder may select N components in order of occurrence frequency for each motion vector component.
  • the encoder may extract N motion vectors using the selected motion vector component.
  • the encoder may quantize the motion information of the reference picture and then count the frequency of occurrence of the quantized motion information to obtain count information.
  • the encoder may quantize a motion vector of 1/4 pixel unit into a motion vector of integer pixel unit and count the frequency of occurrence of the quantized motion vector in the encoding process.
  • the encoder may select and / or extract N motion vectors from the quantized motion vectors in order of occurrence frequency.
  • the encoder may perform quantization on the motion information according to the quantization step size.
  • the information about the quantization step size may be stored in the encoder and the decoder in the same manner.
  • the encoder since the decoder may know the quantization step size used in the encoder, the encoder may not transmit information about the quantization step size to the decoder. If the decoder does not have information about the quantization step size, the encoder may encode the information about the quantization step size and transmit it to the decoder through a bitstream. The decoder can decode the transmitted quantization step size information and use it for quantization of the motion information.
  • the encoder may extract temporal motion information by performing a predetermined process on the plurality of motion information included in the reference picture.
  • the encoder may extract temporal motion information by performing a median operation on the plurality of motion information included in the reference picture. For example, assume that there are three motion vectors [0,0], [-3,5], and [-4,2] in the reference picture. In this case, the encoder may extract one motion vector [-3, 2] by performing an intermediate value operation on each component of the motion vector.
  • the encoder may extract N pieces of motion information by performing sub-sampling on a plurality of pieces of motion information included in a reference picture. For example, assume that motion vectors in a reference picture are arranged in a two-dimensional form as shown in Table 2 below.
  • the encoder may extract motion vectors existing in odd-numbered rows and odd-numbered columns in a two-dimensional motion vector array through subsampling.
  • four motion vectors may be extracted, such as [-2, 4], [0, -1], [5, -1], and [-2, 1].
  • the encoder may extract a motion vector corresponding to a specific position in a two-dimensional motion vector array.
  • the encoder may extract a motion vector corresponding to a specific position in the two-dimensional motion vector array.
  • the motion vectors may be stored in a two-dimensional motion vector array in units of 4 ⁇ 4 blocks.
  • the encoder may select a block corresponding to a predetermined position from among 4x4 size blocks included in the 16x16 size block, and extract a motion vector corresponding to the selected block.
  • the predetermined position may be, for example, the leftmost upper position in the block of 16 ⁇ 16 size.
  • the predetermined position may be a position corresponding to the motion vector of [-2, 4].
  • the encoder may extract a motion vector of [-2, 4].
  • the encoder may classify and / or group motion information in the reference picture into a plurality of groups based on characteristics of a unit included in the reference picture.
  • the characteristics of the unit may include the depth of the unit, the size of the unit, and / or the partition form of the unit.
  • the encoder may extract M motion information for each group according to a frequency of occurrence (hereinafter, M is a positive integer) and extract a total of N motion information.
  • the encoder may convert motion information in the reference picture into P groups based on the depth value of the unit. Can be classified. In this case, the encoder may obtain count information by counting the number of times the motion vector is generated for each group in the encoding process. That is, the encoder may obtain count information of the motion vector for each depth of the unit. The encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each group based on the count information.
  • N may be M * P.
  • the encoder may classify motion information in the reference picture into P groups based on the size of the unit.
  • the encoder may obtain count information by counting the number of times the motion vector is generated for each group in the encoding process. That is, the encoder can obtain count information of the motion vector for each unit size.
  • the encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each group based on the count information.
  • N may be M * P.
  • the encoder may classify motion information in the reference picture into P groups based on the partition type.
  • the encoder may obtain count information by counting the number of times the motion vector is generated for each group in the encoding process. That is, the encoder can obtain count information of the motion vector for each partition type.
  • the encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each group based on the count information.
  • N may be N * P.
  • the partition of the unit may mean a basic unit used for inter prediction and motion compensation, and may have a size of L * K (L and K are positive integers).
  • the encoder may split the reference picture into a plurality of regions.
  • each of the plurality of regions may be a region divided by a slice, and the plurality of regions may have different motion vector generation distributions.
  • the encoder may extract M (hereinafter, M is a positive integer) motion information for each region according to a frequency of occurrence, and extract a total of N temporal motion information.
  • FIG. 5 shows an embodiment of a reference picture division method.
  • a reference picture may be divided into a first region 510 and a second region 520.
  • Table 3 shows an embodiment of a method for extracting motion information according to the frequency of occurrence of motion information when the reference picture is divided into a first area 510 and a second area 520.
  • the encoder may obtain count information by counting the number of motion vector generation for each region in the encoding process. That is, the encoder may obtain count information by counting the number of motion vector occurrences for each of the first region 510 and the second region 520. At this time, the encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each region based on the count information. For example, when the reference picture is divided into two regions and M is 3, the number of extracted motion vectors may be six in total.
  • the encoder when a plurality of reference pictures are used for a coding target unit and / or a current picture, the encoder extracts M motion information for each reference picture according to a frequency of occurrence. A total of N temporal motion information can be extracted.
  • FIG. 6 illustrates an embodiment of a reference picture used for inter prediction and / or motion compensation for an encoding target unit.
  • the current picture 630 may include an encoding target unit.
  • the first reference picture 610 and the second reference picture 620 may be used for inter prediction of the encoding target unit.
  • Table 4 below shows an embodiment of a method for extracting motion information according to the frequency of occurrence of motion information when a plurality of reference pictures are used.
  • the encoder may count the number of motion vector occurrences for each reference picture to obtain count information. That is, the encoder may obtain count information by counting the number of motion vector occurrences for each of the first reference picture 610 and the second reference picture 620. In this case, the encoder may extract M total motion vectors by selecting M motion vectors in order of occurrence frequency, for each reference picture, based on the count information. For example, if two reference pictures are used and M is 3, the number of extracted motion vectors may be six in total.
  • the encoder when a plurality of reference pictures are used for the encoding target unit and / or the current picture, the encoder selects M pieces of motion information for each reference picture and then scales the selected motion information. N pieces of temporal motion information may be extracted by scaling.
  • the encoder may calculate a temporal distance from the current picture for each reference picture, and perform scaling using the calculated temporal distance.
  • the temporal distance may be a distance determined based on the display order when the current picture and the plurality of reference pictures are listed in a display order.
  • the encoder may acquire count information by counting the number of motion vector occurrences for each reference picture in the encoding process. That is, the encoder may count the number of motion vector occurrences for each reference picture to obtain count information. In this case, the encoder may select N motion vectors in total in order of occurrence frequency, for each reference picture, based on the count information, and select a total of N motion vectors.
  • the encoder may calculate, for each reference picture, a temporal distance from the current picture.
  • the encoder may perform scaling on the selected motion vector using the calculated temporal distance, and extract the scaled motion vector as a temporal motion vector for the current picture and / or the current coding unit. In this case, when the plurality of motion vectors are the same among the scaled motion vectors, the encoder may extract only one motion vector from the same motion vector as the temporal motion vector.
  • each of the reference pictures is a first reference picture and a second reference picture.
  • first temporal distance between the current picture and the first reference picture is 2 and the second temporal distance between the current picture and the second reference picture is 4.
  • the encoder may scale the motion vector selected from the first reference picture and / or the motion vector selected from the second reference picture based on the first temporal distance and the second temporal distance. For example, when the motion vectors [0, 4], [2, 4] selected in the second reference picture are scaled, the scaled motion vectors may be [0, 2], [1, 2]. At this time, since [0, 2] of the scaled motion vectors is the same as the motion vector selected from the first reference picture, the temporal motion vectors finally extracted are ⁇ [0, 2], [1, 1], [1, 2] ⁇ .
  • the decoder may extract motion information of the reference picture by using the same method as the motion information extraction method used in the encoder.
  • the encoder may not transmit the extracted motion information to the decoder.
  • the above-described motion information extraction process may be performed only in the encoder, not the decoder.
  • the encoder may encode the extracted motion information and transmit the encoded motion information to the decoder.
  • the encoder may perform inter prediction and / or motion compensation on the encoding target unit in the current picture by using the extracted temporal motion information (S420).
  • the encoder may use the extracted temporal motion information in performing a motion vector prediction (MVP) and / or an advanced motion vector prediction (AMVP) for the encoding target unit.
  • MVP motion vector prediction
  • AMVP advanced motion vector prediction
  • the encoder may use the temporal motion vector extracted from the reference picture as one of motion vector candidates.
  • the encoder may perform inter prediction and / or motion compensation using a block matching algorithm, a skip mode, or a direct mode.
  • the block matching algorithm may mean an algorithm for determining a reference unit for the encoding target unit among the reconstructed units in the reference picture.
  • the encoder may determine the reference unit for the encoding target unit from the reconstructed units in the reference picture by using the motion vector of the encoding target unit. In this case, the encoder may perform inter prediction and / or motion compensation on the encoding target unit by using the determined reference unit.
  • the motion vector and temporal motion vector of the reconstructed peripheral unit may be used as the motion vector of the encoding target unit, and the reference picture index of the reconstructed peripheral unit may be used as the reference picture index of the encoding target unit.
  • a residual signal for the current encoding target unit may be encoded and transmitted to the decoder. However, since the residual signal may not exist in the skip mode, the encoder may not encode the residual signal.
  • the encoder may perform inter prediction and / or motion compensation using a merge mode.
  • the encoder may perform inter prediction and / or motion compensation by using at least one of a motion vector and a temporal motion vector of the reconstructed neighboring unit as the motion vector of the encoding target unit.
  • the encoder may use the extracted temporal motion vector to derive the motion vector of the encoding target unit.
  • the encoder may use the extracted temporal motion vector as one of merge candidates included in a merge candidate list. That is, the encoder may generate a merge candidate list using the extracted temporal motion vector.
  • the encoder may encode the merge index and transmit the encoded index to the decoder.
  • the merge index may be an index indicating which candidate among merge candidates included in the merge candidate list is used for inter prediction and motion compensation of the encoding target unit.
  • the decoder may receive and decode the merge index, and generate a merge candidate list in the same manner as the encoder. In this case, the decoder may derive motion information used for inter prediction and motion compensation of the decoding target unit by using the generated merge candidate list and the decoded merge index.
  • the residual signal for the encoding target unit may not exist in the merge mode.
  • the encoder may not encode the residual signal, and such an encoding mode may be called a merge skip mode.
  • the temporal motion information extracted from the reference picture may be two or more.
  • the encoder may select one of the extracted plurality of temporal motion information and use the selected temporal motion information for inter prediction and / or motion compensation for the encoding target unit.
  • the encoder may select the optimal temporal motion information by a rate-distortion optimization (RDO) method.
  • RDO rate-distortion optimization
  • the rate-distortion optimization method may mean a method of selecting an optimal coding scheme in terms of distortion and distortion.
  • the encoder may calculate a rate-distortion cost when encoding is performed for each of a plurality of temporal motion vectors.
  • the encoder may select one temporal motion vector having a minimum rate-distortion cost value.
  • the encoder may use the selected temporal motion vector in performing inter prediction and / or motion compensation.
  • the encoder may encode a motion vector index for the selected temporal motion vector, and the encoded motion vector index may be included in a bitstream and transmitted to the decoder.
  • the encoder may use temporal motion information extracted from the reference picture to encode motion information of the encoding target unit.
  • the temporal motion information extracted from the reference picture may be used as a prediction value for the motion information of the encoding target unit.
  • the predicted value for the motion information of the encoding target unit is called predictive motion information
  • the predicted value for the motion vector of the encoding target unit is called a predicted motion vector.
  • the encoder may use the temporal motion vector extracted from the reference picture as a prediction motion vector for the encoding target unit.
  • the encoder may obtain a motion vector difference based on the difference between the motion vector of the encoding target unit and the predicted motion vector.
  • the encoder may encode the obtained motion vector difference, and the encoded motion vector difference may be included in a bitstream and transmitted to the decoder. Equation 1 below shows an embodiment of a motion vector difference calculation method.
  • motion_vector_difference motion_vector-extracted_motion_vector
  • motion_vector_difference may indicate a motion vector difference.
  • motion_vector may represent a motion vector of the encoding target unit
  • extracted_motion_vector may represent a temporal motion vector extracted from the reference picture.
  • the encoder may encode motion information extracted from a reference picture and / or information related to the motion information (S430).
  • the encoded information may be included in a sequence parameter set (SPS), a picture parameter set (PPS), or a slice header of the encoding target unit and transmitted to the decoder.
  • SPS sequence parameter set
  • PPS picture parameter set
  • slice header of the encoding target unit
  • the encoder may encode a motion information encoding indicator indicating whether motion information extracted from a reference picture is encoded and transmitted to the decoder.
  • the motion information encoding indicator may indicate whether the extracted motion information is used for inter prediction and motion compensation.
  • the encoded motion information encoding indicator may be included in the bitstream and transmitted to the decoder.
  • the motion information encoding indicator may be represented by a syntax element called coded_motion_vector_present_flag.
  • the syntax element may be encoded in a picture parameter set or slice header.
  • the encoder may encode the extracted temporal motion information and transmit the encoded temporal motion information to the decoder. At this time, the decoder may decode the transmitted temporal motion information. The decoder may perform inter prediction and motion compensation on a decoding target unit by using the decoded temporal motion information. If the value of coded_motion_vector_present_flag is 0, the encoder may not code the extracted temporal motion information. In this case, the decoder may not use the extracted temporal motion information in performing inter prediction and motion compensation.
  • the encoder may encode the motion information value extracted from the reference picture.
  • the encoded motion information value may be included in the bitstream and transmitted to the decoder.
  • the encoder may encode the extracted motion vector values using difference pulse code modulation (DPCM).
  • DPCM difference pulse code modulation
  • the encoder may perform prediction for each motion vector by using the DPCM.
  • the first motion vector may be represented by extracted_motion_vector_1 and the second motion vector may be represented by extracted_motion_vector_2.
  • the first motion vector value may be used as a prediction value for the second motion vector value.
  • the encoder may obtain a motion vector difference with respect to the second motion vector by using the prediction value (first motion vector value). This can be represented by Equation 2 as an example.
  • motion_vector_difference_2 may represent a motion vector difference with respect to the second motion vector.
  • the encoder may encode the derived motion vector difference value and transmit the encoded motion vector difference value to the decoder.
  • the encoder may encode the extracted motion information value itself without performing prediction on the extracted motion information.
  • the encoded motion information value may be included in the bitstream and transmitted to the decoder.
  • the number of motion information extracted from the reference picture may be two or more.
  • the encoder may select one of the extracted plurality of motion information and use the inter prediction and / or motion compensation for the encoding target unit.
  • the encoder may encode a motion information index indicating which motion information of the extracted plurality of motion information is used.
  • the encoded motion information index may be included in the bitstream and transmitted to the decoder.
  • Table 5 below shows an embodiment of the extracted motion vectors when the number of motion vectors extracted from the reference picture is two or more.
  • each motion vector may be assigned a motion information index.
  • the encoder may encode and transmit the motion information index value 2 to the decoder.
  • the decoder may derive a motion vector used for inter prediction and motion compensation by using the transmitted motion information index.
  • the encoder may not encode the motion information index.
  • the decoder can extract N (N is a positive integer) temporal motion information in the same manner as the encoder.
  • the extracted temporal motion information may be used for inter prediction and motion compensation for a decoding target unit.
  • the encoder may not encode the temporal motion information value and / or the motion information index extracted from the reference picture.
  • the encoder can efficiently encode temporal motion information during image encoding.
  • the encoder may not store the motion information in the reference picture in the memory, the memory requirement and the memory bandwidth are reduced and the error robustness is reduced in inter prediction and motion compensation for the encoding target unit. Can be improved. Therefore, the overall image coding efficiency can be improved.
  • FIG. 7 is a flowchart schematically illustrating an embodiment of an inter prediction method in a decoder.
  • the decoder may extract motion information of a reference picture with respect to the current picture (S710).
  • the decoder may extract N pieces of motion information among the motion information included in the reference picture.
  • the extracted motion information may be used for inter prediction and / or motion compensation of a decoding target unit in a current picture.
  • N represents a positive integer, and in the embodiments described below, N means a positive integer.
  • the decoder may extract motion information of the reference picture by using the same method as the motion information extraction method used in the encoder. In this case, the decoder may extract the same motion information as the temporal motion information extracted by the encoder. Embodiments of the motion information extraction method have been described above with reference to FIG.
  • the encoder may encode the motion information value extracted from the reference picture, and the encoded motion information value may be included in the bitstream and transmitted to the decoder.
  • the decoder since the decoder may derive motion information of the reference picture from the transmitted bitstream, the decoder may not perform the motion information extraction process.
  • the decoder may decode motion information and / or information related to the motion information of the reference picture transmitted from the encoder (S720).
  • the decoder may decode the information in a sequence parameter set (SPS), a picture parameter set (PPS), or a slice header.
  • SPS sequence parameter set
  • PPS picture parameter set
  • slice header a slice header
  • the decoder may decode a motion information encoding indicator indicating whether temporal motion information extracted from the encoder is encoded and transmitted to the decoder.
  • the motion information encoding indicator may indicate whether temporal motion information extracted by the encoder is used for inter prediction and motion compensation.
  • the motion information encoding indicator may be represented by a syntax element called coded_motion_vector_present_flag.
  • the syntax element may be decoded in a picture parameter set or slice header.
  • the encoder may encode temporal motion information extracted from the reference picture and transmit the encoded motion information to the decoder. At this time, the decoder may decode the transmitted temporal motion information. The decoder may perform inter prediction and motion compensation on a decoding target unit by using the decoded temporal motion information.
  • the encoder may not code temporal motion information extracted from the reference picture. In this case, the decoder may not decode the extracted temporal motion information, and may not use the extracted temporal motion information in performing inter prediction and motion compensation.
  • the encoder may encode the motion information value extracted from the reference picture and transmit the encoded information to the decoder.
  • the decoder may receive and decode the transmitted motion information value.
  • the encoder predicts the extracted motion vector value using DPCM, and then encodes the difference between the predicted motion vector value and the extracted motion vector value, that is, the motion vector difference. have.
  • the encoded motion vector difference may be transmitted to the decoder, and the decoder may derive temporal motion information using the transmitted motion vector difference.
  • the encoded motion vectors are called first motion vectors and second motion vectors, respectively.
  • the first motion vector may be represented by extracted_motion_vector_1 and the second motion vector may be represented by extracted_motion_vector_2.
  • the first motion vector value may be used as a prediction value for the second motion vector value.
  • the encoder may transmit the motion vector difference with respect to the second motion vector to the decoder.
  • the motion vector difference with respect to the second motion vector may be represented by motion_vector_difference_2.
  • the decoder may decode the first motion vector value.
  • the decoder may decode a motion vector difference with respect to the second motion vector, and derive a second motion vector value by adding the decoded motion vector difference to the first motion vector value. This can be represented by Equation 3 below as an example.
  • the encoder may encode the extracted motion information value itself and transmit the encoded motion information value itself to the decoder without performing prediction on the extracted motion information.
  • the decoder may decode the transmitted motion information value itself without performing prediction on the motion information.
  • the number of motion information extracted from the reference picture may be two or more.
  • the motion information may be extracted by the encoder and transmitted to the decoder or may be extracted by the decoder.
  • the decoder may select one of the plurality of motion information and use the inter prediction and / or motion compensation for the decoding target unit.
  • the encoder may encode the motion information index and transmit it to the decoder.
  • the motion information index is an index indicating which motion information of the extracted plurality of motion information is used.
  • the decoder may decode the received motion information index. Since the decoder may have a plurality of motion information identical to the motion information extracted by the encoder, the decoder may select motion information used for inter prediction and motion compensation using the decoded motion information index.
  • Table 6 below shows an embodiment of the extracted motion vectors when the number of motion vectors extracted from the reference picture is two or more.
  • each motion vector may be assigned a motion information index. For example, if the motion information index value transmitted from the encoder is 2, the decoder may use the motion vector [0, -1] assigned the index value of 2 for inter prediction and motion compensation.
  • the encoder may not encode the motion information index.
  • the decoder may not decode the motion information index.
  • the decoder may extract N pieces of temporal motion information in the same manner as the encoder.
  • the extracted temporal motion information may be used for inter prediction and motion compensation for a decoding target unit.
  • the encoder may not encode the temporal motion information value and / or the motion information index extracted from the reference picture.
  • the decoder may not decode the motion information value and the motion information index. That is, the above-described decoding process such as the motion information value and the motion information index may be omitted.
  • the decoder may derive temporal motion information of the reference picture.
  • the motion information of the reference picture derived from the decoder may be the same as the temporal motion information extracted from the encoder.
  • the motion information of the reference picture derived from the decoder is referred to as reference motion information
  • the motion vector of the reference picture derived from the decoder is called a reference motion vector.
  • the decoder may perform inter prediction and / or motion compensation on the decoding target unit in the current picture by using the reference motion information derived by the above-described method (S730).
  • the decoder may use the reference motion information when performing a motion vector prediction (MVP) and / or an advanced motion vector prediction (AMVP) for a decoding target unit.
  • MVP motion vector prediction
  • AMVP advanced motion vector prediction
  • the decoder may use the reference motion vector as one of motion vector candidates.
  • the decoder may perform inter prediction and / or motion compensation using the reference motion vector.
  • the motion vector and temporal motion vector of the reconstructed neighboring unit may be used as the motion vector of the decoded unit, and the reference picture index of the reconstructed neighboring unit may be used as the reference picture index of the decoded unit.
  • the direct mode a residual signal for the current decoding target unit may be decoded. However, since the residual signal may not exist in the skip mode, the decoder may not decode the residual signal.
  • the decoder may perform inter prediction and / or motion compensation using a merge mode.
  • the decoder may perform inter prediction and / or motion compensation by using at least one of the reconstructed neighboring unit's motion vector and temporal motion vector as the motion vector of the decoding target unit.
  • the decoder may use the reference motion vector to derive the motion vector of the decoding target unit.
  • the decoder may use the reference motion vector as one of the merge candidates included in the merge candidate list.
  • the decoder may not decode the residual signal, and such an encoding mode may be called a merge skip mode.
  • the reference motion information derived from the decoder may be two or more.
  • the decoder may select one of the derived plurality of reference motion information and use the selected reference motion information for inter prediction and / or motion compensation for the encoding target unit.
  • the decoder may decode the motion information index transmitted from the encoder and select reference motion information used for inter prediction and motion compensation using the decoded motion information index.
  • the motion information index may indicate which reference motion information is used among the derived plurality of reference motion information.
  • the decoder may use the reference motion information to derive the motion information of the decoding target unit.
  • the reference motion information may be used as a prediction value for the motion information of the decoding target unit.
  • the decoder may use the reference motion vector as the prediction motion vector for the decoding target unit.
  • the predicted motion vector may mean a predicted value for the motion vector of the decoding target unit.
  • the encoder may derive the motion vector difference between the motion vector of the encoding target unit and the motion vector extracted from the reference picture and transmit the difference to the decoder.
  • the decoder may receive and decode the motion vector difference, and may add a decoded motion vector difference and a reference motion vector to derive a motion vector of the decoding target unit. This can be represented, for example, by the following equation (4).
  • motion_vector motion_vector_difference + extracted_motion_vector
  • motion_vector may represent a motion vector of the decoding target unit.
  • motion_vector_difference may indicate a motion vector difference
  • extracted_motion_vector may indicate a reference motion vector.
  • the decoder can efficiently decode temporal motion information during image decoding.
  • the decoder since the decoder may not store the motion information in the reference picture in the memory, when inter prediction and motion compensation for the decoding target unit, the memory requirement and the memory bandwidth are reduced, and the error robustness is reduced. Can be improved. Therefore, the overall image decoding efficiency can be improved.
  • the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and certain steps may occur in a different order or at the same time than other steps described above. Can be. Also, one of ordinary skill in the art appreciates that the steps shown in the flowcharts are not exclusive, that other steps may be included, or that one or more steps in the flowcharts may be deleted without affecting the scope of the present invention. I can understand.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An inter prediction method according to the present invention comprises: a step for deriving reference motion information related to a unit to be decoded in a current picture; and a step for performing motion compensation for the unit to be decoded, using the reference motion information that has been derived. According to the present invention, image encoding/decoding efficiency can be enhanced.

Description

인터 예측 방법 및 그 장치Inter prediction method and apparatus
본 발명은 영상 처리에 관한 것으로서, 보다 상세하게는 인터 예측 방법 및 장치에 관한 것이다.The present invention relates to image processing, and more particularly, to an inter prediction method and apparatus.
최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.Recently, as broadcasting services having high definition (HD) resolution have been expanded not only in Korea but also in the world, many users are accustomed to high resolution and high quality images, and many organizations are accelerating the development of next generation video equipment. In addition, as interest in Ultra High Definition (UHD), which has four times the resolution of HDTV, is increasing along with HDTV, a compression technology for higher resolution and higher quality images is required.
영상 압축을 위해, 시간적으로 이전 및/또는 이후의 픽쳐로부터 현재 픽쳐에 포함된 픽셀값을 예측하는 인터(inter) 예측 기술, 현재 픽쳐 내의 픽셀 정보를 이용하여 현재 픽쳐에 포함된 픽셀값을 예측하는 인트라(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 사용될 수 있다.For image compression, an inter prediction technique for predicting a pixel value included in a current picture from a previous and / or subsequent picture in time, and for predicting a pixel value included in a current picture using pixel information in the current picture. An intra prediction technique, an entropy encoding technique of allocating a short code to a symbol with a high frequency of appearance and a long code to a symbol with a low frequency of appearance may be used.
본 발명의 기술적 과제는 영상 부호화/복호화 효율을 높일 수 있는 영상 부호화 방법 및 장치를 제공함에 있다.An object of the present invention is to provide an image encoding method and apparatus for improving image encoding / decoding efficiency.
본 발명의 다른 기술적 과제는 영상 부호화/복호화 효율을 높일 수 있는 영상 복호화 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide an image decoding method and apparatus for improving image encoding / decoding efficiency.
본 발명의 또 다른 기술적 과제는 영상 부호화/복호화 효율을 높일 수 있는 인터 예측 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide an inter prediction method and apparatus for improving image encoding / decoding efficiency.
본 발명의 또 다른 기술적 과제는 영상 부호화/복호화 효율을 높일 수 있는 시간적 움직임 정보 부호화 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide a method and apparatus for encoding temporal motion information that can increase image encoding / decoding efficiency.
본 발명의 또 다른 기술적 과제는 영상 부호화/복호화 효율을 높일 수 있는 시간적 움직임 정보 복호화 방법 및 장치를 제공함에 있다.Another technical problem of the present invention is to provide a method and apparatus for decoding temporal motion information that can increase image encoding / decoding efficiency.
1. 본 발명의 일 실시 형태는 인터 예측 방법이다. 상기 방법은 현재 픽쳐 내의 복호화 대상 유닛에 대한, 참조 움직임 정보를 도출하는 단계 및 상기 도출된 참조 움직임 정보를 이용하여 상기 복호화 대상 유닛에 대한 움직임 보상(motion compensation)을 수행하는 단계를 포함하고, 상기 참조 움직임 정보는, 상기 현재 픽쳐에 대한 참조 픽쳐에 포함된 움직임 정보이고, 참조 픽쳐 리스트(reference picture list), 참조 픽쳐 인덱스(reference picture index), 움직임 벡터(motion vector), 예측 방향(prediction direction) 및 움직임 벡터 예측기(motion vector predictor) 중 적어도 하나를 포함한다.1. An embodiment of the present invention is an inter prediction method. The method includes deriving reference motion information for a decoding target unit in a current picture, and performing motion compensation on the decoding target unit using the derived reference motion information. Reference motion information is motion information included in a reference picture for the current picture, and includes a reference picture list, a reference picture index, a motion vector, and a prediction direction. And a motion vector predictor.
2. 1에 있어서, 상기 참조 움직임 정보 도출 단계는, 상기 참조 픽쳐에서 상기 참조 움직임 정보를 추출(extract)하는 단계를 더 포함할 수 있다.2. The method of claim 1, wherein the deriving of the reference motion information may further include extracting the reference motion information from the reference picture.
3. 2에 있어서, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐 내의 복수의 움직임 정보 각각의 발생 회수를 카운트(count)하여 카운트 정보를 획득하는 단계 및 상기 획득된 카운트 정보에 기반하여, 상기 참조 픽쳐 내의 복수의 움직임 정보 중에서 상기 참조 움직임 정보를 선택하는 단계를 더 포함할 수 있다.3. The method of claim 2, wherein the extracting the reference motion information comprises: counting the number of occurrences of each of the plurality of motion information in the reference picture, obtaining count information, and based on the obtained count information, the reference The method may further include selecting the reference motion information from among the plurality of motion information in the picture.
4. 2에 있어서, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐 내의 움직임 정보에 대해 중간값 연산(median operation)을 수행하여 움직임 정보 중간값을 도출하는 단계 및 상기 움직임 정보 중간값을 상기 참조 움직임 정보로 추출하는 단계를 더 포함할 수 있다.4. The method of claim 2, wherein the extracting of the reference motion information comprises: performing a median operation on motion information in the reference picture to derive a motion information median value and converting the motion information median value to the reference motion. The method may further include extracting the information.
5. 2에 있어서, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐 내의 움직임 정보에 대해 서브 샘플링(sub-sampling)을 수행하는 단계를 더 포함할 수 있다.5. The method of claim 2, wherein the extracting of the reference motion information may further include performing sub-sampling on the motion information in the reference picture.
6. 5에 있어서, 상기 서브 샘플링 수행 단계는, 상기 참조 픽쳐 내의 제1 크기의 블록에 포함된 복수의 제2 크기의 블록 중에서 소정의 위치의 블록을 선택하는 단계 및 상기 선택된 블록에 해당되는 움직임 정보를 상기 참조 움직임 정보로 추출하는 단계를 더 포함하고, 상기 참조 픽쳐 내의 각각의 움직임 정보는, 상기 제2 크기의 블록 단위로 저장될 수 있다.6. The method of claim 5, wherein the performing of the subsampling includes selecting a block having a predetermined position among a plurality of second sized blocks included in the first sized block in the reference picture, and moving the corresponding block. The method may further include extracting the information as the reference motion information, and each motion information in the reference picture may be stored in units of the second size block.
7. 6에 있어서, 상기 소정의 위치는 상기 제1 크기의 블록 내의 가장 좌측 상단 위치일 수 있다.7. The method of 6, wherein the predetermined position may be the leftmost upper position in the block of the first size.
8. 2에 있어서, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐 내의 움직임 정보를 복수의 그룹으로 그룹화(grouping)하는 단계 및 상기 복수의 그룹 각각에서, 움직임 정보의 발생 빈도를 기반으로, 소정의 개수의 움직임 정보를 상기 참조 움직임 정보로 선택하는 단계를 더 포함하고, 상기 그룹화 단계에서는, 상기 참조 픽쳐에 포함된 유닛의 깊이(depth) 값, 상기 참조 픽쳐에 포함된 유닛의 크기(size) 및 상기 참조 픽쳐에 포함된 유닛의 파티션(partition) 형태 중 적어도 하나의 특성을 기반으로, 상기 그룹화를 수행할 수 있다.8. The method of claim 2, wherein the extracting of the reference motion information comprises: grouping motion information in the reference picture into a plurality of groups and based on a frequency of occurrence of motion information in each of the plurality of groups. And selecting the number of pieces of motion information as the reference motion information, wherein in the grouping step, a depth value of a unit included in the reference picture, a size of a unit included in the reference picture, and The grouping may be performed based on at least one characteristic of a partition form of a unit included in the reference picture.
9. 2에 있어서, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐를 복수의 영역으로 분할하는 단계 및 상기 복수의 영역 각각에서, 움직임 정보의 발생 빈도를 기반으로, 소정의 개수의 움직임 정보를 상기 참조 움직임 정보로 선택하는 단계를 더 포함할 수 있다.9. The method of claim 2, wherein the extracting of the reference motion information comprises: dividing the reference picture into a plurality of areas, and in each of the plurality of areas, a predetermined number of pieces of motion information are based on a frequency of occurrence of motion information. The method may further include selecting reference motion information.
10. 2에 있어서, 상기 참조 픽쳐의 개수가 2 이상인 경우, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐 각각에서, 움직임 정보의 발생 빈도를 기반으로, 소정의 개수의 움직임 정보를 선택하는 단계를 더 포함할 수 있다.10. The method of claim 2, wherein if the number of the reference pictures is two or more, the step of extracting the reference motion information may include selecting a predetermined number of motion information based on a frequency of occurrence of motion information in each of the reference pictures. It may further include.
11. 10에 있어서, 상기 참조 움직임 정보 추출 단계는, 상기 참조 픽쳐 각각에 대해, 상기 현재 픽쳐로부터의 시간적 거리(temporal distance)를 도출하는 단계 및 상기 도출된 시간적 거리를 기반으로, 상기 선택된 움직임 정보를 스케일링하는 단계를 더 포함할 수 있다.11. The method of claim 10, wherein the step of extracting the reference motion information, for each of the reference picture, the step of deriving a temporal distance from the current picture and based on the derived temporal distance, the selected motion information Scaling may be further included.
12. 1에 있어서, 상기 움직임 보상 수행 단계는, 상기 복호화 대상 유닛에 대한 움직임 벡터 차분(motion information difference)을 수신하여 복호화하는 단계, 상기 복호화 대상 유닛에 대한 예측 움직임 벡터(predicted motion vector)를 도출하는 단계, 상기 복호화된 움직임 벡터 차분 및 상기 도출된 예측 움직임 벡터를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 벡터를 도출하는 단계 및 상기 도출된 움직임 벡터를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 보상을 수행하는 단계를 더 포함할 수 있다.12. The method of 1, wherein performing the motion compensation comprises: receiving and decoding a motion vector difference with respect to the decoding target unit, deriving a predicted motion vector with respect to the decoding target unit Deriving a motion vector for the decoding target unit using the decoded motion vector difference and the derived predicted motion vector, and using the derived motion vector, motion compensation for the decoding target unit. It may further comprise the step of performing.
13. 12에 있어서, 상기 예측 움직임 벡터 도출 단계는, 상기 참조 움직임 정보를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 벡터 후보(motion vector candidate)를 생성하는 단계 및 상기 움직임 벡터 후보를 이용하여, 상기 예측 움직임 벡터를 도출하는 단계를 더 포함할 수 있다.13. The method of claim 12, wherein the predicting motion vector deriving step comprises: generating a motion vector candidate for the decoding target unit using the reference motion information and using the motion vector candidate, The method may further include deriving a predicted motion vector.
14. 1에 있어서, 상기 움직임 보상 수행 단계는, 머지 인덱스(merge index)를 수신하여 복호화하는 단계, 상기 참조 움직임 정보를 이용하여, 머지 후보 리스트(merge candidate list)를 생성하는 단계, 상기 머지 후보 리스트에 포함된 머지 후보 중에서 상기 머지 인덱스가 지시하는 움직임 정보를 선택하는 단계 및 상기 선택된 움직임 정보를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 보상을 수행하는 단계를 더 포함할 수 있다. 14. The method of claim 1, wherein the performing of motion compensation comprises: receiving and decoding a merge index, generating a merge candidate list using the reference motion information, and the merge candidate The method may further include selecting motion information indicated by the merge index from a merge candidate included in a list, and performing motion compensation on the decoding target unit by using the selected motion information.
15. 1에 있어서, 상기 참조 움직임 정보의 개수가 2 이상인 경우, 상기 움직임 보상 수행 단계는, 부호화된 움직임 정보 인덱스를 수신하여 복호화하는 단계, 상기 참조 움직임 정보 중에서, 상기 움직임 정보 인덱스가 지시하는 움직임 정보를 선택하는 단계 및 상기 선택된 움직임 정보를 이용하여 상기 복호화 대상 유닛에 대한 움직임 보상을 수행하는 단계를 더 포함할 수 있다.15. The method of 1, wherein when the number of the reference motion information is 2 or more, the step of performing motion compensation includes: receiving and decoding an encoded motion information index; among the reference motion information, a motion indicated by the motion information index The method may further include selecting information and performing motion compensation on the decoding target unit by using the selected motion information.
16. 1에 있어서, 상기 참조 움직임 정보 도출 단계는, 부호화된 참조 움직임 정보를 수신하는 단계 및 상기 수신된 참조 움직임 정보를 복호화하는 단계를 더 포함할 수 있다.16. The method of claim 1, wherein the deriving of the reference motion information may further include receiving encoded reference motion information and decoding the received reference motion information.
17. 16에 있어서, 상기 부호화된 참조 움직임 정보의 개수가 2 이상인 경우, 상기 복호화 단계에서는, DPCM(Differential Pulse Code Modulation)을 이용하여, 상기 수신된 참조 움직임 정보를 복호화할 수 있다.In 17. 16, when the number of the encoded reference motion information is two or more, in the decoding step, the received reference motion information may be decoded using differential pulse code modulation (DPCM).
본 발명에 따른 영상 부호화 방법에 의하면, 영상 부호화/복호화 효율이 향상될 수 있다.According to the image encoding method according to the present invention, image encoding / decoding efficiency can be improved.
본 발명에 따른 영상 복호화 방법에 의하면, 영상 부호화/복호화 효율이 향상될 수 있다.According to the image decoding method according to the present invention, the image encoding / decoding efficiency can be improved.
본 발명에 따른 인터 예측 방법에 의하면, 영상 부호화/복호화 효율이 향상될 수 있다.According to the inter prediction method according to the present invention, image encoding / decoding efficiency can be improved.
본 발명에 따른 시간적 움직임 정보 부호화 방법에 의하면, 영상 부호화/복호화 효율이 향상될 수 있다.According to the temporal motion information encoding method according to the present invention, image encoding / decoding efficiency can be improved.
본 발명에 따른 시간적 움직임 정보 복호화 방법에 의하면, 영상 부호화/복호화 효율이 향상될 수 있다.According to the temporal motion information decoding method according to the present invention, image encoding / decoding efficiency can be improved.
도 1은 본 발명이 적용되는 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
도 2는 본 발명이 적용되는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
도 3은 하나의 유닛이 복수의 하위 유닛으로 분할되는 실시예를 개략적으로 나타내는 개념도이다.3 is a conceptual diagram schematically illustrating an embodiment in which one unit is divided into a plurality of sub-units.
도 4는 부호화기에서의 인터 예측 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 4 is a flowchart schematically illustrating an embodiment of an inter prediction method in an encoder.
도 5는 참조 픽쳐 분할 방법의 실시예를 나타낸다.5 shows an embodiment of a reference picture division method.
도 6은 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상에 사용되는 참조 픽쳐의 실시예를 나타낸다.FIG. 6 illustrates an embodiment of a reference picture used for inter prediction and / or motion compensation for an encoding target unit.
도 7은 복호화기에서의 인터 예측 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 7 is a flowchart schematically illustrating an embodiment of an inter prediction method in a decoder.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present specification, the detailed description thereof will be omitted.
어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. When a component is said to be “connected” or “connected” to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may exist in between. Should be. In addition, the description "include" a specific configuration in the present invention does not exclude a configuration other than the configuration, it means that additional configuration may be included in the scope of the technical spirit of the present invention or the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function. Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance. The present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
도 1은 본 발명이 적용되는 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽쳐 버퍼(190)를 포함한다. Referring to FIG. 1, the image encoding apparatus 100 may include a motion predictor 111, a motion compensator 112, an intra predictor 120, a switch 115, a subtractor 125, and a converter 130. And a quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference picture buffer 190.
영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림을 출력할 수 있다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라로 전환되고, 인터 모드인 경우 스위치(115)가 인터로 전환될 수 있다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분(residual)을 부호화할 수 있다.The image encoding apparatus 100 may encode an input image in an intra mode or an inter mode and output a bitstream. Intra prediction means intra prediction and inter prediction means inter prediction. In the intra mode, the switch 115 may be switched to intra, and in the inter mode, the switch 115 may be switched to inter. The image encoding apparatus 100 may generate a prediction block for an input block of an input image and then encode a residual between the input block and the prediction block.
인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 픽셀값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.In the intra mode, the intra predictor 120 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 픽쳐 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구할 수 있다. 움직임 보상부(112)는 움직임 벡터를 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. 여기서, 움직임 벡터는 인터 예측에 사용되는 2차원 벡터이며, 현재 부호화/복호화 대상 픽쳐와 참조 픽쳐 사이의 오프셋을 나타낼 수 있다.In the inter mode, the motion predictor 111 may obtain a motion vector by searching for a region that best matches an input block in the reference image stored in the reference picture buffer 190 during the motion prediction process. The motion compensator 112 may generate a prediction block by performing motion compensation using the motion vector. Here, the motion vector is a two-dimensional vector used for inter prediction, and may indicate an offset between the current encoding / decoding target picture and the reference picture.
감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 잔차 블록(residual block)을 생성할 수 있다. 변환부(130)는 잔차 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다. The subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block. The transform unit 130 may output a transform coefficient by performing a transform on the residual block. The quantization unit 140 may output the quantized coefficient by quantizing the input transform coefficient according to the quantization parameter.
엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 기초로 엔트로피 부호화를 수행하여 비트스트림(bit stream)을 출력할 수 있다. The entropy encoder 150 may output a bit stream by performing entropy encoding based on the values calculated by the quantizer 140 or the encoding parameter values calculated in the encoding process.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다. 엔트로피 부호화부(150)는 엔트로피 부호화를 위해 지수 골룸(exponential golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법을 사용할 수 있다. When entropy encoding is applied, a small number of bits are assigned to a symbol having a high probability of occurrence and a large number of bits are assigned to a symbol having a low probability of occurrence, thereby representing bits for encoding symbols. The size of the heat can be reduced. Therefore, compression performance of image encoding may be increased through entropy encoding. The entropy encoder 150 may use an encoding method such as exponential golomb, context-adaptive variable length coding (CAVLC), or context-adaptive binary arithmetic coding (CABAC) for entropy encoding.
도 1의 실시예에 따른 영상 부호화 장치는 인터 예측 부호화, 즉 화면 간 예측 부호화를 수행하므로, 현재 부호화된 영상은 참조 영상으로 사용되기 위해 복호화되어 저장될 필요가 있다. 따라서 양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환된다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성된다. Since the image encoding apparatus according to the embodiment of FIG. 1 performs inter prediction encoding, that is, inter prediction encoding, the currently encoded image needs to be decoded and stored to be used as a reference image. Accordingly, the quantized coefficients are inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170. The inverse quantized and inverse transformed coefficients are added to the prediction block by the adder 175 and a reconstruction block is generated.
복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(180)는 적응적 인루프(in-loop) 필터로 불릴 수도 있다. 디블록킹 필터는 블록 간의 경계에 생긴 블록 왜곡을 제거할 수 있다. SAO는 코딩 에러를 보상하기 위해 픽셀값에 적정 오프셋(offset) 값을 더해줄 수 있다. ALF는 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 필터부(180)를 거친 복원 블록은 참조 픽쳐 버퍼(190)에 저장될 수 있다.The reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstruction block or the reconstruction picture. can do. The filter unit 180 may be referred to as an adaptive in-loop filter. The deblocking filter can remove block distortion generated at the boundary between blocks. SAO can add an appropriate offset to the pixel value to compensate for coding errors. The ALF may perform filtering based on a value obtained by comparing the reconstructed image with the original image. The reconstructed block that has passed through the filter unit 180 may be stored in the reference picture buffer 190.
도 2는 본 발명이 적용되는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 가산기(255), 필터부(260) 및 참조 픽쳐 버퍼(270)를 포함한다.Referring to FIG. 2, the image decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, a motion compensator 250, and an adder ( 255, a filter unit 260, and a reference picture buffer 270.
영상 복호화 장치(200)는 부호화기에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환될 수 있다. 영상 복호화 장치(200)는 입력 받은 비트스트림으로부터 잔차 블록(residual block)을 얻고 예측 블록을 생성한 후 잔차 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.The image decoding apparatus 200 may receive a bitstream output from the encoder and perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image. In the intra mode, the switch may be switched to intra, and in the inter mode, the switch may be switched to inter. The image decoding apparatus 200 may obtain a residual block from the input bitstream, generate a prediction block, and then add the residual block and the prediction block to generate a reconstructed block, that is, a reconstruction block.
엔트로피 복호화부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient) 형태의 심볼을 포함한 심볼들을 생성할 수 있다. 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법과 유사하다.The entropy decoder 210 may entropy decode the input bitstream according to a probability distribution to generate symbols including symbols in the form of quantized coefficients. The entropy decoding method is similar to the entropy coding method described above.
엔트로피 복호화 방법이 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 각 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 복호화 방법을 통해서 영상 복호화의 압축 성능이 높아질 수 있다. When the entropy decoding method is applied, a small number of bits are allocated to a symbol having a high probability of occurrence and a large number of bits are allocated to a symbol having a low probability of occurrence, whereby the size of the bit string for each symbol is increased. Can be reduced. Therefore, the compression performance of image decoding can be improved through an entropy decoding method.
양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과, 잔차 블록(residual block)이 생성될 수 있다. The quantized coefficient is inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and as a result of the inverse quantization / inverse transformation of the quantized coefficient, a residual block may be generated.
인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 픽셀값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 픽쳐 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the intra mode, the intra predictor 240 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block. In the inter mode, the motion compensator 250 may generate a predictive block by performing motion compensation using the reference image stored in the motion vector and the reference picture buffer 270.
잔차 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거칠 수 있다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 복원 영상은 참조 픽쳐 버퍼(270)에 저장되어 인터 예측에 사용될 수 있다.The residual block and the prediction block may be added through the adder 255, and the added block may pass through the filter unit 260. The filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture. The filter unit 260 may output a reconstructed image, that is, a reconstructed image. The reconstructed picture may be stored in the reference picture buffer 270 and used for inter prediction.
이하, 유닛(unit)은 영상 부호화 및 복호화의 단위를 의미한다. 영상 부호화 및 복호화 시 부호화 혹은 복호화 단위는, 영상을 분할하여 부호화 혹은 복호화 할 때 그 분할된 단위를 의미하므로, 블록, 부호화 유닛 (CU: Coding Unit), 부호화 블록, 예측 유닛 (PU: Prediction Unit), 예측 블록, 변환 유닛(TU: Transform Unit), 변환 블록(transform block) 등으로 불릴 수 있다. 하나의 유닛은 크기가 더 작은 하위 유닛으로 더 분할될 수 있다. Hereinafter, a unit means a unit of image encoding and decoding. When encoding or decoding an image, a coding or decoding unit refers to a divided unit when an image is divided and encoded or decoded. Thus, a block, a coding unit (CU), an encoding block, and a prediction unit (PU) are used. , A prediction block, a transform unit (TU), a transform block, and so on. One unit may be further divided into smaller sub-units.
여기서, 예측 유닛은 예측 및/또는 움직임 보상 수행의 단위가 되는 기본 유닛을 의미한다. 예측 유닛은 복수의 파티션(partition)으로 분할될 수 있으며, 각각의 파티션은 예측 유닛 파티션(prediction unit partition)으로 불릴 수도 있다. 예측 유닛이 복수의 파티션으로 분할된 경우, 복수의 파티션 각각이 예측 및/또는 움직임 보상 수행의 단위가 되는 기본 유닛일 수 있다. 이하, 본 발명의 실시예에서는 예측 유닛이 분할된 각각의 파티션도 예측 유닛으로 불릴 수 있다.Here, the prediction unit refers to a basic unit that is a unit of performing prediction and / or motion compensation. The prediction unit may be divided into a plurality of partitions, and each partition may be called a prediction unit partition. When the prediction unit is divided into a plurality of partitions, each of the plurality of partitions may be a basic unit that is a unit of performing prediction and / or motion compensation. Hereinafter, in the embodiment of the present invention, each partition in which the prediction unit is divided may also be called a prediction unit.

한편, 상술한 바와 같이 인터 모드에서 부호화기 및 복호화기는 부호화/복호화 대상 유닛에 대한 인터 예측(inter prediction) 및/또는 움직임 보상(motion compensation)을 수행할 수 있다. 여기서, 부호화/복호화 대상 유닛(encoding/decoding target unit)은 예측 유닛 및/또는 예측 유닛 파티션을 의미할 수 있다. 이 때, 부호화기 및 복호화기는 복원된 주변 유닛(reconstructed neighbor unit) 및/또는 동일 위치 유닛(collocated unit)의 움직임 벡터를 이용함으로써, 부호화/복호화 효율을 향상시킬 수 있다. 여기서, 복원된 주변 유닛은 부호화/복호화 대상 유닛에 인접하거나 부호화/복호화 대상 유닛의 코너에 위치한 주변 유닛으로서, 이미 부호화 또는 복호화되어 복원된 유닛을 의미할 수 있다. 또한, 동일 위치 유닛은 복원된 참조 픽쳐 내에서 부호화/복호화 대상 유닛과 공간적으로 동일한 위치에 존재하는 유닛을 의미할 수 있다. 이하, 참조 픽쳐에 포함된 유닛의 움직임 벡터는 시간적 움직임 벡터(temporal motion vector)라 한다. 예를 들어, 동일 위치 유닛의 움직임 벡터는 시간적 움직임 벡터로 불릴 수 있다.Meanwhile, as described above, in the inter mode, the encoder and the decoder may perform inter prediction and / or motion compensation on the encoding / decoding target unit. Here, the encoding / decoding target unit may mean a prediction unit and / or a prediction unit partition. In this case, the encoder and the decoder may improve the encoding / decoding efficiency by using a motion vector of a reconstructed neighbor unit and / or a collocated unit. Here, the reconstructed neighboring unit is a neighboring unit adjacent to the encoding / decoding target unit or located at a corner of the encoding / decoding target unit, and may mean a unit that has already been encoded or decoded. In addition, the same position unit may mean a unit that exists at the same spatial position as the encoding / decoding target unit in the reconstructed reference picture. Hereinafter, the motion vector of the unit included in the reference picture is referred to as a temporal motion vector. For example, the motion vector of the same location unit may be called a temporal motion vector.
일례로, 부호화기 및 복호화기는 복원된 주변 유닛의 움직임 벡터 및/또는 시간적 움직임 벡터를 부호화/복호화 대상 유닛의 움직임 벡터로 사용할 수 있다. 이 때, 부호화/복호화 대상 유닛에서는 복원된 주변 유닛의 움직임 벡터 및 시간적 움직임 벡터가 사용되므로, 부호화기는 부호화/복호화 대상 유닛에 대한 움직임 벡터를 부호화하지 않을 수 있다. 따라서, 복호화기로 전송되는 비트량이 감소되고, 부호화 효율이 향상될 수 있다. 이러한 인터 예측 모드에는 스킵 모드(skip mode) 및/또는 다이렉트 모드(direct mode) 등이 있을 수 있다.For example, the encoder and the decoder may use the reconstructed motion vector and / or temporal motion vector as the motion vector of the encoding / decoding target unit. In this case, since the motion vector and the temporal motion vector of the reconstructed neighboring unit are used in the encoding / decoding target unit, the encoder may not encode the motion vector for the encoding / decoding target unit. Therefore, the amount of bits transmitted to the decoder can be reduced, and the coding efficiency can be improved. The inter prediction mode may include a skip mode and / or a direct mode.
이 때, 부호화기는 복원된 주변 유닛 중 어떤 유닛의 움직임 벡터가 사용되는지 여부를 지시하는 식별자 및/또는 인덱스를 사용할 수 있다. 상기 식별자 및/또는 인덱스가 사용되는 인터 예측 모드는 머지 모드(merge mode)로 불릴 수 있다. In this case, the encoder may use an identifier and / or an index indicating whether one of the reconstructed neighboring units uses a motion vector. The inter prediction mode in which the identifier and / or index is used may be called a merge mode.
다른 예로, 부호화기 및 복호화기는, 부호화/복호화 대상 유닛의 움직임 벡터를 이용하여 예측 및/또는 보상을 수행한 후 부호화/복호화 대상 유닛의 움직임 벡터를 부호화할 때, 상기 부호화/복호화 대상 유닛에 대한 예측 움직임 벡터(predicted motion vector)를 이용할 수 있다. 여기서, 예측 움직임 벡터는 복원된 주변 유닛의 움직임 벡터 또는 시간적 움직임 벡터일 수 있다. 즉, 부호화기 및 복호화기는 복원된 주변 유닛의 움직임 벡터 또는 시간적 움직임 벡터를 예측 움직임 벡터로 사용하여, 부호화/복호화 대상 유닛의 움직임 벡터를 효율적으로 부호화할 수 있다.As another example, the encoder and the decoder may perform prediction and / or compensation by using the motion vector of the encoding / decoding target unit and then predict the encoding / decoding target unit when encoding the motion vector of the encoding / decoding target unit. A predicted motion vector can be used. Here, the predicted motion vector may be a motion vector or a temporal motion vector of the reconstructed neighboring unit. That is, the encoder and the decoder can efficiently encode the motion vector of the encoding / decoding target unit by using the reconstructed motion vector or temporal motion vector as the predictive motion vector.
부호화기는 부호화 대상 유닛의 움직임 벡터와 예측 움직임 벡터 간의 차분에 의해, 움직임 벡터 차분(motion vector difference)을 생성할 수 있다. 여기서, 움직임 벡터 차분은 부호화 대상 유닛의 움직임 벡터와 예측 움직임 벡터의 차분 값을 의미할 수 있다. 부호화기는 생성된 움직임 벡터 차분을 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 움직임 벡터 차분을 복호화하고, 복호화된 움직임 벡터 차분과 예측 움직임 벡터의 합을 통해 복호화 대상 유닛의 움직임 벡터를 도출할 수 있다. 이러한 인터 예측 방법은 MVP(Motion Vector Prediction: 움직임 벡터 예측)로 불릴 수 있다. MVP가 사용됨으로써, 부호화기에서 복호화기로 전송되는 정보량이 감소되고 부호화 효율이 향상될 수 있다.The encoder may generate a motion vector difference by the difference between the motion vector of the encoding target unit and the predictive motion vector. Here, the motion vector difference may mean a difference value between the motion vector of the encoding target unit and the predictive motion vector. The encoder may encode the generated motion vector difference and transmit the encoded motion vector difference to the decoder. In this case, the decoder may decode the motion vector difference and derive the motion vector of the decoding target unit through the sum of the decoded motion vector difference and the predictive motion vector. Such an inter prediction method may be referred to as a motion vector prediction (MVP). By using MVP, the amount of information transmitted from the encoder to the decoder can be reduced and the coding efficiency can be improved.
이 때, 부호화기는 복원된 주변 유닛 중 어떤 유닛의 움직임 벡터가 사용되는지를 지시하는 식별자 및/또는 인덱스를 사용할 수 있다. 상기 식별자 및/또는 인덱스가 추가적으로 이용되는 MVP는 AMVP(Advanced Motion Vector Prediction)로 불릴 수 있다. In this case, the encoder may use an identifier and / or an index indicating which unit of the reconstructed neighboring unit is used. MVP, in which the identifier and / or index is additionally used, may be called Advanced Motion Vector Prediction (AMVP).

상술한 스킵 모드, 다이렉트 모드, 머지 모드, MVP, AMVP 등에서는, 참조 픽쳐 내의 움직임 정보가 현재 부호화/복호화 대상 유닛의 예측 및/또는 움직임 보상에 사용될 수 있다. 현재 부호화/복호화 대상 유닛의 예측 및/또는 움직임 보상에 사용되는 참조 픽쳐 내의 움직임 정보는, 시간적 움직임 정보로 불릴 수 있다. 시간적 움직임 정보에는 예를 들어, 시간적 움직임 벡터 등이 있을 수 있다.In the above-described skip mode, direct mode, merge mode, MVP, AMVP, etc., the motion information in the reference picture may be used for prediction and / or motion compensation of the current encoding / decoding target unit. Motion information in the reference picture used for prediction and / or motion compensation of the current encoding / decoding target unit may be referred to as temporal motion information. The temporal motion information may include, for example, a temporal motion vector.
여기서, 움직임 정보(motion information)는 인터 예측 및 움직임 보상에 사용되는 부호화 파라미터를 의미한다. 부호화 파라미터는 구문 요소(syntax element)와 같이 부호화기에서 부호화되어 복호화기로 전송되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있으며, 영상을 부호화하거나 복호화할 때 필요한 정보를 의미한다. 움직임 정보는 참조 픽쳐 리스트(reference picture list), 참조 픽쳐 인덱스(reference picture index), 움직임 벡터(motion vector), 예측 방향(prediction direction), 움직임 벡터 예측기(motion vector predictor) 중 적어도 하나를 포함할 수 있다.Here, motion information refers to coding parameters used for inter prediction and motion compensation. The encoding parameter may include information that may be inferred in the encoding or decoding process as well as information encoded by the encoder and transmitted to the decoder, such as a syntax element, and refers to information required when encoding or decoding an image. do. The motion information may include at least one of a reference picture list, a reference picture index, a motion vector, a prediction direction, and a motion vector predictor. have.
여기서, 참조 픽쳐 리스트는 인터 예측에 사용되는 복수의 참조 영상으로 구성된 리스트이다. 인터 예측에는 2개의 참조 픽쳐 리스트가 사용될 수 있으며, 하나는 참조 픽쳐 리스트0, 다른 하나는 참조 픽쳐 리스트1로 불릴 수 있다. 이 때, 움직임 정보에 포함된 예측 방향(prediction direction)은 인터 예측시 어떤 참조 픽쳐 리스트가 사용되는지를 지시하는 정보일 수 있다. 즉, 예측 방향은 참조 픽쳐 리스트0이 사용되는지, 참조 픽쳐 리스트1이 사용되는지 또는 참조 픽쳐 리스트0과 참조 픽쳐 리스트1이 모두 사용되는지 여부를 지시할 수 있다. Here, the reference picture list is a list consisting of a plurality of reference pictures used for inter prediction. Two reference picture lists may be used for inter prediction, one may be referred to as reference picture list 0 and the other may be referred to as reference picture list 1. In this case, the prediction direction included in the motion information may be information indicating which reference picture list is used for inter prediction. That is, the prediction direction may indicate whether reference picture list 0 is used, reference picture list 1 is used, or whether both reference picture list 0 and reference picture list 1 are used.
참조 픽쳐 인덱스는 참조 픽쳐 리스트에 포함된 참조 픽쳐들 중에서 부호화/복호화 대상 유닛의 인터 예측에 사용되는 참조 픽쳐를 지시하는 인덱스이다. 또한 움직임 벡터 예측기는, 부호화기 및 복호화기가 움직임 벡터를 예측할 때, 예측 후보가 되는 유닛 및/또는 예측 후보가 되는 유닛의 움직임 벡터를 의미할 수 있다.The reference picture index is an index indicating a reference picture used for inter prediction of the encoding / decoding target unit among the reference pictures included in the reference picture list. In addition, the motion vector predictor may mean a motion vector of a unit that is a prediction candidate and / or a unit that is a prediction candidate when the encoder and the decoder predict the motion vector.

상술한 부호화 파라미터는 움직임 정보뿐만 아니라 인터 예측 모드, 부호화 블록 패턴(CBP: Coded Block Pattern), 블록 크기, 블록 분할 정보 등의 값 및/또는 통계를 포함할 수 있다. 여기서, 블록 분할 정보에는 유닛의 깊이(depth)에 관한 정보가 포함될 수 있다. 깊이 정보는 유닛이 분할되는 회수 및/또는 정도를 나타낼 수 있다. The above-described encoding parameter may include not only motion information but also values and / or statistics such as an inter prediction mode, a coded block pattern (CBP), a block size, block partition information, and the like. Here, the block division information may include information about a depth of the unit. The depth information may indicate the number and / or degree of division of the unit.
도 3은 하나의 유닛이 복수의 하위 유닛으로 분할되는 실시예를 개략적으로 나타내는 개념도이다.3 is a conceptual diagram schematically illustrating an embodiment in which one unit is divided into a plurality of sub-units.
하나의 유닛은 트리 구조(tree structure)를 기초로 깊이 정보(depth)를 가지고 계층적으로 분할될 수 있다. 각각의 분할된 하위 유닛은 깊이 정보를 가질 수 있다. 상기 깊이 정보는 유닛이 분할된 회수 및/또는 정도를 나타내므로, 상기 하위 유닛의 크기에 관한 정보를 포함할 수도 있다.One unit may be hierarchically divided with depth information based on a tree structure. Each divided subunit may have depth information. Since the depth information indicates the number and / or degree of division of the unit, the depth information may include information about the size of the sub-unit.
도 3의 310을 참조하면, 가장 상위 노드는 루트 노드(root node)로 불릴 수 있고, 가장 작은 깊이 값을 가질 수 있다. 이 때, 가장 상위 노드는 레벨 0의 깊이를 가질 수 있으며, 분할되지 않은 최초의 유닛을 나타낼 수 있다. Referring to 310 of FIG. 3, the highest node may be called a root node and may have the smallest depth value. At this time, the highest node may have a depth of level 0 and may represent the first unit that is not divided.
레벨 1의 깊이를 갖는 하위 노드는 최초 유닛이 한 번 분할된 유닛을 나타낼 수 있으며, 레벨 2의 깊이를 갖는 하위 노드는 최초의 유닛이 두 번 분할된 유닛을 나타낼 수 있다. 예를 들어, 도 3의 320에서 노드 a에 대응하는 유닛 a는 최초 유닛에서 한 번 분할된 유닛이고, 레벨 1의 깊이를 가질 수 있다.A lower node having a depth of level 1 may indicate a unit in which the first unit is divided once, and a lower node having a depth of level 2 may indicate a unit in which the first unit is divided twice. For example, unit 320 corresponding to node a in 320 of FIG. 3 may be a unit divided once in an initial unit and may have a depth of level 1. FIG.
레벨 3의 리프 노드(leaf node)는 최초 유닛이 3번 분할된 유닛을 나타낼 수 있다. 예를 들어, 도3의 320에서 노드 d에 대응하는 유닛 d는 최초 유닛에서 세 번 분할된 유닛이고, 레벨 3의 깊이를 가질 수 있다. 따라서, 가장 하위 노드인 레벨 3의 리프 노드는 가장 깊은 깊이를 가질 수 있다.A leaf node of level 3 may indicate a unit in which the first unit is divided three times. For example, the unit d corresponding to the node d in 320 of FIG. 3 may be a unit divided three times in the first unit and may have a depth of level 3. FIG. Thus, the leaf node at level 3, which is the lowest node, may have the deepest depth.

상술한 바와 같이, 부호화기 및 복호화기는, 스킵 모드, 다이렉트 모드, 머지 모드, MVP, AMVP 등을 이용하여 인터 예측 및/또는 움직임 보상을 수행하는 경우, 시간적 움직임 정보(예를 들어, 시간적 움직임 벡터)를 이용할 수 있다. 그러나, 시간적 움직임 정보를 이용한 인터 예측 방법은, 부호화/복호화 대상 픽쳐에 대한 참조 픽쳐가 메모리에 저장되어 있어야 한다는 단점을 가진다. 또한, 참조 픽쳐가 손실되는 경우, 참조 픽쳐 내의 움직임 정보(예를 들어, 시간적 움직임 벡터)가 제대로 사용될 수 없으므로, 부호화/복호화 과정이 진행됨에 따라 에러가 전파(propagation)될 수 있다. 따라서, 시간적 움직임 정보를 이용한 인터 예측 방법은 에러 강인성(error resiliency) 측면에서의 단점도 가질 수 있다. 따라서, 참조 픽쳐 내의 움직임 정보를 효율적으로 부호화/복호화하고, 에러 강인성을 향상시킬 수 있는 인터 예측 방법이 요구된다.As described above, when the encoder and the decoder perform inter prediction and / or motion compensation using skip mode, direct mode, merge mode, MVP, AMVP, and the like, temporal motion information (for example, temporal motion vector) Can be used. However, the inter prediction method using temporal motion information has a disadvantage in that a reference picture for a picture to be encoded / decoded must be stored in a memory. In addition, when the reference picture is lost, since motion information (eg, a temporal motion vector) in the reference picture cannot be used properly, an error may propagate as the encoding / decoding process proceeds. Therefore, the inter prediction method using temporal motion information may also have disadvantages in terms of error resiliency. Therefore, there is a need for an inter prediction method capable of efficiently encoding / decoding motion information in a reference picture and improving error robustness.

도 4는 부호화기에서의 인터 예측 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 4 is a flowchart schematically illustrating an embodiment of an inter prediction method in an encoder.
도 4를 참조하면, 부호화기는 현재 픽쳐에 대한 참조 픽쳐의 움직임 정보를 추출할 수 있다(S410). 이 때, 부호화기는 참조 픽쳐에 포함된 움직임 정보들 중 N개의 움직임 정보를 추출할 수 있다. 상기 추출된 움직임 정보는 현재 픽쳐 내 부호화 대상 유닛의 인터 예측 및/또는 움직임 보상에 사용될 수 있다. 여기서, N은 양의 정수를 나타내며, 이하 서술되는 실시예들에서 N은 양의 정수를 의미한다.Referring to FIG. 4, the encoder may extract motion information of a reference picture with respect to the current picture (S410). In this case, the encoder may extract N pieces of motion information among the motion information included in the reference picture. The extracted motion information may be used for inter prediction and / or motion compensation of a coding target unit in a current picture. Here, N represents a positive integer, and in the embodiments described below, N means a positive integer.
이하, 참조 픽쳐의 움직임 정보를 추출하는 방법의 실시예들이 서술된다. 부호화기는 후술되는 움직임 정보 추출 방법들 중 적어도 하나를 이용하여, 참조 픽쳐의 움직임 정보를 추출할 수 있다.Hereinafter, embodiments of a method of extracting motion information of a reference picture are described. The encoder may extract motion information of the reference picture by using at least one of the motion information extraction methods described below.

움직임 정보 추출 방법의 실시예로, 부호화기는 참조 픽쳐 내의 움직임 정보 발생 빈도에 따라 움직임 정보를 추출할 수 있다. 이 때, 예를 들어 부호화기는 참조 픽쳐 내의 움직임 정보들 중에서 발생 빈도가 높은 순서대로 N개의 움직임 정보를 선택하여 추출할 수 있다. 다음 표 1은 움직임 정보 발생 빈도에 따른 움직임 정보 추출 방법의 일 실시예를 나타낸다.In an embodiment of the motion information extraction method, the encoder may extract the motion information according to the frequency of occurrence of the motion information in the reference picture. At this time, for example, the encoder may select and extract N pieces of motion information in order of occurrence frequency among the motion information in the reference picture. Table 1 below shows an embodiment of a method for extracting motion information according to the frequency of occurrence of motion information.
[표 1]TABLE 1
Figure PCTKR2011009772-appb-I000001
Figure PCTKR2011009772-appb-I000001

표 1을 참조하면, 부호화기는 부호화 과정에서 참조 픽쳐 내의 움직임 벡터 발생 회수를 카운트(count)하여 카운트 정보를 획득할 수 있다. 이 때, 부호화기는 발생 빈도가 높은 순서로 N개의 움직임 벡터를 선택할 수 있다. 표 1의 실시예에서 N은 3일 때 추출된 움직임 벡터는 [0,0], [1,0], [0,-1]일 수 있다.Referring to Table 1, in the encoding process, the encoder may count the number of motion vector occurrences in the reference picture to obtain count information. In this case, the encoder may select N motion vectors in order of occurrence frequency. In the embodiment of Table 1, when N is 3, the extracted motion vector may be [0,0], [1,0], [0, -1].
다른 예로, 부호화기는 부호화 과정에서 움직임 벡터 자체가 아닌 움직임 벡터의 각 성분에 대한 카운트 정보를 획득할 수도 있다. 여기서, 움직임 벡터는 2차원의 벡터 형태를 가지고 [x,y]로 표현될 수 있으므로, 움직임 벡터의 각 성분은 x 성분, y 성분을 의미할 수 있다. 이 때, 부호화기는 움직임 벡터 성분 각각에 대해 발생 빈도가 높은 순서로 N개의 성분을 선택할 수 있다. 부호화기는 선택된 움직임 벡터 성분을 이용하여 N개의 움직임 벡터를 추출할 수 있다.As another example, the encoder may obtain count information for each component of the motion vector, not the motion vector itself, in the encoding process. Here, since the motion vector has a two-dimensional vector form and can be expressed as [x, y], each component of the motion vector may mean an x component and a y component. In this case, the encoder may select N components in order of occurrence frequency for each motion vector component. The encoder may extract N motion vectors using the selected motion vector component.
상술한 실시예에서 부호화기는 참조 픽쳐의 움직임 정보를 양자화(quantization)한 후, 양자화된 움직임 정보의 발생 빈도를 카운트하여 카운트 정보를 획득할 수 있다. 예를 들어, 부호화기는 부호화 과정에서 1/4 픽셀 단위의 움직임 벡터를 정수 픽셀 단위의 움직임 벡터로 양자화하고, 양자화된 움직임 벡터의 발생 빈도를 카운트할 수 있다. 이 때, 부호화기는 양자화된 움직임 벡터 중에서 발생 빈도가 높은 순서대로 N개의 움직임 벡터를 선택 및/또는 추출할 수 있다.In the above-described embodiment, the encoder may quantize the motion information of the reference picture and then count the frequency of occurrence of the quantized motion information to obtain count information. For example, the encoder may quantize a motion vector of 1/4 pixel unit into a motion vector of integer pixel unit and count the frequency of occurrence of the quantized motion vector in the encoding process. In this case, the encoder may select and / or extract N motion vectors from the quantized motion vectors in order of occurrence frequency.
이 때, 부호화기는 양자화 스텝 크기(quantization step size)에 따라, 움직임 정보에 대한 양자화를 수행할 수 있다. 상기 양자화 스텝 크기에 관한 정보는 부호화기 및 복호화기에 동일하게 저장되어 있을 수 있다. 이 때, 복호화기는 부호화기에서 사용된 양자화 스텝 크기를 알 수 있으므로, 부호화기는 양자화 스텝 크기에 관한 정보를 복호화기로 전송하지 않을 수 있다. 복호화기가 양자화 스텝 크기에 관한 정보를 가지고 있지 않은 경우, 부호화기는 상기 양자화 스텝 크기에 관한 정보를 부호화하여 비트스트림(bitstream)을 통해 복호화기로 전송할 수 있다. 복호화기는 전송된 양자화 스텝 크기 정보를 복호화하여, 움직임 정보의 양자화에 사용할 수 있다.In this case, the encoder may perform quantization on the motion information according to the quantization step size. The information about the quantization step size may be stored in the encoder and the decoder in the same manner. In this case, since the decoder may know the quantization step size used in the encoder, the encoder may not transmit information about the quantization step size to the decoder. If the decoder does not have information about the quantization step size, the encoder may encode the information about the quantization step size and transmit it to the decoder through a bitstream. The decoder can decode the transmitted quantization step size information and use it for quantization of the motion information.

움직임 정보 추출 방법의 다른 실시예로, 부호화기는 참조 픽쳐에 포함된 복수의 움직임 정보에 대해 소정의 프로세스를 수행하여, 시간적 움직임 정보를 추출할 수 있다.In another embodiment of the motion information extraction method, the encoder may extract temporal motion information by performing a predetermined process on the plurality of motion information included in the reference picture.
일례로, 부호화기는 참조 픽쳐에 포함된 복수의 움직임 정보에 대해 중간값 연산(median operation)을 수행하여 시간적 움직임 정보를 추출할 수 있다. 예를 들어, 참조 픽쳐 내에 3개의 움직임 벡터 [0,0], [-3,5], [-4,2]가 존재한다고 가정한다. 이 때, 부호화기는 움직임 벡터의 각 성분에 대해 중간값 연산을 수행하여 1개의 움직임 벡터 [-3,2]를 추출할 수 있다.For example, the encoder may extract temporal motion information by performing a median operation on the plurality of motion information included in the reference picture. For example, assume that there are three motion vectors [0,0], [-3,5], and [-4,2] in the reference picture. In this case, the encoder may extract one motion vector [-3, 2] by performing an intermediate value operation on each component of the motion vector.
다른 예로, 부호화기는 참조 픽쳐에 포함된 복수의 움직임 정보에 대해 서브 샘플링(sub-sampling)을 수행하여 N개의 움직임 정보를 추출할 수 있다. 예를 들어, 참조 픽쳐 내의 움직임 벡터들이 다음 표 2에서와 같이 2차원 형태로 배열되어 있다고 가정한다.As another example, the encoder may extract N pieces of motion information by performing sub-sampling on a plurality of pieces of motion information included in a reference picture. For example, assume that motion vectors in a reference picture are arranged in a two-dimensional form as shown in Table 2 below.
[표 2]TABLE 2
Figure PCTKR2011009772-appb-I000002
Figure PCTKR2011009772-appb-I000002

표 2를 참조하면, 부호화기는 서브 샘플링을 통해, 2차원 형태의 움직임 벡터 배열에서 홀수 번째 행 및 홀수 번째 열에 존재하는 움직임 벡터를 추출할 수 있다. 이 때, [-2, 4], [0, -1], [5, -1], [-2, 1]와 같이 4개의 움직임 벡터가 추출될 수 있다.Referring to Table 2, the encoder may extract motion vectors existing in odd-numbered rows and odd-numbered columns in a two-dimensional motion vector array through subsampling. In this case, four motion vectors may be extracted, such as [-2, 4], [0, -1], [5, -1], and [-2, 1].
참조 픽쳐에 포함된 복수의 움직임 정보에 대해 서브 샘플링을 수행하여 N개의 움직임 정보를 추출하는 방법의 또 다른 예로, 부호화기는 2차원 형태의 움직임 벡터 배열에서 특정 위치에 해당하는 움직임 벡터를 추출할 수 있다. As another example of a method of extracting N pieces of motion information by performing subsampling on a plurality of pieces of motion information included in a reference picture, the encoder may extract a motion vector corresponding to a specific position in a two-dimensional motion vector array. have.
일례로, 참조 픽쳐 내의 움직임 벡터들이 상기 표 2에서와 같이 2차원 형태로 배열되어 있는 경우, 부호화기는 2차원 형태의 움직임 벡터 배열에서 특정 위치에 해당하는 움직임 벡터를 추출할 수 있다.For example, when the motion vectors in the reference picture are arranged in a two-dimensional form as shown in Table 2, the encoder may extract a motion vector corresponding to a specific position in the two-dimensional motion vector array.
예를 들어, 움직임 벡터들은 4x4 블록 단위로, 2차원 형태의 움직임 벡터 배열에 저장될 수 있다. 이 때, 부호화기는 16x16 크기의 블록에 포함된 4x4 크기의 블록들 중에서, 소정의 위치에 해당하는 블록을 선택할 수 있고, 상기 선택된 블록에 해당하는 움직임 벡터를 추출할 수 있다. 여기서, 상기 소정의 위치는 예를 들어, 16x16 크기의 블록 내에서 가장 좌측 상단 위치일 수 있다. 표 2의 실시예에서 상기 소정의 위치는 [-2, 4]의 움직임 벡터에 대응하는 위치일 수 있다. 이 때, 부호화기는 [-2, 4]의 움직임 벡터를 추출할 수 있다.For example, the motion vectors may be stored in a two-dimensional motion vector array in units of 4 × 4 blocks. In this case, the encoder may select a block corresponding to a predetermined position from among 4x4 size blocks included in the 16x16 size block, and extract a motion vector corresponding to the selected block. Here, the predetermined position may be, for example, the leftmost upper position in the block of 16 × 16 size. In the embodiment of Table 2, the predetermined position may be a position corresponding to the motion vector of [-2, 4]. In this case, the encoder may extract a motion vector of [-2, 4].

움직임 정보 추출 방법의 또 다른 실시예로, 부호화기는 참조 픽쳐에 포함된 유닛의 특성을 기준으로, 참조 픽쳐 내의 움직임 정보를 복수 개의 그룹으로 분류 및/또는 그룹화(grouping)할 수 있다. 상기 유닛의 특성에는 유닛의 깊이(depth), 유닛의 크기(size) 및/또는 유닛의 파티션(partition) 형태 등이 있을 수 있다. 이 때, 부호화기는 각각의 그룹에 대해 발생 빈도에 따라 M(이하, M은 양의 정수)개의 움직임 정보를 추출하여, 총 N개의 움직임 정보를 추출할 수 있다.In another embodiment of the motion information extraction method, the encoder may classify and / or group motion information in the reference picture into a plurality of groups based on characteristics of a unit included in the reference picture. The characteristics of the unit may include the depth of the unit, the size of the unit, and / or the partition form of the unit. In this case, the encoder may extract M motion information for each group according to a frequency of occurrence (hereinafter, M is a positive integer) and extract a total of N motion information.
예를 들어, 참조 픽쳐 내에 유닛들의 깊이 값이 0에서 P-1(이하, P는 양의 정수)까지 존재하는 경우, 부호화기는 유닛의 깊이 값을 기준으로 참조 픽쳐 내의 움직임 정보를 P개의 그룹으로 분류할 수 있다. 이 때, 부호화기는 부호화 과정에서 각각의 그룹에 대해 움직임 벡터의 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 즉, 부호화기는 유닛의 깊이 별로 움직임 벡터의 카운트 정보를 획득할 수 있다. 부호화기는 카운트 정보를 기초로, 각각의 그룹에 대해 발생 빈도가 높은 순서로 M개의 움직임 벡터를 선택하여, 총 N개의 움직임 벡터를 추출할 수 있다. 여기서, N은 M*P일 수 있다.For example, when depth values of units exist from 0 to P-1 (hereinafter, P is a positive integer) in a reference picture, the encoder may convert motion information in the reference picture into P groups based on the depth value of the unit. Can be classified. In this case, the encoder may obtain count information by counting the number of times the motion vector is generated for each group in the encoding process. That is, the encoder may obtain count information of the motion vector for each depth of the unit. The encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each group based on the count information. Here, N may be M * P.
다른 예로, 참조 픽쳐 내에 P 종류의 크기의 유닛이 존재하는 경우, 부호화기는 유닛의 크기를 기준으로 참조 픽쳐 내의 움직임 정보를 P개의 그룹으로 분류할 수 있다. 이 때, 부호화기는 부호화 과정에서 각각의 그룹에 대해 움직임 벡터의 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 즉, 부호화기는 유닛의 크기 별로 움직임 벡터의 카운트 정보를 획득할 수 있다. 부호화기는 카운트 정보를 기초로, 각각의 그룹에 대해 발생 빈도가 높은 순서로 M개의 움직임 벡터를 선택하여, 총 N개의 움직임 벡터를 추출할 수 있다. 여기서, N은 M*P일 수 있다.As another example, when a P-type unit exists in the reference picture, the encoder may classify motion information in the reference picture into P groups based on the size of the unit. In this case, the encoder may obtain count information by counting the number of times the motion vector is generated for each group in the encoding process. That is, the encoder can obtain count information of the motion vector for each unit size. The encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each group based on the count information. Here, N may be M * P.
또 다른 예로, 참조 픽쳐 내에 P 종류의 파티션 형태가 존재하는 경우, 부호화기는 파티션 형태를 기준으로 참조 픽쳐 내의 움직임 정보를 P개의 그룹으로 분류할 수 있다. 이 때, 부호화기는 부호화 과정에서 각각의 그룹에 대해 움직임 벡터의 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 즉, 부호화기는 파티션 형태 별로 움직임 벡터의 카운트 정보를 획득할 수 있다. 부호화기는 카운트 정보를 기초로, 각각의 그룹에 대해 발생 빈도가 높은 순서로 M개의 움직임 벡터를 선택하여, 총 N개의 움직임 벡터를 추출할 수 있다. 여기서, N은 N*P일 수 있다. 여기서, 유닛의 파티션은 인터 예측 및 움직임 보상에 사용되는 기본 단위를 의미하고, L*K(L, K는 양의 정수)의 크기를 가질 수 있다. As another example, when there is a P type partition type in the reference picture, the encoder may classify motion information in the reference picture into P groups based on the partition type. In this case, the encoder may obtain count information by counting the number of times the motion vector is generated for each group in the encoding process. That is, the encoder can obtain count information of the motion vector for each partition type. The encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each group based on the count information. Here, N may be N * P. Here, the partition of the unit may mean a basic unit used for inter prediction and motion compensation, and may have a size of L * K (L and K are positive integers).

움직임 정보 추출 방법의 또 다른 실시예로, 부호화기는 참조 픽쳐를 복수의 영역으로 분할할 수 있다. 여기서, 상기 복수의 영역 각각은 슬라이스(slice)로 구분된 영역일 수 있으며, 상기 복수의 영역은 서로 다른 움직임 벡터 발생 분포를 가질 수 있다. 이 때, 부호화기는 각각의 영역에 대해 발생 빈도에 따라 M(이하, M은 양의 정수)개의 움직임 정보를 추출하여, 총 N개의 시간적 움직임 정보를 추출할 수 있다.In another embodiment of the motion information extraction method, the encoder may split the reference picture into a plurality of regions. Here, each of the plurality of regions may be a region divided by a slice, and the plurality of regions may have different motion vector generation distributions. In this case, the encoder may extract M (hereinafter, M is a positive integer) motion information for each region according to a frequency of occurrence, and extract a total of N temporal motion information.
도 5는 참조 픽쳐 분할 방법의 실시예를 나타낸다. 도 5를 참조하면, 참조 픽쳐는 제1 영역(510) 및 제2 영역(520)으로 분할될 수 있다. 다음 표 3은 참조 픽쳐가 제1 영역(510) 및 제2 영역(520)으로 분할된 경우, 움직임 정보 발생 빈도에 따른 움직임 정보 추출 방법의 실시예를 나타낸다.5 shows an embodiment of a reference picture division method. Referring to FIG. 5, a reference picture may be divided into a first region 510 and a second region 520. Table 3 below shows an embodiment of a method for extracting motion information according to the frequency of occurrence of motion information when the reference picture is divided into a first area 510 and a second area 520.
[표 3]TABLE 3
Figure PCTKR2011009772-appb-I000003
Figure PCTKR2011009772-appb-I000003

표 3을 참조하면, 부호화기는 부호화 과정에서 영역 별로 움직임 벡터 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 즉, 부호화기는 제1 영역(510) 및 제2 영역(520) 각각에 대해, 움직임 벡터 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 이 때, 부호화기는 카운트 정보를 기초로, 각각의 영역에 대해 발생 빈도가 높은 순서로 M개의 움직임 벡터를 선택하여, 총 N개의 움직임 벡터를 추출할 수 있다. 예를 들어, 참조 픽쳐가 2개의 영역으로 분할되고 M이 3인 경우, 추출된 움직임 벡터의 개수는 총 6개일 수 있다.Referring to Table 3, the encoder may obtain count information by counting the number of motion vector generation for each region in the encoding process. That is, the encoder may obtain count information by counting the number of motion vector occurrences for each of the first region 510 and the second region 520. At this time, the encoder may extract N motion vectors by selecting M motion vectors in order of occurrence frequency for each region based on the count information. For example, when the reference picture is divided into two regions and M is 3, the number of extracted motion vectors may be six in total.

움직임 정보 추출 방법의 또 다른 실시예로, 부호화 대상 유닛 및/또는 현재 픽쳐에 대해 복수의 참조 픽쳐가 사용되는 경우, 부호화기는 각각의 참조 픽쳐에 대해 발생 빈도에 따라 M개의 움직임 정보를 추출하여, 총 N개의 시간적 움직임 정보를 추출할 수 있다.In another embodiment of the motion information extraction method, when a plurality of reference pictures are used for a coding target unit and / or a current picture, the encoder extracts M motion information for each reference picture according to a frequency of occurrence. A total of N temporal motion information can be extracted.
도 6은 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상에 사용되는 참조 픽쳐의 실시예를 나타낸다. 도 6을 참조하면, 현재 픽쳐(630)는 부호화 대상 유닛을 포함할 수 있다. 이 때, 부호화 대상 유닛의 인터 예측을 위해 제1 참조 픽쳐(610) 및 제2 참조 픽쳐(620)가 사용될 수 있다. 다음 표 4는 복수의 참조 픽쳐가 사용되는 경우, 움직임 정보 발생 빈도에 따른 움직임 정보 추출 방법의 실시예를 나타낸다.FIG. 6 illustrates an embodiment of a reference picture used for inter prediction and / or motion compensation for an encoding target unit. Referring to FIG. 6, the current picture 630 may include an encoding target unit. In this case, the first reference picture 610 and the second reference picture 620 may be used for inter prediction of the encoding target unit. Table 4 below shows an embodiment of a method for extracting motion information according to the frequency of occurrence of motion information when a plurality of reference pictures are used.
[표 4]TABLE 4
Figure PCTKR2011009772-appb-I000004
Figure PCTKR2011009772-appb-I000004

표 4를 참조하면, 부호화기는 부호화 과정에서 참조 픽쳐 별로 움직임 벡터 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 즉, 부호화기는 제1 참조 픽쳐(610) 및 제2 참조 픽쳐(620) 각각에 대해, 움직임 벡터 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 이 때, 부호화기는 카운트 정보를 기초로, 각각의 참조 픽쳐에 대해, 발생 빈도가 높은 순서로 M개의 움직임 벡터를 선택하여, 총 N개의 움직임 벡터를 추출할 수 있다. 예를 들어, 2개의 참조 픽쳐가 사용되고 M이 3인 경우, 추출된 움직임 벡터의 개수는 총 6개일 수 있다.Referring to Table 4, in the encoding process, the encoder may count the number of motion vector occurrences for each reference picture to obtain count information. That is, the encoder may obtain count information by counting the number of motion vector occurrences for each of the first reference picture 610 and the second reference picture 620. In this case, the encoder may extract M total motion vectors by selecting M motion vectors in order of occurrence frequency, for each reference picture, based on the count information. For example, if two reference pictures are used and M is 3, the number of extracted motion vectors may be six in total.

움직임 정보 추출 방법의 또 다른 실시예로, 부호화 대상 유닛 및/또는 현재 픽쳐에 대해 복수의 참조 픽쳐가 사용되는 경우, 부호화기는 각각의 참조 픽쳐에 대해 M개의 움직임 정보를 선택한 후 선택된 움직임 정보를 스케일링(scaling)함으로써 N개의 시간적 움직임 정보를 추출할 수도 있다. In another embodiment of the motion information extraction method, when a plurality of reference pictures are used for the encoding target unit and / or the current picture, the encoder selects M pieces of motion information for each reference picture and then scales the selected motion information. N pieces of temporal motion information may be extracted by scaling.
이 때, 일례로 부호화기는 각각의 참조 픽쳐에 대해, 현재 픽쳐로부터의 시간적 거리를 계산할 수 있고, 상기 계산된 시간적 거리(temporal distance)를 이용하여 스케일링을 수행할 수 있다. 여기서 상기 시간적 거리는, 현재 픽쳐 및 복수의 참조 픽쳐가 디스플레이 순서(display order)로 나열된 경우, 상기 디스플레이 순서에 기반하여 결정되는 거리일 수 있다. In this case, for example, the encoder may calculate a temporal distance from the current picture for each reference picture, and perform scaling using the calculated temporal distance. The temporal distance may be a distance determined based on the display order when the current picture and the plurality of reference pictures are listed in a display order.
예를 들어, 부호화기는 부호화 과정에서 참조 픽쳐 별로 움직임 벡터 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 즉, 부호화기는 참조 픽쳐 각각에 대해 움직임 벡터 발생 회수를 카운트하여 카운트 정보를 획득할 수 있다. 이 때, 부호화기는 상기 카운트 정보를 기초로, 각각의 참조 픽쳐에 대해, 발생 빈도가 높은 순서로 M개의 움직임 벡터를 선택하여, 총 N개의 움직임 벡터를 선택할 수 있다.For example, the encoder may acquire count information by counting the number of motion vector occurrences for each reference picture in the encoding process. That is, the encoder may count the number of motion vector occurrences for each reference picture to obtain count information. In this case, the encoder may select N motion vectors in total in order of occurrence frequency, for each reference picture, based on the count information, and select a total of N motion vectors.
부호화기는 각각의 참조 픽쳐에 대해, 현재 픽쳐로부터의 시간적 거리를 계산할 수 있다. 부호화기는 계산된 시간적 거리를 이용하여 상기 선택된 움직임 벡터에 대한 스케일링을 수행하고, 스케일링된 움직임 벡터를 현재 픽쳐 및/또는 현재 부호화 유닛에 대한 시간적 움직임 벡터로 추출할 수 있다. 이 때, 스케일링된 움직임 벡터 중에서 복수의 움직임 벡터가 서로 동일한 경우, 부호화기는 서로 동일한 움직임 벡터 중에서 한 개의 움직임 벡터만을 시간적 움직임 벡터로 추출할 수 있다.The encoder may calculate, for each reference picture, a temporal distance from the current picture. The encoder may perform scaling on the selected motion vector using the calculated temporal distance, and extract the scaled motion vector as a temporal motion vector for the current picture and / or the current coding unit. In this case, when the plurality of motion vectors are the same among the scaled motion vectors, the encoder may extract only one motion vector from the same motion vector as the temporal motion vector.
일례로, 2개의 참조 픽쳐가 사용되고, 상기 참조 픽쳐 각각은 제1 참조 픽쳐, 제2 참조 픽쳐라 가정한다. 또한, 현재 픽쳐와 제1 참조 픽쳐 사이의 제1 시간적 거리는 2이고, 현재 픽쳐와 제2 참조 픽쳐 사이의 제2 시간적 거리는 4라 가정한다.For example, it is assumed that two reference pictures are used, and each of the reference pictures is a first reference picture and a second reference picture. In addition, it is assumed that the first temporal distance between the current picture and the first reference picture is 2 and the second temporal distance between the current picture and the second reference picture is 4.
제1 참조 픽쳐에서 선택된 움직임 벡터가 [0, 2], [1, 1]이고 제2 참조 픽쳐에서 선택된 움직임 벡터가 [0, 4], [2, 4]인 경우, 선택된 움직임 벡터는 [0, 2], [1, 1], [0, 4], [2, 4]일 수 있다. 이 때, 부호화기는 상기 제1 시간적 거리 및 상기 제2 시간적 거리에 기초하여, 제1 참조 픽쳐에서 선택된 움직임 벡터 및/또는 제2 참조 픽쳐에서 선택된 움직임 벡터를 스케일링할 수 있다. 예를 들어, 제2 참조 픽쳐에서 선택된 움직임 벡터 [0, 4], [2, 4]가 스케일링되는 경우, 스케일링된 움직임 벡터는 [0, 2], [1, 2]일 수 있다. 이 때, 스케일링된 움직임 벡터 중 [0, 2]는 제1 참조 픽쳐에서 선택된 움직임 벡터와 동일하므로, 최종적으로 추출되는 시간적 움직임 벡터는 {[0, 2], [1, 1], [1, 2]}와 같이 구성될 수 있다.If the motion vectors selected in the first reference picture are [0, 2], [1, 1] and the motion vectors selected in the second reference picture are [0, 4], [2, 4], the selected motion vector is [0. , 2], [1, 1], [0, 4], [2, 4]. In this case, the encoder may scale the motion vector selected from the first reference picture and / or the motion vector selected from the second reference picture based on the first temporal distance and the second temporal distance. For example, when the motion vectors [0, 4], [2, 4] selected in the second reference picture are scaled, the scaled motion vectors may be [0, 2], [1, 2]. At this time, since [0, 2] of the scaled motion vectors is the same as the motion vector selected from the first reference picture, the temporal motion vectors finally extracted are {[0, 2], [1, 1], [1, 2]}.

한편, 복호화기는 부호화기에서 사용된 움직임 정보 추출 방법과 동일한 방법을 이용하여, 참조 픽쳐의 움직임 정보를 추출할 수 있다. 이 때, 부호화기는 추출된 움직임 정보를 복호화기로 전송하지 않을 수 있다. 반면, 상술한 움직임 정보 추출 과정은 복호화기가 아닌 부호화기에서만 수행될 수도 있다. 이 때, 부호화기는 추출된 움직임 정보를 부호화하여 복호화기로 전송할 수 있다.Meanwhile, the decoder may extract motion information of the reference picture by using the same method as the motion information extraction method used in the encoder. In this case, the encoder may not transmit the extracted motion information to the decoder. On the other hand, the above-described motion information extraction process may be performed only in the encoder, not the decoder. In this case, the encoder may encode the extracted motion information and transmit the encoded motion information to the decoder.

다시 도 4를 참조하면, 부호화기는 추출된 시간적 움직임 정보를 이용하여, 현재 픽쳐 내의 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상을 수행할 수 있다(S420).Referring to FIG. 4 again, the encoder may perform inter prediction and / or motion compensation on the encoding target unit in the current picture by using the extracted temporal motion information (S420).

일례로, 부호화기는 부호화 대상 유닛에 대한 움직임 벡터 예측(MVP: Motion Vector Prediction) 및/또는 AMVP(Advanced Motion Vector Prediction)를 수행함에 있어, 상기 추출된 시간적 움직임 정보를 이용할 수 있다. 이 때, 부호화기는 참조 픽쳐에서 추출된 시간적 움직임 벡터를 움직임 벡터 후보(Motion Vector Candidate) 중 하나로 사용할 수 있다. 움직임 벡터 예측 및/또는 AMVP가 적용되는 경우, 부호화기는 블록 매칭 알고리즘, 스킵 모드 또는 다이렉트 모드 등을 이용하여 인터 예측 및/또는 움직임 보상을 수행할 수 있다. For example, the encoder may use the extracted temporal motion information in performing a motion vector prediction (MVP) and / or an advanced motion vector prediction (AMVP) for the encoding target unit. In this case, the encoder may use the temporal motion vector extracted from the reference picture as one of motion vector candidates. When motion vector prediction and / or AMVP is applied, the encoder may perform inter prediction and / or motion compensation using a block matching algorithm, a skip mode, or a direct mode.
블록 매칭 알고리즘은, 참조 픽쳐 내의 복원된 유닛들 중에서, 부호화 대상 유닛에 대한 참조 유닛을 결정하는 알고리즘을 의미할 수 있다. 부호화기는 부호화 대상 유닛의 움직임 벡터를 이용하여, 참조 픽쳐 내의 복원된 유닛들 중에서 부호화 대상 유닛에 대한 참조 유닛을 결정할 수 있다. 이 때, 부호화기는 상기 결정된 참조 유닛을 이용하여 상기 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상을 수행할 수 있다.The block matching algorithm may mean an algorithm for determining a reference unit for the encoding target unit among the reconstructed units in the reference picture. The encoder may determine the reference unit for the encoding target unit from the reconstructed units in the reference picture by using the motion vector of the encoding target unit. In this case, the encoder may perform inter prediction and / or motion compensation on the encoding target unit by using the determined reference unit.
스킵 모드 및 다이렉트 모드에서는, 복원된 주변 유닛의 움직임 벡터 및 시간적 움직임 벡터가 부호화 대상 유닛의 움직임 벡터로 이용될 수 있고, 복원된 주변 유닛의 참조 픽쳐 인덱스가 부호화 대상 유닛의 참조 픽쳐 인덱스로 사용될 수 있다. 상기 다이렉트 모드에서는 현재 부호화 대상 유닛에 대한 잔차 신호(residual signal)가 부호화되어 복호화기로 전송될 수 있다. 그러나, 상기 스킵 모드에서는 잔차 신호(residual)가 존재하지 않을 수 있으므로, 부호화기는 잔차 신호(residual signal)를 부호화하지 않을 수 있다.In the skip mode and the direct mode, the motion vector and temporal motion vector of the reconstructed peripheral unit may be used as the motion vector of the encoding target unit, and the reference picture index of the reconstructed peripheral unit may be used as the reference picture index of the encoding target unit. have. In the direct mode, a residual signal for the current encoding target unit may be encoded and transmitted to the decoder. However, since the residual signal may not exist in the skip mode, the encoder may not encode the residual signal.
다른 예로, 부호화기는 머지(merge) 모드를 이용하여 인터 예측 및/또는 움직임 보상을 수행할 수도 있다. 머지 모드에서 부호화기는, 복원된 주변 유닛의 움직임 벡터 및 시간적 움직임 벡터 중 적어도 하나를 부호화 대상 유닛의 움직임 벡터로 이용하여, 인터 예측 및/또는 움직임 보상을 수행할 수 있다. 이 때 부호화기는 부호화 대상 유닛의 움직임 벡터를 도출하기 위해 상기 추출된 시간적 움직임 벡터를 이용할 수 있다. 예를 들어, 부호화기는 상기 추출된 시간적 움직임 벡터를 머지 후보 리스트(merge candidate list)에 포함되는 머지 후보들 중 하나로 사용할 수 있다. 즉, 부호화기는 상기 추출된 시간적 움직임 벡터를 이용하여 머지 후보 리스트를 생성할 수 있다. As another example, the encoder may perform inter prediction and / or motion compensation using a merge mode. In the merge mode, the encoder may perform inter prediction and / or motion compensation by using at least one of a motion vector and a temporal motion vector of the reconstructed neighboring unit as the motion vector of the encoding target unit. In this case, the encoder may use the extracted temporal motion vector to derive the motion vector of the encoding target unit. For example, the encoder may use the extracted temporal motion vector as one of merge candidates included in a merge candidate list. That is, the encoder may generate a merge candidate list using the extracted temporal motion vector.
이 때, 부호화기는 머지 인덱스를 부호화하여 복호화기로 전송할 수 있다. 여기서, 머지 인덱스는 머지 후보 리스트에 포함된 머지 후보들 중에서 어떤 후보가 부호화 대상 유닛의 인터 예측 및 움직임 보상에 사용되는지를 지시하는 인덱스일 수 있다. 복호화기는 상기 머지 인덱스를 수신하여 복호화할 수 있고, 부호화기와 동일한 방법으로 머지 후보 리스트를 생성할 수 있다. 이 때, 복호화기는 생성된 머지 후보 리스트 및 복호화된 머지 인덱스를 이용하여 복호화 대상 유닛의 인터 예측 및 움직임 보상에 이용되는 움직임 정보를 도출할 수 있다. In this case, the encoder may encode the merge index and transmit the encoded index to the decoder. Here, the merge index may be an index indicating which candidate among merge candidates included in the merge candidate list is used for inter prediction and motion compensation of the encoding target unit. The decoder may receive and decode the merge index, and generate a merge candidate list in the same manner as the encoder. In this case, the decoder may derive motion information used for inter prediction and motion compensation of the decoding target unit by using the generated merge candidate list and the decoded merge index.
또한 머지 모드에서도 부호화 대상 유닛에 대한 잔차 신호가 존재하지 않을 수 있다. 이 때, 부호화기는 잔차 신호를 부호화하지 않을 수 있으며, 이러한 부호화 모드는 머지 스킵(merge skip) 모드로 불릴 수 있다.In addition, the residual signal for the encoding target unit may not exist in the merge mode. In this case, the encoder may not encode the residual signal, and such an encoding mode may be called a merge skip mode.

한편, 참조 픽쳐에서 추출된 시간적 움직임 정보는 2개 이상일 수 있다. 이 경우, 부호화기는 추출된 복수의 시간적 움직임 정보 중 1개를 선택하여, 선택된 시간적 움직임 정보를 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상에 이용할 수 있다. 이 때, 부호화기는 율-왜곡 최적화(RDO: Rate-Distortion Optimization) 방법에 의해 최적의 시간적 움직임 정보를 선택할 수 있다. 여기서, 율-왜곡 최적화 방법은 율(distortion)과 왜곡(rate)의 관점에서 최적의 부호화 방식을 선택하는 방법을 의미할 수 있다.Meanwhile, the temporal motion information extracted from the reference picture may be two or more. In this case, the encoder may select one of the extracted plurality of temporal motion information and use the selected temporal motion information for inter prediction and / or motion compensation for the encoding target unit. In this case, the encoder may select the optimal temporal motion information by a rate-distortion optimization (RDO) method. Here, the rate-distortion optimization method may mean a method of selecting an optimal coding scheme in terms of distortion and distortion.
예를 들어, 부호화기는 복수의 시간적 움직임 벡터 각각에 대해, 부호화가 수행되는 경우의 율-왜곡 비용(rate-distortion cost)을 계산할 수 있다. 이 때, 부호화기는 최소의 율-왜곡 비용 값을 갖는 1개의 시간적 움직임 벡터를 선택할 수 있다. 부호화기는 인터 예측 및/또는 움직임 보상을 수행함에 있어, 상기 선택된 시간적 움직임 벡터를 이용할 수 있다. 또한, 부호화기는 상기 선택된 시간적 움직임 벡터에 대한 움직임 벡터 인덱스를 부호화할 수 있고, 부호화된 움직임 벡터 인덱스는 비트스트림에 포함되어 복호화기로 전송될 수 있다.For example, the encoder may calculate a rate-distortion cost when encoding is performed for each of a plurality of temporal motion vectors. In this case, the encoder may select one temporal motion vector having a minimum rate-distortion cost value. The encoder may use the selected temporal motion vector in performing inter prediction and / or motion compensation. In addition, the encoder may encode a motion vector index for the selected temporal motion vector, and the encoded motion vector index may be included in a bitstream and transmitted to the decoder.

부호화기는 부호화 대상 유닛의 움직임 정보를 부호화하기 위해 참조 픽쳐에서 추출된 시간적 움직임 정보를 이용할 수도 있다. 이 때, 참조 픽쳐에서 추출된 시간적 움직임 정보는, 부호화 대상 유닛의 움직임 정보에 대한 예측값으로 사용될 수 있다. 이하, 부호화 대상 유닛의 움직임 정보에 대한 예측값은 예측 움직임 정보라 하고, 부호화 대상 유닛의 움직임 벡터에 대한 예측값은 예측 움직임 벡터라 한다.The encoder may use temporal motion information extracted from the reference picture to encode motion information of the encoding target unit. In this case, the temporal motion information extracted from the reference picture may be used as a prediction value for the motion information of the encoding target unit. Hereinafter, the predicted value for the motion information of the encoding target unit is called predictive motion information, and the predicted value for the motion vector of the encoding target unit is called a predicted motion vector.
예를 들어, 부호화기는 참조 픽쳐에서 추출된 시간적 움직임 벡터를 부호화 대상 유닛에 대한 예측 움직임 벡터로 사용할 수 있다. 부호화기는 부호화 대상 유닛의 움직임 벡터와 예측 움직임 벡터의 차분에 의해, 움직임 벡터 차분(motion vector difference)을 구할 수 있다. 이 때, 부호화기는 상기 구해진 움직임 벡터 차분을 부호화할 수 있으며, 부호화된 움직임 벡터 차분은 비트스트림에 포함되어 복호화기로 전송될 수 있다. 다음 수학식 1은 움직임 벡터 차분 계산 방법의 실시예를 나타낸다.For example, the encoder may use the temporal motion vector extracted from the reference picture as a prediction motion vector for the encoding target unit. The encoder may obtain a motion vector difference based on the difference between the motion vector of the encoding target unit and the predicted motion vector. In this case, the encoder may encode the obtained motion vector difference, and the encoded motion vector difference may be included in a bitstream and transmitted to the decoder. Equation 1 below shows an embodiment of a motion vector difference calculation method.
[수학식 1][Equation 1]
motion_vector_difference = motion_vector - extracted_motion_vectormotion_vector_difference = motion_vector-extracted_motion_vector

여기서, motion_vector_difference는 움직임 벡터 차분을 나타낼 수 있다. 또한, motion_vector는 부호화 대상 유닛의 움직임 벡터를 나타내고, extracted_motion_vector는 참조 픽쳐에서 추출된 시간적 움직임 벡터를 나타낼 수 있다. Here, motion_vector_difference may indicate a motion vector difference. In addition, motion_vector may represent a motion vector of the encoding target unit, and extracted_motion_vector may represent a temporal motion vector extracted from the reference picture.

다시 도 4를 참조하면, 부호화기는 참조 픽쳐에서 추출된 움직임 정보 및/또는 상기 움직임 정보에 관련된 정보를 부호화할 수 있다(S430). 상기 부호화된 정보는 부호화 대상 유닛에 대한 시퀀스 파라미터 세트(SPS: Sequence Parameter Set), 픽쳐 파라미터 세트(PPS: Picture Parameter Set) 또는 슬라이스 헤더(Slice Header)에 포함되어 복호화기로 전송될 수 있다.Referring back to FIG. 4, the encoder may encode motion information extracted from a reference picture and / or information related to the motion information (S430). The encoded information may be included in a sequence parameter set (SPS), a picture parameter set (PPS), or a slice header of the encoding target unit and transmitted to the decoder.

일 실시예로, 부호화기는 참조 픽쳐에서 추출된 움직임 정보가 부호화되어 복호화기로 전송되는지 여부를 지시하는, 움직임 정보 부호화 지시자를 부호화할 수 있다. 이 때, 움직임 정보 부호화 지시자는 추출된 움직임 정보가 인터 예측 및 움직임 보상에 이용되는지 여부를 나타낼 수도 있다. 부호화된 움직임 정보 부호화 지시자는 비트스트림에 포함되어 복호화기로 전송될 수 있다.According to an embodiment, the encoder may encode a motion information encoding indicator indicating whether motion information extracted from a reference picture is encoded and transmitted to the decoder. In this case, the motion information encoding indicator may indicate whether the extracted motion information is used for inter prediction and motion compensation. The encoded motion information encoding indicator may be included in the bitstream and transmitted to the decoder.
예를 들어, 상기 움직임 정보 부호화 지시자는 coded_motion_vector_present_flag라는 구문 요소(syntax element)에 의해 나타내어질 수 있다. 상기 구문 요소는, 픽쳐 파라미터 세트 또는 슬라이스 헤더에서 부호화될 수 있다.For example, the motion information encoding indicator may be represented by a syntax element called coded_motion_vector_present_flag. The syntax element may be encoded in a picture parameter set or slice header.
coded_motion_vector_present_flag의 값이 1인 경우, 부호화기는 추출된 시간적 움직임 정보를 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 전송된 시간적 움직임 정보를 복호화할 수 있다. 복호화기는 상기 복호화된 시간적 움직임 정보를 이용하여, 복호화 대상 유닛에 대한 인터 예측 및 움직임 보상을 수행할 수 있다. coded_motion_vector_present_flag의 값이 0인 경우, 부호화기는 추출된 시간적 움직임 정보를 부호화하지 않을 수 있다. 이 때, 복호화기는 인터 예측 및 움직임 보상을 수행함에 있어, 상기 추출된 시간적 움직임 정보를 이용하지 않을 수 있다.If the value of coded_motion_vector_present_flag is 1, the encoder may encode the extracted temporal motion information and transmit the encoded temporal motion information to the decoder. At this time, the decoder may decode the transmitted temporal motion information. The decoder may perform inter prediction and motion compensation on a decoding target unit by using the decoded temporal motion information. If the value of coded_motion_vector_present_flag is 0, the encoder may not code the extracted temporal motion information. In this case, the decoder may not use the extracted temporal motion information in performing inter prediction and motion compensation.

또한, 부호화기는 참조 픽쳐에서 추출된 움직임 정보 값을 부호화할 수 있다. 부호화된 움직임 정보 값은 비트스트림에 포함되어 복호화기로 전송될 수 있다.In addition, the encoder may encode the motion information value extracted from the reference picture. The encoded motion information value may be included in the bitstream and transmitted to the decoder.
참조 픽쳐에서 복수 개의 움직임 벡터가 추출된 경우, 부호화기는 DPCM(Difference Pulse Code Modulation)을 이용하여 추출된 움직임 벡터 값을 부호화할 수 있다. 이 때, 부호화기는 DPCM을 이용하여, 각 움직임 벡터에 대한 예측을 수행할 수 있다.When a plurality of motion vectors are extracted from the reference picture, the encoder may encode the extracted motion vector values using difference pulse code modulation (DPCM). In this case, the encoder may perform prediction for each motion vector by using the DPCM.
예를 들어, 참조 픽쳐에서 2개의 움직임 벡터가 추출된다고 가정한다. 추출된 움직임 벡터는 각각 제1 움직임 벡터, 제2 움직임 벡터라 한다. 여기서, 제1 움직임 벡터는 extracted_motion_vector_1에 의해 나타내어질 수 있고, 제2 움직임 벡터는 extracted_motion_vector_2에 의해 나타내어질 수 있다. DPCM이 이용되는 경우, 상기 제1 움직임 벡터 값은 제2 움직임 벡터 값에 대한 예측값으로 사용될 수 있다. 이 때, 부호화기는 제2 움직임 벡터 값을 부호화할 때, 상기 예측값(제1 움직임 벡터 값)을 이용하여 제2 움직임 벡터에 대한 움직임 벡터 차분을 구할 수 있다. 이는 일례로, 다음 수학식 2에 의해 나타내어질 수 있다. For example, assume that two motion vectors are extracted from the reference picture. The extracted motion vectors are called first motion vectors and second motion vectors, respectively. Here, the first motion vector may be represented by extracted_motion_vector_1 and the second motion vector may be represented by extracted_motion_vector_2. When DPCM is used, the first motion vector value may be used as a prediction value for the second motion vector value. In this case, when the encoder encodes the second motion vector value, the encoder may obtain a motion vector difference with respect to the second motion vector by using the prediction value (first motion vector value). This can be represented by Equation 2 as an example.
[수학식 2][Equation 2]
motion_vector_difference_2motion_vector_difference_2
= extracted_motion_vector_2 - extracted_motion_vector_1= extracted_motion_vector_2-extracted_motion_vector_1

여기서, motion_vector_difference_2는 제2 움직임 벡터에 대한 움직임 벡터 차분을 나타낼 수 있다. 상술한 방법에 의해 움직임 벡터 차분이 도출되면, 부호화기는 도출된 움직임 벡터 차분 값을 부호화하여 복호화기로 전송할 수 있다.Here, motion_vector_difference_2 may represent a motion vector difference with respect to the second motion vector. When the motion vector difference is derived by the above-described method, the encoder may encode the derived motion vector difference value and transmit the encoded motion vector difference value to the decoder.
참조 픽쳐에서 추출된 움직임 정보가 1개인 경우, 부호화기는 추출된 움직임 정보에 대한 예측을 수행하지 않고, 추출된 움직임 정보 값 자체를 부호화할 수 있다. 이 때, 부호화된 움직임 정보 값은 비트스트림에 포함되어 복호화기로 전송될 수 있다.When there is only one motion information extracted from the reference picture, the encoder may encode the extracted motion information value itself without performing prediction on the extracted motion information. In this case, the encoded motion information value may be included in the bitstream and transmitted to the decoder.

한편, 상술한 바와 같이 참조 픽쳐에서 추출된 움직임 정보의 개수는 2개 이상일 수 있다. 추출된 움직임 정보의 개수가 2개 이상인 경우, 부호화기는 추출된 복수의 움직임 정보 중 1개를 선택하여, 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상에 이용할 수 있다. 이 때, 부호화기는 추출된 복수의 움직임 정보 중 어떤 움직임 정보가 사용되는지를 지시하는 움직임 정보 인덱스를 부호화할 수 있다. 부호화된 움직임 정보 인덱스는 비트스트림에 포함되어 복호화기로 전송될 수 있다. Meanwhile, as described above, the number of motion information extracted from the reference picture may be two or more. When the number of extracted motion information is two or more, the encoder may select one of the extracted plurality of motion information and use the inter prediction and / or motion compensation for the encoding target unit. In this case, the encoder may encode a motion information index indicating which motion information of the extracted plurality of motion information is used. The encoded motion information index may be included in the bitstream and transmitted to the decoder.
다음 표 5는 참조 픽쳐에서 추출된 움직임 벡터의 개수가 2개 이상인 경우, 추출된 움직임 벡터의 실시예를 나타낸다. Table 5 below shows an embodiment of the extracted motion vectors when the number of motion vectors extracted from the reference picture is two or more.
[표 5]TABLE 5
Figure PCTKR2011009772-appb-I000005
Figure PCTKR2011009772-appb-I000005

표 5를 참조하면, 각각의 움직임 벡터에는 움직임 정보 인덱스가 할당될 수 있다. 예를 들어, 추출된 복수의 움직임 벡터 중 [0, -1]이 사용되는 경우, 부호화기는 움직임 정보 인덱스 값 2를 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 상기 전송된 움직임 정보 인덱스를 이용하여, 인터 예측 및 움직임 보상에 사용되는 움직임 벡터를 도출할 수 있다. Referring to Table 5, each motion vector may be assigned a motion information index. For example, when [0, -1] of the extracted plurality of motion vectors is used, the encoder may encode and transmit the motion information index value 2 to the decoder. In this case, the decoder may derive a motion vector used for inter prediction and motion compensation by using the transmitted motion information index.
참조 픽쳐에서 추출된 움직임 정보가 1개인 경우, 부호화기는 움직임 정보 인덱스를 부호화하지 않을 수 있다. When there is one piece of motion information extracted from the reference picture, the encoder may not encode the motion information index.

후술되는 바와 같이, 복호화기는 부호화기와 동일한 방법으로 N(N은 양의 정수)개의 시간적 움직임 정보를 추출할 수 있다. 상기 추출된 시간적 움직임 정보는, 복호화 대상 유닛에 대한 인터 예측 및 움직임 보상에 이용될 수 있다. 이 때, 부호화기는 참조 픽쳐에서 추출된 시간적 움직임 정보 값 및/또는 움직임 정보 인덱스를 부호화하지 않을 수도 있다.As will be described later, the decoder can extract N (N is a positive integer) temporal motion information in the same manner as the encoder. The extracted temporal motion information may be used for inter prediction and motion compensation for a decoding target unit. In this case, the encoder may not encode the temporal motion information value and / or the motion information index extracted from the reference picture.

상술한 인터 예측 방법에 의하면, 부호화기는 영상 부호화시에 시간적 움직임 정보를 효율적으로 부호화할 수 있다. 또한 부호화기는 참조 픽쳐 내의 움직임 정보를 메모리에 저장하지 않을 수 있으므로, 부호화 대상 유닛에 대한 인터 예측 및 움직임 보상 시에, 메모리 요구량(memory requirement) 및 메모리 대역폭(memory bandwidth)이 감소되고, 에러 강인성이 향상될 수 있다. 따라서 전체적인 영상 부호화 효율이 향상될 수 있다.According to the above-described inter prediction method, the encoder can efficiently encode temporal motion information during image encoding. In addition, since the encoder may not store the motion information in the reference picture in the memory, the memory requirement and the memory bandwidth are reduced and the error robustness is reduced in inter prediction and motion compensation for the encoding target unit. Can be improved. Therefore, the overall image coding efficiency can be improved.

도 7은 복호화기에서의 인터 예측 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 7 is a flowchart schematically illustrating an embodiment of an inter prediction method in a decoder.
도 7을 참조하면, 복호화기는 현재 픽쳐에 대한 참조 픽쳐의 움직임 정보를 추출할 수 있다(S710). Referring to FIG. 7, the decoder may extract motion information of a reference picture with respect to the current picture (S710).
복호화기는 참조 픽쳐에 포함된 움직임 정보들 중 N개의 움직임 정보를 추출할 수 있다. 상기 추출된 움직임 정보는 현재 픽쳐 내 복호화 대상 유닛의 인터 예측 및/또는 움직임 보상에 사용될 수 있다. 여기서, N은 양의 정수를 나타내며, 이하 서술되는 실시예들에서 N은 양의 정수를 의미한다.The decoder may extract N pieces of motion information among the motion information included in the reference picture. The extracted motion information may be used for inter prediction and / or motion compensation of a decoding target unit in a current picture. Here, N represents a positive integer, and in the embodiments described below, N means a positive integer.
복호화기는 부호화기에서 사용된 움직임 정보 추출 방법과 동일한 방법을 이용하여, 참조 픽쳐의 움직임 정보를 추출할 수 있다. 이 때, 복호화기는 부호화기에서 추출된 시간적 움직임 정보와 동일한 움직임 정보를 추출할 수 있다. 움직임 정보 추출 방법의 실시예들은 도 4에서 상술한 바 있으므로, 생략하기로 한다.The decoder may extract motion information of the reference picture by using the same method as the motion information extraction method used in the encoder. In this case, the decoder may extract the same motion information as the temporal motion information extracted by the encoder. Embodiments of the motion information extraction method have been described above with reference to FIG.
한편, 상술한 바와 같이 부호화기는 참조 픽쳐에서 추출된 움직임 정보 값을 부호화할 수 있고, 부호화된 움직임 정보 값은 비트스트림에 포함되어 복호화기로 전송될 수 있다. 이 경우, 복호화기는 전송된 비트스트림으로부터 참조 픽쳐의 움직임 정보를 도출할 수 있으므로, 복호화기는 움직임 정보 추출 과정을 수행하지 않을 수 있다.Meanwhile, as described above, the encoder may encode the motion information value extracted from the reference picture, and the encoded motion information value may be included in the bitstream and transmitted to the decoder. In this case, since the decoder may derive motion information of the reference picture from the transmitted bitstream, the decoder may not perform the motion information extraction process.

다시 도 7을 참조하면, 복호화기는 부호화기에서 전송된 참조 픽쳐의 움직임 정보 및/또는 상기 움직임 정보에 관련된 정보를 복호화할 수 있다(S720). 복호화기는 시퀀스 파라미터 세트(SPS: Sequence Parameter Set), 픽쳐 파라미터 세트(PPS: Picture Parameter Set) 또는 슬라이스 헤더(Slice Header)에서 상기 정보들을 복호화할 수 있다.Referring to FIG. 7 again, the decoder may decode motion information and / or information related to the motion information of the reference picture transmitted from the encoder (S720). The decoder may decode the information in a sequence parameter set (SPS), a picture parameter set (PPS), or a slice header.

일 실시예로, 복호화기는 부호화기에서 추출된 시간적 움직임 정보가 부호화되어 복호화기로 전송되는지 여부를 지시하는, 움직임 정보 부호화 지시자를 복호화할 수 있다. 이 때, 움직임 정보 부호화 지시자는 부호화기에서 추출된 시간적 움직임 정보가 인터 예측 및 움직임 보상에 이용되는지 여부를 나타낼 수도 있다. According to an embodiment, the decoder may decode a motion information encoding indicator indicating whether temporal motion information extracted from the encoder is encoded and transmitted to the decoder. In this case, the motion information encoding indicator may indicate whether temporal motion information extracted by the encoder is used for inter prediction and motion compensation.
예를 들어, 상기 움직임 정보 부호화 지시자는 coded_motion_vector_present_flag라는 구문 요소(syntax element)에 의해 나타내어질 수 있다. 상기 구문 요소는, 픽쳐 파라미터 세트 또는 슬라이스 헤더에서 복호화될 수 있다.For example, the motion information encoding indicator may be represented by a syntax element called coded_motion_vector_present_flag. The syntax element may be decoded in a picture parameter set or slice header.
coded_motion_vector_present_flag의 값이 1인 경우, 부호화기는 참조 픽쳐에서 추출된 시간적 움직임 정보를 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 전송된 시간적 움직임 정보를 복호화할 수 있다. 복호화기는 상기 복호화된 시간적 움직임 정보를 이용하여, 복호화 대상 유닛에 대한 인터 예측 및 움직임 보상을 수행할 수 있다. coded_motion_vector_present_flag의 값이 0인 경우, 부호화기는 참조 픽쳐에서 추출된 시간적 움직임 정보를 부호화하지 않을 수 있다. 이 때, 복호화기는 상기 추출된 시간적 움직임 정보를 복호화하지 않을 수 있고, 인터 예측 및 움직임 보상을 수행함에 있어, 상기 추출된 시간적 움직임 정보를 이용하지 않을 수 있다.When the value of coded_motion_vector_present_flag is 1, the encoder may encode temporal motion information extracted from the reference picture and transmit the encoded motion information to the decoder. At this time, the decoder may decode the transmitted temporal motion information. The decoder may perform inter prediction and motion compensation on a decoding target unit by using the decoded temporal motion information. When the value of coded_motion_vector_present_flag is 0, the encoder may not code temporal motion information extracted from the reference picture. In this case, the decoder may not decode the extracted temporal motion information, and may not use the extracted temporal motion information in performing inter prediction and motion compensation.

또한, 상술한 바와 같이 부호화기는 참조 픽쳐에서 추출된 움직임 정보 값을 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 전송된 움직임 정보 값을 수신하여 복호화할 수 있다.In addition, as described above, the encoder may encode the motion information value extracted from the reference picture and transmit the encoded information to the decoder. At this time, the decoder may receive and decode the transmitted motion information value.
참조 픽쳐에서 복수 개의 움직임 벡터가 추출된 경우, 부호화기는 DPCM을 이용하여 추출된 움직임 벡터 값을 예측한 후, 예측된 움직임 벡터 값과 추출된 움직임 벡터 값의 차분, 즉 움직임 벡터 차분을 부호화할 수 있다. 부호화된 움직임 벡터 차분은 복호화기로 전송될 수 있으며, 복호화기는 전송된 움직임 벡터 차분을 이용하여, 시간적 움직임 정보를 도출할 수 있다.When a plurality of motion vectors are extracted from the reference picture, the encoder predicts the extracted motion vector value using DPCM, and then encodes the difference between the predicted motion vector value and the extracted motion vector value, that is, the motion vector difference. have. The encoded motion vector difference may be transmitted to the decoder, and the decoder may derive temporal motion information using the transmitted motion vector difference.
예를 들어, 부호화기에서 2개의 움직임 벡터가 부호화된다고 가정한다. 부호화된 움직임 벡터는 각각 제1 움직임 벡터, 제2 움직임 벡터라 한다. 여기서, 제1 움직임 벡터는 extracted_motion_vector_1에 의해 나타내어질 수 있고, 제2 움직임 벡터는 extracted_motion_vector_2에 의해 나타내어질 수 있다. DPCM이 이용되는 경우, 상기 제1 움직임 벡터 값은 제2 움직임 벡터 값에 대한 예측값으로 사용될 수 있다. 이 때, 상술한 바와 같이 부호화기는 제2 움직임 벡터에 대한 움직임 벡터 차분을 복호화기로 전송할 수 있다. 여기서, 상기 제2 움직임 벡터에 대한 움직임 벡터 차분은 motion_vector_difference_2로 나타내어질 수 있다. For example, assume that two motion vectors are encoded in the encoder. The encoded motion vectors are called first motion vectors and second motion vectors, respectively. Here, the first motion vector may be represented by extracted_motion_vector_1 and the second motion vector may be represented by extracted_motion_vector_2. When DPCM is used, the first motion vector value may be used as a prediction value for the second motion vector value. At this time, as described above, the encoder may transmit the motion vector difference with respect to the second motion vector to the decoder. Here, the motion vector difference with respect to the second motion vector may be represented by motion_vector_difference_2.
복호화기는 제1 움직임 벡터 값을 복호화할 수 있다. 또한, 복호화기는 제2 움직임 벡터에 대한 움직임 벡터 차분을 복호화하고, 복호화된 움직임 벡터 차분을 제1 움직임 벡터 값과 더하여 제2 움직임 벡터 값을 도출할 수 있다. 이는 일례로, 다음 수학식 3에 의해 나타내어질 수 있다.The decoder may decode the first motion vector value. In addition, the decoder may decode a motion vector difference with respect to the second motion vector, and derive a second motion vector value by adding the decoded motion vector difference to the first motion vector value. This can be represented by Equation 3 below as an example.
[수학식 3][Equation 3]
extracted_motion_vector_2extracted_motion_vector_2
= motion_vector_difference_2 + extracted_motion_vector_1= motion_vector_difference_2 + extracted_motion_vector_1

참조 픽쳐에서 추출된 움직임 정보가 1개인 경우, 부호화기는 추출된 움직임 정보에 대한 예측을 수행하지 않고, 추출된 움직임 정보 값 자체를 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 움직임 정보에 대한 예측을 수행하지 않고, 전송된 움직임 정보 값 자체를 복호화할 수 있다. If there is only one motion information extracted from the reference picture, the encoder may encode the extracted motion information value itself and transmit the encoded motion information value itself to the decoder without performing prediction on the extracted motion information. In this case, the decoder may decode the transmitted motion information value itself without performing prediction on the motion information.

한편, 참조 픽쳐에서 추출된 움직임 정보의 개수는 2개 이상일 수 있다. 상기 움직임 정보는 부호화기에서 추출되어 복호화기로 전송될 수도 있고, 복호화기에서 추출될 수도 있다. 이 때, 복호화기는 복수의 움직임 정보 중 1개를 선택하여, 복호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상에 이용할 수 있다. Meanwhile, the number of motion information extracted from the reference picture may be two or more. The motion information may be extracted by the encoder and transmitted to the decoder or may be extracted by the decoder. In this case, the decoder may select one of the plurality of motion information and use the inter prediction and / or motion compensation for the decoding target unit.
상술한 바와 같이, 참조 픽쳐에서 추출된 움직임 정보의 개수가 2개 이상인 경우, 부호화기는 움직임 정보 인덱스를 부호화하여 복호화기로 전송할 수 있다. 여기서, 움직임 정보 인덱스는 추출된 복수의 움직임 정보 중 어떤 움직임 정보가 사용되는지를 지시하는 인덱스이다. 이 때, 복호화기는 수신된 움직임 정보 인덱스를 복호화할 수 있다. 복호화기는 부호화기에서 추출된 움직임 정보와 동일한 복수의 움직임 정보를 가질 수 있으므로, 상기 복호화된 움직임 정보 인덱스를 이용하여, 인터 예측 및 움직임 보상에 이용되는 움직임 정보를 선택할 수 있다.As described above, when the number of motion information extracted from the reference picture is two or more, the encoder may encode the motion information index and transmit it to the decoder. Here, the motion information index is an index indicating which motion information of the extracted plurality of motion information is used. In this case, the decoder may decode the received motion information index. Since the decoder may have a plurality of motion information identical to the motion information extracted by the encoder, the decoder may select motion information used for inter prediction and motion compensation using the decoded motion information index.
다음 표 6은 참조 픽쳐에서 추출된 움직임 벡터의 개수가 2개 이상인 경우, 추출된 움직임 벡터의 실시예를 나타낸다.Table 6 below shows an embodiment of the extracted motion vectors when the number of motion vectors extracted from the reference picture is two or more.
[표 6]TABLE 6
Figure PCTKR2011009772-appb-I000006
Figure PCTKR2011009772-appb-I000006

표 6을 참조하면, 각각의 움직임 벡터에는 움직임 정보 인덱스가 할당될 수 있다. 예를 들어, 부호화기로부터 전송된 움직임 정보 인덱스 값이 2라면, 복호화기는 2의 인덱스 값이 할당된 움직임 벡터 [0, -1]을 인터 예측 및 움직임 보상에 사용할 수 있다.Referring to Table 6, each motion vector may be assigned a motion information index. For example, if the motion information index value transmitted from the encoder is 2, the decoder may use the motion vector [0, -1] assigned the index value of 2 for inter prediction and motion compensation.
참조 픽쳐에서 추출된 움직임 정보가 1개인 경우, 부호화기는 움직임 정보 인덱스를 부호화하지 않을 수 있다. 이 때, 부호화기는 움직임 정보 인덱스를 전송하지 않으므로, 복호화기는 움직임 정보 인덱스를 복호화하지 않을 수 있다. When there is one piece of motion information extracted from the reference picture, the encoder may not encode the motion information index. In this case, since the encoder does not transmit the motion information index, the decoder may not decode the motion information index.

또한 상술한 바와 같이, 복호화기는 부호화기와 동일한 방법으로 N(N은 양의 정수)개의 시간적 움직임 정보를 추출할 수 있다. 상기 추출된 시간적 움직임 정보는, 복호화 대상 유닛에 대한 인터 예측 및 움직임 보상에 이용될 수 있다. 이 때, 부호화기는 참조 픽쳐에서 추출된 시간적 움직임 정보 값 및/또는 움직임 정보 인덱스를 부호화하지 않을 수 있다. 이 때, 복호화기는 움직임 정보 값 및 움직임 정보 인덱스 등을 복호화하지 않을 수 있다. 즉, 상술한 움직임 정보 값 및 움직임 정보 인덱스 등의 복호화 과정은 생략될 수 있다.In addition, as described above, the decoder may extract N pieces of temporal motion information in the same manner as the encoder. The extracted temporal motion information may be used for inter prediction and motion compensation for a decoding target unit. In this case, the encoder may not encode the temporal motion information value and / or the motion information index extracted from the reference picture. In this case, the decoder may not decode the motion information value and the motion information index. That is, the above-described decoding process such as the motion information value and the motion information index may be omitted.

상술한 움직임 정보 추출 과정(S710) 및/또는 움직임 정보 복호화 과정(S720)에 의해, 복호화기는 참조 픽쳐의 시간적 움직임 정보를 도출할 수 있다. 복호화기에서 도출된 참조 픽쳐의 움직임 정보는 부호화기에서 추출된 시간적 움직임 정보와 동일할 수 있다. 이하, 복호화기에서 도출된 참조 픽쳐의 움직임 정보는 참조 움직임 정보라 하며, 복호화기에서 도출된 참조 픽쳐의 움직임 벡터는 참조 움직임 벡터라 한다.By the above-described motion information extraction process S710 and / or motion information decoding process S720, the decoder may derive temporal motion information of the reference picture. The motion information of the reference picture derived from the decoder may be the same as the temporal motion information extracted from the encoder. Hereinafter, the motion information of the reference picture derived from the decoder is referred to as reference motion information, and the motion vector of the reference picture derived from the decoder is called a reference motion vector.

다시 도 7을 참조하면, 복호화기는 상술한 방법에 의해 도출된, 참조 움직임 정보를 이용하여, 현재 픽쳐 내의 복호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상을 수행할 수 있다(S730). Referring to FIG. 7 again, the decoder may perform inter prediction and / or motion compensation on the decoding target unit in the current picture by using the reference motion information derived by the above-described method (S730).

일례로, 복호화기는 복호화 대상 유닛에 대한 움직임 벡터 예측(MVP: Motion Vector Prediction) 및/또는 AMVP(Advanced Motion Vector Prediction)를 수행함에 있어, 상기 참조 움직임 정보를 이용할 수 있다. 이 때, 복호화기는 참조 움직임 벡터를 움직임 벡터 후보(Motion Vector Candidate) 중 하나로 사용할 수 있다. 움직임 벡터 예측 및/또는 AMVP가 적용되는 경우, 복호화기는 참조 움직임 벡터를 이용하여 인터 예측 및/또는 움직임 보상을 수행할 수 있다. For example, the decoder may use the reference motion information when performing a motion vector prediction (MVP) and / or an advanced motion vector prediction (AMVP) for a decoding target unit. In this case, the decoder may use the reference motion vector as one of motion vector candidates. When motion vector prediction and / or AMVP is applied, the decoder may perform inter prediction and / or motion compensation using the reference motion vector.

스킵 모드 및 다이렉트 모드에서는, 복원된 주변 유닛의 움직임 벡터 및 시간적 움직임 벡터가 복호화 대상 유닛의 움직임 벡터로 이용될 수 있고, 복원된 주변 유닛의 참조 픽쳐 인덱스가 복호화 대상 유닛의 참조 픽쳐 인덱스로 사용될 수 있다. 상기 다이렉트 모드에서는 현재 복호화 대상 유닛에 대한 잔차 신호(residual signal)가 복호화될 수 있다. 그러나, 상기 스킵 모드에서는 잔차 신호(residual)가 존재하지 않을 수 있으므로, 복호화기는 잔차 신호(residual signal)를 복호화하지 않을 수 있다.In the skip mode and the direct mode, the motion vector and temporal motion vector of the reconstructed neighboring unit may be used as the motion vector of the decoded unit, and the reference picture index of the reconstructed neighboring unit may be used as the reference picture index of the decoded unit. have. In the direct mode, a residual signal for the current decoding target unit may be decoded. However, since the residual signal may not exist in the skip mode, the decoder may not decode the residual signal.
다른 예로, 복호화기는 머지(merge) 모드를 이용하여 인터 예측 및/또는 움직임 보상을 수행할 수도 있다. 머지 모드에서 복호화기는, 복원된 주변 유닛의 움직임 벡터 및 시간적 움직임 벡터 중 적어도 하나를 복호화 대상 유닛의 움직임 벡터로 이용하여, 인터 예측 및/또는 움직임 보상을 수행할 수 있다. 이 때 복호화기는 복호화 대상 유닛의 움직임 벡터를 도출하기 위해, 참조 움직임 벡터를 이용할 수 있다. 예를 들어, 복호화기는 참조 움직임 벡터를 머지 후보 리스트(merge candidate list)에 포함되는 머지 후보들 중 하나로 사용할 수 있다. As another example, the decoder may perform inter prediction and / or motion compensation using a merge mode. In the merge mode, the decoder may perform inter prediction and / or motion compensation by using at least one of the reconstructed neighboring unit's motion vector and temporal motion vector as the motion vector of the decoding target unit. In this case, the decoder may use the reference motion vector to derive the motion vector of the decoding target unit. For example, the decoder may use the reference motion vector as one of the merge candidates included in the merge candidate list.
머지 모드에서도 복호화 대상 유닛에 대한 잔차 신호가 존재하지 않을 수 있다. 이 때, 복호화기는 잔차 신호를 복호화하지 않을 수 있으며, 이러한 부호화 모드는 머지 스킵(merge skip) 모드로 불릴 수 있다.In the merge mode, the residual signal for the decoding target unit may not exist. In this case, the decoder may not decode the residual signal, and such an encoding mode may be called a merge skip mode.

한편, 복호화기에서 도출된 참조 움직임 정보는 2개 이상일 수 있다. 이 경우, 복호화기는 도출된 복수의 참조 움직임 정보 중 1개를 선택하여, 선택된 참조 움직임 정보를 부호화 대상 유닛에 대한 인터 예측 및/또는 움직임 보상에 이용할 수 있다. 이 때, 일례로, 복호화기는 부호화기로부터 전송된 움직임 정보 인덱스를 복호화할 수 있고, 복호화된 움직임 정보 인덱스를 이용하여, 인터 예측 및 움직임 보상에 이용되는 참조 움직임 정보를 선택할 수 있다. 여기서, 움직임 정보 인덱스는 도출된 복수의 참조 움직임 정보 중 어떤 참조 움직임 정보가 사용되는지를 지시할 수 있다.Meanwhile, the reference motion information derived from the decoder may be two or more. In this case, the decoder may select one of the derived plurality of reference motion information and use the selected reference motion information for inter prediction and / or motion compensation for the encoding target unit. In this case, as an example, the decoder may decode the motion information index transmitted from the encoder and select reference motion information used for inter prediction and motion compensation using the decoded motion information index. Here, the motion information index may indicate which reference motion information is used among the derived plurality of reference motion information.

복호화기는 복호화 대상 유닛의 움직임 정보를 도출하기 위해 참조 움직임 정보를 이용할 수도 있다. 이 때, 참조 움직임 정보는, 복호화 대상 유닛의 움직임 정보에 대한 예측값으로 사용될 수 있다.The decoder may use the reference motion information to derive the motion information of the decoding target unit. In this case, the reference motion information may be used as a prediction value for the motion information of the decoding target unit.
예를 들어, 복호화기는 참조 움직임 벡터를 복호화 대상 유닛에 대한 예측 움직임 벡터로 사용할 수 있다. 여기서, 예측 움직임 벡터는 복호화 대상 유닛의 움직임 벡터에 대한 예측값을 의미할 수 있다. 상술한 바와 같이, 부호화기는 부호화 대상 유닛의 움직임 벡터와 참조 픽쳐에서 추출된 움직임 벡터 간의 움직임 벡터 차분을 도출하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 상기 움직임 벡터 차분을 수신하여 복호화할 수 있고, 복호화된 움직임 벡터 차분 및 참조 움직임 벡터를 더하여, 복호화 대상 유닛의 움직임 벡터를 도출할 수 있다. 이는, 예를 들어 다음 수학식 4에 의해 나타내어질 수 있다.For example, the decoder may use the reference motion vector as the prediction motion vector for the decoding target unit. Here, the predicted motion vector may mean a predicted value for the motion vector of the decoding target unit. As described above, the encoder may derive the motion vector difference between the motion vector of the encoding target unit and the motion vector extracted from the reference picture and transmit the difference to the decoder. In this case, the decoder may receive and decode the motion vector difference, and may add a decoded motion vector difference and a reference motion vector to derive a motion vector of the decoding target unit. This can be represented, for example, by the following equation (4).
[수학식 4][Equation 4]
motion_vector = motion_vector_difference + extracted_motion_vectormotion_vector = motion_vector_difference + extracted_motion_vector

여기서, motion_vector는 복호화 대상 유닛의 움직임 벡터를 나타낼 수 있다. 또한, motion_vector_difference는 움직임 벡터 차분을 나타내고, extracted_motion_vector는 참조 움직임 벡터를 나타낼 수 있다.Here, motion_vector may represent a motion vector of the decoding target unit. In addition, motion_vector_difference may indicate a motion vector difference, and extracted_motion_vector may indicate a reference motion vector.

상술한 인터 예측 방법에 의하면, 복호화기는 영상 복호화시에 시간적 움직임 정보를 효율적으로 복호화할 수 있다. 또한 복호화기는 참조 픽쳐 내의 움직임 정보를 메모리에 저장하지 않을 수 있으므로, 복호화 대상 유닛에 대한 인터 예측 및 움직임 보상 시에, 메모리 요구량(memory requirement) 및 메모리 대역폭(memory bandwidth)이 감소되고, 에러 강인성이 향상될 수 있다. 따라서 전체적인 영상 복호화 효율이 향상될 수 있다.According to the above-described inter prediction method, the decoder can efficiently decode temporal motion information during image decoding. In addition, since the decoder may not store the motion information in the reference picture in the memory, when inter prediction and motion compensation for the decoding target unit, the memory requirement and the memory bandwidth are reduced, and the error robustness is reduced. Can be improved. Therefore, the overall image decoding efficiency can be improved.

상술한 실시예들에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above embodiments, the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and certain steps may occur in a different order or at the same time than other steps described above. Can be. Also, one of ordinary skill in the art appreciates that the steps shown in the flowcharts are not exclusive, that other steps may be included, or that one or more steps in the flowcharts may be deleted without affecting the scope of the present invention. I can understand.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While not all possible combinations may be described to represent the various aspects, one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, the invention is intended to embrace all other replacements, modifications and variations that fall within the scope of the following claims.

Claims (17)

  1. 현재 픽쳐 내의 복호화 대상 유닛에 대한, 참조 움직임 정보를 도출하는 단계; 및
    상기 도출된 참조 움직임 정보를 이용하여 상기 복호화 대상 유닛에 대한 움직임 보상(motion compensation)을 수행하는 단계를 포함하고,
    상기 참조 움직임 정보는, 상기 현재 픽쳐에 대한 참조 픽쳐에 포함된 움직임 정보이고, 참조 픽쳐 리스트(reference picture list), 참조 픽쳐 인덱스(reference picture index), 움직임 벡터(motion vector), 예측 방향(prediction direction) 및 움직임 벡터 예측기(motion vector predictor) 중 적어도 하나를 포함하는 인터 예측 방법.
    Deriving reference motion information for the decoding object unit in the current picture; And
    Performing motion compensation on the decoding target unit by using the derived reference motion information;
    The reference motion information is motion information included in a reference picture for the current picture, and includes a reference picture list, a reference picture index, a motion vector, and a prediction direction. And at least one of a motion vector predictor.
  2. 청구항 1에 있어서, 상기 참조 움직임 정보 도출 단계는,
    상기 참조 픽쳐에서 상기 참조 움직임 정보를 추출(extract)하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 1, wherein the step of deriving the reference motion information,
    And extracting the reference motion information from the reference picture.
  3. 청구항 2에 있어서, 상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐 내의 복수의 움직임 정보 각각의 발생 회수를 카운트(count)하여 카운트 정보를 획득하는 단계; 및
    상기 획득된 카운트 정보에 기반하여, 상기 참조 픽쳐 내의 복수의 움직임 정보 중에서 상기 참조 움직임 정보를 선택하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 2, wherein the extracting of the reference motion information comprises:
    Counting the number of occurrences of each of the plurality of motion information in the reference picture to obtain count information; And
    And selecting the reference motion information from among a plurality of motion information in the reference picture based on the obtained count information.
  4. 청구항 2에 있어서, 상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐 내의 움직임 정보에 대해 중간값 연산(median operation)을 수행하여 움직임 정보 중간값을 도출하는 단계; 및
    상기 움직임 정보 중간값을 상기 참조 움직임 정보로 추출하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 2, wherein the extracting of the reference motion information comprises:
    Deriving a median motion information by performing a median operation on the motion information in the reference picture; And
    And extracting the median motion information as the reference motion information.
  5. 청구항 2에 있어서, 상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐 내의 움직임 정보에 대해 서브 샘플링(sub-sampling)을 수행하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 2, wherein the extracting of the reference motion information comprises:
    And performing sub-sampling on the motion information in the reference picture.
  6. 청구항 5에 있어서,
    상기 서브 샘플링 수행 단계는,
    상기 참조 픽쳐 내의 제1 크기의 블록에 포함된 복수의 제2 크기의 블록 중에서 소정의 위치의 블록을 선택하는 단계; 및
    상기 선택된 블록에 해당되는 움직임 정보를 상기 참조 움직임 정보로 추출하는 단계를 더 포함하는 인터 예측 방법.
    The method according to claim 5,
    The subsampling step may include:
    Selecting a block at a predetermined position from among a plurality of second sized blocks included in the first sized block in the reference picture; And
    And extracting motion information corresponding to the selected block as the reference motion information.
  7. 청구항 6에 있어서,
    상기 소정의 위치는 상기 제1 크기의 블록 내의 가장 좌측 상단 위치인 것을 특징으로 하는 인터 예측 방법.
    The method according to claim 6,
    And the predetermined position is the leftmost upper position in the block of the first size.
  8. 청구항 2에 있어서, 상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐 내의 움직임 정보를 복수의 그룹으로 그룹화(grouping)하는 단계; 및
    상기 복수의 그룹 각각에서, 움직임 정보의 발생 빈도를 기반으로, 소정의 개수의 움직임 정보를 상기 참조 움직임 정보로 선택하는 단계를 더 포함하고,
    상기 그룹화 단계에서는, 상기 참조 픽쳐에 포함된 유닛의 깊이(depth) 값, 상기 참조 픽쳐에 포함된 유닛의 크기(size) 및 상기 참조 픽쳐에 포함된 유닛의 파티션(partition) 형태 중 적어도 하나의 특성을 기반으로, 상기 그룹화를 수행하는 것을 특징으로 하는 인터 예측 방법.
    The method of claim 2, wherein the extracting of the reference motion information comprises:
    Grouping motion information in the reference picture into a plurality of groups; And
    In each of the plurality of groups, selecting a predetermined number of motion information as the reference motion information based on a frequency of occurrence of motion information,
    In the grouping step, at least one characteristic of a depth value of a unit included in the reference picture, a size of a unit included in the reference picture, and a partition form of a unit included in the reference picture Based on the above, wherein the grouping is performed.
  9. 청구항 2에 있어서, 상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐를 복수의 영역으로 분할하는 단계; 및
    상기 복수의 영역 각각에서, 움직임 정보의 발생 빈도를 기반으로, 소정의 개수의 움직임 정보를 상기 참조 움직임 정보로 선택하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 2, wherein the extracting of the reference motion information comprises:
    Dividing the reference picture into a plurality of regions; And
    And selecting a predetermined number of pieces of motion information as the reference motion information based on a frequency of occurrence of motion information in each of the plurality of regions.
  10. 청구항 2에 있어서,
    상기 참조 픽쳐의 개수가 2 이상인 경우,
    상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐 각각에서, 움직임 정보의 발생 빈도를 기반으로, 소정의 개수의 움직임 정보를 선택하는 단계를 더 포함하는 인터 예측 방법.
    The method according to claim 2,
    If the number of the reference pictures is 2 or more,
    The step of extracting the reference motion information,
    And selecting, from each of the reference pictures, a predetermined number of motion information based on a frequency of occurrence of motion information.
  11. 청구항 10에 있어서, 상기 참조 움직임 정보 추출 단계는,
    상기 참조 픽쳐 각각에 대해, 상기 현재 픽쳐로부터의 시간적 거리(temporal distance)를 도출하는 단계; 및
    상기 도출된 시간적 거리를 기반으로, 상기 선택된 움직임 정보를 스케일링하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 10, wherein the extracting the reference motion information,
    Deriving a temporal distance from the current picture for each of the reference pictures; And
    Scaling the selected motion information based on the derived temporal distance.
  12. 청구항 1에 있어서,
    상기 움직임 보상 수행 단계는,
    상기 복호화 대상 유닛에 대한 움직임 벡터 차분(motion information difference)을 수신하여 복호화하는 단계;
    상기 복호화 대상 유닛에 대한 예측 움직임 벡터(predicted motion vector)를 도출하는 단계;
    상기 복호화된 움직임 벡터 차분 및 상기 도출된 예측 움직임 벡터를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 벡터를 도출하는 단계; 및
    상기 도출된 움직임 벡터를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 보상을 수행하는 단계를 더 포함하는 인터 예측 방법.
    The method according to claim 1,
    The motion compensation performing step,
    Receiving and decoding a motion vector difference with respect to the decoding target unit;
    Deriving a predicted motion vector for the decoding target unit;
    Deriving a motion vector for the decoding target unit by using the decoded motion vector difference and the derived predicted motion vector; And
    And performing motion compensation on the decoding target unit by using the derived motion vector.
  13. 청구항 12에 있어서, 상기 예측 움직임 벡터 도출 단계는,
    상기 참조 움직임 정보를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 벡터 후보(motion vector candidate)를 생성하는 단계; 및
    상기 움직임 벡터 후보를 이용하여, 상기 예측 움직임 벡터를 도출하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 12, wherein the predicting motion vector derivation step,
    Generating a motion vector candidate for the decoding target unit by using the reference motion information; And
    And deriving the prediction motion vector using the motion vector candidate.
  14. 청구항 1에 있어서,
    상기 움직임 보상 수행 단계는,
    머지 인덱스(merge index)를 수신하여 복호화하는 단계;
    상기 참조 움직임 정보를 이용하여, 머지 후보 리스트(merge candidate list)를 생성하는 단계;
    상기 머지 후보 리스트에 포함된 머지 후보 중에서 상기 머지 인덱스가 지시하는 움직임 정보를 선택하는 단계; 및
    상기 선택된 움직임 정보를 이용하여, 상기 복호화 대상 유닛에 대한 움직임 보상을 수행하는 단계를 더 포함하는 인터 예측 방법.
    The method according to claim 1,
    The motion compensation performing step,
    Receiving and decoding a merge index;
    Generating a merge candidate list using the reference motion information;
    Selecting motion information indicated by the merge index among merge candidates included in the merge candidate list; And
    And performing motion compensation on the decoding target unit by using the selected motion information.
  15. 청구항 1에 있어서,
    상기 참조 움직임 정보의 개수가 2 이상인 경우,
    상기 움직임 보상 수행 단계는,
    부호화된 움직임 정보 인덱스를 수신하여 복호화하는 단계;
    상기 참조 움직임 정보 중에서, 상기 움직임 정보 인덱스가 지시하는 움직임 정보를 선택하는 단계; 및
    상기 선택된 움직임 정보를 이용하여 상기 복호화 대상 유닛에 대한 움직임 보상을 수행하는 단계를 더 포함하는 인터 예측 방법.
    The method according to claim 1,
    If the number of the reference motion information is 2 or more,
    The motion compensation performing step,
    Receiving and decoding the encoded motion information index;
    Selecting motion information indicated by the motion information index from the reference motion information; And
    And performing motion compensation on the decoding target unit by using the selected motion information.
  16. 청구항 1에 있어서, 상기 참조 움직임 정보 도출 단계는,
    부호화된 참조 움직임 정보를 수신하는 단계; 및
    상기 수신된 참조 움직임 정보를 복호화하는 단계를 더 포함하는 인터 예측 방법.
    The method of claim 1, wherein the step of deriving the reference motion information,
    Receiving encoded reference motion information; And
    And decoding the received reference motion information.
  17. 청구항 16에 있어서,
    상기 부호화된 참조 움직임 정보의 개수가 2 이상인 경우,
    상기 복호화 단계에서는,
    DPCM(Differential Pulse Code Modulation)을 이용하여, 상기 수신된 참조 움직임 정보를 복호화하는 것을 특징으로 하는 인터 예측 방법.
    The method according to claim 16,
    When the number of encoded reference motion information is two or more,
    In the decoding step,
    And decoding the received reference motion information by using differential pulse code modulation (DPCM).
PCT/KR2011/009772 2010-12-17 2011-12-19 Method and apparatus for inter prediction WO2012081949A2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US13/989,126 US10397599B2 (en) 2010-12-17 2011-12-19 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
JP2013540905A JP2014501091A (en) 2010-12-17 2011-12-19 Inter prediction method and apparatus
US16/456,629 US10708614B2 (en) 2010-12-17 2019-06-28 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
US16/887,370 US11206424B2 (en) 2010-12-17 2020-05-29 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
US17/525,053 US11743486B2 (en) 2010-12-17 2021-11-12 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
US18/347,483 US20230353774A1 (en) 2010-12-17 2023-07-05 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100130229 2010-12-17
KR10-2010-0130229 2010-12-17
KR1020110137042A KR20120068743A (en) 2010-12-17 2011-12-19 Method for inter prediction and apparatus thereof
KR10-2011-0137042 2011-12-19

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/989,126 A-371-Of-International US10397599B2 (en) 2010-12-17 2011-12-19 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
US16/456,629 Continuation US10708614B2 (en) 2010-12-17 2019-06-28 Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction

Publications (2)

Publication Number Publication Date
WO2012081949A2 true WO2012081949A2 (en) 2012-06-21
WO2012081949A3 WO2012081949A3 (en) 2012-09-07

Family

ID=46245254

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/009772 WO2012081949A2 (en) 2010-12-17 2011-12-19 Method and apparatus for inter prediction

Country Status (1)

Country Link
WO (1) WO2012081949A2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167373A (en) * 2011-09-09 2015-09-24 ケィティ、コーポレーションKt Corporation Method for deriving temporal predictive motion vector, and apparatus using such method
CN105308967A (en) * 2013-04-05 2016-02-03 三星电子株式会社 Video stream coding method according to prediction structure for multi-view video and device therefor, and video stream decoding method according to prediction structure for multi-view video and device therefor
WO2016068685A1 (en) * 2014-10-31 2016-05-06 삼성전자 주식회사 Video encoding device and video decoding device using high-precision skip encoding and method thereof
JP2017085611A (en) * 2011-09-23 2017-05-18 ケィティ、コーポレーションKt Corporation Merge candidate block guiding method and apparatus using such method
WO2018026222A1 (en) * 2016-08-03 2018-02-08 주식회사 케이티 Video signal processing method and device
CN111163322A (en) * 2020-01-08 2020-05-15 绍兴文理学院 Encoding and decoding method for mapping index based on historical motion vector

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040050653A (en) * 2002-12-10 2004-06-16 엘지전자 주식회사 Method for prediction of picture motion vector
KR20060012440A (en) * 2004-08-03 2006-02-08 학교법인 대양학원 Direct mode motion prediction method and apparatus for multi-view video
KR20080085815A (en) * 2008-09-11 2008-09-24 엘지전자 주식회사 Method of determining motion vector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040050653A (en) * 2002-12-10 2004-06-16 엘지전자 주식회사 Method for prediction of picture motion vector
KR20060012440A (en) * 2004-08-03 2006-02-08 학교법인 대양학원 Direct mode motion prediction method and apparatus for multi-view video
KR20080085815A (en) * 2008-09-11 2008-09-24 엘지전자 주식회사 Method of determining motion vector

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10805639B2 (en) 2011-09-09 2020-10-13 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
JP2016007039A (en) * 2011-09-09 2016-01-14 ケィティ、コーポレーションKt Corporation Method for deriving temporal predictive motion vector, and apparatus using such method
US10523967B2 (en) 2011-09-09 2019-12-31 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
JP2018139422A (en) * 2011-09-09 2018-09-06 ケィティ、コーポレーションKt Corporation Method for deriving temporal predictive motion vector and apparatus using such method
US11089333B2 (en) 2011-09-09 2021-08-10 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
JP2016007040A (en) * 2011-09-09 2016-01-14 ケィティ、コーポレーションKt Corporation Method for deriving temporal predictive motion vector, and apparatus using such method
JP2017098967A (en) * 2011-09-09 2017-06-01 ケィティ、コーポレーションKt Corporation Method for deriving temporal predictive motion vector, and apparatus using such method
JP2015167373A (en) * 2011-09-09 2015-09-24 ケィティ、コーポレーションKt Corporation Method for deriving temporal predictive motion vector, and apparatus using such method
JP2017085611A (en) * 2011-09-23 2017-05-18 ケィティ、コーポレーションKt Corporation Merge candidate block guiding method and apparatus using such method
US10182237B2 (en) 2011-09-23 2019-01-15 Kt Corporation Method for inducing a merge candidate block and device using same
JP2018088695A (en) * 2011-09-23 2018-06-07 ケィティ、コーポレーションKt Corporation Merge candidate block guide method and apparatus using the same
JP2018088696A (en) * 2011-09-23 2018-06-07 ケィティ、コーポレーションKt Corporation Merge candidate block guiding method and apparatus using such method
JP2018088697A (en) * 2011-09-23 2018-06-07 ケィティ、コーポレーションKt Corporation Merge candidate block guide method and apparatus using the same
US9930359B2 (en) 2011-09-23 2018-03-27 Kt Corporation Method for inducing a merge candidate block and device using same
US10165294B2 (en) 2011-09-23 2018-12-25 Kt Corporation Method for inducing a merge candidate block and device using same
US10165295B2 (en) 2011-09-23 2018-12-25 Kt Corporation Method for inducing a merge candidate block and device using same
US9924185B2 (en) 2011-09-23 2018-03-20 Kt Corporation Method for inducing a merge candidate block and device using same
CN105308967A (en) * 2013-04-05 2016-02-03 三星电子株式会社 Video stream coding method according to prediction structure for multi-view video and device therefor, and video stream decoding method according to prediction structure for multi-view video and device therefor
CN112188207A (en) * 2014-10-31 2021-01-05 三星电子株式会社 Video encoding apparatus and video decoding apparatus using high-precision skip coding and methods thereof
US11509926B2 (en) 2014-10-31 2022-11-22 Samsung Electronics Co., Ltd. Video encoding device and video decoding device using high-precision skip encoding and method thereof
US10602179B2 (en) 2014-10-31 2020-03-24 Samsung Electronics Co., Ltd. Video encoding device and video decoding device using high-precision skip encoding and method thereof
CN112188204B (en) * 2014-10-31 2024-04-05 三星电子株式会社 Video encoding apparatus and video decoding apparatus using high precision skip coding and methods thereof
CN107113440B (en) * 2014-10-31 2020-10-13 三星电子株式会社 Video decoding method executed by video decoding device
CN112188207B (en) * 2014-10-31 2023-10-20 三星电子株式会社 Video encoding apparatus and video decoding apparatus using high precision skip coding and methods thereof
CN107113440A (en) * 2014-10-31 2017-08-29 三星电子株式会社 The video encoder and video decoding apparatus and its method of coding are skipped using high accuracy
CN112188204A (en) * 2014-10-31 2021-01-05 三星电子株式会社 Video encoding apparatus and video decoding apparatus using high-precision skip coding and methods thereof
US10992951B2 (en) 2014-10-31 2021-04-27 Samsung Electronics Co., Ltd. Video encoding device and video decoding device using high-precision skip encoding and method thereof
WO2016068685A1 (en) * 2014-10-31 2016-05-06 삼성전자 주식회사 Video encoding device and video decoding device using high-precision skip encoding and method thereof
US11228782B2 (en) 2014-10-31 2022-01-18 Samsung Electronics Co., Ltd. Video encoding device and video decoding device using high-precision skip encoding and method thereof
US11523130B2 (en) 2014-10-31 2022-12-06 Samsung Electronics Co., Ltd. Video encoding device and video decoding device using high-precision skip encoding and method thereof
US11503305B2 (en) 2016-08-03 2022-11-15 Kt Corporation Method and apparatus for processing video signal
CN109644267A (en) * 2016-08-03 2019-04-16 株式会社Kt Video signal processing method and device
WO2018026222A1 (en) * 2016-08-03 2018-02-08 주식회사 케이티 Video signal processing method and device
CN111163322B (en) * 2020-01-08 2022-08-30 绍兴文理学院 Encoding and decoding method for mapping index based on historical motion vector
CN111163322A (en) * 2020-01-08 2020-05-15 绍兴文理学院 Encoding and decoding method for mapping index based on historical motion vector

Also Published As

Publication number Publication date
WO2012081949A3 (en) 2012-09-07

Similar Documents

Publication Publication Date Title
JP7210687B2 (en) Video decoding method
JP7387841B2 (en) Video decoding method
WO2012081949A2 (en) Method and apparatus for inter prediction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11849462

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase in:

Ref document number: 2013540905

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13989126

Country of ref document: US

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11849462

Country of ref document: EP

Kind code of ref document: A2