WO2012086963A1 - 영상 부호화 및 복호화 방법과 이를 이용한 장치 - Google Patents

영상 부호화 및 복호화 방법과 이를 이용한 장치 Download PDF

Info

Publication number
WO2012086963A1
WO2012086963A1 PCT/KR2011/009717 KR2011009717W WO2012086963A1 WO 2012086963 A1 WO2012086963 A1 WO 2012086963A1 KR 2011009717 W KR2011009717 W KR 2011009717W WO 2012086963 A1 WO2012086963 A1 WO 2012086963A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
prediction
reference picture
block
picture
Prior art date
Application number
PCT/KR2011/009717
Other languages
English (en)
French (fr)
Inventor
박승욱
김정선
전용준
박준영
전병문
임재현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2012086963A1 publication Critical patent/WO2012086963A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Definitions

  • the present invention relates to image processing, and more particularly, to an inter prediction method and apparatus.
  • the demand for high resolution and high quality images such as high definition (HD) images and ultra high definition (UHD) images is increasing in various fields.
  • the higher the resolution and the higher quality of the image data the more information or bit rate is transmitted than the existing image data. Therefore, the image data can be transmitted by using a medium such as a conventional wired / wireless broadband line or by using a conventional storage medium.
  • the transmission cost and the storage cost are increased. High efficiency image compression techniques can be used to solve these problems.
  • Image compression technology includes an inter prediction technique for predicting pixel values included in a current picture from before and / or after a current picture, and for predicting pixel values included in a current picture by using pixel information in the current picture.
  • An object of the present invention is to provide an image encoding method and apparatus capable of improving image compression efficiency and reducing computational complexity.
  • Another object of the present invention is to provide an image decoding method and apparatus capable of improving image compression efficiency and reducing computational complexity.
  • Another technical problem of the present invention is to provide an inter prediction method and apparatus capable of improving image compression efficiency and reducing computational complexity.
  • Another technical problem of the present invention is to provide a method and apparatus for deriving a motion vector capable of improving image compression efficiency and reducing computational complexity.
  • One embodiment of the present invention is an inter prediction method.
  • the method includes deriving a first motion vector for the current block and using the first motion vector related information, deriving a second motion vector for the current block, wherein the current block is within the current picture.
  • the first motion vector is a motion vector L0
  • the second motion vector is a motion vector L1
  • the first motion vector is a motion vector L1
  • the second motion vector is a motion vector L0.
  • deriving of the second motion vector comprises: deriving a second motion vector predictor for the second motion vector using the first motion vector related information. And deriving the second motion vector using the derived second predicted motion vector.
  • the current picture is a GPB picture
  • the reference picture indicated by the reference picture index L0 of the current block and the reference picture index L1 of the current block are
  • the derived second prediction motion vector may be the first motion vector or a first prediction motion vector for the first motion vector
  • the GPB picture is a reference picture list 0 and a reference.
  • Picture list 1 may be the same picture.
  • a temporal distance from the current picture to the reference picture indicated by the reference picture index L0 and the reference picture index L1 in the current picture are
  • the second prediction motion vector may be derived by scaling the first motion vector or a first prediction motion vector with respect to the first motion vector based on a temporal distance to the indicated reference picture.
  • step of deriving the second motion vector comprises: generating a predicted motion vector candidate list for the second motion vector using the first motion vector related information;
  • the method may include selecting a second prediction motion vector among the prediction motion vector candidates included in the candidate list, and deriving the second motion vector using the selected second prediction motion vector.
  • the prediction motion vector candidate list may include the first motion vector as a prediction motion vector candidate for the second motion vector.
  • the predicted motion vector candidate list may include a first predicted motion vector for the first motion vector as a predicted motion vector candidate for the second motion vector.
  • the method may include generating a predicted motion vector candidate list for a current block, selecting a predicted motion vector for the current block among predicted motion vector candidates included in the predicted motion vector candidate list, and selecting the selected predicted motion vector. Deriving a motion vector for the current block, wherein the number of prediction motion vector candidates included in the prediction motion vector candidate list is a predetermined fixed number.
  • temporal prediction motion vector candidate and the plurality of spatial prediction motion vector candidate acquisition steps include: scanning a plurality of blocks included in an integrated candidate block group in a predetermined order to scan the plurality of blocks; And a plurality of blocks included in the coalescing candidate block may include a lower left corner block of the current block, a lowermost block among blocks adjacent to the left of the current block, and a block of the current block.
  • image compression efficiency can be improved and computational complexity can be reduced.
  • image compression efficiency can be improved and computational complexity can be reduced.
  • image compression efficiency may be improved and computational complexity may be reduced.
  • image compression efficiency may be improved and computational complexity may be reduced.
  • FIG. 1 is a block diagram schematically illustrating an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a conceptual diagram schematically illustrating a prediction unit according to an embodiment of the present invention.
  • FIG. 3 is a block diagram schematically illustrating an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 4 is a conceptual diagram schematically illustrating a prediction unit of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 5 is a flowchart schematically illustrating an embodiment of a method of deriving a motion vector when an advanced motion vector predictor (AMVP) is applied in an inter prediction mode.
  • AMVP advanced motion vector predictor
  • FIG. 6 is a conceptual diagram schematically illustrating an embodiment of a method of generating a predictive motion vector candidate list.
  • FIG. 7 is a conceptual diagram schematically illustrating another embodiment of a method of generating a predictive motion vector candidate list.
  • FIG. 8 is a conceptual diagram schematically illustrating an embodiment of a prediction method that may be used in a P picture and a B picture.
  • FIG. 9 is a conceptual diagram schematically illustrating a comparison between a conventional P picture, a conventional B picture, and a prediction method of a GPB.
  • FIG. 10 is a conceptual diagram schematically showing an embodiment of a picture in which a reference picture index L0 and a reference picture index L1 indicate the same reference picture.
  • FIG. 11 is a conceptual diagram schematically showing an embodiment of a method for deriving a predictive motion vector according to the present invention.
  • FIG. 12 is a conceptual diagram schematically showing another embodiment of a method of deriving a predictive motion vector according to the present invention.
  • FIG. 13 is a conceptual diagram schematically showing still another embodiment of a method for deriving a predictive motion vector according to the present invention.
  • FIG. 14 is a flowchart schematically showing an embodiment of a motion vector derivation method according to the present invention when pair prediction is applied.
  • 15 is a flowchart schematically illustrating another embodiment of a motion vector derivation method according to the present invention when pair prediction is applied.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of the description of the different characteristic functions in the image encoding / decoding apparatus, each component is implemented by separate hardware or separate software It does not mean to be.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included within the scope of the present invention.
  • the image encoding apparatus 100 may include a picture splitter 105, a predictor 110, a transformer 115, a quantizer 120, a realigner 125, and an entropy encoder 130. , An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150.
  • the picture dividing unit 105 may divide the input picture into at least one processing unit.
  • the processing unit may be a prediction unit (PU), a transform unit (TU), or a coding unit (CU).
  • the predictor 110 may include an inter predictor that performs inter prediction and an intra predictor that performs intra prediction.
  • the prediction unit 110 may generate a prediction block by performing prediction on the processing unit of the picture in the picture division unit 105.
  • the processing unit of the picture in the prediction unit 110 may be a coding unit, a transformation unit, or a prediction unit.
  • the processing unit in which the prediction is performed may differ from the processing unit in which the prediction method and the details are determined.
  • the method of prediction and the prediction mode are determined in units of prediction units, and the performance of prediction may be performed in units of transform units.
  • the residual value (residual block) between the generated prediction block and the original block may be input to the converter 115.
  • prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 130 together with the residual value and transmitted to the decoder.
  • the transformer 115 performs a transform on the residual block in transform units and generates transform coefficients.
  • the transform unit in the transform unit 115 may be a transform unit and may have a quad tree structure. In this case, the size of the transform unit may be determined within a range of a predetermined maximum and minimum size.
  • the transform unit 115 may transform the residual block using a discrete cosine transform (DCT) and / or a discrete sine transform (DST).
  • DCT discrete cosine transform
  • DST discrete sine transform
  • the quantization unit 120 may generate quantization coefficients by quantizing the residual values transformed by the transformation unit 115.
  • the value calculated by the quantization unit 120 may be provided to the inverse quantization unit 135 and the reordering unit 125.
  • the reordering unit 125 rearranges the quantization coefficients provided from the quantization unit 120. By rearranging the quantization coefficients, the efficiency of encoding in the entropy encoder 130 may be increased.
  • the reordering unit 125 may rearrange the quantization coefficients in the form of a two-dimensional block into a one-dimensional vector form through a coefficient scanning method.
  • the reordering unit 125 may increase the entropy coding efficiency of the entropy encoder 130 by changing the order of coefficient scanning based on probabilistic statistics of coefficients transmitted from the quantization unit.
  • the entropy encoder 130 may perform entropy encoding on the quantized coefficients rearranged by the reordering unit 125.
  • the entropy encoder 130 may include quantization coefficient information, block type information, prediction mode information, division unit information, prediction unit information, transmission unit information, and motion vector of the coding unit received from the reordering unit 125 and the prediction unit 110.
  • Various information such as information, reference picture information, interpolation information of a block, and filtering information can be encoded.
  • Entropy encoding may use encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • the entropy encoder 130 may store a table for performing entropy coding, such as a variable length coding (VLC) table, and the entropy encoder 130. ) May perform entropy encoding using the stored VLC table.
  • VLC variable length coding
  • the entropy encoder 130 converts a symbol into a bin and binarizes the symbol, and then performs an arithmetic encoding on the bin according to the occurrence probability of the bin to generate a bitstream. You can also create
  • a low value index and a corresponding short codeword are assigned to a symbol having a high probability of occurrence, and a high value index is assigned to a symbol having a low probability of occurrence.
  • Corresponding long codewords may be assigned. Accordingly, the bit amount of the symbols to be encoded may be reduced, and image compression performance may be improved by entropy encoding.
  • the inverse quantization unit 135 may inverse quantize the quantized values in the quantization unit 120, and the inverse transformer 140 may inversely transform the inverse quantized values in the inverse quantization unit 135.
  • the residual value generated by the inverse quantization unit 135 and the inverse transformer 140 may be combined with the prediction block predicted by the prediction unit 110 to generate a reconstructed block.
  • the filter unit 145 may apply a deblocking filter and / or an adaptive loop filter (ALF) to the reconstructed picture.
  • ALF adaptive loop filter
  • the deblocking filter may remove block distortion generated at the boundary between blocks in the reconstructed picture.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing a reconstructed image with an original image after the block is filtered through a deblocking filter. ALF may be performed only when high efficiency is applied.
  • the filter unit 145 may not apply filtering to the reconstructed block used for inter prediction.
  • the memory 150 may store the reconstructed block or the picture calculated by the filter unit 145.
  • the reconstructed block or picture stored in the memory 150 may be provided to the predictor 110 that performs inter prediction.
  • a coding unit is a unit in which coding / decoding of a picture is performed and may be divided with a depth based on a quad tree structure.
  • the coding unit may have various sizes, such as 64x64, 32x32, 16x16, and 8x8.
  • the encoder may transmit information about a largest coding unit (LCU) and a minimum coding unit (SCU) to the decoder.
  • Information (depth information) regarding the number of splittable times together with information about the maximum coding unit and / or the minimum coding unit may be transmitted to the decoder.
  • Information on whether the coding unit is split based on the quad tree structure may be transmitted from the encoder to the decoder through flag information such as a split flag.
  • One coding unit may be divided into a plurality of prediction units.
  • a prediction mode may be determined in units of prediction units, and prediction may be performed in units of prediction units.
  • a prediction mode may be determined in units of prediction units, and intra prediction may be performed in units of transform units.
  • the predictor 200 may include an inter predictor 210 and an intra predictor 220.
  • the inter prediction unit 210 may generate a prediction block by performing prediction based on information of at least one picture of a previous picture or a subsequent picture of the current picture.
  • the intra predictor 220 may generate a prediction block by performing prediction based on pixel information in the current picture.
  • the inter prediction unit 210 may select a reference picture with respect to the prediction unit and select a reference block having the same size as the prediction unit in integer pixel sample units. Subsequently, the inter prediction unit 210 is most similar to the current prediction unit in sub-integer sample units such as 1/2 pixel sample unit and 1/4 pixel sample unit, so that the residual signal is minimized and the size of the motion vector to be encoded is also minimized. Can generate a predictive block.
  • the motion vector may be expressed in units of integer pixels or less, for example, in units of 1/4 pixels for luma pixels and in units of 1/8 pixels for chroma pixels.
  • Information about the index and the motion vector of the reference picture selected by the inter prediction unit 210 may be encoded and transmitted to the decoder.
  • the image decoder 300 includes an entropy decoder 310, a reordering unit 315, an inverse quantizer 320, an inverse transformer 325, a predictor 330, and a filter 335. And a memory 340.
  • the input bit stream may be decoded according to a procedure in which image information is processed by the image encoder.
  • the entropy decoding unit 310 may perform entropy decoding on the input bitstream, and the entropy decoding method is similar to the entropy encoding method described above.
  • VLC variable length coding
  • the entropy decoder 310 may also be identical to the VLC table used in the encoder. Entropy decoding can be performed by implementing a VLC table. Even when CABAC is used to perform entropy encoding in the image encoder, the entropy decoder 310 may perform entropy decoding using CABAC correspondingly.
  • a low value index and a corresponding short codeword are assigned to a symbol having a high probability of occurrence, and a high value index is assigned to a symbol having a low probability of occurrence.
  • Corresponding long codewords may be assigned. Accordingly, the bit amount of the symbols to be encoded may be reduced, and image compression performance may be improved by entropy encoding.
  • Information for generating a prediction block among the information decoded by the entropy decoder 310 may be provided to the predictor 330, and a residual value of which entropy decoding is performed by the entropy decoder may be input to the reordering unit 315.
  • the reordering unit 315 may reorder the bit stream deentropy decoded by the entropy decoding unit 310 based on a method of reordering the image encoder.
  • the reordering unit 315 may reorder the coefficients expressed in the form of a one-dimensional vector by restoring the coefficients in the form of a two-dimensional block.
  • the reordering unit 315 may be realigned by receiving information related to coefficient scanning performed by the encoder and performing reverse scanning based on the scanning order performed by the corresponding encoder.
  • the inverse quantization unit 320 may perform inverse quantization based on the quantization parameter provided by the encoder and the coefficient values of the rearranged block.
  • the inverse transform unit 325 may perform inverse DCT and / or inverse DST on DCT and DST performed by the transform unit of the encoder with respect to the quantization result performed by the image encoder.
  • the inverse transform may be performed based on a transmission unit determined by the encoder or a division unit of an image.
  • the DCT and / or DST may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size and a prediction direction of the current block, and the inverse transformer 325 of the decoder is performed by the transformer of the encoder.
  • Inverse transformation may be performed based on the transformation information.
  • the prediction unit 330 may generate the prediction block based on the prediction block generation related information provided by the entropy decoding unit 310 and the previously decoded block and / or picture information provided by the memory 340.
  • the reconstruction block may be generated using the prediction block generated by the predictor 330 and the residual block provided by the inverse transform unit 325.
  • the reconstructed block and / or picture may be provided to the filter unit 335.
  • the filter unit 335 may apply deblocking filtering, sample adaptive offset (SAO), and / or adaptive loop filtering (ALF) to the reconstructed block and / or picture.
  • deblocking filtering sample adaptive offset (SAO)
  • ALF adaptive loop filtering
  • the memory 340 may store the reconstructed picture or block to use as a reference picture or reference block, and may provide the reconstructed picture to the output unit.
  • FIG. 4 is a conceptual diagram schematically illustrating a prediction unit of an image decoding apparatus according to an embodiment of the present invention.
  • the predictor 400 may include an intra predictor 410 and an inter predictor 420.
  • the intra prediction unit 410 may generate a prediction block based on pixel information in the current picture when the prediction mode for the corresponding prediction unit is an intra prediction mode (intra prediction mode).
  • the inter prediction unit 420 may include information necessary for inter prediction of the current prediction unit provided by the image encoder, eg, a motion vector, Inter-prediction of the current prediction unit may be performed based on information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction unit by using information about the reference picture index.
  • the motion information may be derived in response to the skip flag, the merge flag, and the like of the coding unit received from the encoder.
  • a "picture” or a “picture” can represent the same meaning as a “picture” according to the configuration or expression of the invention, the “picture” may be described as a “picture” or a “picture”.
  • inter prediction and inter prediction have the same meaning
  • intra prediction and intra prediction have the same meaning.
  • the encoder and the decoder may derive motion information of the current block and perform inter prediction on the current block based on the derived motion information.
  • FIG. 5 is a flowchart schematically illustrating an embodiment of a method of deriving a motion vector when an advanced motion vector predictor (AMVP) is applied in an inter prediction mode.
  • AMVP advanced motion vector predictor
  • the encoder and the decoder may generate a predicted motion vector candidate list for the current block (S510).
  • the predicted motion vector may represent a prediction value for the motion vector of the current block, and may also be called a motion vector predictor (MVP).
  • MVP motion vector predictor
  • the predicted motion vector, the motion vector predictor, and the MVP have the same meaning.
  • the encoder and the decoder are available among the blocks of each neighboring picture that are adjacent to the current block and are available and / or co-located with the current block (hereinafter, for convenience of description).
  • a predicted motion vector candidate list may be generated using a motion vector of a 'co-located block'.
  • the neighboring block means a block adjacent to the current block.
  • the encoder and the decoder may select a prediction motion vector for the current block among the prediction motion vector candidates included in the prediction motion vector candidate list (S520).
  • the encoder may select a best predicted motion vector for the current block by applying a motion vector competition (MVC) to the predicted motion vector candidates included in the predicted motion vector candidate list.
  • MVC motion vector competition
  • the encoder may transmit the predictive motion vector index to the decoder through the bit stream.
  • the predicted motion vector index means an index indicating a predicted motion vector of the current block selected from the predicted motion vector candidates included in the predicted motion vector candidate list.
  • the decoder may receive the predicted motion vector index from the encoder.
  • the decoder may select the prediction motion vector for the current block among the prediction motion vector candidates included in the prediction motion vector candidate list using the received prediction motion vector index.
  • the decoder may derive the motion vector of the current block by using the selected prediction motion vector (S530).
  • the encoder can obtain a difference between the motion vector of the current block and the predictive motion vector.
  • the difference between the motion vector and the predicted motion vector is called a motion vector difference (MVD).
  • the encoder may transmit information about the motion vector difference to the decoder, not the motion vector itself. In this case, as the motion vector difference is smaller, the amount of information transmitted from the encoder to the decoder may be reduced.
  • the decoder may receive information about the motion vector difference from the encoder. When the prediction motion vector for the current block is selected, the decoder may obtain the motion vector of the current block by adding the selected prediction motion vector and the motion vector difference.
  • FIG. 6 is a conceptual diagram schematically illustrating an embodiment of a method of generating a predictive motion vector candidate list.
  • the encoder and the decoder scan from the uppermost block among the neighboring blocks included in the left region 610 of the current block, and the reference picture index indicating the reference picture has a reference picture index.
  • a motion vector of the same and available first block may be selected as a predictive motion vector candidate.
  • the encoder and the decoder may scan from the lowermost block to the uppermost block in scanning the neighboring blocks included in the left region 610 of the current block.
  • the reference picture index may be represented by ref_idx
  • the motion vector of the block selected in the left regions A and 610 may be represented by MV A.
  • the encoder and the decoder may fixedly use the motion vector of the specific block as the prediction motion vector candidate in the left region 610 instead of sequentially scanning the entire left region of the current block.
  • the motion vector of the lowermost block of the left region 610 adjacent to the lower left corner blocks E and 630 may be used as the prediction motion vector candidate.
  • a prediction motion vector candidate may also be selected in the upper region 620 of the current block. Referring to FIG. 6, while scanning from the leftmost block to the right among the neighboring blocks included in the upper region 620 of the current block, a reference picture index indicating a reference picture is the same as the current block and used. A predictive motion vector of the first possible block may be selected as a predictive motion vector candidate.
  • the encoder and the decoder may perform scanning from the rightmost block to the left in scanning neighboring blocks included in the upper region 620 of the current block.
  • the motion vector of the block selected in the upper regions B and 620 may be represented by MV B.
  • the encoder and the decoder may fixedly use the motion vector of the specific block as the prediction motion vector candidate in the upper region 620.
  • the motion vector of the rightmost block in the upper region 610 adjacent to the upper right corner blocks C and 640 may be used as the predicted motion vector candidate.
  • a prediction motion vector candidate may be selected among the corner blocks 630, 640, and 650 of the current block.
  • the encoder and the decoder scan each corner blocks 630, 640, and 650 of the current block, and predict the motion vector of the first block in which the current block and the reference picture index are the same and available. Can be used as As another example, all of the motion vectors of each corner block 630, 640, and 650 may be selected as prediction motion vector candidates.
  • the encoder and the decoder may fixedly use a motion vector of a specific block among the corner blocks 630, 640, and 650 of the current block as a prediction motion vector candidate.
  • the motion vector of the upper right corner block 640 among the corner blocks 630, 640, and 650 of the current block may be used as the prediction motion vector candidate.
  • the motion vector of the upper right corner block 640 may be represented by MV C.
  • the encoder and the decoder may select a combination of prediction motion vector codes for each region as one of the prediction motion vector candidates.
  • the median value 660 of the motion vector of the selected block in the left region 610 of the current block, the motion vector of the selected block in the upper region 620, and the motion vector of the upper right corner block 640 are predicted motion vectors. Can be used as one of the candidates.
  • the median value 660 may be represented as MV median .
  • a motion vector of a co-located block 670 may be selected as a prediction motion vector candidate.
  • the motion vector of the same position block 670 may be represented by MV col .
  • the encoder and the decoder may generate the predictive motion vector candidate list by using the predictive motion vector candidates selected by the above-described method. In this case, the encoder and the decoder may exclude overlapping prediction motion vector candidates and form a prediction motion vector candidate list to reduce redundancy.
  • the number and order of prediction motion vector candidates constituting the prediction motion vector candidate list may be specified.
  • the encoder and the decoder may construct a prediction motion vector candidate list by selecting a predetermined number of prediction motion vector candidates from neighboring blocks adjacent to the current block, and selecting one prediction motion vector candidate from the same position block.
  • the encoder and the decoder specify an order in which the availability of the predictive motion vector candidates for constructing the predictive motion vector candidate list is determined, and according to the order, construct the predictive motion vector candidate list with candidates determined to be available first. It may be.
  • FIG. 7 is a conceptual diagram schematically illustrating another embodiment of a method of generating a predictive motion vector candidate list.
  • one group including the lower left corner blocks A 0 and 710 of the current block and the blocks A 1 and 720 positioned at the bottom of the blocks adjacent to the left of the current block are called left candidate block groups.
  • the upper right corner blocks B 0 and 730 of the current block, the blocks B 1 and 740 located at the rightmost side among the blocks adjacent to the top of the current block, and the upper left corner blocks B 2 and 750 of the current block is called a top candidate block group.
  • the encoder and the decoder may derive one prediction motion vector candidate from the left candidate block group.
  • the predicted motion vector candidate derived from the left candidate block group may be represented by MV A.
  • the encoder and the decoder scan the blocks included in the left candidate block group in the order of A 0- > A 1 , and predict the motion vector of the first block in which the current block and the reference picture index are the same and are available. It can be selected as a motion vector candidate (MV A ). Or less, MV A will look after the first spatial (spatial) predicted motion vector.
  • the encoder and the decoder may derive one prediction motion vector candidate from the upper candidate block group.
  • the predicted motion vector candidate derived from the upper candidate block group may be represented by MV B.
  • the encoder and the decoder scan the blocks included in the upper candidate block group in the order of B 0- > B 1- > B 2 , and search for the motion vector of the first block having the same reference picture index as the current block and available.
  • a prediction motion vector candidate MV B of the current block may be selected. Or less, MV B will then see the second spatial predicted motion vector.
  • the encoder and the decoder may select the motion vector of the same position block (Col, 760) in the reference picture as the predicted motion vector candidate of the current block.
  • the motion vector of the same position block 760 may be represented by MV col .
  • MV col is referred to as a temporal prediction motion vector candidate.
  • the encoder and the decoder may remove duplicate candidates among the predicted motion vector candidates selected by the above-described method.
  • the encoder and the decoder may construct a predictive motion vector candidate list using the remaining predictive motion vector candidates.
  • the number of prediction motion vector candidates constituting the prediction motion vector candidate list may be limited. That is, the number of prediction motion vector candidates constituting the prediction motion vector candidate list may be a predetermined fixed number. In addition, the number of prediction motion vector candidates constituting the prediction motion vector candidate list may be equal to or less than a predetermined maximum number. For example, when the number of prediction motion vector candidates constituting the prediction motion vector candidate list is limited to two, only two of the first spatial prediction motion vector candidate, the second spatial prediction motion vector candidate, and the temporal prediction motion vector candidate are maximum. This prediction motion vector candidate list may be included.
  • the order in which the predicted motion vector candidates are inserted and / or included in the predicted motion vector candidate list may be specified in a predetermined order.
  • the encoder and the decoder select only a maximum of two in order of the first spatial prediction motion vector candidate, the second spatial prediction motion vector candidate, and the temporal prediction motion vector candidate except for the duplicated candidates among the selected prediction motion vector candidates.
  • the prediction motion vector candidate list can be constructed. That is, the prediction motion vector candidates may be inserted and / or included in the prediction motion vector candidate list in the order of the first spatial prediction motion vector candidate, the second spatial prediction motion vector candidate, and the temporal prediction motion vector candidate. In this case, if all of the first spatial predicted motion vector candidate, the second spatial predicted motion vector candidate, and the temporal predicted motion vector candidate are available and do not overlap each other, the temporal predicted motion vector candidate is excluded, and the first spatial predicted motion vector candidate is excluded. Only the candidate and the second spatial predicted motion vector candidate may be included in the predicted motion vector candidate list.
  • the encoder and the decoder select the predicted motion vector candidate included in the predicted motion vector candidate list in the order of the first spatial predicted motion vector candidate, the second spatial predicted motion vector candidate, and the temporal predicted motion vector candidate, the spatial as described above. It may happen that only prediction motion vector candidates are included in the prediction motion vector candidate list. In this case, the variety of prediction motion vector candidates may be lowered and the efficiency of motion vector prediction may be lowered.
  • a method for increasing the probability that the temporal predictive motion vector candidates are included in the predictive motion vector candidate list may be provided.
  • the encoder and the decoder may select the predicted motion vector candidate included in the predicted motion vector candidate list in the order of the temporal predicted motion vector candidate, the first spatial predicted motion vector candidate, and the second spatial predicted motion vector candidate. . That is, the prediction motion vector candidates may be inserted and / or included in the prediction motion vector candidate list in the order of the temporal prediction motion vector candidate, the first spatial prediction motion vector candidate, and the second spatial prediction motion vector candidate. This means that the priority of the predicted motion vector candidate inserted and / or included in the predicted motion vector candidate list is the temporal predicted motion vector candidate in the order of the first spatial predicted motion vector candidate, the second spatial predicted motion vector candidate, and the temporal predicted motion vector candidate. The first spatial prediction motion vector candidate and the second spatial prediction motion vector candidate are changed in order.
  • the temporal prediction motion vector candidate, the first spatial prediction motion vector candidate, and the second spatial prediction motion vector candidate are all available and do not overlap each other, the second spatial prediction motion vector candidate is excluded, and the temporal prediction motion vector Only the candidate, the first spatial predicted motion vector candidate may be included in the predicted motion vector candidate list. That is, the temporal prediction motion vector candidate and the first spatial prediction motion vector candidate may be used as candidates for constructing the prediction motion vector candidate list.
  • the order in which the prediction motion vector indexes are assigned to each candidate may not be limited.
  • the prediction motion vector candidate is selected in the order of the temporal prediction motion vector candidate, the first spatial prediction motion vector candidate, and the second spatial prediction motion vector candidate, as in the above-described embodiment, the first spatial prediction motion is selected.
  • the vector candidate may be assigned a lower index value (eg, 0) than the temporal predictive motion vector candidate.
  • the spatial prediction motion vector candidates may be derived one from each of the left candidate block group and the top candidate block group.
  • the number of prediction motion vector candidates is limited to two as described above, and the temporal prediction motion vector candidates are included and / or inserted in the prediction motion vector candidate list most preferentially, the temporal prediction motion vector candidates are valid. In this case, only one spatial predicted motion vector candidate is needed. In this case, it may be less necessary to derive the spatial predictive motion vector candidates separately from separate groups.
  • the unified candidate block group includes a lower left corner block (A 0 , 710) of the current block, a lowermost block (A 1 , 720) among blocks adjacent to the left side of the current block, and an upper right corner block of the current block. (B 0 , 730), blocks B 1 and 740 located at the rightmost side among blocks adjacent to the top of the current block, and upper left corner blocks B 2 and 750 of the current block.
  • the encoder and the decoder may scan the blocks included in the unified candidate block group and select the motion vectors of the available blocks with the same reference picture index as the current block and as the predicted motion vector candidates of the current block.
  • the encoder and the decoder may select a predetermined number of blocks from the first block in the scanning order, and the predetermined number may be two, for example.
  • the scan order is an example A One -> B One -> B 0 -> A 0 -> B 2
  • the order of the scan order is not limited to the above example, it may be determined differently according to the implementation and / or needs.
  • the method of obtaining the spatial predicted motion vector candidate using the aforementioned unified candidate block group may be used only when the temporal predictive motion vector candidate is valid, but may be always used regardless of the validity of the temporal predictive motion vector candidate.
  • i-picture there may be three kinds of pictures, i-picture, P-picture, and B-picture, which are used for video encoding and decoding.
  • An I picture is a picture that is encoded independently in the picture regardless of the picture before and after. Prediction in the time direction is not applied to the I picture, and only intra-picture information can be used for encoding processing.
  • the P picture is a picture that can be encoded by unidirectional prediction between pictures using one reference picture.
  • a B picture is a picture that can be encoded by forward, backward, or bidirectional prediction between pictures using one or more, for example, two reference pictures. One or more reference pictures may be used in the B picture.
  • 8 is a conceptual diagram schematically illustrating an embodiment of a prediction method that may be used in a P picture and a B picture. 8 shows a prediction method 810 for a P picture and a prediction method 820, 830, 840 for a B picture.
  • a block to be predicted currently is called a prediction target block
  • a block generated by the prediction is a prediction block
  • a block used for prediction of the prediction target block in a reference picture is referred to as a reference block.
  • POC Picture Order Count
  • FIG. 8 shows unidirectional prediction 810 in a P picture.
  • P picture requires one reference picture list, which is referred to as reference picture list0.
  • Inter prediction using a reference picture selected from the reference picture list 0 is called L0 prediction, and L0 prediction may be mainly used for forward prediction.
  • intra prediction or LO prediction may be performed.
  • prediction may be performed on a prediction target block using one reference block that exists in the past than the current picture in decoding order. Therefore, as shown in FIG. 8 (810), prediction using a past reference picture in time order may be used to perform inter-screen forward prediction. In addition, prediction using a future reference picture in time order may be used to perform reverse prediction between screens. Therefore, the P picture can use only one piece of motion information (motion vector, reference picture index) for the block to be predicted in one direction.
  • motion vector, reference picture index motion vector, reference picture index
  • the B picture requires two reference picture lists, and the two reference picture lists are referred to as reference picture list 0 and reference picture list 1, respectively.
  • Inter prediction using a reference picture selected from the reference picture list 0 is called L0 prediction, and L0 prediction is mainly used for forward prediction.
  • Inter prediction using the reference picture selected from the reference picture list 1 is called L1 prediction, and L1 prediction is mainly used for backward prediction.
  • inter prediction using two reference pictures selected from reference picture list 0 and reference picture list 1 is called bi prediction.
  • intra prediction, L0 prediction, L1 prediction, or bi prediction using two pieces of motion information may be performed.
  • bidirectional prediction 820 in a B picture shows bidirectional prediction 820 in a B picture.
  • prediction may be performed on a prediction target block by using both a forward reference block in a past reference picture and a backward reference block in a future reference picture in time order. That is, bi-prediction using both the forward reference block and the backward reference block may be used to perform inter prediction.
  • FIG. 8 also shows forward prediction 830 using two past reference pictures and a backward prediction 840 using two future reference pictures in a B picture.
  • two past reference pictures may be used in time order, and inter prediction may be performed on the prediction target block.
  • two future reference pictures may be used in temporal order to perform inter prediction on the prediction block.
  • the B picture may use up to two pieces of motion information for the picture to be predicted in the forward and / or reverse direction.
  • the B picture has a delay but can be used primarily to achieve high performance.
  • both the reference picture list 0 and the reference picture list 1 may exist. Accordingly, the prediction target block in the current picture may include a reference picture index (eg, ref_idx_l0) for indicating a reference picture of reference picture list 0 and a reference picture index (eg, for example, referring to reference picture of reference picture list 1). ref_idx_l1) may have both.
  • the reference picture index for the reference picture referenced by the current block in reference picture list 0 is referred to as the reference picture index L0 and the reference picture index for the reference picture referred to by the current block in reference picture list 1 is referred to as reference picture index L1.
  • the motion vector for the reference picture list 0 is called a motion vector L0 and the motion vector for the reference picture list 1 is called a motion vector L1.
  • the motion vector L0 may be represented by mv_l0
  • the motion vector L1 may be represented by mv_l1.
  • two motion vectors that is, a motion vector L0 and a motion vector L1 may be derived for one prediction unit.
  • the encoder and the decoder may apply the motion vector derivation method according to the above-described embodiment of FIG. 5 to each of the motion vector L0 and the motion vector L1 to derive the motion vector L0 and the motion vector L1. Can be.
  • the encoder and the decoder may generate both the predicted motion vector candidate list for the motion vector L0 and the predictive motion vector candidate list for the motion vector L1.
  • the predicted motion vector candidate list for the motion vector L0 is called a predicted motion vector candidate list L0
  • the predicted motion vector candidate list for the motion vector L1 is called a predicted motion vector candidate list L1.
  • the encoder and the decoder may select the predicted motion vector for the motion vector L0 from the predicted motion vector candidate list L0, and select the predictive motion vector for the motion vector L1 from the predicted motion vector candidate list L1.
  • the predicted motion vector for the motion vector L0 is called a predicted motion vector L0
  • the predicted motion vector for the motion vector L1 is called a predicted motion vector L1.
  • the encoder may transmit a predictive motion vector index indicating the predictive motion vector L0 and a predictive motion vector index indicating the predictive motion vector L1 to the decoder.
  • the predicted motion vector index indicating the predicted motion vector L0 is called a predicted motion vector index L0
  • the predicted motion vector index indicating the predicted motion vector L1 is called a predicted motion vector index L1.
  • the decoder may select the predicted motion vector L0 using the predictive motion vector index L0, and select the predictive motion vector L1 using the predictive motion vector index L1.
  • the encoder and the decoder in the bi-prediction mode, derive the predictive motion vector L1 from the motion vector L0 related information or derive the predictive motion vector L0 from the motion vector L1 related information by using the similarity of the motion vector L0 and the motion vector L1. Can be derived.
  • the predictive motion vector derivation method may be applied. Details of the GPB picture are described in the embodiment of FIG. 9.
  • FIG. 9 is a conceptual diagram schematically illustrating a comparison between a conventional P picture, a conventional B picture, and a prediction method of a GPB. Referring to FIG. 9, each picture is shown in the display order (POC) of the screen.
  • POC display order
  • a reference picture list may be configured of pictures used for inter prediction with respect to a current picture.
  • the B picture requires two reference picture lists: reference picture list 0 and reference picture list 1.
  • a picture having the same reference picture list 0 and reference picture list 1 among the B pictures is referred to as Generalized P and B or Generalized B picture.
  • only forward prediction may be allowed in the GPB, in which case backward prediction may not be performed.
  • the GPB may perform prediction using two or more pieces of motion information on a prediction target block. If only forward prediction is allowed in GPB, no delay due to backward prediction is involved. In GPB, low delay coding is possible while maintaining high coding performance.
  • 10 is a conceptual diagram schematically showing an embodiment of a picture in which a reference picture index L0 and a reference picture index L1 indicate the same reference picture. 10 may show a case in which the current picture is a GPB, that is, a generalized B picture.
  • the block in the reference picture used for prediction of the prediction target block 1010 in the current picture is called a reference block.
  • the reference block for the reference picture of the reference picture list 0 is referred to as the reference block L0 1020 and the reference block for the reference picture for the reference picture list 1 is referred to as the reference block L1 1030.
  • the reference block L0 1020 may be derived using the motion vector L0 (eg, mv_l0), and the reference block L1 1030 may be derived using the motion vector L1 (eg, mv_l1). Can be.
  • the reference picture index L0 and the reference picture index L1 may indicate the same reference picture.
  • the reference block L0 1020 and the reference block L1 1030 may exist at similar positions in the reference picture, and the motion vector L0 and the motion vector L1 may have similar values.
  • a method of reducing the motion vector difference using the similarity between the motion vector L0 and the motion vector L1 may be provided.
  • the current picture including the current block may be a GPB picture.
  • one prediction unit may have two motion vectors.
  • the two motion vectors are referred to as a first motion vector and a second motion vector, respectively.
  • the first motion vector is a motion vector L0
  • the second motion vector may be a motion vector L1
  • the first motion vector is a motion vector L1
  • the second motion vector may be a motion vector L0.
  • a reference picture index L0 (eg, ref_idx_l0) and a reference picture index L1 (eg, ref_idx_l1) may be transmitted for one prediction target block.
  • the reference picture index L0 and the reference picture index L1 indicate the same reference picture, as described above, since the motion vector L0 and the motion vector L1 may have similar values, the motion of any one of the motion vector L0 and the motion vector L1.
  • the vector may be used as the predicted motion vector (MVP) of another motion vector.
  • the first motion vector may be obtained by the motion vector derivation method according to the embodiment of FIG. 5 described above. That is, the encoder and the decoder may generate a predicted motion vector candidate list for the first motion vector, and select the predicted motion vector for the first motion vector from the generated list. The first motion vector may be derived using the selected predicted motion vector.
  • the derived first motion vector may be used as a predicted motion vector (MVP) of the second motion vector. That is, the predicted motion vector for the second motion vector may be the derived first motion vector.
  • the encoder may obtain a difference between the second motion vector and the predicted motion vector (first motion vector), and may transmit a motion vector difference (MVD) for the second motion vector to the decoder.
  • the decoder may obtain a second motion vector by adding a predicted motion vector (first motion vector) for the second motion vector and a motion vector difference received from the encoder.
  • the first motion vector is used as the prediction motion vector for the second motion vector. If used, the motion vector difference (MVD) value for the second motion vector may be small. Therefore, the image compression efficiency can be improved.
  • the encoder and the decoder may use the prediction motion vector (MVP) of the first motion vector as the prediction motion vector (MVP) of the second motion vector instead of the first motion vector itself.
  • MVP prediction motion vector
  • the current picture may not be a GPB picture.
  • two motion vectors may exist for the current block 1210.
  • the predicted motion vector for any one of the two motion vectors may be derived using information about another motion vector.
  • a predicted motion vector of the motion vector L1 is derived using the motion vector L0 related information will be described.
  • reference picture 0 may be a reference picture of reference picture list 0, and reference picture 1 may be a reference picture of reference picture list 1.
  • reference picture 0 may include a reference block L0 1220
  • reference picture 1 may include a reference block L1 1230.
  • the reference block L0 1220 may be derived using the motion vector L0 (eg, mv_l0)
  • the reference block L1 1230 may be derived using the motion vector L1 (eg, mv_l1). have.
  • the reference picture index L0 may indicate the reference picture 0, and the reference picture index L1 may indicate the reference picture 1. Therefore, the reference picture index L0 and the reference picture index L1 may not indicate the same reference picture.
  • the encoder and the decoder may scale the motion vector L0 and then use the scaled motion vector L0 as a prediction motion vector (MVP), that is, the prediction motion vector L1 of the motion vector L1.
  • MVP prediction motion vector
  • the motion vector L0 may be obtained by the motion vector derivation method according to the embodiment of FIG. 5 described above.
  • the encoder and the decoder may generate the predictive motion vector candidate list L0 and select the predictive motion vector L0 from the generated list.
  • the motion vector L0 may be derived using the selected predicted motion vector L0.
  • the derived motion vector L0 may be scaled and then used as a predicted motion vector (predicted motion vector L1) for the motion vector L1.
  • predicted motion vector L1 may be represented by Equation 1 below.
  • MVP_l1 (d2 / d1) * mv_l0
  • MVP_l1 represents the predicted motion vector L1
  • mv_l0 represents the motion vector L0
  • d1 indicates a temporal distance between the current picture and reference picture 0
  • d2 indicates a temporal distance between the current picture and reference picture1.
  • the encoder can obtain a motion vector difference (MVD) based on the difference between the motion vector L1 and the predicted motion vector L1, and transmit the same to the decoder.
  • the decoder can obtain the motion vector L1 by adding the derived predicted motion vector L1 and the motion vector difference.
  • the encoder and the decoder may obtain the predicted motion vector L1 by scaling the predicted motion vector, that is, the predicted motion vector L0, for the motion vector L0 rather than the motion vector L0 itself.
  • the predicted motion vector L1 may be represented by Equation 2 below.
  • MVP_l1 (d2 / d1) * MVP_l0
  • MVP_l0 represents the predicted motion vector L0.
  • FIG. 13 is a conceptual diagram schematically showing still another embodiment of a method for deriving a predictive motion vector according to the present invention.
  • the current picture may not be a GPB picture.
  • two motion vectors may exist for the current block 1310.
  • the predicted motion vector for any one of the two motion vectors may be derived using information about another motion vector.
  • a predicted motion vector of the motion vector L1 is derived using the motion vector L0 related information will be described.
  • reference picture 0 may be a reference picture of reference picture list 0, and reference picture 1 may be a reference picture of reference picture list 1.
  • the reference picture 0 may include a reference block L0 1320
  • the reference picture 1 may include a reference block L1 1330.
  • the reference block L0 1320 may be derived using the motion vector L0 (eg, mv_l0)
  • the reference block L1 1330 may be derived using the motion vector L1 (eg, mv_l1). have.
  • a reference picture index L0 may indicate a reference picture 0 and a reference picture index L1 may indicate a reference picture 1. Therefore, the reference picture index L0 and the reference picture index L1 may not indicate the same reference picture.
  • the encoder and the decoder may scale the motion vector L0 and then use the scaled motion vector L0 as a prediction motion vector (MVP), that is, the prediction motion vector L1 of the motion vector L1.
  • MVP prediction motion vector
  • the motion vector L0 may be obtained by the motion vector derivation method according to the embodiment of FIG. 5 described above.
  • the encoder and the decoder may generate the predictive motion vector candidate list L0 and select the predictive motion vector L0 from the generated list.
  • the motion vector L0 may be derived using the selected predicted motion vector L0.
  • the derived motion vector L0 may be scaled and then used as a predicted motion vector (predicted motion vector L1) for the motion vector L1.
  • the predicted motion vector L1 may be represented by the following equation (3).
  • MVP_l1 -(d2 / d1) * mv_l0
  • MVP_l1 represents the predicted motion vector L1
  • mv_l0 represents the motion vector L0
  • d1 indicates a temporal distance between the current picture and reference picture 0
  • d2 indicates a temporal distance between the current picture and reference picture1.
  • Equation 3 since the reference picture index L0 indicates a past reference picture and the reference picture index L1 indicates a future reference picture, the sign of the motion vector L0 may be changed during the scaling process. Therefore, in Equation 3, unlike Equation 1, ⁇ 1 may be multiplied by the value of the motion vector L0.
  • the encoder can obtain a motion vector difference (MVD) based on the difference between the motion vector L1 and the predicted motion vector L1, and transmit the same to the decoder.
  • the decoder can obtain the motion vector L1 by adding the derived predicted motion vector L1 and the motion vector difference.
  • the encoder and the decoder may obtain the prediction motion vector L1 by scaling the prediction motion vector (MVP), that is, the prediction motion vector L0, for the motion vector L0 instead of the motion vector L0 itself.
  • MVP prediction motion vector
  • the predicted motion vector L1 may be represented by the following equation (4).
  • MVP_l1 -(d2 / d1) * MVP_l0
  • MVP_l0 represents the predicted motion vector L0.
  • the transmission of the predicted motion vector index L1 can be omitted, the amount of transmission bits can be reduced.
  • the process of generating the predicted motion vector candidate list L1 may be omitted, the computational complexity may be reduced.
  • FIG. 14 is a flowchart schematically showing an embodiment of a motion vector derivation method according to the present invention when pair prediction is applied.
  • first motion vector two motion vectors used in the bi-prediction mode are referred to as a first motion vector and a second motion vector, respectively.
  • first motion vector when the first motion vector is a motion vector L0, the second motion vector may be a motion vector L1, and when the first motion vector is a motion vector L1, the second motion vector may be a motion vector L0.
  • the encoder and the decoder may derive the first motion vector (S1410).
  • the first motion vector may be obtained by the motion vector derivation method according to the embodiment of FIG. 5 described above.
  • the encoder and the decoder may generate a predicted motion vector candidate list for the first motion vector, and select the predicted motion vector for the first motion vector from the generated list.
  • the first motion vector may be derived using the selected predicted motion vector.
  • the encoder and the decoder may derive the predicted motion vector (MVP) for the second motion vector by using the first motion vector related information (S1420).
  • the predicted motion vector for the first motion vector is called a first predicted motion vector
  • the predicted motion vector for the second motion vector is called a second predicted motion vector.
  • the encoder and the decoder may perform the first motion vector or the first prediction.
  • the motion vector may be used as the second prediction motion vector. That is, the second prediction motion vector may be a first motion vector or a first prediction motion vector.
  • the current picture may not be a GPB picture, and the reference picture indicated by the reference picture index L0 and the reference picture index L1 may not be the same. Even in such a case, the encoder and the decoder may scale the first motion vector or the first prediction motion vector and use the scaled value as the second prediction motion vector, as described above with reference to the embodiments of FIGS. 12 and 13. .
  • the decoder may derive the second motion vector using the derived second predicted motion vector (S1430).
  • the encoder may transmit a motion vector difference (MVD) obtained by the difference between the second motion vector and the second prediction motion vector, to the decoder.
  • the decoder may derive the second motion vector by adding the motion vector difference to the derived second predicted motion vector.
  • 15 is a flowchart schematically illustrating another embodiment of a motion vector derivation method according to the present invention when pair prediction is applied.
  • an encoder and a decoder may derive a first motion vector (S1510).
  • the first motion vector may be obtained by applying the motion vector derivation method according to the embodiment of FIG. 5 described above.
  • the encoder and the decoder may generate a predicted motion vector candidate list for the first motion vector, and select the predicted motion vector for the first motion vector from the generated list.
  • the first motion vector may be derived using the selected predicted motion vector.
  • the predicted motion vector candidate list for the first motion vector is called a first predicted motion vector candidate list
  • the predicted motion vector candidate list for the second motion vector is called a second predicted motion vector candidate list.
  • the encoder and the decoder may generate a second predicted motion vector candidate list using the first motion vector related information (S1520).
  • the encoder and the decoder may include the motion vector MV A of the selected block in the left region 610 of the current block, and the motion vector MV B of the selected block in the upper region 620 of the current block. ), The motion vector MV C of the upper right corner block 630, the median values MV median 660 of the motion vectors, and the motion vector MV col of the same position block 670 as the prediction motion vector candidates. You can choose.
  • the encoder and the decoder may include the motion vector MV A of the selected block in the left region 610 of the current block, and the motion vector MV B of the selected block in the upper region 620 of the current block. ), The motion vector MV C of the upper right corner block 630, the median values MV median 660 of the motion vectors, and the motion vector MV col of the same position block 670 as the prediction motion vector candidates. You can choose.
  • the encoder and the decoder may include the motion vector MV A derived from the left candidate block group, the motion vector MV B derived from the upper candidate block group, and the motion vector MV col of the same position block. ) May be selected as a predicted motion vector candidate.
  • the second prediction motion vector candidate list may include additional prediction motion vector candidates obtained by using the first motion vector related information, in addition to the prediction motion vector candidates selected by the method of FIGS. 6 and 7 described above. That is, a motion vector obtained using the first motion vector related information may be added as a new prediction motion vector candidate to the second prediction motion vector candidate list.
  • the additional prediction motion vector candidate may be a first motion vector or a first prediction motion vector.
  • the first motion vector is called MV1
  • the first predicted motion vector is called MVP1.
  • the finally generated list is ⁇ MV median, MV A, MV B, MV C, MV col, MV1 ⁇ Can be.
  • the finally generated list may be ⁇ MV A , MV B , MV col , MV1 ⁇ .
  • the current picture may not be a GPB picture, and the reference picture indicated by the reference picture index L0 and the reference picture index L1 may not be the same.
  • the additional prediction motion vector candidate may be a value obtained by scaling a first motion vector or a first prediction motion vector. That is, the encoder and the decoder may scale the first motion vector or the first prediction motion vector, and then add the scaled value as a new prediction motion vector candidate to the second prediction motion vector candidate list.
  • the scaling method for the first motion vector or the first predictive motion vector is similar to that described in FIGS. 12 and 13 and will be omitted.
  • Each candidate in the generated second prediction motion vector candidate list may be assigned a prediction motion vector index value.
  • the probability of being selected as the predicted motion vector for the second motion vector may be high. Therefore, the lowest motion vector index value may be assigned to the additional predicted motion vector candidate. In this case, the amount of bits transmitted from the encoder to the decoder may be reduced.
  • the second predicted motion vector candidates are MV1, MV median , MV A , MV B , MV C , and MV col . It may be re-ordered in order, and the predicted motion vector index values may be assigned in the lower order from the front. In this case, the lowest index value may be assigned to MV1.
  • the second prediction motion vector candidates may be rearranged in the order of MV1, MV A , MV B , MV col . For example, the predicted motion vector index values may be assigned in descending order from the front. In this case, the lowest index value may be assigned to MV1.
  • the number of second prediction motion vector candidates constituting the second prediction motion vector candidate list may be limited, and the order in which the second prediction motion vector candidate is inserted and / or included in the second prediction motion vector candidate list is predetermined. It can be specified in the order of.
  • the encoder and the decoder may first insert the additional prediction motion vector candidate into the second prediction motion vector candidate list. It may be.
  • the encoder and the decoder may select a second prediction motion vector for the current block among prediction motion vector candidates included in the second prediction motion vector candidate list (S1530).
  • the encoder may apply MVC to the prediction motion vector candidates included in the second prediction motion vector candidate list to select an optimal second prediction motion vector for the current block.
  • the encoder may transmit the prediction motion vector index for the second prediction motion vector to the decoder through the bit stream.
  • the decoder may select a second prediction motion vector for the current block by using the transmitted prediction motion vector index.
  • the decoder may derive the second motion vector of the current block by using the selected second prediction motion vector (S1540).
  • the process of deriving the second motion vector using the second prediction motion vector is similar to that of the embodiment of FIG. 5 described above, and thus will be omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에 따른 인터 예측 방법은 현재 블록에 대한 제1 움직임 벡터를 도출하는 단계 및 제1 움직임 벡터 관련 정보를 이용하여, 현재 블록에 대한 제2 움직임 벡터를 도출하는 단계를 포함한다. 본 발명에 의하면, 영상 압축 효율이 향상되고 연산 복잡도가 감소될 수 있다.

Description

영상 부호화 및 복호화 방법과 이를 이용한 장치
본 발명은 영상 처리에 관한 것으로서, 보다 상세하게는 인터 예측 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 영상 데이터를 저장하는 경우, 전송 비용과 저장 비용이 증가된다. 이러한 문제들을 해결하기 위해서 고효율의 영상 압축 기술들이 이용될 수 있다.
영상 압축 기술에는 현재 픽쳐의 이전 및/또는 이후 픽쳐로부터 현재 픽쳐에 포함된 픽셀값을 예측하는 인터 예측(inter prediction) 기술, 현재 픽쳐 내의 픽셀 정보를 이용하여 현재 픽쳐에 포함된 픽셀값을 예측하는 인트라 예측(intra prediction) 기술, 출현 빈도가 높은 값에 짧은 코드워드를 할당하고 출현 빈도가 낮은 값에 긴 코드워드를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재한다. 이러한 영상 압축 기술을 이용해 영상 데이터가 효과적으로 압축되어 전송 또는 저장될 수 있다.
본 발명의 기술적 과제는 영상 압축 효율을 향상시키고 연산 복잡도를 감소시킬 수 있는 영상 부호화 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 영상 압축 효율을 향상시키고 연산 복잡도를 감소시킬 수 있는 영상 복호화 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 영상 압축 효율을 향상시키고 연산 복잡도를 감소시킬 수 있는 인터 예측 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 영상 압축 효율을 향상시키고 연산 복잡도를 감소시킬 수 있는 움직임 벡터 도출 방법 및 장치를 제공함에 있다.
(1) 본 발명의 일 실시 형태는 인터 예측 방법이다. 상기 방법은 현재 블록에 대한 제1 움직임 벡터를 도출하는 단계 및 상기 제1 움직임 벡터 관련 정보를 이용하여, 현재 블록에 대한 제2 움직임 벡터를 도출하는 단계를 포함하고, 상기 현재 블록은 현재 픽쳐 내의 예측 대상 블록이고, 상기 제1 움직임 벡터가 움직임 벡터L0일 때 상기 제2 움직임 벡터는 움직임 벡터L1이고, 상기 제1 움직임 벡터가 움직임 벡터L1일 때 상기 제2 움직임 벡터는 움직임 벡터 L0이다.
(2) (1)에 있어서, 상기 제2 움직임 벡터 도출 단계는, 상기 제1 움직임 벡터 관련 정보를 이용하여, 상기 제2 움직임 벡터에 대한 제2 예측 움직임 벡터(Motion Vector Predictor)를 도출하는 단계 및 상기 도출된 제2 예측 움직임 벡터를 이용하여 상기 제2 움직임 벡터를 도출하는 단계를 포함할 수 있다.
(3) (2)에 있어서, 상기 제2 예측 움직임 벡터 도출 단계에서, 상기 현재 픽쳐가 GPB 픽쳐이고, 상기 현재 블록의 참조 픽쳐 인덱스L0가 지시하는 참조 픽쳐와 상기 현재 블록의 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우에, 상기 도출된 제2 예측 움직임 벡터는 상기 제1 움직임 벡터 또는 상기 제1 움직임 벡터에 대한 제1 예측 움직임 벡터일 수 있고, 상기 GPB 픽쳐는 참조 픽쳐 리스트0 및 참조 픽쳐 리스트1이 동일한 픽쳐일 수 있다.
(4) (2)에 있어서, 상기 제2 예측 움직임 벡터 도출 단계에서는, 상기 현재 픽쳐에서 참조 픽쳐 인덱스L0이 지시하는 참조 픽쳐까지의 시간적 거리(temporal distance) 및 상기 현재 픽쳐에서 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐까지의 시간적 거리에 기초하여, 상기 제1 움직임 벡터 또는 상기 제1 움직임 벡터에 대한 제1 예측 움직임 벡터를 스케일링(scaling)함으로써 상기 제2 예측 움직임 벡터를 도출할 수 있다.
(5) (1)에 있어서, 상기 제2 움직임 벡터 도출 단계는, 상기 제1 움직임 벡터 관련 정보를 이용하여, 상기 제2 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트를 생성하는 단계, 상기 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중 제2 예측 움직임 벡터를 선택하는 단계 및 상기 선택된 제2 예측 움직임 벡터를 이용하여 상기 제2 움직임 벡터를 도출하는 단계를 포함할 수 있다.
(6) (5)에 있어서, 상기 현재 픽쳐가 GPB 픽쳐이고, 상기 현재 블록의 참조 픽쳐 인덱스L0가 지시하는 참조 픽쳐와 상기 현재 블록의 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우에, 상기 예측 움직임 벡터 후보 리스트는, 상기 제2 움직임 벡터에 대한 예측 움직임 벡터 후보로서, 상기 제1 움직임 벡터를 포함할 수 있다.
(7) (6)에 있어서, 상기 예측 움직임 벡터 후보 리스트가 상기 제1 움직임 벡터를 포함하는 경우, 상기 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중에서, 상기 제1 움직임 벡터에 가장 낮은 예측 움직임 벡터 인덱스가 할당될 수 있다.
(8) (5)에 있어서, 상기 현재 픽쳐가 GPB 픽쳐이고, 상기 현재 블록의 참조 픽쳐 인덱스L0가 지시하는 참조 픽쳐와 상기 현재 블록의 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우에, 상기 예측 움직임 벡터 후보 리스트는, 상기 제2 움직임 벡터에 대한 예측 움직임 벡터 후보로서, 상기 제1 움직임 벡터에 대한 제1 예측 움직임 벡터를 포함할 수 있다.
(9) 본 발명의 다른 실시 형태는 인터 예측 방법이다. 상기 방법은 현재 블록에 대한 예측 움직임 벡터 후보 리스트를 생성하는 단계, 상기 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보 중 상기 현재 블록에 대한 예측 움직임 벡터를 선택하는 단계 및 상기 선택된 예측 움직임 벡터를 이용하여 상기 현재 블록에 대한 움직임 벡터를 도출하는 단계를 포함하고, 상기 예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보의 개수는 소정의 고정된 개수이다.
(10) (9)에 있어서, 상기 예측 움직임 벡터 후보 리스트 생성 단계는, 시간적 예측 움직임 벡터 후보 및 복수의 공간적 예측 움직임 벡터 후보를 획득하는 단계 및 상기 획득한 시간적 예측 움직임 벡터 후보 및 상기 획득한 복수의 공간적 예측 움직임 벡터 후보 중에서 상기 예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보를 선택하는 단계를 포함할 수 있고, 상기 예측 움직임 벡터 후보 선택 단계에서는, 상기 시간적 예측 움직임 벡터 후보를 가장 우선적으로 선택할 수 있다.
(11) (10)에 있어서, 상기 시간적 예측 움직임 벡터 후보 및 복수의 공간적 예측 움직임 벡터 후보 획득 단계에서는, 통합 후보 블록 그룹에 포함된 복수의 블록을 소정의 순서로 스캔(scan)하여 상기 복수의 공간적 예측 움직임 벡터 후보를 획득할 수 있고, 상기 통합 후보 블록에 포함된 복수의 블록은 상기 현재 블록의 좌측 하단 코너 블록, 상기 현재 블록의 좌측에 인접한 블록들 중 최하단에 위치한 블록, 상기 현재 블록의 우측 상단 코너 블록, 상기 현재 블록의 상단에 인접한 블록들 중 최우측에 위치한 블록 및 상기 현재 블록의 좌측 상단 코너 블록일 수 있다.
본 발명에 따른 영상 부호화 방법에 의하면, 영상 압축 효율이 향상되고 연산 복잡도가 감소될 수 있다.
본 발명에 따른 영상 복호화 방법에 의하면, 영상 압축 효율이 향상되고 연산 복잡도가 감소될 수 있다.
본 발명에 따른 인터 예측 방법에 의하면, 영상 압축 효율이 향상되고 연산 복잡도가 감소될 수 있다.
본 발명에 따른 움직임 벡터 도출 방법에 의하면, 영상 압축 효율이 향상되고 연산 복잡도가 감소될 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 예측부를 개략적으로 도시한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 영상 복호화 장치를 개략적으로 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 영상 복호화 장치의 예측부를 개략적으로 나타낸 개념도이다.
도 5는 인터 예측 모드에서 AMVP(Advanced Motion Vector Predictor)가 적용되는 경우, 움직임 벡터 도출 방법의 일 실시예를 개략적으로 나타내는 흐름도이다.
도 6은 예측 움직임 벡터 후보 리스트 생성 방법의 일 실시예를 개략적으로 나타내는 개념도이다.
도 7은 예측 움직임 벡터 후보 리스트 생성 방법의 다른 실시예를 개략적으로 나타내는 개념도이다.
도 8은 P 픽쳐와 B 픽쳐에서 사용될 수 있는 예측 방법의 실시예를 개략적으로 나타내는 개념도이다.
도 9는 통상의 P 픽쳐, 통상의 B 픽쳐 및 GPB의 예측 방법을 비교하여 개략적으로 나타내는 개념도이다.
도 10은 참조 픽쳐 인덱스L0 과 참조 픽쳐 인덱스L1 이 동일한 참조 픽쳐를 지시하는 픽쳐의 실시예를 개략적으로 나타내는 개념도이다.
도 11은 본 발명에 따른 예측 움직임 벡터 도출 방법의 일 실시예를 개략적으로 나타내는 개념도이다.
도 12는 본 발명에 따른 예측 움직임 벡터 도출 방법의 다른 실시예를 개략적으로 나타내는 개념도이다.
도 13은 본 발명에 따른 예측 움직임 벡터 도출 방법의 또 다른 실시예를 개략적으로 나타내는 개념도이다.
도 14는 쌍예측이 적용되는 경우, 본 발명에 따른 움직임 벡터 도출 방법의 실시예를 개략적으로 나타내는 흐름도이다.
도 15는 쌍예측이 적용되는 경우, 본 발명에 따른 움직임 벡터 도출 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 영상 부호화/복호화 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리 범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 개략적으로 도시한 블록도이다. 도 1을 참조하면, 영상 부호화 장치(100)는 픽쳐 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 부호화부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 포함한다.
픽쳐 분할부(105)는 입력된 픽쳐를 적어도 하나의 처리 단위로 분할할 수 있다. 이때, 처리 단위는 예측 유닛(Prediction Unit: PU)일 수도 있고, 변환 유닛(Transform Unit: TU)일 수도 있으며, 부호화 유닛(Coding Unit: CU)일 수도 있다.
예측부(110)는 후술하는 바와 같이, 인터 예측을 수행하는 인터 예측부와 인트라 예측을 수행하는 인트라 예측부를 포함할 수 있다. 예측부(110)는, 픽쳐 분할부(105)에서의 픽쳐의 처리 단위에 대하여 예측을 수행하여 예측 블록을 생성할 수 있다. 예측부(110)에서 픽쳐의 처리 단위는 부호화 유닛일 수도 있고, 변환 유닛일 수도 있고, 예측 유닛일 수도 있다. 또한, 해당 처리 단위에 대하여 실시되는 예측이 인터 예측인지 인트라 예측인지를 결정하고, 각 예측 방법의 구체적인 내용(예컨대, 예측 모드 등)를 정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 유닛 단위로 결정되고, 예측의 수행은 변환 유닛 단위로 수행될 수도 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록: residual block)은 변환부(115)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터(motion vector) 정보 등은 잔차값과 함께 엔트로피 부호화부(130)에서 부호화되어 복호화기에 전달될 수 있다.
변환부(115)는 변환 단위로 잔차 블록에 대한 변환(transform)을 수행하고 변환 계수를 생성한다. 변환부(115)에서의 변환 단위는 변환 유닛일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다. 이때, 변환 단위의 크기는 소정의 최대 및 최소 크기의 범위 내에서 정해질 수 있다. 변환부(115)는 잔차 블록을 DCT(Discrete Cosine Transform) 및/또는 DST(Discrete Sine Transform)를 이용하여 변환할 수 있다.
양자화부(120)는 변환부(115)에서 변환된 잔차값들을 양자화하여 양자화 계수를 생성할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공될 수 있다.
재정렬부(125)는 양자화부(120)로부터 제공된 양자화 계수를 재정렬한다. 양자화 계수를 재정렬함으로써 엔트로피 부호화부(130)에서의 부호화의 효율을 높일 수 있다. 재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원 블록 형태의 양자화 계수들을 1차원의 벡터 형태로 재정렬할 수 있다. 재정렬부(125)에서는 양자화부에서 전송된 계수들의 확률적인 통계를 기반으로 계수 스캔닝의 순서를 변경함으로써 엔트로피 부호화부(130)에서의 엔트로피 부호화 효율을 높일 수도 있다.
엔트로피 부호화부(130)는 재정렬부(125)에 의해 재정렬된 양자화 계수들에 대한 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화부(130)는 재정렬부(125) 및 예측부(110)로부터 전달받은 부호화 유닛의 양자화 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 유닛 정보 및 전송 단위 정보, 움직임 벡터 정보, 참조 픽쳐 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다.
엔트로피 부호화에는 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법들이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(130)에는 가변길이 부호화(VLC: Variable Length Coding, 이하 ‘VLC’라 함.) 테이블과 같은 엔트로피 부호화를 수행하기 위한 테이블이 저장될 수 있고, 엔트로피 부호화부(130)는 저장된 VLC 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 또한 다른 예로서 CABAC 엔트로피 부호화 방법에서, 엔트로피 부호화부(130)는 심볼을 이진화하여 빈(bin)으로 변환한 후 빈의 발생 확률에 따라 빈에 대한 산술 부호화(arithmetic encoding)를 수행하여 비트스트림을 생성할 수도 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 낮은 값의 인덱스(index) 및 이에 대응하는 짧은 코드워드(codeword)가 할당되고, 낮은 발생 확률을 갖는 심볼에 높은 값의 인덱스 및 이에 대응하는 긴 코드워드가 할당될 수 있다. 따라서 부호화 대상 심볼들에 대한 비트량이 감소될 수 있고, 엔트로피 부호화에 의해 영상 압축 성능이 향상될 수 있다.
역양자화부(135)는 양자화부(120)에서 양자화된 값들을 역양자화하고, 역변환부(140)는 역양자화부(135)에서 역양자화된 값들을 역변환할 수 있다. 역양자화부(135) 및 역변환부(140)에서 생성된 잔차값(Residual)은 예측부(110)에서 예측된 예측 블록과 합쳐져 복원 블록(Reconstructed Block)이 생성될 수 있다.
필터부(145)는 디블록킹 필터 및/또는 ALF(Adaptive Loop Filter)를 복원된 픽쳐에 적용할 수 있다.
디블록킹 필터는 복원된 픽쳐에서 블록 간의 경계에 생긴 블록 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는, 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. ALF는 고효율을 적용하는 경우에만 수행될 수도 있다.
한편, 인터 예측에 사용되는 복원 블록에 대해서 필터부(145)는 필터링을 적용하지 않을 수 있다.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있다. 메모리(150)에 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행하는 예측부(110)에 제공될 수 있다.
부호화 유닛(Coding Unit: CU)은 픽쳐의 부호화/복호화가 수행되는 단위로서, 쿼드 트리 구조(Quad Tree Structure)를 기반으로 깊이(Depth)를 가지며 분할될 수 있다. 부호화 유닛은 64x64, 32x32, 16x16, 8x8 등의 여러 크기를 가질 수 있다.
부호화기는 최대 부호화 유닛(Largest Coding Unit: LCU)과 최소 부호화 유닛(Smallest Coding Unit: SCU)에 관한 정보를 복호화기에 전송할 수도 있다. 최대 부호화 유닛 및/또는 최소 부호화 유닛에 관한 정보와 함께 분할 가능한 회수에 관한 정보(깊이 정보)가 복호화기에 전송될 수 있다. 부호화 유닛이 쿼드 트리 구조를 기반으로 분할되는지에 관한 정보는 분할 플래그(Split Flag)와 같은 플래그 정보를 통해 부호화기로부터 복호화기로 전달될 수 있다.
하나의 부호화 유닛은 복수 개의 예측 유닛으로 분할될 수 있다. 인트라 예측이 수행되는 경우에는 예측 유닛 단위로 예측 모드가 결정되어 예측 유닛 단위로 예측이 수행될 수 있다. 이 때, 예측 유닛 단위로 예측 모드가 정해지고 변환 유닛 단위로 인트라 예측이 수행될 수도 있다.

도 2는 본 발명의 일 실시예에 따른 예측부를 개략적으로 도시한 개념도이다. 도 2를 참조하면 예측부(200)는 인터 예측부(210) 및 인트라 예측부(220) 를 포함할 수 있다.
인터 예측부(210)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 또한, 인트라 예측부(220)는 현재 픽쳐 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다.
인터 예측부(210)는 예측 유닛에 대하여, 참조 픽쳐를 선택하고 예측 유닛과 동일한 크기의 참조 블록을 정수 픽셀 샘플 단위로 선택할 수 있다. 이어서, 인터 예측부(210)는 1/2 픽셀 샘플 단위와 1/4 픽셀 샘플 단위와 같이 정수 이하 샘플 단위로 현재 예측 유닛과 가장 유사하여 잔차 신호가 최소화되며 부호화되는 움직임 벡터 크기 역시 최소가 될 수 있는 예측 블록을 생성할 수 있다. 이때, 움직임 벡터는 정수 픽셀 이하의 단위로 표현될 수 있으며, 예컨대 루마 픽셀에 대해서는 1/4 픽셀 단위로, 크로마 픽셀에 대해서는 1/8 픽셀 단위로 표현될 수 있다.
인터 예측부(210)가 선택한 참조 픽쳐의 인덱스와 움직임 벡터에 관한 정보는 부호화되어 복호화기에 전달될 수 있다.

도 3은 본 발명의 일 실시예에 따른 영상 복호화 장치를 개략적으로 나타낸 블록도이다. 도 3을 참조하면, 영상 복호화기(300)는 엔트로피 복호화부(310), 재정렬부(315), 역양자화부(320), 역변환부(325), 예측부(330), 필터부(335) 및 메모리(340)를 포함할 수 있다.
영상 부호화기에 영상 비트 스트림이 입력된 경우, 입력된 비트 스트림은 영상 부호화기에서 영상 정보가 처리된 절차에 따라서 복호화될 수 있다.
엔트로피 복호화부(310)는 입력된 비트스트림에 대하여 엔트로피 복호화를 수행할 수 있으며, 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법과 유사하다. 예컨대, 영상 부호화기에서 엔트로피 부호화를 수행하기 위해 CAVLC 등의 가변 길이 부호화(VLC: Variable Length Coding, 이하 ‘VLC’ 라 함)가 사용된 경우에는 엔트로피 복호화부(310)도 부호화기에서 사용한 VLC 테이블과 동일한 VLC 테이블을 구현하여 엔트로피 복호화를 수행할 수 있다. 영상 부호화기에서 엔트로피 부호화를 수행하기 위해, CABAC이 이용된 경우에도, 엔트로피 복호화부(310)는 이에 대응하여 CABAC을 이용한 엔트로피 복호화를 수행할 수 있다.
엔트로피 복호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 낮은 값의 인덱스(index) 및 이에 대응하는 짧은 코드워드(codeword)가 할당되고, 낮은 발생 확률을 갖는 심볼에 높은 값의 인덱스 및 이에 대응하는 긴 코드워드가 할당될 수 있다. 따라서 부호화 대상 심볼들에 대한 비트량이 감소될 수 있고, 엔트로피 부호화에 의해 영상 압축 성능이 향상될 수 있다.
엔트로피 복호화부(310)에서 복호화된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(330)로 제공되고 엔트로피 복호화부에서 엔트로피 복호화가 수행된 잔차값은 재정렬부(315)로 입력될 수 있다.
재정렬부(315)는, 엔트로피 복호화부(310)에서 엔트로피 복호화된 비트 스트림을 영상 부호화기에서 재정렬한 방법을 기초로 재정렬할 수 있다. 재정렬부(315)는 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부(315)는 부호화기에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 해당 부호화부에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다.
역양자화부(320)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다.
역변환부(325)는, 영상 부호화기에서 수행된 양자화 결과에 대해 부호화기의 변환부가 수행한 DCT 및 DST에 대해, 역DCT 및/또는 역DST를 수행할 수 있다. 역변환은 부호화기에서 결정된 전송 단위 또는 영상의 분할 단위를 기초로 수행될 수 있다. 부호화기의 변환부에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 복호화기의 역변환부(325)는 부호화기의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.
예측부(330)는 엔트로피 복호화부(310)에서 제공된 예측 블록 생성 관련 정보와 메모리(340)에서 제공된 이전에 복호화된 블록 및/또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다. 복원 블록은 예측부(330)에서 생성된 예측 블록과 역변환부(325)에서 제공된 잔차 블록을 이용해 생성될 수 있다.
복원된 블록 및/또는 픽쳐는 필터부(335)로 제공될 수 있다. 필터부(335)는 복원된 블록 및/또는 픽쳐에 디블록킹 필터링, SAO(Sample Adaptive Offset) 및/또는 적응적 루프 필터링(ALF) 등을 적용할 수 있다.
메모리(340)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.

도 4는 본 발명의 일 실시예에 따른 영상 복호화 장치의 예측부를 개략적으로 나타낸 개념도이다.
도 4를 참조하면, 예측부(400)는 인트라 예측부(410) 및 인터 예측부(420)를 포함할 수 있다.
인트라 예측부(410)는 해당 예측 유닛에 대한 예측 모드가 인트라 예측(intra prediction) 모드(화면 내 예측 모드)인 경우에, 현재 픽쳐 내의 픽셀 정보를 기초로 예측 블록을 생성할 수 있다.
인터 예측부(420)는 해당 예측 유닛에 대한 예측 모드가 인터 예측(inter prediction) 모드(화면 간 예측 모드)인 경우에, 영상 부호화기에서 제공된 현재 예측 유닛의 인터 예측에 필요한 정보, 예컨대 움직임 벡터, 참조 픽쳐 인덱스 등에 관한 정보를 이용해 현재 예측 유닛이 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 유닛에 대한 인터 예측을 수행할 수 있다.
이때, 움직임 정보는, 부호화기로부터 수신되는 부호화 유닛의 스킵 플래그, 머지 플래그 등이 확인된 경우, 이에 대응하여 유도될 수 있다.
이하, 발명의 구성 또는 표현에 따라 “영상” 또는 “화면”이 “픽쳐”와 같은 의미를 나타낼 수 있는 경우,“픽쳐”는 “영상” 또는 “화면”으로 기술될 수 있다. 또한 인터 예측(inter prediction)과 화면 간 예측은 동일한 의미를 가지며, 인트라 예측(intra prediction)과 화면 내 예측은 동일한 의미를 가진다.

인터 예측 모드의 경우에 부호화기 및 복호화기는 현재 블록의 움직임 정보를 도출하고, 도출된 움직임 정보에 기반하여 현재 블록에 대한 인터 예측을 수행할 수 있다.
도 5는 인터 예측 모드에서 AMVP(Advanced Motion Vector Predictor)가 적용되는 경우, 움직임 벡터 도출 방법의 일 실시예를 개략적으로 나타내는 흐름도이다.
도 5를 참조하면, 부호화기 및 복호화기는 현재 블록에 대한 예측 움직임 벡터 후보 리스트를 생성할 수 있다(S510). 여기서, 예측 움직임 벡터는 현재 블록의 움직임 벡터에 대한 예측값을 나타낼 수 있고, 움직임 벡터 예측자(MVP: Motion Vector Predictor)로도 불릴 수 있다. 이하, 예측 움직임 벡터, 움직임 벡터 예측자 및 MVP는 동일한 의미를 가진다.
부호화기 및 복호화기는 현재 블록에 인접하고 이용 가능한(available) 주변 블록 및/또는 현재 블록과 동일 위치에 있는(co-located) 각 참조 픽쳐의 블록들 중에서 이용 가능한(available) 블록(이하, 설명의 편의를 위해 ‘동일 위치 블록’(co-located block)이라 함)의 움직임 벡터를 이용하여 예측 움직임 벡터 후보 리스트를 생성할 수 있다. 예측 움직임 벡터 후보 리스트 생성 방법의 구체적인 실시예는 도 6 및 도 7에서 후술한다. 이하, 주변 블록은 현재 블록에 인접한 블록을 의미한다.
부호화기 및 복호화기는 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중 현재 블록에 대한 예측 움직임 벡터를 선택할 수 있다(S520).
부호화기는 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들에 대해 움직임 벡터 경쟁(Motion Vector Competition: MVC, 이하 ‘MVC’라 함)을 적용하여, 현재 블록에 대한 최적의 예측 움직임 벡터를 선택할 수 있다. 예측 움직임 벡터가 선택되면, 부호화기는 비트 스트림을 통해 예측 움직임 벡터 인덱스를 복호화기로 전송할 수 있다. 여기서, 예측 움직임 벡터 인덱스는, 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중에서 선택된, 현재 블록의 예측 움직임 벡터를 지시하는 인덱스를 의미한다.
복호화기는 부호화기로부터 예측 움직임 벡터 인덱스를 수신할 수 있다. 복호화기는, 수신된 예측 움직임 벡터 인덱스를 이용하여, 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중 현재 블록에 대한 예측 움직임 벡터를 선택할 수 있다.
복호화기는 선택된 예측 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 도출할 수 있다(S530).
현재 블록에 대한 예측 움직임 벡터가 선택되면, 부호화기는 현재 블록의 움직임 벡터와 예측 움직임 벡터의 차분을 구할 수 있다. 이하, 움직임 벡터와 예측 움직임 벡터의 차분은 움직임 벡터 차분(Motion Vector Difference: MVD)이라 한다. 부호화기는 움직임 벡터 자체가 아닌, 움직임 벡터 차분에 대한 정보를 복호화기로 전송할 수 있다. 이 때, 움직임 벡터 차분이 작을수록 부호화기에서 복호화기로 전송되는 정보량이 감소될 수 있다.
복호화기는 부호화기로부터 움직임 벡터 차분에 대한 정보를 수신할 수 있다. 현재 블록에 대한 예측 움직임 벡터가 선택되면, 복호화기는 선택된 예측 움직임 벡터와 움직임 벡터 차분을 더하여 현재 블록의 움직임 벡터를 구할 수 있다.

도 6은 예측 움직임 벡터 후보 리스트 생성 방법의 일 실시예를 개략적으로 나타내는 개념도이다.
도 6을 참조하면, 부호화기 및 복호화기는 현재 블록의 좌측 영역(610)에 포함된 주변 블록들 중 최상단 블록부터 아래로 스캔하면서, 참조 픽쳐를 지시하는 참조 픽쳐 인덱스(reference picture index)가 현재 블록과 동일하고 이용 가능한 첫 번째 블록의 움직임 벡터를 예측 움직임 벡터 후보로 선택할 수 있다. 또한, 부호화기 및 복호화기는 현재 블록의 좌측 영역(610)에 포함된 주변 블록들을 스캔함에 있어, 최하단 블록부터 위로 스캔을 수행할 수도 있다. 여기서, 참조 픽쳐 인덱스는 ref_idx에 의해 나타내어질 수 있으며, 좌측 영역(A, 610)에서 선택된 블록의 움직임 벡터는 MVA로 나타내어질 수 있다.
또한, 부호화기 및 복호화기는 현재 블록의 좌측 영역 전체를 순서대로 스캔하는 대신에, 좌측 영역(610)에서 특정 블록의 움직임 벡터를 예측 움직임 벡터 후보로서 고정적으로 사용할 수도 있다. 예컨대, 좌측 하단 코너 블록(E, 630)과 인접한 좌측 영역(610)의 최하단 블록의 움직임 벡터가 예측 움직임 벡터 후보로 이용될 수도 있다.
현재 블록의 상단 영역(620)에서도 예측 움직임 벡터 후보가 선택될 수 있다. 도 6을 참조하면, 현재 블록의 상단 영역(620)에 포함된 주변 블록들 중 최좌측 블록부터 오른쪽으로 스캔하면서, 참조 픽쳐를 지시하는 참조 픽쳐 인덱스(reference picture index)가 현재 블록과 동일하고 이용 가능한 첫 번째 블록의 예측 움직임 벡터를 예측 움직임 벡터 후보로 선택할 수 있다. 또한, 부호화기 및 복호화기는 현재 블록의 상단 영역(620)에 포함된 주변 블록들을 스캔함에 있어, 최우측 블록부터 왼쪽으로 스캔을 수행할 수도 있다. 여기서, 상단 영역(B, 620)에서 선택된 블록의 움직임 벡터는 MVB로 나타내어질 수 있다.
또한, 부호화기 및 복호화기는 현재 블록의 상단 영역 전체를 순서대로 스캔하는 대신에, 상단 영역(620)에서 특정 블록의 움직임 벡터를 예측 움직임 벡터 후보로서 고정적으로 사용할 수도 있다. 예컨대, 우측 상단 코너 블록(C, 640)과 인접한 상단 영역(610)의 최우측 블록의 움직임 벡터가 예측 움직임 벡터 후보로 이용될 수도 있다.
현재 블록의 각 코너 블록(630, 640, 650) 중에서도 예측 움직임 벡터 후보가 선택될 수 있다. 도 6을 참조하면, 부호화기 및 복호화기는 현재 블록의 각 코너 블록들(630, 640, 650)을 스캔하면서, 현재 블록과 참조 픽쳐 인덱스가 동일하고 이용 가능한 첫 번째 블록의 움직임 벡터를 예측 움직임 벡터 후보로 이용할 수 있다. 다른 예로, 각 코너 블록(630, 640, 650)의 움직임 벡터를 모두 예측 움직임 벡터 후보로 선택할 수도 있다.
또한, 부호화기 및 복호화기는 현재 블록의 각 코너 블록(630, 640, 650) 중에서 특정 블록의 움직임 벡터를 예측 움직임 벡터 후보로서 고정적으로 사용할 수도 있다. 예컨대, 현재 블록의 각 코너 블록(630, 640, 650) 중 우측 상단 코너 블록(640)의 움직임 벡터가 예측 움직임 벡터 후보로 이용될 수 있다. 여기서, 우측 상단 코너 블록(640)의 움직임 벡터는 MVC로 나타내어질 수 있다.
부호화기 및 복호화기는 상술한 각 영역별(현재 블록의 좌측/상단/코너 영역) 예측 움직임 벡터 후보들 외에, 각 영역별 예측 움직임 벡터 부호들의 조합을 예측 움직임 벡터 후보 중 하나로 선택할 수도 있다. 예컨대, 현재 블록의 좌측 영역(610)에서 선택된 블록의 움직임 벡터, 상단 영역(620)에서 선택된 블록의 움직임 벡터 및 우측 상단 코너 블록(640)의 움직임 벡터의 미디언 값(660)이 예측 움직임 벡터 후보 중 하나로 이용될 수 있다. 여기서, 상기 미디언 값(660)은 MVmedian으로 나타내어질 수 있다.
현재 블록에 대하여 공간적으로 인접하는 주변 블록들로부터 예측 움직임 벡터 후보를 선택하는 방법 외에, 동일 위치 블록(co-located block)(670)의 움직임 벡터를 예측 움직임 벡터 후보로 선택할 수 있다. 여기서, 동일 위치 블록(670)의 움직임 벡터는 MVcol로 나타내어질 수 있다.
부호화기 및 복호화기는 상술한 방법에 의해 선택된 예측 움직임 벡터 후보들을 이용하여, 예측 움직임 벡터 후보 리스트를 생성할 수 있다. 이 때, 부호화기 및 복호화기는 중복성(redundancy)을 줄이기 위해 중복되는 예측 움직임 벡터 후보들을 배제하고, 예측 움직임 벡터 후보 리스트를 구성할 수 있다.
이 때, 예측 움직임 벡터 후보 리스트를 구성하는 예측 움직임 벡터 후보들의 개수와 순서는 특정될 수 있다. 예를 들어, 부호화기 및 복호화기는 현재 블록에 인접한 주변 블록들로부터 소정 개수의 예측 움직임 벡터 후보를 선택하고, 동일 위치 블록으로부터 하나의 예측 움직임 벡터 후보를 선택하여 예측 움직임 벡터 후보 리스트를 구성할 수도 있다. 이 때, 부호화기 및 복호화기는 예측 움직임 벡터 후보 리스트를 구성할 예측 움직임 벡터 후보들의 이용 가능성을 판단하는 순서를 특정하고, 이 순서에 따라서 먼저 이용 가능한 것으로 판단된 후보들로 예측 움직임 벡터 후보 리스트를 구성할 수도 있다.

도 7은 예측 움직임 벡터 후보 리스트 생성 방법의 다른 실시예를 개략적으로 나타내는 개념도이다.
이하, 현재 블록의 좌측 하단 코너 블록(A0, 710) 및 현재 블록의 좌측에 인접한 블록들 중 최하단에 위치한 블록(A1, 720)을 포함하는 하나의 그룹을 좌측 후보 블록 그룹이라 한다. 또한 이하, 현재 블록의 우측 상단 코너 블록(B0, 730), 현재 블록의 상단에 인접한 블록들 중 최우측에 위치한 블록(B1, 740) 및 현재 블록의 좌측 상단 코너 블록(B2, 750)을 포함하는 하나의 그룹을 상단 후보 블록 그룹이라 한다.
부호화기 및 복호화기는 좌측 후보 블록 그룹에서 하나의 예측 움직임 벡터 후보를 도출할 수 있다. 여기서, 좌측 후보 블록 그룹에서 도출된 예측 움직임 벡터 후보는 MVA로 나타내어질 수 있다. 예를 들어, 부호화기 및 복호화기는 좌측 후보 블록 그룹에 포함된 블록들을 A0 -> A1 순서로 스캔하면서, 현재 블록과 참조 픽쳐 인덱스가 동일하고 이용 가능한 첫 번째 블록의 움직임 벡터를 현재 블록의 예측 움직임 벡터 후보(MVA)로 선택할 수 있다. 이하, MVA는 제1 공간적(spatial) 예측 움직임 벡터 후보라 한다.
부호화기 및 복호화기는 상단 후보 블록 그룹에서 하나의 예측 움직임 벡터 후보를 도출할 수 있다. 여기서, 상단 후보 블록 그룹에서 도출된 예측 움직임 벡터 후보는 MVB로 나타내어질 수 있다. 예를 들어, 부호화기 및 복호화기는 상단 후보 블록 그룹에 포함된 블록들을 B0 -> B1 -> B2 순서로 스캔하면서, 현재 블록과 참조 픽쳐 인덱스가 동일하고 이용 가능한 첫 번째 블록의 움직임 벡터를 현재 블록의 예측 움직임 벡터 후보(MVB)로 선택할 수 있다. 이하, MVB는 제2 공간적 예측 움직임 벡터 후보라 한다.
또한, 부호화기 및 복호화기는 참조 픽쳐 내의 동일 위치 블록(Col, 760)의 움직임 벡터를 현재 블록의 예측 움직임 벡터 후보로 선택할 수 있다. 여기서, 동일 위치 블록(760)의 움직임 벡터는 MVcol로 나타내어질 수 있다. 이하, MVcol은 시간적(temporal) 예측 움직임 벡터 후보라 한다.
부호화기 및 복호화기는 상술한 방법에 의해 선택된 예측 움직임 벡터 후보들 중 중복된 후보를 제거할 수 있다. 부호화기 및 복호화기는 남은 예측 움직임 벡터 후보들을 이용하여 예측 움직임 벡터 후보 리스트를 구성할 수 있다.
이 때, 예측 움직임 벡터 후보 리스트를 구성하는 예측 움직임 벡터 후보의 개수는 제한될 수 있다. 즉, 예측 움직임 벡터 후보 리스트를 구성하는 예측 움직임 벡터 후보의 개수는 소정의 고정된 개수일 수 있다. 또한 예측 움직임 벡터 후보 리스트를 구성하는 예측 움직임 벡터 후보의 개수는 소정의 최대 개수 이하일 수 있다. 예를 들어, 예측 움직임 벡터 후보 리스트를 구성하는 예측 움직임 벡터 후보의 개수가 2개로 제한되는 경우, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보, 시간적 예측 움직임 벡터 후보 중 최대 2개만이 예측 움직임 벡터 후보 리스트에 포함될 수 있다.
예측 움직임 벡터 후보가 예측 움직임 벡터 후보 리스트에 삽입 및/또는 포함되는 순서는 소정의 순서로 특정될 수 있다.
예를 들어, 부호화기 및 복호화기는 선택된 예측 움직임 벡터 후보들 중 중복된 후보를 제외하고, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보, 시간적 예측 움직임 벡터 후보의 순서로 최대 2개만을 선택하여 예측 움직임 벡터 후보 리스트를 구성할 수 있다. 즉, 예측 움직임 벡터 후보들은 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보, 시간적 예측 움직임 벡터 후보의 순서로 예측 움직임 벡터 후보 리스트에 삽입 및/또는 포함될 수 있다. 이 때, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보, 시간적 예측 움직임 벡터 후보가 모두 유효(available)하고 서로 중복되지 않으면 시간적 예측 움직임 벡터 후보는 제외되고, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보만이 예측 움직임 벡터 후보 리스트에 포함될 수 있다.

부호화기 및 복호화기가 예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보를 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보, 시간적 예측 움직임 벡터 후보의 순서로 선택하는 경우, 상술한 바와 같이 공간적 예측 움직임 벡터 후보들만이 예측 움직임 벡터 후보 리스트에 포함되는 경우가 발생할 수 있다. 이러한 경우, 예측 움직임 벡터 후보의 다양성이 낮아지고 움직임 벡터 예측의 효율이 낮아질 수 있다.
따라서, 예측 움직임 벡터 후보의 다양성을 보장하여 움직임 벡터 예측의 효율을 높이기 위해, 시간적 예측 움직임 벡터 후보가 예측 움직임 벡터 후보 리스트에 포함되는 확률을 높이기 위한 방법이 제공될 수 있다.
일 실시예로, 부호화기 및 복호화기는, 예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보를 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보의 순서로 선택할 수 있다. 즉, 예측 움직임 벡터 후보들은 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보의 순서로 예측 움직임 벡터 후보 리스트에 삽입 및/또는 포함될 수 있다. 이는 예측 움직임 벡터 후보 리스트에 삽입 및/또는 포함되는 예측 움직임 벡터 후보의 우선 순위가 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보, 시간적 예측 움직임 벡터 후보의 순서에서 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보의 순서로 변경됨을 의미한다.
이 때, 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보가 모두 유효(available)하고 서로 중복되지 않으면 제2 공간적 예측 움직임 벡터 후보는 제외되고, 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보만이 예측 움직임 벡터 후보 리스트에 포함될 수 있다. 즉, 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보가 예측 움직임 벡터 후보 리스트를 구성하는 후보로 사용될 수 있다.
예측 움직임 벡터 후보가 예측 움직임 벡터 후보 리스트에 삽입 및/또는 포함되는 순서가 제한되는 경우에도, 각각의 후보에 예측 움직임 벡터 인덱스가 할당되는 순서는 제한되지 않을 수 있다. 예를 들어, 상술한 실시예에서와 같이 시간적 예측 움직임 벡터 후보, 제1 공간적 예측 움직임 벡터 후보, 제2 공간적 예측 움직임 벡터 후보의 순서로 예측 움직임 벡터 후보가 선택되는 경우에도, 제1 공간적 예측 움직임 벡터 후보에 시간적 예측 움직임 벡터 후보보다 더 낮은 인덱스 값(예를 들어, 0)이 할당될 수 있다.

상술한 실시예에서, 공간적 예측 움직임 벡터 후보는 좌측 후보 블록 그룹 및 상단 후보 블록 그룹에서 각각 하나씩 도출될 수 있다. 그러나, 상술한 바와 같이 예측 움직임 벡터 후보의 개수가 2개로 제한되고 시간적 예측 움직임 벡터 후보가 가장 우선적으로 예측 움직임 벡터 후보 리스트에 포함 및/또는 삽입되는 경우를 가정하면, 시간적 예측 움직임 벡터 후보가 유효한 경우, 공간적 예측 움직임 벡터 후보는 하나만이 필요하다. 이 때에는, 공간적 예측 움직임 벡터 후보들을 별개의 그룹에서 따로 도출할 필요성이 적을 수 있다.
따라서, 좌측 후보 블록 그룹 및 상단 후보 블록 그룹이 통합된 전체 그룹에서 공간적 예측 움직임 벡터 후보를 구하는 방법이 제공될 수 있다. 이하, 좌측 후보 블록 그룹 및 상단 후보 블록 그룹이 통합된 전체 그룹은 통합 후보 블록 그룹이라 한다. 예를 들어, 통합 후보 블록 그룹에는 현재 블록의 좌측 하단 코너 블록(A0, 710), 현재 블록의 좌측에 인접한 블록들 중 최하단에 위치한 블록(A1, 720), 현재 블록의 우측 상단 코너 블록(B0, 730), 현재 블록의 상단에 인접한 블록들 중 최우측에 위치한 블록(B1, 740) 및 현재 블록의 좌측 상단 코너 블록(B2, 750)이 포함될 수 있다.
일 실시예로, 부호화기 및 복호화기는 통합 후보 블록 그룹에 포함된 블록들을 스캔하면서, 참조 픽쳐 인덱스가 현재 블록과 동일하고 이용 가능한 블록들의 움직임 벡터를 현재 블록의 예측 움직임 벡터 후보로 선택할 수 있다. 이 때, 부호화기 및 복호화기는 스캔 순서대로 첫 번째 블록부터 소정의 개수의 블록들을 선택할 수 있으며, 상기 소정의 개수는 예를 들어 2개일 수 있다. 상기 스캔 순서는 일 예로 A1 -> B1 -> B0 -> A0 -> B2 의 순서일 수 있으나, 스캔 순서는 상기 예에 한정되는 것이 아니며 구현 및/또는 필요에 따라 다르게 정해질 수 있다.
상술한 통합 후보 블록 그룹을 이용하여 공간적 예측 움직임 벡터 후보를 구하는 방법은 시간적 예측 움직임 벡터 후보가 유효한 경우에만 사용될 수도 있으나, 시간적 예측 움직임 벡터 후보의 유효성에 관계 없이 항상 사용될 수도 있다.

한편, 영상 부호화, 복호화에 사용되는 픽쳐에는 I 픽쳐, P 픽쳐, B 픽쳐라는 세 가지 종류의 픽쳐가 있을 수 있다.
I 픽쳐란, 전후의 화면과는 관계없이 그 화면 내에서 독립적으로 부호화되는 픽쳐이다. I 픽쳐에는 시간 방향의 예측이 적용되지 않으며, 화면 내 정보만이 부호화 처리에 사용될 수 있다. P 픽쳐는 하나의 참조 픽쳐를 이용한 화면 간의 단방향 예측에 의해 부호화될 수 있는 픽쳐이다. B 픽쳐는 하나 이상, 예를 들어 2개의 참조 픽쳐를 이용하여 화면 간의 순방향, 역방향 또는 양방향 예측에 의해 부호화될 수 있는 픽쳐이다. B 픽쳐에서는 하나 이상의 참조 픽쳐가 사용될 수 있다.

도 8은 P 픽쳐와 B 픽쳐에서 사용될 수 있는 예측 방법의 실시예를 개략적으로 나타내는 개념도이다. 도 8은 P 픽쳐에서의 예측 방법(810) 및 B 픽쳐에서의 예측 방법(820, 830, 840)을 도시한다.
이하, 현재 예측하고자 하는 블록은 예측 대상 블록, 예측에 의해 생성되는 블록은 예측 블록, 참조 픽쳐 내에서 예측 대상 블록의 예측에 사용되는 블록은 참조 블록이라 한다. 또한 이하, POC(Picture Order Count)는 픽쳐의 표시 순서 또는 시간 순서를 의미한다.
도 8을 참조하면, 도 8은 P 픽쳐에서의 단방향 예측(810)을 도시한다. P 픽쳐에서는 한 개의 참조 픽쳐 리스트를 필요로 하며, 이를 참조 픽쳐 리스트0(reference picture list0)이라 지칭한다. 참조 픽쳐 리스트0 으로부터 선택된 참조 픽쳐를 사용하는 인터 예측을 L0 예측이라 하며, L0 예측은 주로 순방향 예측에 사용될 수 있다. P 픽쳐에서는 인트라 예측 또는 L0 예측이 수행될 수 있다.
P 픽쳐에서는 복호 순서상 현재 픽쳐보다 과거에 존재하는 1개의 참조 블록을 사용하여 예측 대상 블록에 대한 예측을 수행할 수 있다. 따라서 도 8(810)에 도시된 바와 같이 시간 순서상 과거 참조 픽쳐를 이용한 예측이 사용되어 화면 간 순방향 예측이 수행될 수 있다. 또한 시간 순서상 미래 참조 픽쳐를 이용한 예측이 사용되어 화면 간 역방향 예측이 수행될 수 있다. 따라서 P 픽쳐는 단방향으로 예측 대상 블록에 대해 하나의 움직임 정보(움직임 벡터, 참조 픽쳐 인덱스)만을 사용할 수 있다.
B 픽쳐는 두 개의 참조 픽쳐 리스트를 필요로 하며, 두 개의 참조 픽쳐 리스트는 각각 참조 픽쳐 리스트0(reference picture list0), 참조 픽쳐 리스트1(reference picture list1)이라 지칭한다. 참조 픽쳐 리스트0 으로부터 선택된 참조 픽쳐를 사용하는 인터 예측을 L0 예측이라 하며, L0 예측은 주로 순방향 예측에 사용된다. 참조 픽쳐 리스트1 으로부터 선택된 참조 픽쳐를 사용하는 인터 예측을 L1 예측이라 하며, L1 예측은 주로 역방향 예측에 사용된다. 또한 각각 참조 픽쳐 리스트0과 참조 픽쳐 리스트1 으로부터 선택된 두 개의 참조 픽쳐를 사용하는 인터 예측은 쌍예측(bi prediction)이라 한다.
B 픽쳐에서는 인트라 예측, L0 예측, L1 예측 또는 두 개의 움직임 정보를 사용하는 쌍예측(Bi prediction)이 수행될 수 있다.
도 8은 B 픽쳐에서의 양방향 예측(820)을 도시한다. B 픽쳐에서는 시간 순서상 과거 참조 픽쳐 내의 전방향 참조 블록 및 미래 참조 픽쳐 내의 후방향 참조 블록을 모두 사용하여 예측 대상 블록에 대한 예측이 수행될 수 있다. 즉, 전방향 참조 블록 및 후방향 참조 블록을 모두 이용한 양방향 예측이 사용되어 인터 예측이 수행될 수 있다.
또한 도 8은 B 픽쳐에서의 과거 참조 픽쳐 2장을 이용한 순방향 예측(830) 및 미래 참조 픽쳐 2장을 이용한 역방향 예측(840)을 도시한다. 도 8에 도시된 바와 같이, B 픽쳐에서는 시간 순서상 과거 참조 픽쳐 2장이 이용되어 예측 대상 블록에 대한 화면 간 순방향 예측이 수행될 수 있다. 또한 B 픽쳐에서는 시간 순서상 미래 참조 픽쳐 2장이 이용되어 예측 대상 블록에 대한 화면 간 역방향 예측이 수행될 수 있다.
B 픽쳐에서는 상기 서술된 경우뿐만 아니라 과거 참조 픽쳐 1장을 이용한 순방향 예측, 미래 참조 픽쳐 1장을 이용한 역방향 예측도 사용될 수 있다.
따라서 B 픽쳐는 순방향 및/또는 역방향으로 예측 대상 픽쳐에 대해 최대 2개의 움직임 정보를 사용할 수 있다. B 픽쳐는 딜레이(delay)가 있지만 높은 성능을 얻기 위해 주로 사용될 수 있다.

상술한 쌍예측 모드에서는 참조 픽쳐 리스트0 과 참조 픽쳐 리스트1 이 모두 존재할 수 있다. 따라서, 현재 픽쳐 내의 예측 대상 블록은 참조 픽쳐 리스트0의 참조 픽쳐를 지시하기 위한 참조 픽쳐 인덱스(예를 들어, ref_idx_l0) 및 참조 픽쳐 리스트1 의 참조 픽쳐를 지시하기 위한 참조 픽쳐 인덱스(예를 들어, ref_idx_l1)를 모두 가질 수 있다. 이하, 참조 픽쳐 리스트0 에서 현재 블록이 참조하는 참조 픽쳐에 대한 참조 픽쳐 인덱스를 참조 픽쳐 인덱스L0, 참조 픽쳐 리스트1 에서 현재 블록이 참조하는 참조 픽쳐에 대한 참조 픽쳐 인덱스를 참조 픽쳐 인덱스L1이라 한다.
또한 쌍예측 모드에서는 하나의 예측 유닛에 대해 두 개의 움직임 벡터가 존재할 수 있다. 이하, 참조 픽쳐 리스트0 에 대한 움직임 벡터는 움직임 벡터L0, 참조 픽쳐 리스트1 에 대한 움직임 벡터는 움직임 벡터L1 이라 한다. 여기서, 예를 들어 움직임 벡터L0 은 mv_l0으로 나타내어질 수 있고, 움직임 벡터L1 은 mv_l1으로 나타내어질 수 있다.

쌍예측 모드에서는 하나의 예측 유닛에 대해 두 개의 움직임 벡터, 즉 움직임 벡터L0 및 움직임 벡터L1 이 도출될 수 있다.

일 실시예로 쌍예측 모드에서 부호화기 및 복호화기는 움직임 벡터L0 및 움직임 벡터L1을 도출하기 위해, 움직임 벡터L0 및 움직임 벡터L1 각각에 대해 상술한 도 5의 실시예에 따른 움직임 벡터 도출 방법을 적용할 수 있다.
이 때, 부호화기 및 복호화기는 움직임 벡터L0에 대한 예측 움직임 벡터 후보 리스트와 움직임 벡터L1에 대한 예측 움직임 벡터 후보 리스트를 모두 생성할 수 있다. 이하, 움직임 벡터L0에 대한 예측 움직임 벡터 후보 리스트는 예측 움직임 벡터 후보 리스트L0, 움직임 벡터L1에 대한 예측 움직임 벡터 후보 리스트는 예측 움직임 벡터 후보 리스트L1 이라 한다.
부호화기 및 복호화기는 예측 움직임 벡터 후보 리스트L0에서 움직임 벡터L0에 대한 예측 움직임 벡터를 선택하고, 예측 움직임 벡터 후보 리스트 L1에서 움직임 벡터L1에 대한 예측 움직임 벡터를 선택할 수 있다. 이하, 움직임 벡터L0에 대한 예측 움직임 벡터는 예측 움직임 벡터L0, 움직임 벡터L1에 대한 예측 움직임 벡터는 예측 움직임 벡터L1 이라 한다.
부호화기는 예측 움직임 벡터L0 를 지시하는 예측 움직임 벡터 인덱스 및 예측 움직임 벡터L1을 지시하는 예측 움직임 벡터 인덱스를 복호화기로 전송할 수 있다. 이하, 예측 움직임 벡터L0 를 지시하는 예측 움직임 벡터 인덱스는 예측 움직임 벡터 인덱스L0이라 하고, 예측 움직임 벡터L1을 지시하는 예측 움직임 벡터 인덱스는 예측 움직임 벡터 인덱스L1이라 한다. 복호화기는 예측 움직임 벡터 인덱스L0 를 이용하여 예측 움직임 벡터L0 를 선택할 수 있고, 예측 움직임 벡터 인덱스L1 을 이용하여 예측 움직임 벡터L1 을 선택할 수 있다.
예측 움직임 벡터로부터 현재 블록의 움직임 벡터를 도출하는 과정은 도 5의 실시예에서와 동일하므로 생략한다.

다른 실시예로, 쌍예측 모드에서 부호화기 및 복호화기는 움직임 벡터L0 및 움직임 벡터L1의 유사성을 이용하여, 움직임 벡터L0 관련 정보로부터 예측 움직임 벡터L1 를 도출하거나 움직임 벡터L1 관련 정보로부터 예측 움직임 벡터L0 을 도출할 수 있다. 예를 들어, GPB 픽쳐에서는 움직임 벡터L0 및 움직임 벡터L1의 유사성이 클 수 있으므로, 상기 예측 움직임 벡터 도출 방법이 적용될 수 있다. GPB 픽쳐에 대한 구체적인 내용은 도 9의 실시예에서 서술된다.

도 9는 통상의 P 픽쳐, 통상의 B 픽쳐 및 GPB의 예측 방법을 비교하여 개략적으로 나타내는 개념도이다. 도 9를 참조하면, 각 픽쳐들은 화면의 표시 순서(POC)로 도시되어 있다.
P 픽쳐의 경우에 하나의 참조 픽쳐로부터 단방향 예측이 가능하므로, 도 9에 도시된 바와 같이 과거 픽쳐로부터 순방향 예측이 수행될 수 있다. 또한 미래 픽쳐로부터 역방향 예측이 수행될 수도 있다. B 픽쳐의 경우, 2개의 참조 픽쳐를 이용한 쌍예측이 허용되므로, 최대 두 개의 움직임 정보가 사용될 수 있다. 또한 상술한 바와 같이 현재 픽쳐에 대하여, 인터 예측을 위하여 사용되는 픽쳐들로 참조 픽쳐 리스트가 구성될 수 있다. B 픽쳐는 참조 픽쳐 리스트0, 참조 픽쳐 리스트1 두 개의 참조 픽쳐 리스트를 필요로 한다.
B 픽쳐 중 참조 픽쳐 리스트0과 참조 픽쳐 리스트1이 동일한 픽쳐를 GPB(Generalized P and B) 또는 제너럴라이즈드 B 픽쳐(Generalized B picture)라 지칭한다. 또한 하나의 실시예로서, GPB에서는 순방향 예측만이 허용될 수 있으며, 이 경우 역방향 예측은 수행되지 않을 수 있다.
도 9를 참조하면, GPB에서는 B 픽쳐와 마찬가지로 예측 대상 블록에 대해 2개 이상의 움직임 정보를 사용하여 예측이 수행될 수 있다. GPB에서 오직 순방향 예측만이 허용되는 경우에는 역방향 예측에 따른 지연이 수반되지 않는다. GPB에서는 높은 부호화 성능이 유지되면서 로우 딜레이(low delay) 부호화가 가능하다.

도 10은 참조 픽쳐 인덱스L0 과 참조 픽쳐 인덱스L1 이 동일한 참조 픽쳐를 지시하는 픽쳐의 실시예를 개략적으로 나타내는 개념도이다. 도 10은 현재 픽쳐가 GPB, 즉 제너럴라이즈드 B 픽쳐인 경우를 나타낼 수 있다.
상술한 바와 같이, 현재 픽쳐 내 예측 대상 블록(1010)의 예측에 사용되는 참조 픽쳐 내의 블록은 참조 블록이라 한다. 이하, 참조 픽쳐 리스트0 의 참조 픽쳐에 대한 참조 블록은 참조 블록L0(1020), 참조 픽쳐 리스트1 의 참조 픽쳐에 대한 참조 블록은 참조 블록L1(1030) 이라 한다.
이 때, 참조 블록L0(1020)는 움직임 벡터L0(예를 들어, mv_l0)를 이용하여 도출될 수 있고, 참조 블록L1(1030)은 움직임 벡터L1(예를 들어, mv_l1)을 이용하여 도출될 수 있다.
도 10을 참조하면, GPB에서 참조 픽쳐 인덱스L0 과 참조 픽쳐 인덱스L1 은 동일한 참조 픽쳐를 지시할 수 있다. 참조 픽쳐 인덱스L0 과 참조 픽쳐 인덱스L1 이 동일한 참조 픽쳐를 지시하는 경우, 참조 블록L0(1020)과 참조 블록L1(1030)은 참조 픽쳐 내에서 서로 유사한 위치에 존재할 수 있으며, 움직임 벡터L0 과 움직임 벡터L1은 서로 유사한 값을 가질 수 있다.
따라서, GPB 픽쳐의 경우, 움직임 벡터L0 와 움직임 벡터L1 의 유사성을 이용하여 움직임 벡터 차분을 감소시키는 방법이 제공될 수 있다.

도 11은 본 발명에 따른 예측 움직임 벡터 도출 방법의 일 실시예를 개략적으로 나타내는 개념도이다. 도 11의 실시예에서 현재 블록이 포함된 현재 픽쳐는 GPB 픽쳐일 수 있다.
상술한 바와 같이, 쌍예측 모드에서 하나의 예측 유닛은 두 개의 움직임 벡터를 가질 수 있다. 이하 서술되는 실시예들에서, 상기 두 개의 움직임 벡터는 각각 제1 움직임 벡터, 제2 움직임 벡터라 한다. 여기서, 제1 움직임 벡터가 움직임 벡터L0이면 제2 움직임 벡터는 움직임 벡터L1이고, 제1 움직임 벡터가 움직임 벡터L1이면 제2 움직임 벡터는 움직임 벡터L0일 수 있다.
쌍예측 모드에서는 하나의 예측 대상 블록에 대해 참조 픽쳐 인덱스L0(예를 들어, ref_idx_l0) 및 참조 픽쳐 인덱스L1(예를 들어, ref_idx_l1) 이 전송될 수 있다. 참조 픽쳐 인덱스L0과 참조 픽쳐 인덱스L1이 동일한 참조 픽쳐를 지시하는 경우, 상술한 바와 같이 움직임 벡터L0 과 움직임 벡터L1은 서로 유사한 값을 가질 수 있으므로, 움직임 벡터L0 과 움직임 벡터L1 중 어느 하나의 움직임 벡터가 다른 움직임 벡터의 예측 움직임 벡터(MVP)로 사용될 수 있다.
도 11을 참조하면, 제1 움직임 벡터는 상술한 도 5의 실시예에 따른 움직임 벡터 도출 방법에 의해 구해질 수 있다. 즉, 부호화기 및 복호화기는 제1 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트를 생성하고, 생성된 리스트에서 제1 움직임 벡터에 대한 예측 움직임 벡터를 선택할 수 있다. 제1 움직임 벡터는 상기 선택된 예측 움직임 벡터를 이용하여 도출될 수 있다.
도출된 제1 움직임 벡터는 제2 움직임 벡터의 예측 움직임 벡터(MVP)로 사용될 수 있다. 즉, 제2 움직임 벡터에 대한 예측 움직임 벡터는 상기 도출된 제1 움직임 벡터일 수 있다. 부호화기는 제2 움직임 벡터와 예측 움직임 벡터(제1 움직임 벡터)의 차분을 구할 수 있고, 제2 움직임 벡터에 대한 움직임 벡터 차분(MVD)을 복호화기로 전송할 수 있다. 복호화기는 제2 움직임 벡터에 대한 예측 움직임 벡터(제1 움직임 벡터)와 부호화기로부터 수신된 움직임 벡터 차분을 더하여 제2 움직임 벡터를 구할 수 있다.
참조 픽쳐 인덱스L0과 참조 픽쳐 인덱스L1이 동일한 참조 픽쳐를 지시하는 경우 제1 움직임 벡터와 제2 움직임 벡터는 서로 유사한 값을 가질 수 있으므로, 제1 움직임 벡터가 제2 움직임 벡터에 대한 예측 움직임 벡터로 사용되는 경우, 제2 움직임 벡터에 대한 움직임 벡터 차분(MVD) 값이 작아질 수 있다. 따라서, 영상 압축 효율이 향상될 수 있다.
부호화기 및 복호화기는 제1 움직임 벡터 자체가 아닌 제1 움직임 벡터의 예측 움직임 벡터(MVP)를 제2 움직임 벡터의 예측 움직임 벡터(MVP)로 사용할 수도 있다.

도 12는 본 발명에 따른 예측 움직임 벡터 도출 방법의 다른 실시예를 개략적으로 나타내는 개념도이다. 도 12의 실시예에서 현재 픽쳐는 GPB 픽쳐가 아닐 수 있다.
도 12의 실시예에서, 현재 픽쳐에는 쌍예측 모드가 적용되므로, 현재 블록(1210)에 대해 두 개의 움직임 벡터(움직임 벡터L0, 움직임 벡터L1)가 존재할 수 있다. 또한, 두 개의 움직임 벡터 중 어느 하나에 대한 예측 움직임 벡터는, 다른 움직임 벡터에 관한 정보를 이용하여 도출될 수 있다. 이하, 설명의 편의를 위해 움직임 벡터L0 관련 정보를 이용하여 움직임 벡터L1의 예측 움직임 벡터가 도출되는 경우의 실시예가 서술된다.
도 12의 실시예에서, 참조 픽쳐0은 참조 픽쳐 리스트0 의 참조 픽쳐이고, 참조 픽쳐1은 참조 픽쳐 리스트1 의 참조 픽쳐일 수 있다. 이 때, 참조 픽쳐0은 참조 블록L0(1220)를 포함할 수 있고, 참조 픽쳐1은 참조 블록L1(1230)을 포함할 수 있다. 여기서, 참조 블록L0(1220)는 움직임 벡터L0(예를 들어, mv_l0)를 이용하여 도출될 수 있고, 참조 블록L1(1230)은 움직임 벡터L1(예를 들어, mv_l1)을 이용하여 도출될 수 있다.
도 12를 참조하면, 참조 픽쳐 인덱스L0은 참조 픽쳐0을 지시할 수 있고, 참조 픽쳐 인덱스L1은 참조 픽쳐1을 지시할 수 있다. 따라서, 참조 픽쳐 인덱스L0과 참조 픽쳐 인덱스L1이 동일한 참조 픽쳐를 지시하지 않을 수 있다. 이 경우, 부호화기 및 복호화기는 움직임 벡터L0을 스케일링한 후, 스케일링된 움직임 벡터L0을 움직임 벡터L1의 예측 움직임 벡터(MVP), 즉 예측 움직임 벡터L1로 사용할 수 있다.
예를 들어, 움직임 벡터L0은 상술한 도 5의 실시예에 따른 움직임 벡터 도출 방법에 의해 구해질 수 있다. 이 때, 부호화기 및 복호화기는 예측 움직임 벡터 후보 리스트L0를 생성하고, 생성된 리스트에서 예측 움직임 벡터L0를 선택할 수 있다. 움직임 벡터L0는 선택된 예측 움직임 벡터L0를 이용하여 도출될 수 있다.
도출된 움직임 벡터L0는 스케일링된 후, 움직임 벡터L1에 대한 예측 움직임 벡터(예측 움직임 벡터L1)로 사용될 수 있다. 일 실시예로, 예측 움직임 벡터L1은 다음 수학식 1에 의해 나타내어질 수 있다.
[수학식 1]
MVP_l1 = (d2/d1) * mv_l0

여기서, MVP_l1은 예측 움직임 벡터L1을 나타내고, mv_l0은 움직임 벡터L0를 나타낸다. 또한 d1은 현재 픽쳐와 참조 픽쳐0 간의 시간적 거리(temporal distance)를 나타내고, d2는 현재 픽쳐와 참조 픽쳐1 간의 시간적 거리를 나타낸다.
부호화기는 움직임 벡터 L1과 예측 움직임 벡터L1의 차분에 의해 움직임 벡터 차분(MVD)을 구하여 복호화기로 전송할 수 있다. 복호화기는 도출된 예측 움직임 벡터L1과 움직임 벡터 차분을 더하여 움직임 벡터 L1을 구할 수 있다.
부호화기 및 복호화기는 움직임 벡터L0 자체가 아닌 움직임 벡터 L0에 대한 예측 움직임 벡터, 즉 예측 움직임 벡터L0을 스케일링하여 예측 움직임 벡터L1을 구할 수도 있다. 이 때, 예측 움직임 벡터L1은 다음 수학식 2에 의해 나타내어질 수 있다.
[수학식 2]
MVP_l1 = (d2/d1) * MVP_l0

여기서, MVP_l0은 예측 움직임 벡터L0을 나타낸다.
상술한 움직임 벡터 도출 방법은 참조 픽쳐 인덱스L0과 참조 픽쳐 인덱스L1이 모두 과거 참조 픽쳐를 지시하는 경우에 대해 서술되고 있으나, 참조 픽쳐 인덱스L0과 참조 픽쳐 인덱스L1이 모두 미래 참조 픽쳐를 지시하는 경우에도 적용될 수 있다.

도 13은 본 발명에 따른 예측 움직임 벡터 도출 방법의 또 다른 실시예를 개략적으로 나타내는 개념도이다. 도 13의 실시예에서 현재 픽쳐는 GPB 픽쳐가 아닐 수 있다.
도 13의 실시예에서, 현재 픽쳐에는 쌍예측 모드가 적용되므로 현재 블록(1310)에 대해 두 개의 움직임 벡터(움직임 벡터L0, 움직임 벡터L1)가 존재할 수 있다. 또한, 두 개의 움직임 벡터 중 어느 하나에 대한 예측 움직임 벡터는, 다른 움직임 벡터에 관한 정보를 이용하여 도출될 수 있다. 이하, 설명의 편의를 위해 움직임 벡터L0 관련 정보를 이용하여 움직임 벡터L1의 예측 움직임 벡터가 도출되는 경우의 실시예가 서술된다.
도 13의 실시예에서, 참조 픽쳐0은 참조 픽쳐 리스트0 의 참조 픽쳐이고, 참조 픽쳐1은 참조 픽쳐 리스트1 의 참조 픽쳐일 수 있다. 이 때, 참조 픽쳐0은 참조 블록L0(1320)를 포함할 수 있고, 참조 픽쳐1은 참조 블록L1(1330)을 포함할 수 있다. 여기서, 참조 블록L0(1320)는 움직임 벡터L0(예를 들어, mv_l0)를 이용하여 도출될 수 있고, 참조 블록L1(1330)은 움직임 벡터L1(예를 들어, mv_l1)을 이용하여 도출될 수 있다.
도 13을 참조하면, 참조 픽쳐 인덱스L0은 참조 픽쳐0을 지시할 수 있고, 참조 픽쳐 인덱스L1은 참조 픽쳐1을 지시할 수 있다. 따라서, 참조 픽쳐 인덱스L0과 참조 픽쳐 인덱스L1이 동일한 참조 픽쳐를 지시하지 않을 수 있다. 이 경우, 부호화기 및 복호화기는 움직임 벡터L0을 스케일링한 후, 스케일링된 움직임 벡터L0을 움직임 벡터L1의 예측 움직임 벡터(MVP), 즉 예측 움직임 벡터L1로 사용할 수 있다.
예를 들어, 움직임 벡터L0은 상술한 도 5의 실시예에 따른 움직임 벡터 도출 방법에 의해 구해질 수 있다. 이 때, 부호화기 및 복호화기는 예측 움직임 벡터 후보 리스트L0를 생성하고, 생성된 리스트에서 예측 움직임 벡터L0를 선택할 수 있다. 움직임 벡터L0는 선택된 예측 움직임 벡터L0를 이용하여 도출될 수 있다.
도출된 움직임 벡터L0는 스케일링된 후, 움직임 벡터L1에 대한 예측 움직임 벡터(예측 움직임 벡터L1)로 사용될 수 있다. 일 실시예로, 예측 움직임 벡터L1은 다음 수학식 3에 의해 나타내어질 수 있다.
[수학식 3]
MVP_l1 = - (d2/d1) * mv_l0

여기서, MVP_l1은 예측 움직임 벡터L1을 나타내고, mv_l0은 움직임 벡터L0를 나타낸다. 또한 d1은 현재 픽쳐와 참조 픽쳐0 간의 시간적 거리(temporal distance)를 나타내고, d2는 현재 픽쳐와 참조 픽쳐1 간의 시간적 거리를 나타낸다.
참조 픽쳐 인덱스L0은 과거 참조 픽쳐를 지시하고 참조 픽쳐 인덱스L1은 미래 참조 픽쳐를 지시하므로, 스케일링 과정에서 움직임 벡터L0의 부호가 바뀔 수 있다. 따라서, 수학식 3에서는 수학식 1과 달리 움직임 벡터L0의 값에 -1이 곱해질 수 있다.
부호화기는 움직임 벡터 L1과 예측 움직임 벡터L1의 차분에 의해 움직임 벡터 차분(MVD)을 구하여 복호화기로 전송할 수 있다. 복호화기는 도출된 예측 움직임 벡터L1과 움직임 벡터 차분을 더하여 움직임 벡터 L1을 구할 수 있다.
부호화기 및 복호화기는 움직임 벡터L0 자체가 아닌 움직임 벡터 L0에 대한 예측 움직임 벡터(MVP), 즉 예측 움직임 벡터L0을 스케일링하여 예측 움직임 벡터L1을 구할 수도 있다. 이 때, 예측 움직임 벡터L1은 다음 수학식 4에 의해 나타내어질 수 있다.
[수학식 4]
MVP_l1 = - (d2/d1) * MVP_l0

여기서, MVP_l0은 예측 움직임 벡터L0을 나타낸다.
상술한 움직임 벡터 도출 방법은 참조 픽쳐 인덱스L0이 과거 참조 픽쳐를 지시하고 참조 픽쳐 인덱스L1이 미래 참조 픽쳐를 지시하는 경우에 대해 서술되고 있으나, 참조 픽쳐 인덱스L0이 미래 참조 픽쳐를 지시하고 참조 픽쳐 인덱스L1이 과거 참조 픽쳐를 지시하는 경우에도 적용될 수 있다.

상술한 움직임 벡터 도출 방법에 의하면, 예측 움직임 벡터 인덱스 L1의 전송이 생략될 수 있으므로, 전송 비트량이 감소될 수 있다. 또한 예측 움직임 벡터 후보 리스트L1을 생성하는 과정이 생략될 수 있으므로, 연산 복잡도가 감소될 수 있다.

도 14는 쌍예측이 적용되는 경우, 본 발명에 따른 움직임 벡터 도출 방법의 실시예를 개략적으로 나타내는 흐름도이다.
이하, 쌍예측 모드에서 사용되는 두 개의 움직임 벡터는 각각 제1 움직임 벡터, 제2 움직임 벡터라 한다. 여기서, 제1 움직임 벡터가 움직임 벡터L0이면 제2 움직임 벡터는 움직임 벡터L1이고, 제1 움직임 벡터가 움직임 벡터L1이면 제2 움직임 벡터는 움직임 벡터L0일 수 있다.
도 14를 참조하면, 부호화기 및 복호화기는 제1 움직임 벡터를 도출할 수 있다(S1410).
이 때, 제1 움직임 벡터는 상술한 도 5의 실시예에 따른 움직임 벡터 도출 방법에 의해 구해질 수 있다. 예를 들어, 부호화기 및 복호화기는 제1 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트를 생성하고, 생성된 리스트에서 제1 움직임 벡터에 대한 예측 움직임 벡터를 선택할 수 있다. 제1 움직임 벡터는 상기 선택된 예측 움직임 벡터를 이용하여 도출될 수 있다.
부호화기 및 복호화기는 제1 움직임 벡터 관련 정보를 이용하여, 제2 움직임 벡터에 대한 예측 움직임 벡터(MVP)를 도출할 수 있다(S1420). 이하, 제1 움직임 벡터에 대한 예측 움직임 벡터는 제1 예측 움직임 벡터, 제2 움직임 벡터에 대한 예측 움직임 벡터는 제2 예측 움직임 벡터라 한다.
예를 들어, 도 11의 실시예에서 상술한 바와 같이 현재 픽쳐가 GPB 픽쳐이고 참조 픽쳐 인덱스L0와 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우, 부호화기 및 복호화기는 제1 움직임 벡터 또는 제1 예측 움직임 벡터를 제2 예측 움직임 벡터로 사용할 수 있다. 즉, 제2 예측 움직임 벡터는 제1 움직임 벡터 또는 제1 예측 움직임 벡터일 수 있다.
현재 픽쳐는 GPB 픽쳐가 아닐 수 있고, 참조 픽쳐 인덱스L0와 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일하지 않을 수도 있다. 이러한 경우에도 부호화기 및 복호화기는, 도 12 및 도 13의 실시예에서 상술한 바와 같이, 제1 움직임 벡터 또는 제1 예측 움직임 벡터를 스케일링한 후, 스케일링된 값을 제2 예측 움직임 벡터로 사용할 수 있다.
제2 예측 움직임 벡터 도출 방법의 구체적인 실시예들은 도 11 내지 도 13에서 서술된 내용과 동일하므로, 생략하기로 한다.
제2 예측 움직임 벡터가 도출되면, 복호화기는 도출된 제2 예측 움직임 벡터를 이용하여 제2 움직임 벡터를 도출할 수 있다(S1430).
부호화기는 제2 움직임 벡터와 제2 예측 움직임 벡터의 차분에 의해 구해진 움직임 벡터 차분(MVD)을 복호화기로 전송할 수 있다. 복호화기는 도출된 제2 예측 움직임 벡터에 상기 움직임 벡터 차분을 더하여 제2 움직임 벡터를 도출할 수 있다.

도 15는 쌍예측이 적용되는 경우, 본 발명에 따른 움직임 벡터 도출 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다.
도 15를 참조하면, 부호화기 및 복호화기는 제1 움직임 벡터를 도출할 수 있다(S1510).
이 때, 제1 움직임 벡터는 상술한 도 5의 실시예에 따른 움직임 벡터 도출 방법을 적용함으로써 구해질 수 있다. 예를 들어, 부호화기 및 복호화기는 제1 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트를 생성하고, 생성된 리스트에서 제1 움직임 벡터에 대한 예측 움직임 벡터를 선택할 수 있다. 제1 움직임 벡터는 상기 선택된 예측 움직임 벡터를 이용하여 도출될 수 있다.
이하, 제1 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트는 제1 예측 움직임 벡터 후보 리스트, 제2 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트는 제2 예측 움직임 벡터 후보 리스트라 한다.
부호화기 및 복호화기는 제1 움직임 벡터 관련 정보를 이용하여, 제2 예측 움직임 벡터 후보 리스트를 생성할 수 있다(S1520).
예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보의 선택 방법은 도 6 및 도 7의 실시예에서 상술한 바 있다. 예를 들어, 도 6의 실시예에서 부호화기 및 복호화기는 현재 블록의 좌측 영역(610)에서 선택된 블록의 움직임 벡터(MVA), 현재 블록의 상단 영역(620)에서 선택된 블록의 움직임 벡터(MVB), 우측 상단 코너 블록(630)의 움직임 벡터(MVC), 상기 움직임 벡터들의 미디언 값(MVmedian, 660) 및 동일 위치 블록(670)의 움직임 벡터(MVcol)를 예측 움직임 벡터 후보로 선택할 수 있다. 다른 예로, 도 7의 실시예에서 부호화기 및 복호화기는 좌측 후보 블록 그룹에서 도출된 움직임 벡터(MVA), 상단 후보 블록 그룹에서 도출된 움직임 벡터(MVB) 및 동일 위치 블록의 움직임 벡터(MVcol)를 예측 움직임 벡터 후보로 선택할 수 있다.

제2 예측 움직임 벡터 후보 리스트에는, 상술한 도 6 및 도 7의 방법에 의해 선택된 예측 움직임 벡터 후보 외에, 제1 움직임 벡터 관련 정보를 이용하여 구해진 추가 예측 움직임 벡터 후보가 포함될 수 있다. 즉, 제1 움직임 벡터 관련 정보를 이용하여 구해진 움직임 벡터가, 제2 예측 움직임 벡터 후보 리스트에 새로운 예측 움직임 벡터 후보로 추가될 수 있다.
일 실시예로, 현재 픽쳐가 GPB 픽쳐이고 참조 픽쳐 인덱스L0와 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우, 상기 추가 예측 움직임 벡터 후보는 제1 움직임 벡터 또는 제1 예측 움직임 벡터일 수 있다. 여기서, 제1 움직임 벡터는 MV1, 제1 예측 움직임 벡터는 MVP1이라 한다.
예를 들어, 도 6의 방법에 의해 생성된 제2 예측 움직임 벡터 후보 리스트에 MV1이 추가되는 경우, 최종적으로 생성된 리스트는 {MVmedian, MVA, MVB, MVC, MVcol, MV1}일 수 있다. 다른 예로서, 도 7의 방법에 의해 생성된 제2 예측 움직임 벡터 후보 리스트에 MV1이 추가되는 경우, 최종적으로 생성된 리스트는 {MVA, MVB, MVcol, MV1}일 수 있다.
다른 실시예로, 현재 픽쳐는 GPB 픽쳐가 아닐 수 있고, 참조 픽쳐 인덱스L0와 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일하지 않을 수도 있다. 이러한 경우, 상기 추가 예측 움직임 벡터 후보는 제1 움직임 벡터 또는 제1 예측 움직임 벡터가 스케일링된 값일 수 있다. 즉, 부호화기 및 복호화기는 제1 움직임 벡터 또는 제1 예측 움직임 벡터를 스케일링한 후, 스케일링된 값을 제2 예측 움직임 벡터 후보 리스트에 새로운 예측 움직임 벡터 후보로 추가할 수 있다. 제1 움직임 벡터 또는 제1 예측 움직임 벡터에 대한 스케일링 방법은 도 12 및 도 13에서 서술된 내용과 유사하므로, 생략하기로 한다.

생성된 제2 예측 움직임 벡터 후보 리스트 내의 각각의 후보에는 예측 움직임 벡터 인덱스 값이 할당될 수 있다. 이 때, 상술한 추가 예측 움직임 벡터 후보는, 제2 움직임 벡터와 유사할 확률이 높으므로, 제2 움직임 벡터에 대한 예측 움직임 벡터로 선택될 확률이 높을 수 있다. 따라서, 상기 추가 예측 움직임 벡터 후보에 가장 낮은 움직임 벡터 인덱스 값이 할당될 수 있다. 이 때, 부호화기에서 복호화기로 전송되는 비트량이 감소될 수 있다.
예를 들어, 도 6의 방법에 의해 생성된 제2 예측 움직임 벡터 후보 리스트에 MV1이 추가된 경우, 제2 예측 움직임 벡터 후보들은 MV1, MVmedian, MVA, MVB, MVC, MVcol 의 순서로 재정렬(re-ordering)될 수 있고, 예측 움직임 벡터 인덱스 값은 앞에서부터 낮은 순서대로 할당될 수 있다. 이 경우, MV1에 가장 낮은 인덱스 값이 할당될 수 있다. 다른 예로서, 도 7의 방법에 의해 생성된 제2 예측 움직임 벡터 후보 리스트에 MV1이 추가된 경우, 제2 예측 움직임 벡터 후보들은 MV1, MVA, MVB, MVcol 의 순서로 재정렬될 수 있고, 예측 움직임 벡터 인덱스 값은 앞에서부터 낮은 순서대로 할당될 수 있다. 이 경우, MV1에 가장 낮은 인덱스 값이 할당될 수 있다.

한편, 제2 예측 움직임 벡터 후보 리스트를 구성하는 제2 예측 움직임 벡터 후보의 개수는 제한될 수 있고, 제2 예측 움직임 벡터 후보가 제2 예측 움직임 벡터 후보 리스트에 삽입 및/또는 포함되는 순서는 소정의 순서로 특정될 수 있다. 이 때, 상술한 추가 예측 움직임 벡터 후보가 제2 예측 움직임 벡터 후보 리스트에 포함되는 확률을 높이기 위해, 부호화기 및 복호화기는 상기 추가 예측 움직임 벡터 후보를 가장 우선적으로 제2 예측 움직임 벡터 후보 리스트에 삽입할 수도 있다.

다시 도 15를 참조하면, 부호화기 및 복호화기는 제2 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중 현재 블록에 대한 제2 예측 움직임 벡터를 선택할 수 있다(S1530).
부호화기는 제2 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들에 대해 MVC를 적용하여, 현재 블록에 대한 최적의 제2 예측 움직임 벡터를 선택할 수 있다. 제2 예측 움직임 벡터가 선택되면, 부호화기는 비트 스트림을 통해 제2 예측 움직임 벡터에 대한 예측 움직임 벡터 인덱스를 복호화기로 전송할 수 있다. 복호화기는, 상기 전송된 예측 움직임 벡터 인덱스를 이용하여, 현재 블록에 대한 제2 예측 움직임 벡터를 선택할 수 있다.
복호화기는 선택된 제2 예측 움직임 벡터를 이용하여 현재 블록의 제2 움직임 벡터를 도출할 수 있다(S1540). 제2 예측 움직임 벡터를 이용하여 제2 움직임 벡터를 도출하는 과정은, 상술한 도 5의 실시예에서와 유사하므로, 생략한다.

상술한 실시예들에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능합을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.

Claims (11)

  1. 현재 블록에 대한 제1 움직임 벡터를 도출하는 단계; 및
    상기 제1 움직임 벡터 관련 정보를 이용하여, 현재 블록에 대한 제2 움직임 벡터를 도출하는 단계를 포함하고,
    상기 현재 블록은 현재 픽쳐 내의 예측 대상 블록이고, 상기 제1 움직임 벡터가 움직임 벡터L0일 때 상기 제2 움직임 벡터는 움직임 벡터L1이고, 상기 제1 움직임 벡터가 움직임 벡터L1일 때 상기 제2 움직임 벡터는 움직임 벡터 L0인 인터 예측 방법.
  2. 청구항 1에 있어서, 상기 제2 움직임 벡터 도출 단계는,
    상기 제1 움직임 벡터 관련 정보를 이용하여, 상기 제2 움직임 벡터에 대한 제2 예측 움직임 벡터(Motion Vector Predictor)를 도출하는 단계; 및
    상기 도출된 제2 예측 움직임 벡터를 이용하여 상기 제2 움직임 벡터를 도출하는 단계를 포함하는 것을 특징으로 하는 인터 예측 방법.
  3. 청구항 2에 있어서, 상기 제2 예측 움직임 벡터 도출 단계에서,
    상기 현재 픽쳐가 GPB 픽쳐이고, 상기 현재 블록의 참조 픽쳐 인덱스L0가 지시하는 참조 픽쳐와 상기 현재 블록의 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우에,
    상기 도출된 제2 예측 움직임 벡터는 상기 제1 움직임 벡터 또는 상기 제1 움직임 벡터에 대한 제1 예측 움직임 벡터이고,
    상기 GPB 픽쳐는 참조 픽쳐 리스트0 및 참조 픽쳐 리스트1이 동일한 픽쳐인 것을 특징으로 하는 인터 예측 방법.
  4. 청구항 2에 있어서, 상기 제2 예측 움직임 벡터 도출 단계에서는,
    상기 현재 픽쳐에서 참조 픽쳐 인덱스L0이 지시하는 참조 픽쳐까지의 시간적 거리(temporal distance) 및 상기 현재 픽쳐에서 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐까지의 시간적 거리에 기초하여,
    상기 제1 움직임 벡터 또는 상기 제1 움직임 벡터에 대한 제1 예측 움직임 벡터를 스케일링(scaling)함으로써 상기 제2 예측 움직임 벡터를 도출하는 것을 특징으로 하는 인터 예측 방법.
  5. 청구항 1에 있어서, 상기 제2 움직임 벡터 도출 단계는,
    상기 제1 움직임 벡터 관련 정보를 이용하여, 상기 제2 움직임 벡터에 대한 예측 움직임 벡터 후보 리스트를 생성하는 단계;
    상기 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중 제2 예측 움직임 벡터를 선택하는 단계; 및
    상기 선택된 제2 예측 움직임 벡터를 이용하여 상기 제2 움직임 벡터를 도출하는 단계를 포함하는 인터 예측 방법.
  6. 청구항 5에 있어서,
    상기 현재 픽쳐가 GPB 픽쳐이고, 상기 현재 블록의 참조 픽쳐 인덱스L0가 지시하는 참조 픽쳐와 상기 현재 블록의 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우에,
    상기 예측 움직임 벡터 후보 리스트는, 상기 제2 움직임 벡터에 대한 예측 움직임 벡터 후보로서, 상기 제1 움직임 벡터를 포함하는 것을 특징으로 하는 인터 예측 방법.
  7. 청구항 6에 있어서,
    상기 예측 움직임 벡터 후보 리스트가 상기 제1 움직임 벡터를 포함하는 경우, 상기 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보들 중에서, 상기 제1 움직임 벡터에 가장 낮은 예측 움직임 벡터 인덱스가 할당되는 것을 특징으로 하는 인터 예측 방법.
  8. 청구항 5에 있어서,
    상기 현재 픽쳐가 GPB 픽쳐이고, 상기 현재 블록의 참조 픽쳐 인덱스L0가 지시하는 참조 픽쳐와 상기 현재 블록의 참조 픽쳐 인덱스L1이 지시하는 참조 픽쳐가 동일한 경우에,
    상기 예측 움직임 벡터 후보 리스트는, 상기 제2 움직임 벡터에 대한 예측 움직임 벡터 후보로서, 상기 제1 움직임 벡터에 대한 제1 예측 움직임 벡터를 포함하는 것을 특징으로 하는 인터 예측 방법.
  9. 현재 블록에 대한 예측 움직임 벡터 후보 리스트를 생성하는 단계;
    상기 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보 중 상기 현재 블록에 대한 예측 움직임 벡터를 선택하는 단계; 및
    상기 선택된 예측 움직임 벡터를 이용하여 상기 현재 블록에 대한 움직임 벡터를 도출하는 단계를 포함하고,
    상기 예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보의 개수는 소정의 고정된 개수인 인터 예측 방법.
  10. 청구항 9에 있어서, 상기 예측 움직임 벡터 후보 리스트 생성 단계는,
    시간적 예측 움직임 벡터 후보 및 복수의 공간적 예측 움직임 벡터 후보를 획득하는 단계; 및
    상기 획득한 시간적 예측 움직임 벡터 후보 및 상기 획득한 복수의 공간적 예측 움직임 벡터 후보 중에서 상기 예측 움직임 벡터 후보 리스트에 포함되는 예측 움직임 벡터 후보를 선택하는 단계를 포함하고,
    상기 예측 움직임 벡터 후보 선택 단계에서는,
    상기 시간적 예측 움직임 벡터 후보를 가장 우선적으로 선택하는 것을 특징으로 하는 인터 예측 방법.
  11. 청구항 10에 있어서, 상기 시간적 예측 움직임 벡터 후보 및 복수의 공간적 예측 움직임 벡터 후보 획득 단계에서는,
    통합 후보 블록 그룹에 포함된 복수의 블록을 소정의 순서로 스캔(scan)하여 상기 복수의 공간적 예측 움직임 벡터 후보를 획득하고,
    상기 통합 후보 블록에 포함된 복수의 블록은 상기 현재 블록의 좌측 하단 코너 블록, 상기 현재 블록의 좌측에 인접한 블록들 중 최하단에 위치한 블록, 상기 현재 블록의 우측 상단 코너 블록, 상기 현재 블록의 상단에 인접한 블록들 중 최우측에 위치한 블록 및 상기 현재 블록의 좌측 상단 코너 블록인 것을 특징으로 하는 인터 예측 방법.
PCT/KR2011/009717 2010-12-22 2011-12-16 영상 부호화 및 복호화 방법과 이를 이용한 장치 WO2012086963A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201061425768P 2010-12-22 2010-12-22
US61/425,768 2010-12-22
US201161531008P 2011-09-04 2011-09-04
US61/531,008 2011-09-04

Publications (1)

Publication Number Publication Date
WO2012086963A1 true WO2012086963A1 (ko) 2012-06-28

Family

ID=46314165

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/009717 WO2012086963A1 (ko) 2010-12-22 2011-12-16 영상 부호화 및 복호화 방법과 이를 이용한 장치

Country Status (1)

Country Link
WO (1) WO2012086963A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015057037A1 (ko) * 2013-10-18 2015-04-23 엘지전자 주식회사 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084661A (ko) * 2000-02-28 2001-09-06 구자홍 움직임 추정 방법 및 장치
KR20050013847A (ko) * 2003-07-29 2005-02-05 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR20080076870A (ko) * 2008-07-18 2008-08-20 엘지전자 주식회사 모션벡터 결정방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084661A (ko) * 2000-02-28 2001-09-06 구자홍 움직임 추정 방법 및 장치
KR20050013847A (ko) * 2003-07-29 2005-02-05 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR20080076870A (ko) * 2008-07-18 2008-08-20 엘지전자 주식회사 모션벡터 결정방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015057037A1 (ko) * 2013-10-18 2015-04-23 엘지전자 주식회사 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
US10063887B2 (en) 2013-10-18 2018-08-28 Lg Electronics Inc. Video decoding apparatus and method for decoding multi-view video

Similar Documents

Publication Publication Date Title
KR102386766B1 (ko) 영상 부호화/복호화 방법 및 장치
US11871027B2 (en) Method for encoding image and non-transitory computer readable storage medium storing a bitstream generated by a method
US11871031B2 (en) Method for inducing prediction motion vector and apparatuses using same
JP7387841B2 (ja) 映像復号化方法
KR101425772B1 (ko) 영상 부호화 및 복호화 방법과 이를 이용한 장치
KR102498289B1 (ko) 인터 예측 방법 및 그 장치
KR102307005B1 (ko) 움직임 벡터 리스트 설정 방법 및 이러한 방법을 사용하는 장치
KR102320585B1 (ko) 인터 예측 방법 및 그 장치
WO2013009104A2 (ko) 인터 예측 방법 및 그 장치
KR20120078647A (ko) 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치
WO2012086963A1 (ko) 영상 부호화 및 복호화 방법과 이를 이용한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11852074

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11852074

Country of ref document: EP

Kind code of ref document: A1