WO2013032074A1 - 머지 모드 움직임 정보 복호화 장치 - Google Patents

머지 모드 움직임 정보 복호화 장치 Download PDF

Info

Publication number
WO2013032074A1
WO2013032074A1 PCT/KR2012/000523 KR2012000523W WO2013032074A1 WO 2013032074 A1 WO2013032074 A1 WO 2013032074A1 KR 2012000523 W KR2012000523 W KR 2012000523W WO 2013032074 A1 WO2013032074 A1 WO 2013032074A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
merge
candidate
merge candidate
motion information
Prior art date
Application number
PCT/KR2012/000523
Other languages
English (en)
French (fr)
Inventor
김광제
오현오
Original Assignee
주식회사 아이벡스피티홀딩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47756522&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2013032074(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority to MX2015014551A priority Critical patent/MX341355B/es
Priority to MX2015000581A priority patent/MX337284B/es
Priority to MX2016010650A priority patent/MX346819B/es
Priority to BR122015001354-2A priority patent/BR122015001354B1/pt
Priority to KR1020127006965A priority patent/KR20140105038A/ko
Priority to KR1020127006961A priority patent/KR101210894B1/ko
Priority to CN201280042092.9A priority patent/CN103765891B/zh
Priority to MX2014002347A priority patent/MX2014002347A/es
Priority to MX2017004240A priority patent/MX369711B/es
Application filed by 주식회사 아이벡스피티홀딩스 filed Critical 주식회사 아이벡스피티홀딩스
Priority to BR112014004922-0A priority patent/BR112014004922B1/pt
Priority to KR20127006461A priority patent/KR101210893B1/ko
Priority to US13/743,086 priority patent/US8774279B2/en
Priority to US13/745,288 priority patent/US8654855B2/en
Publication of WO2013032074A1 publication Critical patent/WO2013032074A1/ko
Priority to US14/090,195 priority patent/US8855209B2/en
Priority to US14/299,927 priority patent/US9025668B2/en
Priority to US14/593,937 priority patent/US9025669B1/en
Priority to US14/593,889 priority patent/US9036709B1/en
Priority to US14/593,973 priority patent/US9161043B2/en
Priority to US17/099,322 priority patent/USRE49907E1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1887Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a variable length codeword
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Definitions

  • the present invention relates to a motion information decoding apparatus, and more particularly, to a merge mode motion information decoding apparatus for reconstructing motion information encoded in a merge mode.
  • the inter prediction encoding method which extracts a block similar to the current block from a previous screen and encodes a difference value, is one of the most effective methods for compressing an image.
  • the data amount of the residual block decreases, while the amount of motion information to be transmitted (motion vector and reference picture index) increases.
  • the present invention relates to a merge mode motion information decoding apparatus for effectively reconstructing motion information encoded in the merge mode.
  • the merge mode motion information decoding apparatus includes a merge predictor index decoder which restores a merge predictor index of a current block using a received merge codeword, and a spatial merge candidate to derive a spatial merge candidate of the current block.
  • a merge candidate list is constructed using a candidate, a time merge candidate generated by the time merge candidate construction unit, and a generated merge candidate generated by the merge candidate generation unit, and a merge predictor from the merge predictor index decoder To select the merge predictor based on the index It includes not a predictor selecting unit, and the remaining predictors references of the remaining candidate selected by the selection unit picture index and the motion vector the current block reference picture index and the motion vector the motion information generator for generating a portion of the.
  • the merge predictor index of the current block is restored, a spatial merge candidate and a time merge candidate of the current block are generated, and the valid merge candidate number of the current block is greater than a predetermined number. If small, merge candidates are generated to build a merge candidate list. A merge predictor is selected based on the reconstructed merge predictor index. Therefore, by fixing the number of merge candidates, one decoding table can be used to increase the decoding speed and to effectively decode motion information.
  • FIG. 1 is a block diagram illustrating an inter prediction encoding apparatus according to the present invention.
  • FIG. 2 is a block diagram illustrating a motion information encoding mode determiner according to the present invention.
  • FIG. 3 is a diagram illustrating positions of merge candidates according to an embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating an inter prediction decoding apparatus according to the present invention.
  • FIG. 5 is a block diagram illustrating a merge mode motion information decoder according to a first embodiment of the present invention.
  • FIG. 6 is a block diagram illustrating a merge mode motion information decoder according to a second embodiment of the present invention.
  • FIG. 7 is a block diagram illustrating a merge mode motion information decoder according to a third embodiment of the present invention.
  • FIG. 8 is a block diagram illustrating an AMVP mode motion information decoder according to a first embodiment of the present invention.
  • FIG. 9 is a block diagram illustrating an AMVP mode motion information decoder according to a second embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating an inter prediction encoding apparatus according to an embodiment of the present invention.
  • the inter prediction encoding apparatus may include a motion information determiner 110, a motion information encoding mode determiner 120, a motion information encoder 130, a prediction block generator 140, and a residual block generator ( 150, a residual block encoder 160, and a multiplexer 170.
  • the motion information determiner 110 determines motion information of the current block.
  • the motion information includes a reference picture index and a motion vector.
  • the reference picture index represents any one of the previously coded and reconstructed pictures.
  • the current block indicates any one of the reference pictures belonging to list 0 (L0).
  • the current block may include a reference picture index indicating one of the reference pictures of list 0 (L0) and a reference picture index indicating one of the reference pictures of list 1 (L1).
  • the current block may include an index indicating one or two pictures of reference pictures of the composite list LC generated by combining the list 0 and the list 1.
  • the motion vector indicates the position of the prediction block in the picture indicated by each reference picture index.
  • the motion vector may be pixel unit (integer unit) or sub pixel unit. For example, it may have a resolution of 1/2, 1/4, 1/8 or 1/16 pixels. If the motion vector is not an integer unit, the prediction block is generated from pixels of an integer unit.
  • the motion information encoding mode determiner 120 determines whether to encode the motion information of the current block in the skip mode, the merge mode, or the AMVP mode.
  • the skip mode is applied when a skip candidate having the same motion information as the motion information of the current block exists and the residual signal is zero. Also, the skip mode is applied when the current block is the same size as the coding unit.
  • the current block can be viewed as a prediction unit.
  • the merge mode is applied when there is a merge candidate having the same motion information as that of the current block.
  • the merge mode is applied when a residual signal exists when the current block has a different size or the same size as the coding unit.
  • the merge candidate and the skip candidate may be the same.
  • AMVP mode is applied when skip mode and merge mode are not applied.
  • An AMVP candidate having a motion vector most similar to the motion vector of the current block is selected as an AMVP predictor.
  • the motion information encoder 130 encodes the motion information according to a method determined by the motion information encoding mode determiner 120. If the motion information encoding mode is the skip mode or the merge mode, the merge motion vector encoding process is performed. When the motion information encoding mode is AMVP, the AMVP encoding process is performed.
  • the prediction block generator 140 generates a prediction block by using motion information of the current block. If the motion vector is an integer unit, the block corresponding to the position indicated by the motion vector in the picture indicated by the reference picture index is copied to generate a prediction block of the current block.
  • the pixels of the prediction block are generated from the integer unit pixels in the picture indicated by the reference picture index.
  • the prediction pixel may be generated using an interpolation filter of 8 taps.
  • a prediction pixel may be generated using a 4-tap interpolation filter.
  • the residual block generator 150 generates a residual block by using the current block and the prediction block of the current block.
  • the residual block is generated by using the current block and a prediction block having a size of 2Nx2N corresponding to the current block.
  • the prediction block for each of the 2NxN blocks constituting the 2Nx2N is obtained, and then the final prediction block having the size of 2Nx2N is obtained using the two 2NxN prediction blocks.
  • a residual block of 2Nx2N may be generated by using the prediction block having a size of 2Nx2N.
  • overlapping pixels of the boundary portion may be smoothed.
  • the residual block encoder 160 divides the generated residual block into one or more transform units. Each transform unit is then transform coded, quantized, and entropy coded. In this case, the size of the transform unit may be determined by the quadtree method according to the size of the residual block.
  • the residual block encoder 160 transforms the residual block generated by the inter prediction method using an integer-based transform matrix.
  • the transformation matrix is an integer based DCT matrix.
  • the residual block encoder 160 uses a quantization matrix to quantize coefficients of the residual block transformed by the transform matrix.
  • the quantization matrix is determined by the quantization parameter.
  • the quantization parameter is determined for each coding unit of a predetermined size or more.
  • the predetermined size may be 8x8 or 16x16. Therefore, when the current coding unit is smaller than the predetermined size, only the quantization parameter of the first coding unit in the coding order among the plurality of coding units within the predetermined size is encoded, and since the quantization parameter of the remaining coding units is the same as the parameter, the encoding is performed. There is no need to do it.
  • the coefficients of the transform block are quantized using the quantization matrix determined according to the determined quantization parameter and the prediction mode.
  • the quantization parameter determined for each coding unit of the predetermined size or more is predictively coded using the quantization parameter of the coding unit adjacent to the current coding unit.
  • a search may be performed in the order of the left coding unit and the upper coding unit of the current coding unit to generate a quantization parameter predictor of the current coding unit using one or two valid quantization parameters.
  • the first valid quantization parameter found in the above order may be determined as a quantization parameter predictor.
  • the first quantization parameter that is valid may be determined as the quantization parameter predictor by searching the left coding unit and the coding unit immediately before the coding order.
  • the coefficients of the quantized transform block are scanned and converted into one-dimensional quantization coefficients.
  • the scanning method may be set differently according to the entropy encoding mode. For example, when coded with CABAC, the inter prediction coded quantization coefficients may be scanned in one predetermined manner (zigzag or diagonal raster scan). On the other hand, when encoded by CAVLC, scanning may be performed in a manner different from that described above. For example, the scanning method may be determined according to a zigzag in case of inter and an intra prediction mode in case of intra. In addition, the coefficient scanning scheme may be determined differently according to the size of the transform unit. The scan pattern may vary depending on the directional intra prediction mode. The scan order of the quantization coefficients scans in the reverse direction.
  • the multiplexer 170 multiplexes the motion information encoded by the motion information encoder 130 and the residual signals encoded by the residual block encoder.
  • the motion information may vary according to an encoding mode. That is, in case of skip or merge, only the index indicating the predictor is included. However, in the case of AMVP, it includes a reference picture index, a differential motion vector, and an AMVP index of the current block.
  • FIG. 2 is a block diagram illustrating a motion information encoding mode determiner 120 according to the present invention.
  • the motion information encoding mode determiner 120 includes a spatial merge candidate searching unit 121, a reference picture index deriving unit 122 of a temporal merge candidate, a motion vector deriving unit 123 of a temporal merge / AMVP candidate, and a spatial AMVP.
  • the candidate includes a motion vector derivation unit 124, a time merge candidate construction unit 125, a merge candidate list construction unit 126, an AMVP candidate list construction unit 127, and an encoding mode determination unit 128.
  • the spatial merge candidate search unit 121 sets valid motion information of a block adjacent to the current block as a spatial merge candidate.
  • the spatial merge candidates include the left block of the current block (block A), the upper block of the current block (block B), the upper right block of the current block (block C), and the lower left block of the current block (block Four of D) and the upper left block (block E) of the current block may be candidates.
  • block E can be used when one or more of blocks A, B, C, D are invalid.
  • the spatial merge candidate may be set to the left block (block A ') of the current block, the upper block (block B') of the current block, and the corner block (C, D, E of the current block).
  • the corner block is the first block valid by scanning in the order of the upper right block (block C), the lower left block (block D) of the current block, and the upper left block (block E) of the current block.
  • the spatial merge candidates may include the left block of the current block (block A '), the upper block of the current block (block B'), the right upper block of the current block (block C), the lower left block of the current block (block D), and Two valid candidates may be scanned by scanning in the upper left block (block E) of the current block.
  • the left block A ′ may be a block adjacent to the block E without being adjacent to the block D.
  • the upper block B ' may be a block adjacent to the block E and not adjacent to the block C.
  • the reference picture index derivation unit 122 obtains a reference picture index for the time merge candidate of the current block.
  • the reference picture index of the temporal merge candidate may be set to a reference picture index of one of blocks (prediction units) spatially adjacent to the current block.
  • Reference pictures of the left block (A), the upper block (B), the upper right block (C), the lower left block (D), and the upper left block (E) of the current block to obtain reference indices of the temporal merge candidates of the current block. Some or all of the indexes may be used.
  • reference picture indices of the left block A, the upper block B, and the corner blocks C, D, and E of the current block may be used.
  • the reference picture index of the corner block may be determined as the reference picture index of the first block valid by scanning in the order of the upper right block (C), the lower left block (D), and the upper left block net (E).
  • a reference picture index having the highest frequency among valid reference picture indexes among the reference picture indexes may be set as a reference picture index of a time skip candidate.
  • the reference picture index having the minimum value among the plurality of reference picture indexes may be set as a reference picture index for a time skip candidate.
  • the reference picture index of three blocks valid by scanning may be used. Although three or more valid reference picture indices are set to be used here, all valid numbers may be used or only reference picture indices of a predetermined position may be used. If a valid reference picture index does not exist, the reference picture index 0 may be set.
  • the motion vector derivation unit 123 of the temporal merge / AMVP candidate determines a picture to which the temporal merge candidate block belongs (hereinafter, referred to as a temporal merge candidate picture).
  • the temporal merge candidate picture may be set to a picture having a reference picture index of zero.
  • the first picture of the list 0 (list0) (that is, the picture whose index is 0) is set as the time merge candidate picture.
  • the slice type is B
  • the first picture of the reference picture list indicated by the flag indicating the time merge candidate list in the slice header is set as the time merge candidate picture.
  • a time merge candidate picture can be set from list0 if the flag indicates 1 and from list1 if 0 indicates a flag.
  • the motion vector derivation unit 123 of the temporal merge / AMVP candidate obtains a temporal merge candidate block in the temporal merge candidate picture.
  • the time merge candidate block any one of a plurality of corresponding blocks corresponding to the current block in the time merge candidate picture may be selected.
  • a priority may be given to a plurality of corresponding blocks, and a first corresponding block valid based on the priority may be selected as a time merge candidate block.
  • the first candidate may include a lower left corner block BR_C adjacent to a block corresponding to a current block in the time merge candidate picture or a lower left block BR in a block corresponding to a current block in the time merge candidate picture.
  • first candidate block is valid, set the first candidate block as a time merge candidate block. If the first candidate block is not valid and the second candidate block is valid, set the second candidate block as a time merge candidate block. Can be set. Alternatively, only the second candidate block may be used according to the position of the current block. For example, when the current block is in contact with the lower boundary of the slice or the lower boundary of the LCU, only the second candidate block may be used. If the second candidate block also does not exist, the time-sensitive merge candidate is determined to be invalid.
  • the motion vector of the temporal merge candidate block is set as the motion vector of the temporal merge candidate.
  • the time merge candidate may be adaptively turned off according to the size of the current block. For example, in the case of a 4x4 block, the time merge candidate may be turned off to reduce the complexity.
  • the motion vector derivation unit 124 of the spatial AMVP candidate selects one of the left block (block A) and the lower left block (block D) of the current block as the left space candidate, and selects the upper block (block B) and the current block of the current block.
  • One of the upper right side block (block C) of the block and the upper left side block (block E) of the current block may be selected as the upper space candidate.
  • the first valid motion vector scanned in a predetermined order is determined as the left or upper space candidate.
  • the predetermined order may be a block A, a block D order or the reverse order in the case of the left block, and a block B, block C, block E order, or block C, block B, block E order in the upper block.
  • the valid motion vector may be a motion vector satisfying a predetermined condition.
  • the predetermined condition is a condition set based on the motion information of the current block.
  • the upper space candidate may not be set according to the left space candidate. .
  • the temporal merge candidate constructing unit 125 determines the reference picture index of the temporal merge candidate obtained by the reference picture index deriving unit 122 of the temporal merge candidate and the temporal merge candidate obtained by the motion vector deriving unit 123 of the temporal merge / AMVP candidate.
  • a time merge candidate is generated using the motion vector.
  • the merge candidate list construction unit 126 constructs the merge candidate list in a predetermined order by using valid merge candidates.
  • the predetermined order is A, B, Col, C, D.
  • Col means a time merge candidate.
  • the motion information of the valid E may be inserted at the position of the invalid first block.
  • the valid motion information of E can be inserted at the last position.
  • the merge candidates may be generated.
  • the merge candidate to be added may be generated by combining the motion information of two valid merge candidates.
  • the reference picture index of the temporal merge candidate and the valid spatial motion vector of the spatial merge candidate may be generated. If a plurality of merge candidates can be generated, they may be added to the list in a predetermined order.
  • the merge candidate generated by combining the reference picture index of the temporal merge candidate and the motion vector of the spatial merge candidate may be added to the list first.
  • merge candidates having a motion vector of 0 and a reference picture index of 0 may be added.
  • the predetermined number may be determined in picture or slice units.
  • the AMVP candidate list construction unit 127 constructs an AVMP candidate list in a predetermined order using valid AVMP candidates. In this case, if a plurality of AVMP candidates have the same motion vector (the reference pictures do not need to be the same), the AVMP candidates of lower priority are deleted from the list.
  • the predetermined order may be left, top, Col order, or Col, left, top order.
  • the AMVP candidate list construction unit 127 also determines whether AVMP candidate generation is necessary. In the above AVMP candidate configuration, when the number of AVMP candidates is set to a fixed value, an AVMP candidate is generated when the number of valid AVMP candidates is smaller than the fixed value. Then, the generated AMVP candidates are added to the position next to the lowest-priority AMVP candidate in the list.
  • the added candidate may be a candidate having a motion vector of zero.
  • the encoding mode determiner 128 determines whether to encode the motion information of the current block in the skip mode, the merge mode, or the AMVP mode.
  • the skip mode is applied when a skip candidate having the same motion information as the motion information of the current block exists and the residual signal is zero. Also, the skip mode is applied when the current block is the same size as the coding unit.
  • the current block can be viewed as a prediction unit.
  • the merge mode is applied when there is a merge candidate having the same motion information as that of the current block.
  • the merge mode is applied when a residual signal exists when the current block has a different size or the same size as the coding unit.
  • the merge candidate and the skip candidate may be the same.
  • AMVP mode is applied when skip mode and merge mode are not applied.
  • An AMVP candidate having a motion vector most similar to the motion vector of the current block is selected as an AMVP predictor.
  • FIG. 4 is a block diagram showing an inter prediction decoding apparatus 200 according to the present invention.
  • the inter prediction decoding apparatus 200 includes a demultiplexer 210, a motion information encoding mode determiner 220, a merge mode motion information decoder 230, an AMVP mode motion information decoder 240, and a prediction block generation.
  • the unit 250 includes a residual block decoder 260 and a reconstructed block generator 270.
  • the demultiplexer 210 demultiplexes the currently encoded motion information and the encoded residual signals from the received bitstream.
  • the demultiplexer 210 transmits the demultiplexed motion information to the motion information encoding mode determiner 220 and transmits the demultiplexed residual signal to the residual block decoder 260.
  • the motion information encoding mode determiner 220 determines the motion information encoding mode of the current block. When skip_flag of the received bitstream has a value of 1, the motion information encoding mode determiner 220 determines that the motion information encoding mode of the current block is encoded by the skip encoding mode. The motion information encoding mode determiner 220 has a skip_flag of the received bitstream having a value of 0, and the motion information encoding mode of the current block in which the motion information received from the demultiplexer 210 has only a merge index. It is determined that it is encoded by.
  • the motion information encoding mode determiner 220 includes: It is determined that the motion information encoding mode of the current block is encoded in the AMVP mode.
  • the merge mode motion information decoder 230 is activated when the motion information encoding mode determiner 220 determines that the motion information encoding mode of the current block is a skip or merge mode.
  • the AMVP mode motion information decoder 240 is activated when the motion information encoding mode determiner 220 determines that the motion information encoding mode of the current block is the AMVP mode.
  • the prediction block generator 250 generates the prediction block of the current block by using the motion information reconstructed by the merge mode motion information decoder 230 or the AMVP mode motion information decoder 240. If the motion vector is an integer unit, the block corresponding to the position indicated by the motion vector in the picture indicated by the reference picture index is copied to generate a prediction block of the current block. However, when the motion vector is not an integer unit, the pixels of the prediction block are generated from the integer unit pixels in the picture indicated by the reference picture index. In this case, in the case of the luminance pixel, the prediction pixel may be generated using an interpolation filter of 8 taps. In the case of chrominance pixels, a prediction pixel may be generated using a 4-tap interpolation filter.
  • the residual block decoder 260 entropy decodes the residual signal. Inverse scanning of the entropy decoded coefficients generates a two-dimensional quantized coefficient block.
  • the reverse scanning method may vary depending on the entropy decoding method. That is, the inverse scanning scheme of the inter prediction residual signal when the CABAC decoding is performed and the CAVLC decoding may be different. For example, when the CABAC-based decoding is performed, the diagonal raster inverse scan method may be used, and when the CAVLC-based decoding is performed, the zigzag inverse scanning method may be used. In addition, the inverse scanning scheme may be determined differently according to the size of the prediction block.
  • the residual block decoder 260 dequantizes the generated coefficient block using an inverse quantization matrix. Restore quantization parameters to derive the quantization matrix.
  • the quantization step size is reconstructed for each coding unit of a predetermined size or more.
  • the predetermined size may be 8x8 or 16x16. Therefore, when the current coding unit is smaller than the predetermined size, only the quantization parameter of the first coding unit in the coding order of the plurality of coding units within the predetermined size is restored, and since the quantization parameter of the remaining coding units is the same as the parameter, the encoding is performed. There is no need to do it.
  • the quantization parameter of the coding unit adjacent to the current coding unit is used to recover the quantization parameter determined for each coding unit of the predetermined size or more.
  • the first valid quantization parameter may be determined as a quantization parameter predictor of the current coding unit by searching in the order of the left coding unit and the upper coding unit of the current coding unit. Further, the first valid quantization parameter may be determined as a quantization parameter predictor by searching the left coding unit and the coding unit immediately before the coding order.
  • the quantization parameter of the current prediction unit is recovered using the determined quantization parameter predictor and the differential quantization parameter.
  • the residual block decoder 260 inversely transforms the inverse quantized coefficient block to restore the residual block.
  • the restoration block generator 270 generates a reconstruction block by adding the prediction block generated by the prediction block generator 250 and the residual block generated by the residual block decoder 260.
  • FIG. 5 is a block diagram illustrating the merge mode motion information decoder 230 according to the first embodiment of the present invention.
  • the merge mode motion information decoder includes a codeword reader 231, a spatial merge candidate derivation unit 232, a reference picture index derivation unit 233 of a temporal merge candidate, and a motion vector derivation unit of a temporal merge candidate 234, a time merge candidate construction unit 235, a merge candidate list construction unit 236, a merge candidate index decoding unit 237, and a motion information generation unit 238. This case applies when the number of merge candidates is not fixed.
  • the codeword reading unit 231 determines whether a codeword corresponding to the merge candidate index exists. If there is no codeword corresponding to the merge candidate index, it is determined that one merge candidate exists or does not exist. If not present, the motion information of which the motion vector is 0 and the reference picture index is 0 is restored to the motion information of the current block. If one merge candidate exists, the motion information of the merge candidate is restored to the motion information of the block of the current block.
  • the spatial merge candidate derivation unit 232 sets valid motion information of a block adjacent to the current block as a spatial merge candidate.
  • the spatial merge candidates include the left block of the current block (block A), the upper block of the current block (block B), the upper right block of the current block (block C), and the lower left block of the current block (block Four of D) and the upper left block (block E) of the current block may be candidates.
  • block E can be used when one or more of blocks A, B, C, D are invalid.
  • the spatial merge candidate may be set to the left block of the current block (block A '), the upper block of the current block (block B', one of the corner blocks of the current block (C, D, E). This is the first block that is scanned by the side block (block C), the lower left block (block D) of the current block, and the upper left block (block E) of the current block.
  • the spatial merge candidates may include the left block of the current block (block A ', the upper block of the current block (block B'), the upper right block of the current block (block C), the lower left block of the current block (block D) and the current block. Two valid candidates are scanned in the order of the upper left block (block E) of the candidate.
  • the left block A ' may be a block adjacent to the block E without being adjacent to the block D.
  • the upper block B' may be a block adjacent to the block E without being adjacent to the block C.
  • the motion information of the merge candidates existing above the current prediction unit among the spatial merge candidates may be differently set according to the position of the current prediction unit.
  • the motion information of the upper prediction unit (block B, C or E) of the current prediction unit may be its own motion information or motion information of the adjacent prediction unit. have.
  • the motion information of the upper prediction unit may be determined as one of its own motion information or motion information (reference picture index and motion vector) of the neighboring prediction unit.
  • the reference picture index deriving unit 233 of the temporal merge candidate obtains the reference picture index of the temporal merge candidate of the current block.
  • the reference picture index of the temporal merge candidate may be set to a reference picture index of one of blocks (prediction units) spatially adjacent to the current block. Or may be set to zero.
  • Reference pictures of the left block (A), the upper block (B), the upper right block (C), the lower left block (D), and the upper left block (E) of the current block to obtain reference indices of the temporal merge candidates of the current block. Some or all of the indexes may be used.
  • reference picture indices of the left block A, the upper block B, and the corner blocks C, D, and E of the current block may be used.
  • the reference picture index of the corner block may be determined as the reference picture index of the first block valid by scanning in the order of the upper right block (C), the lower left block (D), and the upper left block net (E).
  • a reference picture index having the highest frequency among valid reference picture indexes among the reference picture indexes may be set as a reference picture index of a time skip candidate.
  • the reference picture index having the minimum value among the plurality of reference picture indexes may be set as a reference picture index for a time skip candidate.
  • the reference picture index of three blocks valid by scanning may be used. Although three or more valid reference picture indices are set to be used here, all valid numbers may be used or only reference picture indices of a predetermined position may be used. If a valid reference picture index does not exist, the reference picture index 0 may be set.
  • the motion vector derivation unit 234 of the temporal merge candidate determines a picture to which the temporal merge candidate block belongs (hereinafter, referred to as a temporal merge candidate picture).
  • the temporal merge candidate picture may be set to a picture having a reference picture index of zero.
  • the first picture of the list 0 (list0) (that is, the picture whose index is 0) is set as the time merge candidate picture.
  • the slice type is B
  • the first picture of the reference picture list indicated by the flag indicating the time merge candidate list in the slice header is set as the time merge candidate picture.
  • a time merge candidate picture can be set from list0 if the flag indicates 1 and from list1 if 0 indicates a flag.
  • a time merge candidate block in the time merge candidate picture is obtained.
  • the time merge candidate block any one of a plurality of corresponding blocks corresponding to the current block in the time merge candidate picture may be selected.
  • a priority may be given to a plurality of corresponding blocks, and a first corresponding block valid based on the priority may be selected as a time merge candidate block.
  • the first candidate may include a lower left corner block BR_C adjacent to a block corresponding to a current block in the time merge candidate picture or a lower left block BR in a block corresponding to a current block in the time merge candidate picture.
  • first candidate block is valid, set the first candidate block as a time merge candidate block. If the first candidate block is not valid and the second candidate block is valid, set the second candidate block as a time merge candidate block. Can be set. Alternatively, only the second candidate block may be used according to the position of the current block. For example, when the current block is in contact with the lower boundary of the slice or the lower boundary of the LCU, only the second candidate block may be used. If the second candidate block also does not exist, the time-sensitive merge candidate is determined to be invalid.
  • the motion vector of the time merge candidate prediction block is set as the time merge candidate motion vector.
  • the time merge candidate may be adaptively turned off according to the size of the current block. For example, in the case of a 4x4 block, the time merge candidate may be turned off to reduce the complexity.
  • the temporal merge candidate constructing unit 235 determines the reference picture index obtained from the reference picture index deriving unit 233 of the temporal merge candidate and the motion vector obtained from the motion vector deriving unit 234 of the temporal merge candidate. And the motion vector.
  • the merge candidate list construction unit 236 constructs a merge candidate list in a predetermined order using valid merge candidates.
  • the predetermined order is A, B, Col, C, D.
  • Col means a time merge candidate.
  • the motion information of the valid E may be inserted at the position of the invalid first block.
  • the valid motion information of E can be inserted at the last position.
  • the merge candidate index decoder 237 selects a decoding table corresponding to the valid number of candidates constructed by the merge candidate list construction unit 236.
  • the index corresponding to the merge candidate codeword in the decoding table is determined as the merge candidate index of the current block.
  • the motion information generation unit 238 selects a merge predictor corresponding to the merge candidate index from a list constructed by the merge candidate list construction unit 236, and then includes motion information (ie, a motion vector and a reference of the selected merge predictor).
  • the picture index is determined as motion information of the current block.
  • FIG. 6 is a block diagram illustrating a merge mode motion information decoder according to a second embodiment of the present invention.
  • the merge mode motion information decoder 230 may include a merge predictor index decoder 331, a spatial merge candidate derivator 332, a temporal merge candidate reference picture index derivator 333, and a temporal merger.
  • the merge vector includes a motion vector derivation unit 334, a time merge candidate construction unit 335, a merge predictor selection unit 336, and a motion information generation unit 337. This case applies when the number of merge candidates is fixed. The number of merge candidates may be fixed in picture or slice units.
  • the merge predictor index decoder 331 restores the merge predictor index corresponding to the received merge predictor codeword using a predetermined table corresponding to the number of merge candidates.
  • the operation of the reference picture index deriving unit 333 of the temporal merge candidate, the motion vector deriving unit 334 of the temporal merge candidate, and the temporal merge candidate constructing unit 335 are respectively performed by the reference picture index deriving unit 233 of the temporal merge candidate of FIG. Since the operations are the same as those of the motion vector deriving unit 234 and the time merging candidate constructing unit 235 of the time merge candidate, they are omitted.
  • the merge predictor selector 336 selects a merge candidate corresponding to the merge predictor index reconstructed by the merge predictor index decoder 331 as a merge predictor of the current block by selecting from the merge candidate list.
  • the merge candidate list is constructed using valid merge candidates. In this case, when a plurality of merge candidates have the same motion information (the same motion vector and the same reference picture index), the merge candidates having the lower priority are deleted from the list.
  • the predetermined order is A, B, Col, C, D.
  • Col means a time merge candidate.
  • the motion information of the valid E may be inserted at the position of the invalid first block.
  • the valid motion information of E can be inserted at the last position.
  • the merge candidates may be generated.
  • the merge candidate to be added may be generated by combining the motion information of two valid merge candidates.
  • the reference picture index of the temporal merge candidate and the valid spatial motion vector of the spatial merge candidate may be generated. If a plurality of merge candidates can be generated, they may be added to the list in a predetermined order.
  • the merge candidate generated by combining the reference picture index of the temporal merge candidate and the motion vector of the spatial merge candidate may be added to the list first.
  • merge candidates having a motion vector of 0 and a reference picture index of 0 may be added.
  • the predetermined number may be determined in picture or slice units.
  • the motion information generation unit 337 selects a merge predictor corresponding to the merge candidate index from a list constructed by the merge candidate list building unit 236, and moves information (ie, a motion vector and a reference) of the selected merge predictor.
  • the picture index) is determined as motion information of the current block.
  • FIG. 7 is a block diagram illustrating a merge mode motion information decoder 230 according to a third embodiment of the present invention.
  • a merge candidate generator 437 is added to the configuration of the merge mode motion information decoder 230 according to the second embodiment of the present invention. . Therefore, the merge predictor index decoder 431, the spatial merge candidate derivator 432, the reference picture index derivator 433 of the temporal merge candidate, the motion vector derivator 434 of the temporal merge candidate, and the temporal merge candidate constructer 435
  • the operations of the merge candidate generator 437 and the motion information generator 438 are the same as in the second embodiment, and will be omitted.
  • the merge candidate generator 437 may generate a merge candidate when the number of merge candidates is smaller than a predetermined number.
  • the merge candidate to be added may be generated by combining the motion information of two valid merge candidates.
  • the reference picture index of the temporal merge candidate and the valid spatial motion vector of the spatial merge candidate may be generated. If a plurality of merge candidates can be generated, they may be added to the list in a predetermined order.
  • the merge candidate generated by combining the reference picture index of the temporal merge candidate and the motion vector of the spatial merge candidate may be added to the list first.
  • the number of merge candidates added by the method may be limited in advance. When the number of merge candidates to be generated is insufficient, merge candidates having a motion vector of 0 and a reference picture index of 0 may be added.
  • the predetermined number may be determined in picture or slice units.
  • the merge predictor selection unit 436 is generated by the spatial merge candidate induced by the spatial merge candidate deriving unit 432, the temporal merge candidate generated by the temporal merge candidate forming unit 435, and the merge candidate generating unit 437. Merge candidates to construct a merge candidate list. If a plurality of merge candidates have the same motion information (the same motion vector and the same reference picture index), the merge candidates having the lower priority are deleted from the list. For example, the predetermined order is A, B, Col, C, D. Here, Col means a time merge candidate. However, when at least one of A, B, C, and D is invalid, the motion information of the valid E may be inserted at the position of the invalid first block. In addition, the valid motion information of E can be inserted at the last position.
  • the merge predictor selector selects a merge candidate corresponding to the merge index reconstructed by the merge index decoder 331 from the merge candidate list as the merge predictor of the current block.
  • FIG. 8 is a block diagram illustrating an AMVP mode motion information decoder according to a first embodiment of the present invention.
  • the AMVP mode motion information decoder is an AMVP predictor index decoder 341, a residual motion information reader 342, a spatial AMVP candidate guider 343, a temporal AMVP candidate guider 344, An AMVP predictor selecting unit 345, a predictive motion vector generating unit 346, and a motion information generating unit 347 are included. This embodiment applies when the number of AMVP candidates is variable.
  • the AMVP predictor index decoder 341 determines whether a codeword corresponding to the AMVP predictor index exists. If there is no codeword, it is determined that one AMVP candidate exists or does not exist. If it does not exist, the predictive motion vector generator 346 restores the motion vector having the motion vector of 0 to the motion vector of the current block. When there is one AMVP candidate, the prediction motion vector generator 346 restores the motion vector of the AMVP candidate to the motion vector of the block of the current block.
  • the residual motion information reading unit 342 reads the reference picture index and the differential motion vector of the current block.
  • the spatial AMVP candidate derivation unit 343 selects one of the left block (block A) and the lower left block (block D) of the current block as the left space candidate, and the upper block (block B) of the current block, and the top right of the current block.
  • One of the side block (block C) and the upper left block (block E) of the current block may be selected as the upper space candidate.
  • the motion vector of the first block valid in a predetermined order is selected as a candidate.
  • the predetermined order may be a block A, a block D order or the reverse order in the case of the left block, and a block B, block C, block E order, or block C, block B, block E order in the upper block.
  • the position of the block of the AMVP candidate and the position of the block of the merge candidate are the same.
  • the temporal AMVP candidate derivator 344 configures the temporal merge candidate using the motion vector of the temporal merge candidate obtained by the motion vector derivation unit 123 of the temporal merge / AMVP candidate of FIG. 1.
  • the AMVP predictor selecting unit 345 constructs a list using the valid AMVP candidates derived by the spatial AMVP candidate deriving unit 343 and the temporal AMVP candidate deriving unit 344.
  • AVMP candidate lists are constructed in a predetermined order using valid AVMP candidates. In this case, if a plurality of AVMP candidates have the same motion vector (the reference pictures do not need to be the same), the AVMP candidates of lower priority are deleted from the list.
  • the predetermined order may be left, top, Col order, or Col, left, top order.
  • a decoding table corresponding to the number of valid AMVP candidates in the constructed list is selected, and the AMVP predictor of the current block is selected using the selected table.
  • the predictive motion vector generator 346 determines the motion vector of the candidate selected by the AMVP predictor selector 345 as the predicted motion vector of the current block.
  • the motion information generator 347 generates a motion vector of the current block by adding the predicted motion vector generated by the motion vector generator 346 and the residual motion vector read by the residual motion vector reader 342. .
  • the reference picture index read by the residual motion vector reading unit 342 is set as the reference picture index of the current block.
  • FIG. 9 is a block diagram showing an AMVP mode motion information decoder according to a second embodiment of the present invention.
  • the AMVP mode motion information decoder includes a predictor index decoder 441, a residual motion information reader 442, a spatial AMVP candidate guider 443, a temporal AMVP candidate guider 444, and an AMVP.
  • a predictor selecting unit 445, an AMVP candidate generating unit 446, a predictive motion vector generating unit 447, and a motion information generating unit 448 are included. This embodiment applies when the number of AMVP candidates is variable.
  • the AMVP candidate generator 446 determines whether AVMP candidate generation is necessary. In the above AVMP candidate configuration, when the number of AVMP candidates is set to a fixed value, an AVMP candidate is generated when the number of valid AVMP candidates is smaller than the fixed value. Then, the generated AMVP candidates are added to the position next to the lowest-priority AMVP candidate in the list. When a plurality of AMVP candidates are added, they are added in a predetermined order.
  • the added candidate may be a candidate having a motion vector of zero.
  • the AMVP predictor selecting unit 445 is a spatial AMVP candidate derived by the spatial AMVP candidate deriving unit 443, a temporal AMVP candidate generated by the temporal AMVP candidate deriving unit 444, and generated by the AMVP candidate generating unit 446.
  • AMVP candidates are used to build a list of AMVP candidates. If a plurality of AMVP candidates have the same motion information (the same motion vector and the same reference picture index), the subordinate AMVP candidate is deleted from the list.
  • the predetermined order may be left, top, Col order, or Col, left, top order. Then, a decoding table corresponding to the number of valid AMVP candidates in the constructed list is selected, and the AMVP predictor of the current block is selected using the selected table.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

높은 영상 품질을 유지하면서 낮은 데이터 레이트로 부호화된 동영상 신호를 복원하기 위한 머지 모드 움직임 정보 복호화 장치가 개시된다. 머지 모드 움직임 정보 복호화 장치는 머지 모드에서의 움직임 정보를 효율적으로 예측하기 위해 머지 모드 후보자의 위치 및 후보자 구성을 개시한다. 그리고, 유효한 머지 후보자의 수에 따라 적응적으로 머지 후보자를 생성함으로써 현재 블록의 머지 인덱스가 나타내는 머지 후보자를 네트워크의 환경에 관계없이 효율적으로 복원할 수 있다.

Description

머지 모드 움직임 정보 복호화 장치
본 발명은 움직임 정보 복호화 장치에 관한 것으로, 더욱 상세하게는 머지 모드로 부호화된 움직임 정보를 복원하기 위한 머지 모드 움직임 정보 복호화 장치에 관한 것이다.
영상의 품질을 유지하면서 동영상 신호를 효과적으로 압축하기 위한 많은 기술들이 제안되어 왔다. 특히, 현재 블록과 유사한 블록을 이전 화면에서 추출하여 그 차이값을 부호화하는 방식인 인터 예측 부호화 방식은 영상을 압축하는 데 있어 가장 효과적인 방법 중의 하나이다.
그러나, 상기 인터 예측 부호화 방식의 경우에는 잔차 블록을 부호화하여 보내는 대신에 각 블록들에 대응하는 움직임 정보를 별도로 전송해야 한다. 따라서, 움직임 정보를 효과적으로 부호화하여 데이터량을 줄이는 것이 또 하나의 영상 압축 방안 중의 하나이다.
예측 블록의 크기가 커지고 다양해지고, 참조할 픽쳐의 수도 다양해지면서, 잔차 블록의 데이터량은 줄어드는 반면에, 전송해야 할 움직임 정보량(움직임 벡터 및 참조 픽쳐 인덱스)은 점점 더 증가하게 된다.
따라서, 전송해야 할 움직임 정보량을 더욱 효과적으로 줄일 수 있는 장치가 필요하다.
본 발명은 머지 모드로 부호화된 움직임 정보를 효과적으로 복원하기 위한 머지 모드 움직임 정보 복호화 장치에 관한 것이다.
본 발명에 따른 머지 모드 움직임 정보 복호화 장치는, 수신된 머지 코드워드를 이용하여, 현재 블록의 머지 예측자 인덱스를 복원하는 머지 예측자 인덱스 복호화부, 현재 블록의 공간 머지 후보자를 유도하는 공간 머지 후보자 유도부, 현재 블록의 시간 머지 후보자를 생성하는 시간 머지 후보자 구성부, 현재 블록의 유효한 머지 후보자수가 미리 정해진 수보다 작을 경우, 머지 후보자를 생성하는 머지 후보자 생성부, 상기 머지 후보자 유도부로부터 유도된 공간 머지 후보자, 상기 시간 머지 후보자 구성부에 의해 생성된 시간 머지 후보자 및 상기 머지 후보자 생성부에 의해 생성된 생성 머지 후보자를 이용하여 머지 후보자 리스트를 구축하고, 상기 머지 예측자 인덱스 복호화부로부터의 머지 예측자 인덱스에 기초하여 머지 예측자를 선택하는 머지 예측자 선택부, 및 상기 머지 예측자 선택부에 의해 선택된 머지 후보자의 참조 픽쳐 인덱스 및 움직임 벡터를 현재 블록의 참조 픽쳐 인덱스 및 움직임 벡터로 생성하는 움직임 정보 생성부를 포함한다.
본 발명에 따르면, 수신된 머지 코드워드를 이용하여, 현재 블록의 머지 예측자 인덱스를 복원하고, 현재 블록의 공간 머지 후보자, 시간 머지 후보자를 생성하고, 현재 블록의 유효한 머지 후보자수가 미리 정해진 수보다 작을 경우 머지 후보자를 생성하여 머지 후보자 리스트를 구축한다. 그리고, 상기 복원된 머지 예측자 인덱스에 기초하여 머지 예측자를 선택한다. 따라서, 머지 후보자 수를 고정함으로써, 하나의 복호화 테이블을 이용하도록 함으로써 복호화 속도를 높일 수 있고, 효율적으로 움직임 정보를 복호하도록 하는 효과가 있다.
도 1은 본 발명에 따른 인터 예측 부호화 장치를 나타내는 블록도이다.
도 2는 본 발명에 따른 움직임 정보 부호화 모드 결정부를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 머지 후보자의 위치를 나타내는 도면이다.
도 4는 본 발명에 따른 인터 예측 복호화 장치를 나타내는 블록도이다.
도 5는 본 발명의 제1 실시예에 따른 머지 모드 움직임 정보 복호화부를 나타내는 블록도이다.
도 6는 본 발명의 제2 실시예에 따른 머지 모드 움직임 정보 복호화부를 나타내는 블록도이다.
도 7은 본 발명의 제3 실시예에 따른 머지 모드 움직임 정보 복호화부를 나타내는 블록도이다
도 8은 본 발명의 제1 실시예에 따른 AMVP 모드 움직임 정보 복호화부를 나타내는 블록도이다.
도 9는 본 발명의 제2 실시예에 따른 AMVP 모드 움직임 정보 복호화부를 나타내는 블록도이다.
도 1은 본 발명의 실시예에 따른 인터 예측 부호화 장치를 나타내는 블록도이다.
도 1을 참조하면, 인터 예측 부호화 장치는 움직임 정보 결정부(110), 움직임 정보 부호화 모드 결정부(120), 움직임 정보 부호화부(130), 예측 블록 생성부(140), 잔차 블록 생성부(150), 잔차 블록 부호화부(160) 및 멀티플렉서(170)를 포함한다.
움직임 정보 결정부(110)는 현재 블록의 움직임 정보를 결정한다. 움직임 정보는 참조 픽쳐 인덱스와 움직임 벡터를 포함한다. 참조 픽쳐 인덱스는 이전에 부호화되어 복원된 픽쳐 중 어느 하나를 나타낸다. 현재 블록이 단방향 인터 예측 부호화되는 경우에는 리스트 0(L0)에 속하는 참조 픽쳐들 중의 어느 하나를 나타낸다. 반면에, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0(L0)의 참조 픽쳐들 중 하나를 나타내는 참조픽쳐 인덱스와 리스트 1(L1)의 참조 픽쳐들 중의 하나를 나타내는 참조픽쳐 인덱스를 포함할 수 있다. 또한, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0과 리스트 1을 결합하여 생성된 복합 리스트(LC)의 참조 픽쳐들 중의 1개 또는 2개의 픽쳐를 나타내는 인덱스를 포함할 수 있다.
움직임 벡터는 각각의 참조픽쳐 인덱스가 나타내는 픽쳐 내의 예측 블록의 위치를 나타낸다. 움직임 벡터는 화소단위(정수단위)일수도 있으나, 서브화소단위일 수도 있다. 예를 들어, 1/2, 1/4, 1/8 또는 1/16 화소의 해상도를 가질 수 있다. 움직임 벡터가 정수단위가 아닐 경우에는 예측 블록은 정수 단위의 화소들로부터 생성된다.
움직임 정보 부호화 모드 결정부(120)는 현재 블록의 움직임 정보를 스킵 모드로 부호화할지, 머지 모드로 부호화할지, AMVP 모드로 부호화할지를 결정한다.
스킵 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 스킵 후보자가 존재하고, 잔차신호가 0인 경우에 적용된다. 또한, 스킵 모드는 현재 블록이 코딩 유닛과 사이즈가 같을 때 적용된다. 현재 블록은 예측 유닛으로 볼 수 있다.
머지 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 머지 후보자가 존재할 때 적용된다. 머지 모드는 현재 블록이 코딩 유닛과 사이즈가 다르거나, 사이즈가 같을 경우에는 잔차 신호가 존재하는 경우에 적용된다. 머지 후보자와 스킵 후보자는 동일할 수 있다.
AMVP 모드는 스킵 모드 및 머지 모드가 적용되지 않을 때 적용된다. 현재 블록의 움직임 벡터와 가장 유사한 움직임 벡터를 갖는 AMVP 후보자를 AMVP 예측자로 선택한다.
움직임 정보 부호화부(130)는 움직임 정보 부호화 모드 결정부(120)에 의해 결정된 방식에 따라 움직임 정보를 부호화한다. 움직임 정보 부호화 모드가 스킵 모드 또는 머지 모드일 경우에는 머지 움직임 벡터 부호화 과정을 수행한다. 움직임 정보 부호화 모드가 AMVP일 경우에는 AMVP 부호화 과정을 수행한다.
예측 블록 생성부(140)는 현재 블록의 움직임 정보를 이용하여 예측 블록을 생성한다. 움직임 벡터가 정수 단위일 경우에는, 참조픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록을 생성한다.
그러나, 움직임 벡터가 정수 단위가 아닐 경우에는, 참조픽쳐 인덱스가 나타내는 픽쳐내의 정수 단위 화소들로부터 예측 블록의 화소들을 생성한다. 이 경우, 휘도 화소의 경우에는 8탭의 보간 필터를 사용하여 예측 화소를 생성할 수 있다. 색차 화소의 경우에는 4탭 보간 필터를 사용하여 예측 화소를 생성할 수 있다.
잔차 블록 생성부(150)는 현재 블록과 현재 블록의 예측 블록을 이용하여 잔차 블록을 생성한다. 현재 블록의 크기가 2Nx2N인 경우에는 현재 블록과 현재 블록에 대응하는 2Nx2N 크기의 예측 블록을 이용하여 잔차 블록을 생성한다. 그러나, 예측에 이용되는 현재 블록의 크기가 2NxN 또는 Nx2N인 경우에는 2Nx2N을 구성하는 2개의 2NxN 블록 각각에 대한 예측 블록을 구한 후, 상기 2개의 2NxN 예측 블록을 이용하여 2Nx2N 크기의 최종 예측 블록을 생성할 수 있다. 그리고, 상기 2Nx2N 크기의 예측 블록을 이용하여 2Nx2N 의 잔차 블록을 생성할 수도 있다. 2NxN 크기의 2개의 예측블록들의 경계부분의 불연속성을 해소하기 위해 경계 부분의 픽셀들을 오버랩 스무딩할 수 있다.
잔차 블록 부호화부(160)는 생성된 잔차 블록을 하나 이상의 변환 유닛으로 나눈다. 그리고, 각 변환 유닛을 변환 부호화, 양자화 및 엔트로피 부호화된다. 이때, 변환 유닛의 크기는 잔차 블록의 크기에 따라 쿼드트리 방식으로 결정될 수 있다.
잔차 블록 부호화부(160)는 인터 예측 방법에 의해 생성된 잔차 블록을 정수기반 변환 매트릭스를 이용하여 변환한다. 상기 변환 매트릭스는 정수기반 DCT 매트릭스이다. 잔차 블록 부호화부(160)는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위해 양자화 매트릭스를 이용한다. 상기 양자화 매트릭스는 양자화 파라미터에 의해 결정된다. 상기 양자화 파라미터는 미리 정해진 크기 이상의 코딩 유닛별로 결정된다. 상기 미리 정해진 크기는 8x8 또는 16x16일 수 있다. 따라서, 현재 코딩 유닛이 상기 미리 정해진 크기보다 작은 경우에는 상기 미리 정해진 크기 내의 복수개의 코딩 유닛 중 부호화 순서상 첫번째 코딩 유닛의 양자화 파라미터만을 부호화하고, 나머지 코딩 유닛의 양자화 파라미터는 상기 파라미터와 동일하므로 부호화할 필요가 없다. 그리고, 결정된 양자화 파라미터 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들을 양자화한다.
상기 미리 정해진 크기 이상의 코딩 유닛별로 결정되는 양자화 파라미터는 현재 코딩 유닛에 인접한 코딩 유닛의 양자화 파라미터를 이용하여 예측 부호화된다. 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛 순서로 검색하여 유효한 1개 또는 2개의 유효한 양자화 파라미터를 이용하여 현재 코딩 유닛의 양자화 파라미터 예측자를 생성할 수 있다. 예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다. 또한, 좌측 코딩 유닛, 부호화 순서상 바로 이전의 코딩 유닛 순으로 검색하여 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다.
양자화된 변환 블록의 계수들은 스캐닝되어 1차원의 양자화 계수들로 변환한다. 스캐닝 방식은 엔트로피 부호화 모드에 따라 달리 설정될 수 있다. 예를 들어, CABAC으로 부호화될 경우에는 인터 예측 부호화된 양자화 계수들은 미리 정해진 하나의 방식(지그재그, 또는 대각선 방향으로의 래스터 스캔)으로 스캐닝될 수 있다. 반면에 CAVLC으로 부호화될 경우에는 상기 방식과 다른 방식으로 스캐닝될 수 있다. 예를 들어, 스캐닝 방식이 인터의 경우에는 지그재그, 인트라의 경우에는 인트라 예측 모드에 따라 결정될 수 있다. 또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있다. 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있다. 양자화 계수들의 스캔순서는 역방향으로 스캔한다.
멀티플렉서(170)는 상기 움직임 정보 부호화부(130)에 의해 부호화된 움직임 정보들과 상기 잔차 블록 부호화부에 의해 부호화된 잔차 신호들을 다중화한다. 상기 움직임 정보는 부호화 모드에 따라 달라질 수 있다. 즉, 스킵 또는 머지일 경우에는 예측자를 나타내는 인덱스만을 포함한다. 그러나, AMVP일 경우에는 현재 블록의 참조 픽쳐 인덱스, 차분 움직임 벡터 및 AMVP 인덱스를 포함한다.
도 2는 본 발명에 따른 움직임 정보 부호화 모드 결정부(120)를 나타내는 블록도이다.
본 발명에 따른 움직임 정보 부호화 모드 결정부(120)는 공간 머지 후보자 검색부(121), 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(122), 시간 머지/AMVP 후보자의 움직임 벡터 유도부(123), 공간 AMVP 후보자의 움직임 벡터 유도부(124), 시간 머지 후보자 구성부(125), 머지 후보자 리스트 구축부(126), AMVP 후보자 리스트 구축부(127), 부호화 모드 결정부(128)를 포함한다.
공간 머지 후보자 검색부(121)는 현재 블록에 인접한 블록의 유효한 움직임 정보를 공간 머지 후보자로 설정한다. 공간 머지 후보자는 도 3에 도시된 바와 같이 현재 블록의 좌측 블록(블록 A), 현재 블록의 상측 블록(블록 B), 현재 블록의 우상측 블록(블록 C), 현재 블록의 좌하측 블록(블록 D) 및 현재 블록의 좌상측 블록(블록 E) 중 4개가 후보자가 될 수 있다. 이 경우, 블록 E는 블록 A, B, C, D 중 하나 이상이 유효하지 않은 경우에 사용될 수 있다.
또한, 공간 머지 후보자는 현재 블록의 좌측 블록(블록 A'), 현재 블록의 상측 블록(블록 B'), 현재 블록의 코너 블록(C, D, E 중 하나)으로 설정될 수 있다. 코너 블록은 우상측 블록(블록 C), 현재 블록의 좌하측 블록(블록 D) 및 현재 블록의 좌상측 블록(블록 E) 순으로 스캔하여 유효한 첫번째 블록이다.
또한, 공간 머지 후보자는 현재 블록의 좌측 블록(블록 A'), 현재 블록의 상측 블록(블록 B'), 현재 블록의 우상측 블록(블록 C), 현재 블록의 좌하측 블록(블록 D) 및 현재 블록의 좌상측 블록(블록 E) 순으로 스캔하여 유효한 2개가 후보자가 될 수 있다.
여기서 좌측 블록(A')은 블록 D에 인접하지 않고 블록 E에 인접한 블록일 수 있다. 마찬가지로, 상측 블록(B')은 블록 C에 인접하지 않고 블록 E에 인접한 블록일 수 있다.
참조 픽쳐 인덱스 유도부(122)는 현재 블록의 시간 머지 후보자를 위한 참조 픽쳐 인덱스를 구한다. 시간 머지 후보자의 참조 픽쳐 인덱스는 현재 블록에 공간적으로 인접한 블록들(예측 유닛들) 중 하나의 참조 픽쳐 인덱스로 설정될 수 있다.
현재 블록의 시간 머지 후보자의 참조 인덱스들을 구하기 위해 현재 블록의 좌측 블록(A), 상측 블록(B), 우상측 블록(C), 좌하측 블록(D) 및 좌상측 블록(E)의 참조 픽쳐 인덱스들 중 일부 또는 전부가 사용될 수 있다.
예를 들어, 현재 블록의 좌측 블록(A), 상측 블록(B) 및 코너 블록(C, D, E 중 어느 하나)들의 참조 픽쳐 인덱스가 사용될 수 있다. 이 경우, 코너 블록의 참조 픽쳐 인덱스는 우상측 블록(C), 좌하측 블록(D), 좌상측 블록닛(E) 순으로 스캔하여 유효한 첫번째 블록의 참조 픽쳐 인덱스로 결정될 수 있다. 예를 들어, 상기 참조 픽쳐 인덱스들 중 유효한 참조 픽쳐 인덱스들 중 가장 많은 빈도를 갖는 참조 픽쳐 인덱스를 시간 스킵 후보자의 참조 픽쳐 인덱스로 설정될 수 있다. 유효한 후보자들 중 가장 많은 빈도를 갖는 참조 픽쳐 인덱스가 복수개 존재할 경우에는 상기 복수개의 참조 픽쳐 인덱스 중 최소값을 갖는 참조 픽쳐 인덱스를 시간 스킵 후보자를 위한 참조 픽쳐 인덱스로 설정할 수 있다.
현재 블록의 시간 머지 후보자의 참조 인덱스들을 구하기 위해, 현재 블록의 좌측 블록(A), 상측 블록(B), 우상측 블록(C), 좌하측 블록(D) 및 좌상측 블록(E)의 순으로 스캔하여 유효한 3개의 블록의 참조 픽쳐 인덱스가 사용될 수도 있다. 여기에서는 3개 또는 그 이상의 유효한 참조 픽쳐 인덱스들을 이용하는 것으로 설정하였지만, 유효한 모든 개수를 이용하거나, 미리 정해진 위치의 참조 픽쳐 인덱스만을 이용할 수도 있다. 또한, 유효한 참조 픽쳐 인덱스가 존재하지 않을 경우에는 참조 픽쳐 인덱스 0으로 설정할 수도 있다.
시간 머지/AMVP 후보자의 움직임 벡터 유도부(123)는 상기 시간 머지 후보자 블록이 속하는 픽쳐(이하, 시간 머지 후보자 픽쳐)를 결정한다. 시간 머지 후보자 픽쳐는 참조 픽쳐 인덱스가 0인 픽쳐로 설정될 수 있다. 이 경우, 슬라이스 타입이 P인 경우에는 리스트 0(list0)의 첫번째 픽쳐(즉 인덱스가 0인 픽쳐)가 시간 머지 후보자 픽쳐로 설정된다. 슬라이스 타입이 B인 경우에는 슬라이스 헤더내의 시간 머지 후보자 리스트를 나타내는 플래그가 나타내는 참조픽쳐 리스트의 첫번째 픽쳐가 시간 머지 후보자 픽쳐로 설정된다. 예를 들어, 상기 플래그가 1을 나타내면 list0로부터, 0을 나타내면 list1으로부터 시간 머지 후보자 픽쳐를 설정할 수 있다.
시간 머지/AMVP 후보자의 움직임 벡터 유도부(123)는 상기 시간 머지 후보자 픽쳐 내의 시간 머지 후보자 블록을 구한다. 상기 시간 머지 후보자 블록으로서, 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 복수개의 대응 블록 중 어느 하나가 선택될 수 있다. 이 경우, 복수개의 대응 블록들에 우선순위를 부여하고, 상기 우선순위에 기초하여 유효한 첫번째 대응 블록이 시간 머지 후보자 블록으로 선택될 수 있다.
예를 들어, 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 블록에 인접하는 좌하측 코너 블록(BR_C) 또는 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 블록 내의 좌하측 블록(BR)을 제1 후보자 블록으로 설정하고, 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 블록의 중앙 위치의 좌상측 픽셀을 포함하는 블록(C1) 또는 우하측 픽셀을 포함하는 블록(C2)을 제 2 후보자 블록으로 설정될 수 있다.
상기 제1 후보자 블록이 유효하면 상기 제1 후보자 블록을 시간 머지 후보자 블록으로 설정하고, 상기 제1 후보자 블록이 유효하지 않고 상기 제2 후보자 블록이 유효하면, 상기 제2 후보자 블록을 시간 머지 후보자 블록으로 설정할 수 있다. 또는 현재 블록의 위치에 따라 제2 후보자 블록만을 사용할 수도 있다. 예를 들어, 현재 블록이 슬라이스의 아래쪽 경계 또는 LCU의 아래쪽 경계에 접하는 경우에는 제2 후보자 블록만을 사용할 수 있다. 제2 후보자 블록도 존재하지 않으면, 시감 머지 후보자는 유효하지 않는 것으로 판단한다.
상기 시간 머지 후보자 블록이 결정되면, 상기 시간 머지 후보자 블록의 움직임 벡터를 시간 머지 후보자의 움직임 벡터로 설정한다.
한편, 현재 블록의 크기에 따라 상기 시간 머지 후보자를 적응적으로 off 시킬 수도 있다. 예를 들어, 4x4 블록이 경우에는 복잡도 감소를 위해 상기 시간 머지 후보자를 off 시킬 수 있다.
공간 AMVP 후보자의 움직임 벡터 유도부(124)는 현재 블록의 좌측 블록(블록 A)과 좌하측 블록(블록 D)들 중 하나를 좌측 공간 후보자로 택하고, 현재 블록의 상측 블록(블록 B), 현재 블록의 우상측 블록(블록 C), 및 현재 블록의 좌상측 블록(블록 E)들 중 하나를 상측 공간 후보자로 택할 수 있다. 이때 미리 정해진 순서로 스캔하여 유효한 첫번째 움직임 벡터가 좌측 또는 상측 공간 후보자로 결정된다. 미리 정해진 순서는 좌측 블록의 경우에는 블록 A, 블록 D순서 또는 그 역순서로, 상측 블록의 경우에는 블록 B, 블록 C, 블록 E 순서 또는 블록 C, 블록 B, 블록 E 순서일 수 있다. 상기 유효한 움직임 벡터는 미리 정해진 조건을 만족하는 움직임 벡터일 수 있다. 미리 정해진 조건은 현재 블록의 움직임 정보에 기초하여 설정된 조건이다. 좌측 공간 후보자에 따라 상측 공간 후보자가 설정되지 않을 수도 있다. .
시간 머지 후보자 구성부(125)는 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(122)에 의해 얻어진 시간 머지 후보자의 참조 픽쳐 인덱스와 시간 머지/AMVP 후보자의 움직임 벡터 유도부(123)에 의해 얻어진 시간 머지 후보자의 움직임 벡터를 이용하여 시간 머지 후보자를 생성한다.
머지 후보자 리스트 구축부(126)는 유효한 머지 후보자를 이용하여 정해진 순서에 따라 머지 후보자 리스트를 구축한다. 이 경우, 복수개의 머지 후보자가 동일 움직임 정보(동일 움직임 벡터 및 동일 참조픽쳐 인덱스)를 가지면, 후순위의 머지 후보자를 리스트에서 삭제한다. 예를 들어, 정해진 순서는 A, B, Col, C, D 순이다. 여기서, Col은 시간 머지 후보자를 의미한다. 그러나, A, B, C, D 중 하나 이상이 유효하지 않은 경우에는 상기 유효하지 않은 최초 블록의 위치에 상기 유효한 E의 움직임 정보를 삽입할 수 있다. 또한, 상기 유효한 E의 움직임 정보를 가장 마지막 위치에 삽입할 수 있다.
한편, 머지 후보자 수가 미리 정해진 수보다 작으면, 머지 후보자를 생성할 수 있다. 이 경우, 추가되는 머지 후보자는 유효한 2개의 머지 후보자의 움직임 정보를 결합하여 생성할 수 있다. 예를 들어, 시간 머지 후보자의 참조 픽쳐 인덱스와 공간 머지 후보자의 유효한 공간 움직임 벡터를 결합하여 생성할 수 있다. 복수개의 머지 후보자 생성이 가능한 경우, 미리 정해진 순서에 따라 리스트에 추가될 수 있다. 시간 머지 후보자의 참조 픽쳐 인덱스와 공간 머지 후보자의 움직임 벡터를 결합하여 생성된 머지 후보자가 가장 먼저 리스트에 추가될 수 있다. 생성할 머지 후보자 수가 부족한 경우, 움직임 벡터가 0이고 참조 픽쳐 인덱스가 0인 머지 후보자가 추가될 수도 있다. 상기 미리 정해진 수는 픽쳐 또는 슬라이스 단위로 결정될 수 있다.
AMVP 후보자 리스트 구축부(127)는 유효한 AVMP 후보자를 이용하여 정해진 순서에 따라 AVMP 후보자 리스트를 구축한다. 이 경우, 복수개의 AVMP 후보자가 동일 움직임 벡터를 가지면(참조픽쳐가 동일할 필요는 없음), 후순위의 AVMP 후보자를 리스트에서 삭제한다. 정해진 순서는 좌측, 상측, Col 순이거나, Col, 좌측, 상측 순일 수 있다.
또한, AMVP 후보자 리스트 구축부(127)는 AVMP 후보자 생성이 필요한지 여부를 판단한다. 상기한 AVMP 후보자 구성에서 AVMP 후보자 수가 고정된 값으로 설정된 경우에는, 유효한 AVMP 후보자 수가 고정된 값보다 작으면 AVMP 후보자를 생성한다. 그리고, 상기 생성된 AMVP 후보자를 리스트 내의 가장 후순위의 AMVP 후보자 다음 위치에 추가한다. 상기 추가되는 후보자는 움직임 벡터가 0인 후보자가 추가될 수 있다.
부호화 모드 결정부(128)는 현재 블록의 움직임 정보를 스킵 모드로 부호화할지, 머지 모드로 부호화할지, AMVP 모드로 부호화할지를 결정한다.
스킵 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 스킵 후보자가 존재하고, 잔차신호가 0인 경우에 적용된다. 또한, 스킵 모드는 현재 블록이 코딩 유닛과 사이즈가 같을 때 적용된다. 현재 블록은 예측 유닛으로 볼 수 있다.
머지 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 머지 후보자가 존재할 때 적용된다. 머지 모드는 현재 블록이 코딩 유닛과 사이즈가 다르거나, 사이즈가 같을 경우에는 잔차 신호가 존재하는 경우에 적용된다. 머지 후보자와 스킵 후보자는 동일할 수 있다.
AMVP 모드는 스킵 모드 및 머지 모드가 적용되지 않을 때 적용된다. 현재 블록의 움직임 벡터와 가장 유사한 움직임 벡터를 갖는 AMVP 후보자를 AMVP 예측자로 선택한다.
도 4는 본 발명에 따른 인터 예측 복호화 장치(200)를 나타내는 구성도이다.
본 발명에 따른 인터 예측 복호화 장치(200)는 디멀티플렉서(210), 움직임 정보 부호화 모드 판단부(220), 머지 모드 움직임 정보 복호화부(230), AMVP 모드 움직임 정보 복호화부(240), 예측블록 생성부(250), 잔차 블록 복호화부(260) 및 복원블록 생성부(270)를 포함한다.
디멀티플렉서(210)는 수신된 비트스트림으로부터 현재 부호화된 움직임 정보와 부호화된 잔차 신호들을 역다중화한다. 디멀티플렉서(210)는 상기 역다중화된 움직임 정보를 움직임 정보 부호화 모드 판단부(220)로 전송하고, 역다중화된 잔차신호를 잔차블록 복호화부(260)로 전송한다.
움직임 정보 부호화 모드 판단부(220)는 현재 블록의 움직임 정보 부호화 모드를 판단한다. 움직임 정보 부호화 모드 판단부(220)는 수신된 비트스트림의 skip_flag가 1의 값을 갖는 경우에는 현재 블록의 움직임 정보 부호화 모드가 스킵 부호화 모드로 부호화된 것으로 판단한다. 움직임 정보 부호화 모드 판단부(220)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디멀티블렉서(210)로부터 수신된 움직임 정보가 머지 인덱스만을 갖는 현재 블록의 움직임 정보 부호화 모드가 머지 모드로 부호화된 것으로 판단한다. 움직임 정보 부호화 모드 판단부(220)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디멀티블렉서(210)로부터 수신된 움직임 정보가 참조픽쳐 인덱스와 차분 움직임 벡터와 AMVP인덱스를 갖는 경우에는 현재 블록의 움직임 정보 부호화 모드가 AMVP 모드로 부호화된 것으로 판단한다.
머지 모드 움직임 정보 복호화부(230)는 움직임 정보 부호화 모드 판단부(220)가 현재 블록의 움직임 정보 부호화 모드를 스킵 또는 머지 모드로 판단한 경우에 활성화된다.
AMVP 모드 움직임 정보 복호화부(240)는 움직임 정보 부호화 모드 판단부(220)가 현재 블록의 움직임 정보 부호화 모드를 AMVP 모드로 판단한 경우에 활성화된다.
예측블록 생성부(250)는 상기 머지 모드 움직임 정보 복호화부(230) 또는 AMVP 모드 움직임 정보 복호화부(240)에 의해 복원된 움직임 정보를 이용하여 현재 블록의 예측 블록을 생성한다. 움직임 벡터가 정수 단위일 경우에는, 참조픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록을 생성한다. 그러나, 움직임 벡터가 정수 단위가 아닐 경우에는, 참조픽쳐 인덱스가 나타내는 픽쳐내의 정수 단위 화소들로부터 예측 블록의 화소들을 생성한다. 이 경우, 휘도 화소의 경우에는 8탭의 보간 필터를 사용하여 예측 화소를 생성할 수 있다. 색차 화소의 경우에는 4탭 보간 필터를 사용하여 예측 화소를 생성할 수 있다.
잔차 블록 복호화부(260)는 잔차신호를 엔트로피 복호화한다. 그리고, 엔트로피 복호화된 계수들을 역스캐닝하여 2차원의 양자화된 계수 블록을 생성한다. 역스캐닝 방식은 엔트로피 복호화 방식에 따라 달라질 수 있다. 즉, CABAC 기반으로 복호화된 경우와 CAVLC 기반으로 복호화된 경우의 인터 예측 잔차신호의 역스캐닝 방식이 달라질 수 있다. 예를 들어, CABAC 기반으로 복호화된 경우에는 대각선 방향의 래스터 역스캔 방식으로, CAVLC 기반으로 복호화된 경우에는 지그재그 역스캔 방식이 적용될 수 있다. 또한, 예측 블록의 크기에 따라 역스캐닝 방식이 달리 결정될 수도 있다.
잔차블록 복호화부(260)는 생성된 계수블록을 역양자화 매트릭스를 이용하여 역양자화한다. 상기 양자화 매트릭스를 유도하기 위해 양자화 파리미터를 복원한다. 양자화 스텝 사이즈는 미리 정해진 크기 이상의 코딩 유닛별로 복원된다. 상기 미리 정해진 크기는 8x8 또는 16x16일 수 있다. 따라서, 현재 코딩 유닛이 상기 미리 정해진 크기보다 작은 경우에는 상기 미리 정해진 크기 내의 복수개의 코딩 유닛 중 부호화 순서상 첫번째 코딩 유닛의 양자화 파라미터만을 복원하고, 나머지 코딩 유닛의 양자화 파라미터는 상기 파라미터와 동일하므로 부호화할 필요가 없다.
상기 미리 정해진 크기 이상의 코딩 유닛별로 결정된 양자화 파라미터를 복원하기 위해 현재 코딩 유닛에 인접한 코딩 유닛의 양자화 파라미터를 이용한다. 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛 순서로 검색하여 유효한 첫번째 양자화 파라미터를 현재 코딩 유닛의 양자화 파라미터 예측자로 결정할 수 있다. 또한, 좌측 코딩 유닛, 부호화 순서상 바로 이전의 코딩 유닛 순으로 검색하여 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다. 상기 결정된 양자화 파라미터 예측자와 차분 양자화 파라미터를 이용하여 현재 예측 유닛의 양자화 파라미터를 복원한다.
잔차블록 복호화부(260)는 상기 역양자화된 계수 블록을 역변환하여 잔차블록을 복원한다.
*복원블록 생성부(270)는 상기 예측블록 생성부(250)에 의해 생성된 예측블록과 상기 잔차블록 복호화부(260)에 의하여 생성된 잔차블록을 더하여 복원블록을 생성한다.
도 5는 본 발명의 제1실시예에 따른 머지 모드 움직임 정보 복호화부(230)를 나타내는 블록도이다.
본 발명의 제1 실시예에 따른 머지 모드 움직임 정보 복호화부는 코드워드 판독부(231), 공간 머지 후보자 유도부(232), 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(233), 시간 머지 후보자의 움직임 벡터 유도부(234), 시간 머지 후보자 구성부(235), 머지 후보자 리스트 구축부(236), 머지 후보자 인덱스 복호화부(237) 및 움직임 정보 생성부(238)를 포함한다. 이 경우는 머지 후보자수가 고정이 아닌 경우에 적용된다.
코드워드 판독부(231)는 머지 후보자 인덱스에 대응하는 코드워드가 존재하는지 여부를 판단한다. 머지 후보자 인덱스에 대응하는 코드워드가 존재하지 않을 경우에는 머지 후보자가 1개 존재하거나 존재하지 않는 것으로 판단한다. 존재하지 않는 경우에는 움직임 벡터가 0이고 참조픽쳐 인덱스가 0인 움직임 정보를 현재 블록의 움직임 정보로 복원한다. 그리고, 머지 후보자가 1개 존재하는 경우에는 상기 머지 후보자의 움직임 정보를 현재 블록의 블록의 움직임 정보로 복원한다.
공간 머지 후보자 유도부(232)는 현재 블록에 인접한 블록의 유효한 움직임 정보를 공간 머지 후보자로 설정한다. 공간 머지 후보자는 도 3에 도시된 바와 같이 현재 블록의 좌측 블록(블록 A), 현재 블록의 상측 블록(블록 B), 현재 블록의 우상측 블록(블록 C), 현재 블록의 좌하측 블록(블록 D) 및 현재 블록의 좌상측 블록(블록 E) 중 4개가 후보자가 될 수 있다. 이 경우, 블록 E는 블록 A, B, C, D 중 하나 이상이 유효하지 않은 경우에 사용될 수 있다.
또한, 공간 머지 후보자는 현재 블록의 좌측 블록(블록 A', 현재 블록의 상측 블록(블록 B', 현재 블록의 코너 블록(C, D, E 중 하나)으로 설정될 수 있다. 코너 블록은 우상측 블록(블록 C), 현재 블록의 좌하측 블록(블록 D) 및 현재 블록의 좌상측 블록(블록 E) 순으로 스캔하여 유효한 첫번째 블록이다.
또한, 공간 머지 후보자는 현재 블록의 좌측 블록(블록 A', 현재 블록의 상측 블록(블록 B', 현재 블록의 우상측 블록(블록 C), 현재 블록의 좌하측 블록(블록 D) 및 현재 블록의 좌상측 블록(블록 E) 순으로 스캔하여 유효한 2개가 후보자가 될 수 있다.
여기서 좌측 블록(A'은 블록 D에 인접하지 않고 블록 E에 인접한 블록일 수 있다. 마찬가지로, 상측 블록(B'은 블록 C에 인접하지 않고 블록 E에 인접한 블록일 수 있다.
상술한 실시예들에서 공간 머지 후보자들 중 현재 예측 유닛의 상측에 존재하는 머지 후보자들의 움직임 정보는 현재 예측 유닛의 위치에 따라 달리 설정될 수 있다. 예를 들어, 현재 예측 유닛이 LCU의 상측 경계에 접하는 경우에는, 현재 예측 유닛의 상측 예측 유닛(블록 B, C 또는 E)의 움직임 정보는 자기 자신의 움직임 정보 또는 인접 예측 유닛의 움직임 정보일 수 있다. 현재 예측 유닛의 크기 및 위치에 따라, 상기 상측 예측 유닛의 움직임 정보가 자기 자신의 움직임 정보 또는 인접 예측 유닛의 움직임 정보(참조 픽쳐 인덱스 및 움직임 벡터) 중 하나로 결정될 수 있다.
시간 머지 후보자의 참조 픽쳐 인덱스 유도부(233)는 현재 블록의 시간 머지 후보자의 참조 픽쳐 인덱스를 구한다. 시간 머지 후보자의 참조 픽쳐 인덱스는 현재 블록에 공간적으로 인접한 블록들(예측 유닛들) 중 하나의 참조 픽쳐 인덱스로 설정될 수 있다. 또는 0으로 설정될 수도 있다.
현재 블록의 시간 머지 후보자의 참조 인덱스들을 구하기 위해 현재 블록의 좌측 블록(A), 상측 블록(B), 우상측 블록(C), 좌하측 블록(D) 및 좌상측 블록(E)의 참조 픽쳐 인덱스들 중 일부 또는 전부가 사용될 수 있다.
예를 들어, 현재 블록의 좌측 블록(A), 상측 블록(B) 및 코너 블록(C, D, E 중 어느 하나)들의 참조 픽쳐 인덱스가 사용될 수 있다. 이 경우, 코너 블록의 참조 픽쳐 인덱스는 우상측 블록(C), 좌하측 블록(D), 좌상측 블록닛(E) 순으로 스캔하여 유효한 첫번째 블록의 참조 픽쳐 인덱스로 결정될 수 있다. 예를 들어, 상기 참조 픽쳐 인덱스들 중 유효한 참조 픽쳐 인덱스들 중 가장 많은 빈도를 갖는 참조 픽쳐 인덱스를 시간 스킵 후보자의 참조 픽쳐 인덱스로 설정될 수 있다. 유효한 후보자들 중 가장 많은 빈도를 갖는 참조 픽쳐 인덱스가 복수개 존재할 경우에는 상기 복수개의 참조 픽쳐 인덱스 중 최소값을 갖는 참조 픽쳐 인덱스를 시간 스킵 후보자를 위한 참조 픽쳐 인덱스로 설정할 수 있다.
현재 블록의 시간 머지 후보자의 참조 인덱스들을 구하기 위해, 현재 블록의 좌측 블록(A), 상측 블록(B), 우상측 블록(C), 좌하측 블록(D) 및 좌상측 블록(E)의 순으로 스캔하여 유효한 3개의 블록의 참조 픽쳐 인덱스가 사용될 수도 있다. 여기에서는 3개 또는 그 이상의 유효한 참조 픽쳐 인덱스들을 이용하는 것으로 설정하였지만, 유효한 모든 개수를 이용하거나, 미리 정해진 위치의 참조 픽쳐 인덱스만을 이용할 수도 있다. 유효한 참조 픽쳐 인덱스가 존재하지 않을 경우에는 참조 픽쳐 인덱스 0으로 설정할 수도 있다.
시간 머지 후보자의 움직임 벡터 유도부(234)는 상기 시간 머지 후보자 블록이 속하는 픽쳐(이하, 시간 머지 후보자 픽쳐)를 결정한다. 시간 머지 후보자 픽쳐는 참조 픽쳐 인덱스가 0인 픽쳐로 설정될 수 있다. 이 경우, 슬라이스 타입이 P인 경우에는 리스트 0(list0)의 첫번째 픽쳐(즉 인덱스가 0인 픽쳐)가 시간 머지 후보자 픽쳐로 설정된다. 슬라이스 타입이 B인 경우에는 슬라이스 헤더내의 시간 머지 후보자 리스트를 나타내는 플래그가 나타내는 참조픽쳐 리스트의 첫번째 픽쳐가 시간 머지 후보자 픽쳐로 설정된다. 예를 들어, 상기 플래그가 1을 나타내면 list0로부터, 0을 나타내면 list1으로부터 시간 머지 후보자 픽쳐를 설정할 수 있다.
다음으로, 상기 시간 머지 후보자 픽쳐 내의 시간 머지 후보자 블록을 구한다. 상기 시간 머지 후보자 블록으로서, 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 복수개의 대응 블록 중 어느 하나가 선택될 수 있다. 이 경우, 복수개의 대응 블록들에 우선순위를 부여하고, 상기 우선순위에 기초하여 유효한 첫번째 대응 블록이 시간 머지 후보자 블록으로 선택될 수 있다.
예를 들어, 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 블록에 인접하는 좌하측 코너 블록(BR_C) 또는 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 블록 내의 좌하측 블록(BR)을 제1 후보자 블록으로 설정하고, 상기 시간 머지 후보자 픽쳐 내의 현재 블록에 대응하는 블록의 중앙 위치의 좌상측 픽셀을 포함하는 블록(C1) 또는 우하측 픽셀을 포함하는 블록(C2)을 제 2 후보자 블록으로 설정될 수 있다.
상기 제1 후보자 블록이 유효하면 상기 제1 후보자 블록을 시간 머지 후보자 블록으로 설정하고, 상기 제1 후보자 블록이 유효하지 않고 상기 제2 후보자 블록이 유효하면, 상기 제2 후보자 블록을 시간 머지 후보자 블록으로 설정할 수 있다. 또는 현재 블록의 위치에 따라 제2 후보자 블록만을 사용할 수도 있다. 예를 들어, 현재 블록이 슬라이스의 아래쪽 경계 또는 LCU의 아래쪽 경계에 접하는 경우에는 제2 후보자 블록만을 사용할 수 있다. 제2 후보자 블록도 존재하지 않으면, 시감 머지 후보자는 유효하지 않는 것으로 판단한다.
상기 머지 후보자 예측 블록이 결정되면, 상기 시간 머지 후보자 예측 블록의 움직임 벡터를 시간 머지 후보자 움직임 벡터로 설정한다.
한편, 현재 블록의 크기에 따라 상기 시간 머지 후보자를 적응적으로 off 시킬 수도 있다. 예를 들어, 4x4 블록이 경우에는 복잡도 감소를 위해 상기 시간 머지 후보자를 off 시킬 수 있다.
시간 머지 후보자 구성부(235)는 상기 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(233)로부터 구한 참조 픽쳐 인덱스와 상기 시간 머지 후보자의 움직임 벡터 유도부(234)로부터 구한 움직임 벡터를 시간 머지 후보자의 참조픽쳐 인덱스와 움직임 벡터로 결정한다.
머지 후보자 리스트 구축부(236)는 유효한 머지 후보자를 이용하여 정해진 순서에 따라 머지 후보자 리스트를 구축한다. 이 경우, 복수개의 머지 후보자가 동일 움직임 정보(동일 움직임 벡터 및 동일 참조픽쳐 인덱스)를 가지면, 후순위의 머지 후보자를 리스트에서 삭제한다. 예를 들어, 정해진 순서는 A, B, Col, C, D 순이다. 여기서, Col은 시간 머지 후보자를 의미한다. 그러나, A, B, C, D 중 하나 이상이 유효하지 않은 경우에는 상기 유효하지 않은 최초 블록의 위치에 상기 유효한 E의 움직임 정보를 삽입할 수 있다. 또한, 상기 유효한 E의 움직임 정보를 가장 마지막 위치에 삽입할 수 있다.
머지 후보자 인덱스 복호화부(237)는 상기 머지 후보자 리스트 구축부(236)에 의해 구축된 유효한 후보자 수에 대응하는 복호화 테이블을 선택한다. 그리고, 상기 복호화 테이블 내에서 상기 머지 후보자 코드워드에 대응하는 인덱스를 현재 블록의 머지 후보자 인덱스로 결정한다.
움직임 정보 생성부(238)는 상기 머지 후보자 인덱스에 대응하는 머지 예측자를 상기 머지 후보자 리스트 구축부(236)에 의해 구축된 리스트에서 선택하고, 상기 선택된 머지 예측자의 움직임 정보(즉, 움직임 벡터 및 참조픽쳐 인덱스)를 현재 블록의 움직임 정보로 결정한다.
도 6은 본 발명의 제2실시예에 따른 머지 모드 움직임 정보 복호화부를 나타내는 블록도이다.
본 발명의 제2 실시예에 따른 머지 모드 움직임 정보 복호화부(230)는 머지 예측자 인덱스 복호화부(331), 공간 머지 후보자 유도부(332), 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(333), 시간 머지 후보자의 움직임 벡터 유도부(334), 시간 머지 후보자 구성부(335), 머지 예측자 선택부(336) 및 움직임 정보 생성부(337)를 포함한다. 이 경우는 머지 후보자 수가 고정인 경우에 적용된다. 머지 후보자 수는 픽쳐 또는 슬라이스 단위로 고정될 수 있다.
머지 예측자 인덱스 복호화부(331)는 상기 머지 후보자 수에 대응하는 미리 정해진 테이블을 이용하여 수신된 머지 예측자 코드워드에 대응하는 머지 예측자 인덱스를 복원한다.
공간 머지 후보자 유도부(332)의 동작은 상기 도 5의 공간 머지 후보자 유도부(232)의 동작과 동일하므로 생략한다.
시간 머지 후보자의 참조 픽쳐 인덱스 유도부(333), 시간 머지 후보자의 움직임 벡터 유도부(334) 및 시간 머지 후보자 구성부(335)의 동작은 각각 상기 도 5의 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(233), 시간 머지 후보자의 움직임 벡터 유도부(234) 및 시간 머지 후보자 구성부(235)의 동작과 동일하므로 생략한다.
머지 예측자 선택부(336)는 상기 머지 예측자 인덱스 복호화부(331)에 의해 복원된 머지 예측자 인덱스에 대응하는 머지 후보자를 머지 후보자 리스트에서 선택하여 현재 블록의 머지 예측자로 선택한다. 머지 후보자 리스트는 유효한 머지 후보자를 이용하여 구축된다. 이 경우, 복수개의 머지 후보자가 동일 움직임 정보(동일 움직임 벡터 및 동일 참조픽쳐 인덱스)를 가지면, 후순위의 머지 후보자를 리스트에서 삭제한다. 예를 들어, 정해진 순서는 A, B, Col, C, D 순이다. 여기서, Col은 시간 머지 후보자를 의미한다. 그러나, A, B, C, D 중 하나 이상이 유효하지 않은 경우에는 상기 유효하지 않은 최초 블록의 위치에 상기 유효한 E의 움직임 정보를 삽입할 수 있다. 또한, 상기 유효한 E의 움직임 정보를 가장 마지막 위치에 삽입할 수 있다.
한편, 머지 후보자 수가 미리 정해진 수보다 작으면, 머지 후보자를 생성할 수 있다. 이 경우, 추가되는 머지 후보자는 유효한 2개의 머지 후보자의 움직임 정보를 결합하여 생성할 수 있다. 예를 들어, 시간 머지 후보자의 참조 픽쳐 인덱스와 공간 머지 후보자의 유효한 공간 움직임 벡터를 결합하여 생성할 수 있다. 복수개의 머지 후보자 생성이 가능한 경우, 미리 정해진 순서에 따라 리스트에 추가될 수 있다. 시간 머지 후보자의 참조 픽쳐 인덱스와 공간 머지 후보자의 움직임 벡터를 결합하여 생성된 머지 후보자가 가장 먼저 리스트에 추가될 수 있다. 생성할 머지 후보자 수가 부족한 경우, 움직임 벡터가 0이고 참조 픽쳐 인덱스가 0인 머지 후보자가 추가될 수도 있다. 상기 미리 정해진 수는 픽쳐 또는 슬라이스 단위로 결정될 수 있다.
움직임 정보 생성부(337)는 상기 머지 후보자 인덱스에 대응하는 머지 예측자를 상기 머지 후보자 리스트 구축부(236)에 의해 구축된 리스트에서 선택하고, 상기 선택된 머지 예측자의 움직임 정보(즉, 움직임 벡터 및 참조픽쳐 인덱스)를 현재 블록의 움직임 정보로 결정한다.
도 7은 본 발명의 제3실시예에 따른 머지 모드 움직임 정보 복호화부(230)를 나타내는 블록도이다.
본 발명의 제3 실시예에 따른 머지 모드 움직임 정보 복호화부(230)는 본 발명의 제2 실시예에 따른 머지 모드 움직임 정보 복호화부(230)의 구성에 머지 후보자 생성부(437)가 추가된다. 따라서, 머지 예측자 인덱스 복호화부(431), 공간 머지 후보자 유도부(432), 시간 머지 후보자의 참조 픽쳐 인덱스 유도부(433), 시간 머지 후보자의 움직임 벡터 유도부(434), 시간 머지 후보자 구성부(435), 머지 후보자 생성부(437) 및 움직임 정보 생성부(438)의 동작은 제2 실시예에서와 동일하므로 생략한다.
머지 후보자 생성부(437)는 머지 후보자 수가 미리 정해진 수보다 작으면, 머지 후보자를 생성할 수 있다. 이 경우, 추가되는 머지 후보자는 유효한 2개의 머지 후보자의 움직임 정보를 결합하여 생성할 수 있다. 예를 들어, 시간 머지 후보자의 참조 픽쳐 인덱스와 공간 머지 후보자의 유효한 공간 움직임 벡터를 결합하여 생성할 수 있다. 복수개의 머지 후보자 생성이 가능한 경우, 미리 정해진 순서에 따라 리스트에 추가될 수 있다. 시간 머지 후보자의 참조 픽쳐 인덱스와 공간 머지 후보자의 움직임 벡터를 결합하여 생성된 머지 후보자가 가장 먼저 리스트에 추가될 수 있다. 상기 방법에 의해 추가되는 머지 후보자 수는 미리 제한될 수 있다. 생성할 머지 후보자 수가 부족한 경우, 움직임 벡터가 0이고 참조 픽쳐 인덱스가 0인 머지 후보자가 추가될 수도 있다. 상기 미리 정해진 수는 픽쳐 또는 슬라이스 단위로 결정될 수 있다.
머지 예측자 선택부(436)는 공간 머지 후보자 유도부(432)에 의해 유도된 공간 머지 후보자, 시간 머지 후보자 구성부(435)에 의해 생성된 시간 머지 후보자 및 머지 후보자 생성부(437)에 의해 생성된 머지 후보자들을 이용하여 머지 후보자 리스트를 구축한다. 복수개의 머지 후보자가 동일 움직임 정보(동일 움직임 벡터 및 동일 참조픽쳐 인덱스)를 가지면, 후순위의 머지 후보자를 리스트에서 삭제한다. 예를 들어, 정해진 순서는 A, B, Col, C, D 순이다. 여기서, Col은 시간 머지 후보자를 의미한다. 그러나, A, B, C, D 중 하나 이상이 유효하지 않은 경우에는 상기 유효하지 않은 최초 블록의 위치에 상기 유효한 E의 움직임 정보를 삽입할 수 있다. 또한, 상기 유효한 E의 움직임 정보를 가장 마지막 위치에 삽입할 수 있다. 상기 머지 예측자 선택부는 머지 인덱스 복호화부(331)에 의해 복원된 머지 인덱스에 대응하는 머지 후보자를 상기 머지 후보자 리스트에서 선택하여 현재 블록의 머지 예측자로 선택한다.
도 8은 본 발명의 제1실시예에 따른 AMVP 모드 움직임 정보 복호화부를 나타내는 블록도이다.
본 발명의 제1 실시예에 따른 AMVP 모드 움직임 정보 복호화부는 AMVP 예측자 인덱스 복호화부(341), 잔차 움직임 정보 판독부(342), 공간 AMVP 후보자 유도부(343), 시간 AMVP 후보자 유도부(344), AMVP 예측자 선택부(345), 예측 움직임 벡터 생성부(346) 및 움직임 정보 생성부(347)을 포함한다. AMVP 후보자 수가 가변인 경우에 본 실시예가 적용된다.
*AMVP 예측자 인덱스 복호화부(341)는 AMVP 예측자 인덱스에 대응하는 코드워드가 존재하는지 여부를 판단한다. 코드워드가 존재하지 않을 경우, AMVP 후보자가 1개 존재하거나 존재하지 않는 것으로 판단한다. 존재하지 않는 경우에는 예측 움직임 벡터 생성부(346)는 움직임 벡터가 0인 움직임 벡터를 현재 블록의 움직임 벡터로 복원한다. 그리고, AMVP 후보자가 1개 존재하는 경우에는 예측 움직임 벡터 생성부(346)는 상기 AMVP 후보자의 움직임 벡터를 현재 블록의 블록의 움직임 벡터로 복원한다.
잔차 움직임 정보 판독부(342)는 현재 블록의 참조 픽쳐 인덱스와 차분 움직임 벡터를 판독한다.
공간 AMVP 후보자 유도부(343)는 현재 블록의 좌측 블록(블록 A)과 좌하측 블록(블록 D)들 중 하나를 좌측 공간 후보자로 택하고, 현재 블록의 상측 블록(블록 B), 현재 블록의 우상측 블록(블록 C), 및 현재 블록의 좌상측 블록(블록 E)들 중 하나를 상측 공간 후보자로 택할 수 있다. 이때 미리 정해진 순서로 스캔하여 유효한 첫번째 블록의 움직임 벡터가 후보자로 선택된다. 미리 정해진 순서는 좌측 블록의 경우에는 블록 A, 블록 D순서 또는 그 역순서로, 상측 블록의 경우에는 블록 B, 블록 C, 블록 E 순서 또는 블록 C, 블록 B, 블록 E 순서일 수 있다. 상기 AMVP 후보자의 블록의 위치와 머지 후보자의 블록의 위치는 동일하다.
시간 AMVP 후보자 유도부(344)는 도 1의 시간 머지/AMVP 후보자의 움직임 벡터 유도부(123)에 의해 얻어진 시간 머지 후보자의 움직임 벡터를 이용하여 시간 머지 후보자를 구성한다.
AMVP 예측자 선택부(345)는 상기 공간 AMVP 후보자 유도부(343) 및 시간 AMVP 후보자 유도부(344)에 의해 유도된 유효한 AMVP 후보자를 이용하여 리스트를 구축한다. 유효한 AVMP 후보자를 이용하여 정해진 순서에 따라 AVMP 후보자 리스트를 구축한다. 이 경우, 복수개의 AVMP 후보자가 동일 움직임 벡터를 가지면(참조픽쳐가 동일할 필요는 없음), 후순위의 AVMP 후보자를 리스트에서 삭제한다. 정해진 순서는 좌측, 상측, Col 순이거나, Col, 좌측, 상측 순일 수 있다.
그리고, 구축된 리스트 내의 유효한 AMVP 후보자 수에 대응하는 복호화 테이블을 선택하고, 선택된 테이블을 이용하여 현재 블록의 AMVP 예측자를 선택한다.
예측 움직임 벡터 생성부(346)는 상기 AMVP 예측자 선택부(345)에 의해 선택된 후보자의 움직임 벡터를 현재 블록의 예측 움직임 벡터로 결정한다.
움직임 정보 생성부(347)는 상기 움직임 벡터 생성부(346)에 의해 생성된 예측 움직임 벡터와 상기 잔차 움직임 벡터 판독부(342)에 의해 판독된 잔차 움직임 벡터를 더하여 현재 블록의 움직임 벡터를 생성한다. 그리고, 상기 잔차 움직임 벡터 판독부(342)에 의해 판독된 참조 픽쳐 인덱스를 현재 블록의 참조 픽쳐 인덱스로 설정한다.
도 9는 본 발명의 제2실시예에 따른 AMVP 모드 움직임 정보 복호화부를 나타내는 구성도이다.
본 발명의 제2 실시예에 따른 AMVP 모드 움직임 정보 복호화부는 예측자 인덱스 복호화부(441), 잔차 움직임 정보 판독부(442), 공간 AMVP 후보자 유도부(443), 시간 AMVP 후보자 유도부(444), AMVP 예측자 선택부(445), AMVP 후보자 생성부(446), 예측 움직임 벡터 생성부(447) 및 움직임 정보 생성부(448)을 포함한다. AMVP 후보자 수가 가변인 경우에 본 실시예가 적용된다.
예측자 인덱스 복호화부(441), 잔차 움직임 정보 판독부(442), 공간 AMVP 후보자 유도부(443), 시간 AMVP 후보자 유도부(444), AMVP 후보자 생성부(447), 예측 움직임 벡터 생성부(447) 및 움직임 정보 생성부(448)의 동작은 도 11의 대응하는 구성과 동일하므로 생략한다.
AMVP 후보자 생성부(446)는 AVMP 후보자 생성이 필요한지 여부를 판단한다. 상기한 AVMP 후보자 구성에서 AVMP 후보자 수가 고정된 값으로 설정된 경우에는, 유효한 AVMP 후보자 수가 고정된 값보다 작으면 AVMP 후보자를 생성한다. 그리고, 상기 생성된 AMVP 후보자를 리스트 내의 가장 후순위의 AMVP 후보자 다음 위치에 추가한다. 복수개의 AMVP 후보자가 추가될 경우에는 미리 정해진 순서에 따라 추가된다. 상기 추가되는 후보자는 움직임 벡터가 0인 후보자가 추가될 수 있다.
AMVP 예측자 선택부(445)는 공간 AMVP후보자 유도부(443)에 의해 유도된 공간 AMVP 후보자, 시간 AMVP 후보자 유도부(444)에 의해 생성된 시간 AMVP 후보자 및 AMVP 후보자 생성부(446)에 의해 생성된 AMVP 후보자들을 이용하여 AMVP 후보자 리스트를 구축한다. 복수개의 AMVP 후보자가 동일 움직임 정보(동일 움직임 벡터 및 동일 참조픽쳐 인덱스)를 가지면, 후순위의 AMVP후보자를 리스트에서 삭제한다. 정해진 순서는 좌측, 상측, Col 순이거나, Col, 좌측, 상측 순일 수 있다. 그리고, 구축된 리스트 내의 유효한 AMVP 후보자 수에 대응하는 복호화 테이블을 선택하고, 선택된 테이블을 이용하여 현재 블록의 AMVP 예측자를 선택한다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (8)

  1. 머지 모드 움직임 정보 복호화 장치에 있어서,
    수신된 머지 코드워드를 이용하여, 현재 블록의 머지 예측자 인덱스를 복원하는 머지 예측자 인덱스 복호화부;
    현재 블록의 공간 머지 후보자를 유도하는 공간 머지 후보자 유도부;
    현재 블록의 시간 머지 후보자를 생성하는 시간 머지 후보자 구성부;
    현재 블록의 유효한 머지 후보자 수가 미리 정해진 수보다 작을 경우, 머지 후보자를 생성하는 머지 후보자 생성부;
    상기 머지 후보자 유도부로부터 유도된 공간 머지 후보자, 상기 시간 머지 후보자 구성부에 의해 생성된 시간 머지 후보자 및 상기 머지 후보자 생성부에 의해 생성된 생성 머지 후보자를 이용하여 머지 후보자 리스트를 구축하고, 상기 머지 예측자 인덱스 복호화부로부터의 머지 예측자 인덱스에 기초하여 머지 예측자를 선택하는 머지 예측자 선택부; 및
    상기 머지 예측자 선택부에 의해 선택된 머지 후보자의 참조 픽쳐 인덱스 및 움직임 벡터를 현재 블록의 참조 픽쳐 인덱스 및 움직임 벡터로 생성하는 움직임 정보 생성부를 포함하는 것을 특징으로 하는 머지 모드 움직임 정보 복호화 장치
  2. 제1항에 있어서, 상기 시간 머지 후보자 구성부는 현재 블록에 인접한 블록들 중 하나의 참조 픽쳐 인덱스 또는 0을 상기 시간 머지 후보자의 참조 픽쳐 인덱스로 설정하는 것을 특징으로 하는 움직임 정보 복호화 장치.
  3. 제2항에 있어서, 시간 머지 후보자 구성부는 상기 시간 머지 후보자의 움직임 벡터를 생성하기 위해,
    시간 머지 후보자 픽쳐를 결정하는 단계; 및
    상기 시간 머지 후보자 픽쳐 내의 시간 머지 후보자 블록을 결정하는 단계를 수행하고, 상기 시간 머지 후보자 픽쳐는 슬라이스 타입에 따라 달리 결정되는 것을 특징으로 하는 움직임 정보 복호화 장치.
  4. 제3항에 있어서, 상기 시간 머지 후보자 픽쳐는 참조 픽쳐 인덱스가 0인 픽쳐인 것을 특징으로 하는 움직임 정보 복호화 장치.
  5. 제3항에 있어서, 상기 시간 머지 후보자 블록은 제1 후보자 블록 또는 제2 후보자 블록이고, 상기 제1 후보자 블록은 상기 시간 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 블록의 좌하측 코너 블록이고, 제2 후보자 블록은 현재 예측 유닛에 대응하는 블록의 중앙 위치의 우하측 픽셀을 포함하는 블록인 것을 특징으로 하는 움직임 정보 복호화 장치.
  6. 제5항에 있어서, 상기 시간 머지 후보자 블록은 현재 블록의 위치에 따라, 제1 후보자 블록 및 제2 후보자 블록 순으로 검색하거나, 제2 후보자 블록만을 검색하여 유효한 블록인 것을 특징으로 하는 움직임 정보 복호화 장치.
  7. 제1항에 있어서, 상기 머지 후보자 생성부는 유효한 머지 후보자들의 움직임 정보를 결합하여 머지 후보자를 생성하거나, 움직임 벡터가 0이고 참조픽쳐 인덱스가 0인 머지 후보자를 생성하는 것을 특징으로 하는 움직임 정보 복호화 장치.
  8. 제7항에 있어서, 상기 머지 후보자 생성부는, 미리 정해진 상기 유효한 머지 후보자들의 움직임 정보를 결합하여 머지 후보자를 생성하는 경우, 미리 정해진 수보다 작거나 같게 머지 후보자를 생성하는 것을 특징으로 하는 움직임 정보 복호화 장치.
PCT/KR2012/000523 2011-08-29 2012-01-20 머지 모드 움직임 정보 복호화 장치 WO2013032074A1 (ko)

Priority Applications (19)

Application Number Priority Date Filing Date Title
BR122015001354-2A BR122015001354B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão
KR20127006461A KR101210893B1 (ko) 2011-08-29 2012-01-20 머지 모드 움직임 정보 복호화 장치
BR112014004922-0A BR112014004922B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão
KR1020127006965A KR20140105038A (ko) 2012-01-20 2012-01-20 머지 모드 움직임 정보 복호화 장치
MX2015000581A MX337284B (es) 2011-08-29 2012-01-20 Aparato para decodificar informacion de movimiento de modo de fusion.
KR1020127006961A KR101210894B1 (ko) 2011-08-29 2012-01-20 머지 모드 움직임 정보 복호화 장치
CN201280042092.9A CN103765891B (zh) 2011-08-29 2012-01-20 用于解码合并模式下的运动信息的装置
MX2014002347A MX2014002347A (es) 2011-08-29 2012-01-20 Aparato para decodificar informacion de movimiento de modo de fusion.
MX2017004240A MX369711B (es) 2011-08-29 2012-01-20 Aparato para decodificar información de movimientos de modo de fusión.
MX2015014551A MX341355B (es) 2011-08-29 2012-01-20 Aparato para decodificar informacion de movimiento de modo de fusion.
MX2016010650A MX346819B (es) 2011-08-29 2012-01-20 Aparato para decodificar información de movimiento de modo de fusión.
US13/743,086 US8774279B2 (en) 2011-08-29 2013-01-16 Apparatus for decoding motion information in merge mode
US13/745,288 US8654855B2 (en) 2011-08-29 2013-01-18 Apparatus for decoding motion information in merge mode
US14/090,195 US8855209B2 (en) 2011-08-29 2013-11-26 Apparatus for decoding motion information in merge mode
US14/299,927 US9025668B2 (en) 2011-08-29 2014-06-09 Apparatus for decoding motion information in merge mode
US14/593,937 US9025669B1 (en) 2011-08-29 2015-01-09 Apparatus for decoding motion information in merge mode
US14/593,889 US9036709B1 (en) 2011-08-29 2015-01-09 Apparatus for decoding motion information in merge mode
US14/593,973 US9161043B2 (en) 2011-08-29 2015-01-09 Apparatus for decoding motion information in merge mode
US17/099,322 USRE49907E1 (en) 2011-08-29 2020-11-16 Apparatus for decoding motion information in merge mode

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0086524 2011-08-29
KR20110086524 2011-08-29

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/743,086 Continuation US8774279B2 (en) 2011-08-29 2013-01-16 Apparatus for decoding motion information in merge mode
US13/745,288 Continuation US8654855B2 (en) 2011-08-29 2013-01-18 Apparatus for decoding motion information in merge mode

Publications (1)

Publication Number Publication Date
WO2013032074A1 true WO2013032074A1 (ko) 2013-03-07

Family

ID=47756522

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/000523 WO2013032074A1 (ko) 2011-08-29 2012-01-20 머지 모드 움직임 정보 복호화 장치

Country Status (6)

Country Link
US (9) US8774279B2 (ko)
KR (2) KR101210893B1 (ko)
CN (8) CN107360432A (ko)
BR (2) BR112014004922B1 (ko)
MX (8) MX369711B (ko)
WO (1) WO2013032074A1 (ko)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279573B1 (ko) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
HRP20231669T1 (hr) * 2010-09-02 2024-03-15 Lg Electronics, Inc. Inter predikcija
CN107071459B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
AU2011362447B2 (en) * 2011-03-14 2015-09-24 Hfi Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
CN107197272B (zh) * 2011-08-29 2019-12-06 苗太平洋控股有限公司 以合并模式对图像编码的方法
CN107360432A (zh) * 2011-08-29 2017-11-17 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
CN107580223B (zh) * 2011-11-08 2020-12-08 株式会社Kt 利用解码装置对视频信号进行解码的方法
WO2013074964A1 (en) 2011-11-16 2013-05-23 Vanguard Software Solutions, Inc. Video compression for high efficiency video coding
KR102072124B1 (ko) * 2011-11-24 2020-02-04 에스케이텔레콤 주식회사 세밀한 예측 단위를 사용하는 효과적인 부호화/복호화 방법 및 장치
US9106922B2 (en) * 2012-12-19 2015-08-11 Vanguard Software Solutions, Inc. Motion estimation engine for video encoding
US10904551B2 (en) * 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
US20150271512A1 (en) * 2014-03-18 2015-09-24 Texas Instruments Incorporated Dynamic frame padding in a video hardware engine
WO2015142054A1 (ko) * 2014-03-19 2015-09-24 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
CN107005696B (zh) * 2014-11-27 2020-06-26 株式会社Kt 视频信号处理方法和设备
US10805627B2 (en) 2015-10-15 2020-10-13 Cisco Technology, Inc. Low-complexity method for generating synthetic reference frames in video coding
WO2017091023A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
CN109417629B (zh) * 2016-07-12 2023-07-14 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US11095892B2 (en) 2016-09-20 2021-08-17 Kt Corporation Method and apparatus for processing video signal
KR102559063B1 (ko) 2017-02-24 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
CN117135346A (zh) 2018-04-02 2023-11-28 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
WO2019192170A1 (zh) * 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 视频图像处理方法与装置
CN110662037B (zh) 2018-06-29 2022-06-28 北京字节跳动网络技术有限公司 运动信息共享的限制
CN110677650B (zh) * 2018-07-01 2023-06-09 北京字节跳动网络技术有限公司 降低非相邻Merge设计的复杂度
WO2020008330A1 (en) 2018-07-01 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Priority-based non-adjacent merge design
WO2020060177A1 (ko) * 2018-09-18 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN114584788B (zh) * 2018-10-10 2022-09-23 华为技术有限公司 帧间预测方法及装置
CN112236996A (zh) * 2018-12-21 2021-01-15 株式会社 Xris 视频信号编码/解码方法及其装置
EP3955569A4 (en) * 2019-04-25 2022-07-27 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR IMAGE PREDICTION AND COMPUTER READABLE INFORMATION MEDIA
CN111866502A (zh) * 2019-04-25 2020-10-30 华为技术有限公司 图像预测方法、装置和计算机可读存储介质
EP4032297A4 (en) 2019-09-19 2022-11-23 Alibaba Group Holding Limited METHODS FOR CONSTRUCTING A LIST OF MERGER CANDIDATES
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060012440A (ko) * 2004-08-03 2006-02-08 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
JP2006217644A (ja) * 1998-04-16 2006-08-17 Scientific-Atlanta Inc 動き推定システムおよび方法
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001086508A (ja) * 1999-09-13 2001-03-30 Victor Co Of Japan Ltd 動画像復号方法及び動画像復号装置
US7162080B2 (en) * 2001-02-23 2007-01-09 Zoran Corporation Graphic image re-encoding and distribution system and method
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN100466735C (zh) * 2004-07-15 2009-03-04 三星电子株式会社 视频编码和解码方法以及视频编码器和解码器
KR100678949B1 (ko) 2004-07-15 2007-02-06 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 비디오 인코더 및 디코더
KR20060098514A (ko) 2005-03-03 2006-09-19 김정재 의료용 부목
CN1658673A (zh) * 2005-03-23 2005-08-24 南京大学 视频压缩编解码方法
JP5658033B2 (ja) * 2007-09-02 2015-01-21 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
KR102231772B1 (ko) * 2007-10-16 2021-03-23 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
JP4829867B2 (ja) * 2007-10-30 2011-12-07 日本放送協会 画像符号化装置及び画像復号装置
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR20110071047A (ko) 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
JP2011151775A (ja) 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
WO2011077632A1 (ja) * 2009-12-22 2011-06-30 Jvc・ケンウッド・ホールディングス株式会社 画像符号化装置、画像符号化方法および画像符号化プログラム、ならびに画像復号装置、画像復号方法および画像復号プログラム
KR101988327B1 (ko) * 2010-05-04 2019-06-12 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
CN107071459B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
AU2011362447B2 (en) 2011-03-14 2015-09-24 Hfi Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
JP5837575B2 (ja) * 2011-04-12 2015-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
CN107360432A (zh) * 2011-08-29 2017-11-17 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
EP3923572A1 (en) * 2011-10-19 2021-12-15 Sun Patent Trust Image encoding method, image encoding device, image decoding method, and picture decoding device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217644A (ja) * 1998-04-16 2006-08-17 Scientific-Atlanta Inc 動き推定システムおよび方法
KR20060012440A (ko) * 2004-08-03 2006-02-08 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법

Also Published As

Publication number Publication date
CN107360432A (zh) 2017-11-17
US20130136183A1 (en) 2013-05-30
CN103765891B (zh) 2017-07-28
US20140153641A1 (en) 2014-06-05
CN107222745A (zh) 2017-09-29
CN104837024B (zh) 2016-04-27
MX369711B (es) 2019-11-19
CN103765891A (zh) 2014-04-30
CN107295347B (zh) 2020-06-26
US20140286432A1 (en) 2014-09-25
BR122015001354B1 (pt) 2022-06-14
MX2014002347A (es) 2014-04-25
US8774279B2 (en) 2014-07-08
MX340913B (es) 2016-07-29
MX346819B (es) 2017-03-30
US20150382014A1 (en) 2015-12-31
USRE49907E1 (en) 2024-04-02
BR112014004922B1 (pt) 2022-04-05
US9161043B2 (en) 2015-10-13
US20150124887A1 (en) 2015-05-07
US20150131733A1 (en) 2015-05-14
BR122015001354A2 (pt) 2019-08-20
US20130148735A1 (en) 2013-06-13
US9025669B1 (en) 2015-05-05
US9036709B1 (en) 2015-05-19
US9025668B2 (en) 2015-05-05
CN105376575A (zh) 2016-03-02
CN104837024A (zh) 2015-08-12
US20150124886A1 (en) 2015-05-07
MX2019013757A (es) 2020-01-15
KR101210893B1 (ko) 2012-12-11
KR101210894B1 (ko) 2012-12-11
CN105376576A (zh) 2016-03-02
CN105376575B (zh) 2018-04-03
CN105376577A (zh) 2016-03-02
MX340912B (es) 2016-07-29
CN107295347A (zh) 2017-10-24
BR112014004922A2 (pt) 2017-04-11
US8654855B2 (en) 2014-02-18
MX337284B (es) 2016-02-23
MX341355B (es) 2016-08-16
CN105376576B (zh) 2017-07-28
US8855209B2 (en) 2014-10-07

Similar Documents

Publication Publication Date Title
WO2013032074A1 (ko) 머지 모드 움직임 정보 복호화 장치
WO2017057953A1 (ko) 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치
WO2012081879A1 (ko) 인터 예측 부호화된 동영상 복호화 방법
WO2017052000A1 (ko) 영상 코딩 시스템에서 움직임 벡터 정제 기반 인터 예측 방법 및 장치
WO2012023763A2 (ko) 인터 예측 부호화 방법
WO2016204360A1 (ko) 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
WO2013069975A1 (ko) 예측 단위의 파티션 모드에 기초한 계수 스캔 방법 및 장치
WO2013069932A1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
WO2011019234A2 (en) Method and apparatus for encoding and decoding image by using large transformation unit
WO2011126277A2 (en) Low complexity entropy-encoding/decoding method and apparatus
WO2016200043A1 (ko) 비디오 코딩 시스템에서 가상 참조 픽처 기반 인터 예측 방법 및 장치
WO2013157820A1 (ko) 고속 에지 검출을 이용하는 비디오 부호화 방법 및 장치, 그 비디오 복호화 방법 및 장치
WO2016085229A1 (ko) 비디오 신호 처리 방법 및 장치
EP2556671A2 (en) Low complexity entropy-encoding/decoding method and apparatus
WO2017048008A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2020251260A1 (ko) Block dpcm 예측 방법을 사용하는 비디오 신호 처리 방법 및 장치
WO2018056602A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2019112071A1 (ko) 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
WO2011108879A2 (ko) 영상 부호화 장치, 그 영상 부호화 방법, 영상 복호화 장치 및 그 영상 복호화 방법
WO2019194507A1 (ko) 어파인 움직임 예측에 기반한 영상 코딩 방법 및 그 장치
WO2019194500A1 (ko) 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2018128222A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2019132567A1 (ko) 서브-블록 단위 화면 내 예측을 사용하는 비디오 코딩 방법 및 장치
WO2017052272A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2014081261A1 (ko) 움직임 정보 병합을 이용한 비디오 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20127006461

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12826700

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: MX/A/2014/002347

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 27.06.2014)

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014004922

Country of ref document: BR

122 Ep: pct application non-entry in european phase

Ref document number: 12826700

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: IDP00201500718

Country of ref document: ID

ENP Entry into the national phase

Ref document number: 112014004922

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140228