WO2012023762A2 - 인트라 예측 복호화 방법 - Google Patents

인트라 예측 복호화 방법 Download PDF

Info

Publication number
WO2012023762A2
WO2012023762A2 PCT/KR2011/005941 KR2011005941W WO2012023762A2 WO 2012023762 A2 WO2012023762 A2 WO 2012023762A2 KR 2011005941 W KR2011005941 W KR 2011005941W WO 2012023762 A2 WO2012023762 A2 WO 2012023762A2
Authority
WO
WIPO (PCT)
Prior art keywords
intra prediction
prediction mode
mode
unit
intra
Prior art date
Application number
PCT/KR2011/005941
Other languages
English (en)
French (fr)
Other versions
WO2012023762A3 (ko
Inventor
오수미
Original Assignee
Oh Soo Mi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45605532&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2012023762(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from KR1020110064301A external-priority patent/KR20120058384A/ko
Application filed by Oh Soo Mi filed Critical Oh Soo Mi
Priority to DK11818362.3T priority Critical patent/DK2608541T3/en
Priority to KR1020187009843A priority patent/KR20180039754A/ko
Priority to PL16184578T priority patent/PL3125558T3/pl
Priority to PL16184569T priority patent/PL3125554T3/pl
Priority to JP2013524784A priority patent/JP5982612B2/ja
Priority to KR1020147010248A priority patent/KR101474987B1/ko
Priority to KR1020187009841A priority patent/KR20180039752A/ko
Priority to EP11818362.3A priority patent/EP2608541B1/en
Priority to PL16184582T priority patent/PL3125559T3/pl
Priority to KR1020147010246A priority patent/KR20140057672A/ko
Priority to KR1020147010247A priority patent/KR20140057673A/ko
Priority to KR1020147014092A priority patent/KR20140071507A/ko
Priority to KR1020187009842A priority patent/KR20180039753A/ko
Priority to RS20161024A priority patent/RS55325B1/sr
Priority to EP16184582.1A priority patent/EP3125559B1/en
Priority to EP16184578.9A priority patent/EP3125558B1/en
Priority to EP16184586.2A priority patent/EP3125560B1/en
Priority to KR1020187009845A priority patent/KR20180039756A/ko
Priority to KR1020187009839A priority patent/KR20180039750A/ko
Priority to KR1020137020599A priority patent/KR101854489B1/ko
Priority to KR1020137020598A priority patent/KR20130091799A/ko
Priority to EP16184577.1A priority patent/EP3125557B1/en
Priority to KR1020187009840A priority patent/KR20180039751A/ko
Priority to EP16184569.8A priority patent/EP3125554B1/en
Priority to ES11818362.3T priority patent/ES2602779T3/es
Priority to KR1020147014100A priority patent/KR20140075020A/ko
Priority to EP16184574.8A priority patent/EP3125556B1/en
Priority to KR1020187009846A priority patent/KR20180039757A/ko
Priority to CN201180050177.7A priority patent/CN103168472B/zh
Priority to PL16184586T priority patent/PL3125560T3/pl
Priority to SI201131041A priority patent/SI2608541T1/sl
Priority to LTEP11818362.3T priority patent/LT2608541T/lt
Priority to PL16184577T priority patent/PL3125557T3/pl
Priority to KR1020127028865A priority patent/KR101373819B1/ko
Priority to PL16184574T priority patent/PL3125556T3/pl
Priority to KR1020187009844A priority patent/KR20180039755A/ko
Publication of WO2012023762A2 publication Critical patent/WO2012023762A2/ko
Publication of WO2012023762A3 publication Critical patent/WO2012023762A3/ko
Priority to US13/624,844 priority patent/US9491478B2/en
Priority to US15/189,243 priority patent/US10123009B2/en
Priority to US15/189,219 priority patent/US9716886B2/en
Priority to US15/189,305 priority patent/US10136130B2/en
Priority to US15/189,374 priority patent/US9918086B2/en
Priority to US15/189,561 priority patent/US9924187B2/en
Priority to US15/189,452 priority patent/US9924186B2/en
Priority to US15/189,485 priority patent/US9918087B2/en
Priority to US15/189,273 priority patent/US10123010B2/en
Priority to US15/189,521 priority patent/US10085019B2/en
Priority to US15/189,596 priority patent/US10003795B2/en
Priority to US15/189,346 priority patent/US10063854B2/en
Priority to SM201600449T priority patent/SMT201600449B/it
Priority to CY20161101330T priority patent/CY1118382T1/el
Priority to HRP20170053TT priority patent/HRP20170053T1/hr
Priority to US16/171,548 priority patent/US10567760B2/en
Priority to US16/725,167 priority patent/US10944965B2/en
Priority to US17/161,113 priority patent/US11284072B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Definitions

  • the present invention relates to an intra prediction decoding method, and more particularly, to reconstruct an intra prediction mode to generate a prediction block close to an original signal, to decode a residual signal to generate a residual block, and to generate the generated prediction block and the residual block.
  • the present invention relates to an intra prediction decoding method for generating a reconstruction block.
  • a picture is divided into macro blocks to encode an image.
  • Each macro block is encoded using inter prediction or intra prediction.
  • intra prediction does not refer to a reference picture in order to encode a block of a current picture, but encodes using a pixel value spatially adjacent to the current block to be encoded.
  • an intra prediction mode with less distortion compared to the original macro block is selected using adjacent pixel values.
  • the prediction value for the current block to be encoded is calculated using the selected intra prediction mode and the adjacent pixel value, and the difference between the prediction value and the pixel value of the original current block is obtained, and then encoded through transform encoding, quantization, and entropy encoding. .
  • the prediction mode is also encoded.
  • the 4x4 intra prediction mode includes a vertical mode, a horizontal mode, a direct current mode, a diagonal down-left mode, a diagonal down-right mode, There are a total of nine modes: vertical right mode, vertical left mode, horizontal-up mode, and horizontal-down mode.
  • a 4x4 image is encoded by generating a prediction block of the current block in any of nine modes.
  • some or all of the pixel values adjacent to the pixels included in the current block do not exist or are not encoded, some or all of the intra prediction modes may not be applied.
  • intra prediction is performed by selecting one of the applicable intra modes, a residual signal between the current block and the prediction block is increased, thereby reducing the efficiency of image compression.
  • An object of the present invention is to generate a prediction block similar to an original image according to an intra prediction mode, generate a residual block by decoding a residual signal, and generate a reconstruction block using the generated residual block and the prediction block.
  • the intra prediction decoding method demultiplexes the intra prediction information and the residual signal, and decodes the intra prediction mode of the current prediction unit by using the intra prediction mode and the intra prediction mode of the prediction unit adjacent to the current prediction unit. If there are reference pixels not available in the current prediction unit, generating reference pixels using one or more available reference pixels, filtering the reference pixels based on the decoded intra prediction mode, and decoding Generate a prediction block by using the received intra prediction mode and the reference pixels, generate a residual block by decoding the demultiplexed residual signal, and generate a reconstruction block by using the prediction block and the residual block. .
  • the intra prediction decoding method decodes an intra prediction mode of a current prediction unit and adaptively filters reference pixels according to the decoded intra prediction mode to generate a prediction block similar to the original image.
  • the residual block is generated by adaptively decoding the residual signal according to the intra prediction mode. Therefore, a reconstruction block is generated by combining the prediction block and the residual block close to the original image. Therefore, not only does it provide a prediction mode decoding method corresponding to the prediction mode coding method that can effectively reduce the amount of additional coding that occurs as the number of intra prediction modes increases, but also generates a prediction block close to the original image.
  • FIG. 1 is a block diagram illustrating a video encoding apparatus according to the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of an intra prediction unit of a video encoding apparatus according to the present invention.
  • FIG. 3 is a diagram illustrating positions of reference pixels used for intra prediction according to the present invention.
  • FIG. 4 is a diagram illustrating a directional intra prediction mode according to the present invention.
  • FIG. 5 is a block diagram showing the configuration of a video decoding apparatus according to the present invention.
  • FIG. 6 is a block diagram illustrating a configuration of an intra prediction unit of a video decoding apparatus according to the present invention.
  • FIG. 7 is a diagram illustrating a decoding process of an intra prediction mode according to the present invention.
  • FIG. 8 is a diagram illustrating a process of restoring an intra prediction mode according to the present invention when the number of prediction modes in the first intra prediction mode group according to the present invention is variable.
  • FIG. 9 is a diagram illustrating a process of restoring an intra prediction mode according to the present invention when the number of prediction modes in the first intra prediction mode group according to the present invention is fixed.
  • FIG. 1 is a block diagram illustrating a video encoding apparatus according to the present invention.
  • the video encoding apparatus 100 may include a picture splitter 110, a transformer 120, a quantizer 130, a scanning unit 131, an entropy encoder 140, and an intra.
  • the picture dividing unit 110 analyzes the input video signal, divides the picture into coding units having a predetermined size for each largest coding unit, and determines a prediction mode, and determines the size of the prediction unit for each coding unit.
  • the picture splitter 110 transmits the prediction unit to be encoded to the intra predictor 150 or the inter predictor 160 according to the prediction mode.
  • the picture dividing unit 110 sends the prediction unit to be encoded to the subtracting unit 190.
  • the transformer 120 converts the residual block that is the residual signal of the original block of the input prediction unit and the prediction block generated by the intra predictor 150 or the inter predictor 160.
  • the residual block consists of a coding unit.
  • the residual block composed of the coding units is divided into optimal transform units and transformed.
  • Different transformation matrices may be determined according to the prediction mode (intra or inter).
  • the transformation matrix may be adaptively determined according to the intra prediction mode.
  • the transformation unit may be transformed by two (horizontal and vertical) one-dimensional transformation matrices. For example, in the case of inter prediction, one predetermined transformation matrix is determined.
  • a DCT-based integer matrix is applied in the vertical direction and DST-based in the horizontal direction.
  • a KLT-based integer matrix is applied in the vertical direction and a DCT based integer matrix in the horizontal direction.
  • a transform matrix may be adaptively determined depending on the size of the transform unit.
  • the quantization unit 130 determines the quantization step size for quantizing the coefficients of the residual block transformed by the transform matrix for each coding unit.
  • the quantization step size is determined for each coding unit of a predetermined size or more.
  • the predetermined size may be 8x8 or 16x16.
  • the coefficients of the transform block are quantized using a quantization matrix determined according to the determined quantization step size and prediction mode.
  • the quantization unit 130 uses the quantization step size of the coding unit adjacent to the current coding unit as a quantization step size predictor of the current coding unit.
  • the quantization unit 130 searches for the left coding unit, the upper coding unit, and the left upper coding unit of the current coding unit, and generates a quantization step size predictor of the current coding unit by using one or two valid quantization step sizes.
  • the first valid quantization step size retrieved in the above order may be determined as a quantization step size predictor.
  • the average value of the two valid quantization step sizes searched in the above order may be determined as the quantization step size predictor. If only one is valid, the average value may be determined as the quantization step size predictor.
  • a difference value between the quantization step size of the current coding unit and the quantization step size predictor is transmitted to the entropy encoder 140.
  • candidates may be the coding units adjacent to the current coding unit and the coding unit immediately before the coding order within the maximum coding unit.
  • the order may be reversed and the upper left coding unit may be omitted.
  • the quantized transform block is provided to the inverse quantization unit 135 and the scanning unit 131.
  • the scanning unit 131 scans the coefficients of the quantized transform block and converts them into one-dimensional quantization coefficients. Since the coefficient distribution of the transform block after quantization may be dependent on the intra prediction mode, the scanning scheme is determined according to the intra prediction mode. In addition, the coefficient scanning scheme may be determined differently according to the size of the transform unit. The scan pattern may vary depending on the directional intra prediction mode. The scan order of the quantization coefficients scans in the reverse direction.
  • the same scan pattern is applied to the quantized coefficients in each subset.
  • the plurality of subsets consists of one main subset and at least one residual subset.
  • the main subset is located on the upper left side containing the DC coefficients, and the remaining subset covers an area other than the main subset.
  • Scan patterns between subsets apply a zigzag scan.
  • the scan pattern is preferably scanned from the main subset to the remaining subsets in the forward direction, but vice versa.
  • scan patterns between subsets may be set in the same manner as scan patterns of quantized coefficients in the subset. In this case, the scan pattern between the subsets is determined according to the intra prediction mode.
  • the encoder sends information to the decoder that can indicate the location of the last non-zero quantization coefficient in the transform unit.
  • Information that can indicate the location of the last non-zero quantization coefficient in each subset is also sent to the decoder.
  • the information may be information indicating the position of the last non-zero quantization coefficient in each subset.
  • Inverse quantization 135 inverse quantizes the quantized quantization coefficients.
  • the inverse transform unit 125 restores the inverse quantized transform coefficients to the residual block of the spatial domain.
  • the adder combines the residual block reconstructed by the inverse transform unit and the prediction block from the intra predictor 150 or the inter predictor 160 to generate a reconstructed block.
  • the post-processing unit 170 performs a deblocking filtering process to remove the blocking effect occurring in the reconstructed picture, an adaptive offset application process to compensate for the difference from the original picture in pixel units, and a difference from the original picture in the coding unit. Adaptive loop filtering is performed to complement the value.
  • the deblocking filtering process is preferably applied to the boundary of the prediction unit and the transform unit having a size of a predetermined size or more.
  • the size may be 8x8.
  • the deblocking filtering process includes determining a boundary to filter, determining a boundary filtering strength to be applied to the boundary, determining whether to apply a deblocking filter, and the deblocking filter. If it is determined to apply, the method includes selecting a filter to apply to the boundary.
  • Whether or not the deblocking filter is applied is i) whether the boundary filtering intensity is greater than 0, and ii) a value indicating the degree of change of pixel values in two block (P block, Q block) boundary portions adjacent to the boundary to be filtered. It is determined by whether or not it is smaller than the first reference value determined by this quantization parameter.
  • the said filter is at least 2 or more.
  • a filter that performs relatively weak filtering is selected.
  • the second reference value is determined by the quantization parameter and the boundary filtering intensity.
  • the adaptive offset application process is to reduce the distortion between the original pixel and the pixel in the image to which the deblocking filter is applied. Whether to perform the adaptive offset application process on a picture or slice basis may be determined.
  • the picture or slice may be divided into a plurality of offset regions, and an offset type may be determined for each offset region.
  • the offset type may include a predetermined number (eg, four) edge offset types and two band offset types. If the offset type is an edge offset type, the edge type to which each pixel belongs is determined, and an offset corresponding thereto is applied.
  • the edge type is determined based on a distribution of two pixel values adjacent to the current pixel.
  • the adaptive loop filtering process may perform filtering based on a value obtained by comparing the reconstructed image and the original image that have undergone the deblocking filtering process or the adaptive offset application process.
  • the determined ALF may be applied to all pixels included in a 4x4 or 8x8 block.
  • Whether to apply the adaptive loop filter may be determined for each coding unit.
  • the size and coefficients of the loop filter to be applied according to each coding unit may vary.
  • Information indicating whether the adaptive loop filter is applied to each coding unit may be included in each slice header. In the case of a chrominance signal, it may be determined whether to apply an adaptive loop filter on a picture basis.
  • the shape of the loop filter may have a rectangular shape unlike the luminance.
  • Adaptive loop filtering may determine whether to apply per slice. Therefore, information indicating whether adaptive loop filtering is applied to the current slice is included in the slice header or the picture header. Indicating that adaptive loop filtering is applied to the current slice, the slice header or picture header additionally includes information indicating the filter length in the horizontal and / or vertical direction of the luminance component used in the adaptive loop filtering process.
  • the slice header or picture header may include information indicating the number of filter sets. In this case, if the number of filter sets is 2 or more, the filter coefficients may be encoded using a prediction method. Accordingly, the slice header or the picture header may include information indicating whether filter coefficients are encoded by the prediction method, and include the predicted filter coefficients when the prediction method is used.
  • the slice header or the picture header may include information indicating whether each of the color difference components is filtered.
  • information indicating whether to filter on Cr and Cb may be joint coded (ie, multiplexed coding).
  • entropy coding is performed by allocating the smallest index when both Cr and Cb are not filtered.
  • entropy encoding is performed by allocating the largest index.
  • the picture storage unit 180 receives the post-processed image data from the post processor 160 and restores and stores the image in picture units.
  • the picture may be an image in a frame unit or an image in a field unit.
  • the picture storage unit 180 includes a buffer (not shown) that can store a plurality of pictures.
  • the inter prediction unit 160 performs motion estimation using at least one reference picture stored in the picture storage unit 180, and determines a reference picture index and a motion vector representing the reference picture.
  • the prediction block corresponding to the prediction unit to be encoded is extracted from the reference pictures used for motion estimation among the plurality of reference pictures stored in the picture storage unit 180 according to the determined reference picture index and the motion vector. .
  • the intra predictor 150 performs intra prediction encoding by using the reconstructed pixel values in the picture in which the current prediction unit is included.
  • the intra prediction unit 150 receives the current prediction unit to be predictively encoded, selects one of a preset number of intra prediction modes according to the size of the current block, and performs intra prediction.
  • the intra predictor adaptively filters the reference pixel to generate an intra prediction block. If the reference pixel is not available, the reference pixels can be generated using the available reference pixels.
  • the entropy encoder 140 entropy encodes the quantization coefficient quantized by the quantizer 130, intra prediction information received from the intra predictor 140, motion information received from the inter predictor 150, and the like.
  • FIG. 2 is a block diagram illustrating an intra prediction unit 150 of the encoding apparatus 100 according to the present invention.
  • the intra predictor 150 may include a reference pixel generator 151, a reference pixel filter 152, a predictive block generator 153, a prediction mode determiner 154, and a prediction mode encoder ( 155).
  • the reference pixel generator 151 determines whether reference pixels for intra prediction are generated, and generates reference pixels when it is necessary to generate them.
  • the upper reference pixels of the current prediction unit are composed of upper reference pixels, left reference pixels, and corner reference pixels.
  • the upper reference pixels of the current prediction unit are pixels (areas C, D) that exist over twice the horizontal length of the current prediction unit, and the left pixels of the current prediction unit are 2 of the vertical length of the current prediction unit. These are pixels (areas A and B) existing over the double.
  • the reference pixel generator 151 determines whether the reference pixels are available. If some of the reference pixels are not available, the reference pixels at positions not available are generated using the available reference pixels.
  • the upper reference pixels (regions C and D) and the corner reference pixel of the current prediction unit do not exist.
  • the reference pixel may be generated by copying the nearest available reference pixel. In the former case, the closest available reference pixel is the leftmost top reference pixel (ie, the top reference pixel of region A). In the latter case, the closest available reference pixel is the upper leftmost reference pixel (ie, the leftmost reference pixel of region C).
  • Reference pixels adjacent to the upper side of the current prediction unit (region C) are valid but right upper reference pixels (region D) may not be valid. If the current prediction unit is located at the right boundary of the picture or slice or at the right boundary of the largest coding unit, the reference pixels of region D are not available. In this case, the right upper reference pixels (region D) are generated using one or more upper reference pixels. Preferably, the upper rightmost reference pixel can be copied. In addition, the right upper reference pixels may be generated using two or more upper reference pixels.
  • Reference pixels adjacent to the left side of the current prediction block (region A) are valid, but lower left reference pixels (region B) may not be valid. Reference pixels of region B are not available if the current prediction unit is located at the bottom boundary of the picture or slice or at the bottom boundary of the maximum coding unit.
  • the lower left reference pixels (region B) are generated using one or more left reference pixels. Preferably, the left lowest reference pixel can be copied.
  • the lower left reference pixels may be generated using two or more left reference pixels.
  • the reference pixels may be generated by copying the available reference pixels existing in the nearest position.
  • reference pixels may be generated using a plurality of available reference pixels existing at the nearest position.
  • the reference pixels corresponding to the area C of the current prediction unit are not available, but are the area A and the area.
  • Reference pixels located at D are available.
  • one available reference pixel existing at the position closest to each direction is selected, and these (that is, the uppermost reference pixel of region A and the leftmost region of region D) are selected.
  • a rounded average value of the two reference pixels may be generated as a reference pixel value.
  • the reference pixel may be generated using a linear interpolation method.
  • the position of the reference position that is not available may be generated in consideration of the positions of the two reference pixels.
  • the reference pixel filtering unit 152 adaptively filters the reference pixels of the current prediction unit.
  • FIG. 4 is a diagram illustrating a directional intra prediction mode according to the present invention.
  • the reference pixel filtering unit 152 adaptively filters according to the intra prediction mode and the position of the reference pixel.
  • the prediction mode is vertical (mode 0), horizontal (mode 1), or DC (mode 2)
  • the reference pixel is adaptively filtered.
  • the filtering is to smooth the amount of change in the pixel value between the reference pixels, and applies a low-pass filter.
  • the low-pass filter may be [1, 2, 1], which is a 3-tap filter, or [1, 2, 4, 2, 1], which is a 5-tap filter.
  • the low-pass filter is adaptively applied according to the size of the current prediction unit and the intra prediction mode.
  • the filter is adaptively applied according to the size of the prediction unit.
  • the first filter may be used for the prediction unit smaller than the predetermined size
  • the second filter having the smoothing effect may be used for the prediction unit larger than the predetermined size.
  • the predetermined size may be 16 ⁇ 16.
  • the filter is adaptively applied according to the size of the prediction unit for modes existing between the vertical or horizontal mode and modes having an angle of 45 ° with respect to the horizontal or vertical mode.
  • the filter may be applied only in a predetermined number of modes adjacent to the mode having a 45 ° angle with respect to the horizontal or vertical mode.
  • the predetermined number increases as the size of the prediction unit increases. That is, filtering is performed in a mode having a 45 ° angle with respect to the horizontal or vertical mode for the 8x8 prediction unit and a first number of modes adjacent thereto, and having a 45 ° angle with the horizontal or vertical mode with respect to the 16x16 prediction unit.
  • the filtering is performed in the mode and the second number of modes adjacent thereto, and the filtering is performed in the mode having a 45 ° angle with respect to the horizontal or vertical mode and the third number of modes adjacent to the 32x32 prediction unit.
  • the first number is less than or equal to the second number
  • the second number is less than or equal to the third number.
  • the prediction block generator 153 generates a prediction block corresponding to the intra prediction mode.
  • the prediction block uses reference pixels based on the intra prediction mode.
  • a step may occur between the reference pixels and a pixel in an adjacent prediction block because the prediction block is formed of an average value of the reference pixels. Therefore, the pixels of the upper line and the pixels of the left line in the prediction block adjacent to the reference pixels are filtered using the reference pixels. Specifically, since pixels adjacent to the upper left corner of the prediction block have two adjacent reference pixels (upper reference pixel and left reference pixel), the pixels of the upper left corner are filtered (or smoothed) using a 3-tap filter. )do. The other pixels (that is, the pixels of the upper line and the pixels of the left line in the prediction block) are filtered using the 2-tap filter because there is one adjacent reference pixel.
  • a reference pixel of a prediction block is generated by using a corner reference pixel, a left reference pixel, and an upper reference pixel.
  • the prediction block is not filtered.
  • the correlation between the left pixels in the prediction block and the left reference pixels adjacent thereto are inferior. The further away from the upper side, the lower the correlation.
  • the correlation between the upper pixels and the upper reference pixels in the prediction block also decreases toward the right side.
  • the difference value with the original prediction unit increases toward the bottom of the prediction block.
  • the pixels of the left part of the prediction block may be filtered using the left reference pixels that are not used for generating the prediction block.
  • the pixels of the upper part of the prediction block may be filtered using the upper reference pixels that are not used for generating the prediction block.
  • the upper reference pixel of the current prediction unit When the prediction block is generated using only the two pixels, the step between the reference pixel and the pixels on the left line of the generated prediction block adjacent to the reference pixel may increase toward the bottom.
  • the left side of the current prediction unit When the prediction block is generated using only the reference pixels, the step between pixels of the upper line of the generated prediction block adjacent to the reference pixel and the reference pixel may be increased toward the right.
  • some pixels of the prediction block may be adaptively filtered even for the directional mode other than DC.
  • both upper and left reference pixels may be used for generating a prediction block to compensate for the step.
  • the prediction block is generated using the upper reference pixels, and the left pixels in the generated prediction block adjacent to the left reference pixel are filtered.
  • an area of a pixel may be changed in the prediction block to be filtered in the generated prediction block. That is, according to the size of the prediction unit, the number of lines to be filtered and the ratio of the pixels to be filtered within the lines may vary. As the size of the prediction unit increases, the number of lines to be filtered may be the same or increase. In addition, the percentage of pixels filtered in the line may be reduced. In addition, the filtering intensity can be lowered away from the reference pixel.
  • pixels located in the first left line of the generated prediction block may be filtered.
  • all pixels located in the first left line and some pixels located in the second line may be filtered.
  • all pixels located on the first left line, a first number of pixels located on the second line, and a second number of pixels located on the third line may be filtered.
  • the predetermined number of modes having the directionality close to the mode number 6 may be filtered in the same manner as the mode number 6. In this case, the farther the mode from the mode number 6, the same or smaller the number of pixels to be filtered.
  • the filtering may be performed in the same manner as the vertical mode with respect to a predetermined number of modes having a directionality close to the mode number 0 among the modes having the directionality between the mode numbers 0 and 6.
  • the prediction block may be generated using both upper and left reference pixels without applying the method of filtering some pixels of the prediction block.
  • the mode number 9 and a predetermined number of modes adjacent thereto are the same.
  • the method of filtering some pixels of the prediction block may include predicting pixels in different ways according to the positions of the pixels of the prediction block (ie, the positions of the pixels to be filtered) so as to have the same effect as the filtering effect when generating the prediction block. Can be generated.
  • the prediction mode determiner 154 determines the intra prediction mode of the current prediction unit.
  • the prediction mode determiner 154 may determine a mode in which the encoding amount of the residual block for each intra prediction mode is minimum as the intra prediction mode of the current prediction unit.
  • the prediction mode encoder 155 encodes the intra prediction mode of the current prediction unit determined by the prediction mode determiner 154.
  • the prediction mode encoder 155 may be included in the intra predictor 150 and performed, or may be performed by the entropy encoder 140.
  • the prediction mode encoder 155 encodes the intra prediction mode of the current prediction unit by using the intra prediction mode of the prediction unit adjacent to the current prediction unit.
  • Intra prediction modes eg, 35 modes
  • the group to which the intra prediction mode of the current prediction unit belongs and the index corresponding to the intra prediction mode of the current prediction unit in the group are encoded.
  • Each group includes at least one intra prediction mode.
  • the number of intra prediction mode groups is two or three.
  • intra prediction modes of prediction units adjacent to the current prediction unit are derived.
  • the modes may be intra prediction modes of the upper prediction unit and the left prediction unit of the current prediction unit.
  • the intra prediction mode of the first valid prediction unit is set as the upper intra prediction mode while scanning in a predetermined direction (for example, left to right).
  • the intra prediction mode of the first valid prediction unit may be set as the left intra prediction mode while scanning in a predetermined direction (eg, from top to bottom).
  • the smallest mode number among the mode numbers of the plurality of valid prediction units may be set as the upper intra prediction mode.
  • the mode number of the derived intra prediction modes is greater than or equal to the number of intra prediction modes allowed for the current prediction unit, map the derived intra prediction modes to one of the intra prediction modes allowed by the current prediction unit.
  • a first intra prediction mode group is formed using the derived or mapped intra prediction modes.
  • a first intra prediction mode group may be formed using candidate intra prediction modes of a predetermined order according to the derived or mapped intra prediction mode and the intra prediction mode. If the derived or mapped intra prediction mode is a directional mode, the predetermined candidate intra prediction mode may be at least one or more intra prediction modes closest to the directionality of the derived or mapped intra prediction mode.
  • the information representing the first intra prediction mode group and the corresponding index in the first intra prediction mode group are encoded.
  • Intra prediction modes belonging to the second intra prediction mode group are intra prediction modes except for intra prediction modes belonging to the first intra prediction mode group.
  • At least one intra prediction mode may be added to the first intra prediction mode group. For example, when one mode is added, a DC mode or a planar mode may be added. If two modes are added, a DC mode and a planar mode or a vertical mode may be added. If three modes are added, two of the DC mode, the planar mode, the vertical mode, and the horizontal mode may be added.
  • At least one of the intra prediction modes of the left and upper prediction units is valid or the same, at least one or two intra prediction modes may be added to the first intra prediction mode group.
  • one of DC mode and planar mode can be added.
  • the valid intra prediction mode When two are added, it depends on whether the valid intra prediction mode is a directional mode.
  • the valid intra prediction mode is a non-directional prediction mode (DC mode or planar mode)
  • a vertical mode and a horizontal mode or another non-directional mode (planar mode or DC mode) and a vertical mode may be added.
  • both intra prediction modes closest to the valid intra prediction mode may be added.
  • one adjacent mode mode 25 or mode 33
  • DC or planar may be added.
  • an index corresponding to a mode number in which the intra prediction mode included in the last prediction mode group is rearranged is encoded.
  • one VLC table can be used.
  • the case of two intra prediction mode groups has been exemplified, but the case of three intra prediction mode groups is also possible.
  • the intra prediction mode of the current prediction unit does not belong to the first intra prediction mode group, it is determined whether to belong to the second intra prediction mode group. If the information belongs to the second intra prediction mode group, information indicating the second intra prediction mode group and a corresponding index in the second intra prediction mode group are encoded. However, if it does not belong to the second intra prediction mode group, information indicating the third intra prediction mode group and a corresponding index in the third intra prediction mode group are encoded. In this case, the second intra prediction mode group is generated based on the intra prediction modes of the left and upper prediction units of the current prediction unit.
  • the prediction mode encoder 155 may encode the intra prediction mode of the current prediction unit as follows. First, it is determined whether the intra prediction mode of the current prediction unit is the same as one of the intra prediction modes of the adjacent previous block. If the intra prediction mode of the current prediction unit is the same as any of the intra prediction modes of the adjacent previous block, the value of the flag pred_flag indicating this is set to 1, and the available left or upper available mode is used. Encode the intra prediction mode of the current prediction unit. However, if the intra prediction mode of the current prediction unit is not the same as any one of the intra prediction modes of the adjacent previous block, the value of the flag pred_flag is set to 0, except for the left and upper intra prediction modes. Among intra prediction modes, a value indicating how many times the intra prediction mode of the current prediction unit corresponds to is encoded.
  • the intra prediction mode of chroma may adaptively include a mode using the intra prediction mode of luma (luma mode). Therefore, when the luma mode is included, the information may be included in the SPS, PPS, or slice header.
  • the number of intra prediction modes of Chroma may vary depending on the size of the prediction unit.
  • Intra prediction mode encoding of Chroma may use an intra prediction mode of an adjacent block like luma. The specific method may be the same as the method exemplified above.
  • the intra prediction mode of chroma may be encoded without using intra prediction mode information of an adjacent block. In this case, the VLC table can be used.
  • the prediction block transmitter 156 transmits the prediction block generated corresponding to the intra prediction mode determined by the prediction mode determiner 154 to the subtractor 190.
  • FIG. 5 is a block diagram illustrating a video decoding apparatus according to an embodiment of the present invention.
  • the video decoding apparatus includes an entropy decoding unit 210, an inverse scanning unit 220, an inverse quantization unit 230, an inverse transform unit 240, an intra prediction unit 250, and an inter A predictor 260, a post processor 270, a picture storage 280, an adder 290, and an intra / inter switch 295 are provided.
  • the entropy decoding unit 210 decodes the received encoded bit stream and separates the received encoded bit stream into intra prediction information, inter prediction information, quantization coefficient information, and the like.
  • the entropy decoder 210 supplies the decoded inter prediction information to the inter predictor 260.
  • the entropy decoding unit 210 decodes the intra prediction information and supplies it to the intra prediction unit 250.
  • the entropy decoding 210 supplies the inverse quantization coefficient information to the inverse scan unit 220.
  • the inverse scanning unit 220 converts the quantization coefficient information into an inverse quantization block of a two-dimensional array.
  • One of the plurality of inverse scanning patterns is selected for the conversion.
  • the coefficient inverse scanning pattern may be determined according to the intra prediction mode. If the size of the current transform unit is larger than the predetermined size, the quantized transform unit is configured by inverse scanning in a subset unit of the predetermined size. When the size of the current transform unit is the same as that of a predetermined size, the quantized transform unit is configured by inverse scanning in units of transform units.
  • the quantized coefficients are inversely scanned in units of a plurality of subsets, the same inverse scan pattern is applied to the quantization coefficients in each subset.
  • the plurality of subsets consists of one main subset and at least one residual subset. The main subset is located on the upper left side containing the DC coefficients, and the remaining subset covers an area other than the main subset.
  • Inverse scan patterns between subsets apply a reverse zigzag scan.
  • the scan pattern is preferably backscanned from the remaining subsets to the main subset, but vice versa.
  • an inverse scan pattern between subsets may be set in the same manner as an inverse scan pattern of quantized coefficients in the subset.
  • the inverse scanning unit 220 performs inverse scanning by using information indicating the position of the last non-zero quantization coefficient in the current transform unit.
  • the inverse quantization unit 230 determines a quantization step size predictor of the current coding unit. The determination of the predictor is the same as the determination of the predictor of the quantization unit 130 of FIG.
  • the inverse quantization unit 230 adds the determined quantization step size predictor and the received residual quantization step size to obtain a quantization step size applied to the current inverse quantization block.
  • the inverse quantization unit 230 restores the inverse quantization coefficient by using the quantization matrix to which the quantization step size is applied. Different quantization matrices are applied according to the size of the current block to be reconstructed, and even for blocks of the same size, a quantization matrix is selected based on at least one of the prediction mode and the intra prediction mode of the current block.
  • the inverse transform unit 240 inverts the inverse quantization block to restore the residual block.
  • the residual block is reconstructed by inversely transforming the reconstructed quantization coefficients.
  • the inverse transform matrix to be applied to the inverse quantization block may be adaptively determined according to a prediction mode (intra or inter) and an intra prediction mode. Since an inverse transform matrix of the transform matrix applied to the transform unit 120 of FIG. 1 is determined, a detailed description thereof is omitted.
  • the adder 290 reconstructs the image block by adding the residual block reconstructed by the inverse transform unit 240 and the prediction block generated by the intra predictor 250 or the inter predictor 260.
  • the intra predictor 250 restores the intra prediction mode of the current block based on the intra prediction information received from the entropy decoder 210.
  • the prediction block is generated according to the reconstructed intra prediction mode.
  • the inter prediction unit 260 reconstructs the reference picture index and the motion vector based on the inter prediction information received from the entropy decoding unit 210.
  • the prediction block for the current block is generated using the reference picture index and the motion vector.
  • the prediction block is generated by applying the selected interpolation filter.
  • the operation of the post processor 270 is the same as that of the post processor 160 of FIG. 3, it is omitted.
  • the picture storage unit 280 stores the decoded image post-processed by the post processor 270 in picture units.
  • FIG. 6 is a block diagram illustrating an intra predictor 250 of the decoding apparatus 200 according to the present invention.
  • the intra predictor 250 uses the prediction mode decoder 251, the reference pixel generator 252, the reference pixel filter 253, the prediction block generator 254, and the prediction block transmitter 255. Include.
  • the prediction mode decoder 251 receives the intra prediction information from the entropy decoding unit 210 and restores the intra prediction mode of the current prediction unit.
  • the intra prediction information includes information indicating an intra prediction mode group to which an intra prediction mode of a current prediction unit to be decoded belongs and an intra prediction mode index.
  • the prediction mode decoder 251 derives intra prediction modes of prediction units adjacent to the current prediction unit.
  • the modes may be intra prediction modes of the upper prediction unit and the left prediction unit of the current prediction unit.
  • the intra prediction mode of the first valid prediction unit is set as the upper intra prediction mode while scanning in a predetermined direction (for example, left to right).
  • the intra prediction mode of the first valid prediction unit may be set as the left intra prediction mode while scanning in a predetermined direction (eg, from top to bottom).
  • the smallest mode number among the mode numbers of the plurality of valid prediction units may be set as the upper intra prediction mode.
  • a candidate intra prediction mode of a predetermined order according to the derived or mapped intra prediction mode and the intra prediction mode may be included in the first intra prediction mode group.
  • the predetermined candidate intra prediction mode may be at least one or more intra prediction modes closest to the directionality of the derived or mapped intra prediction mode.
  • an intra prediction mode corresponding to the received intra prediction mode index is selected within the formed first intra prediction mode group. Then, the selected intra prediction mode is set as the intra prediction mode of the current prediction unit.
  • the intra prediction mode corresponding to the received intra prediction mode index is selected in the second intra prediction mode group. Then, the selected intra prediction mode is set as the intra prediction mode of the current prediction unit.
  • the second intra prediction mode group is composed of intra prediction modes other than intra prediction modes belonging to the first intra prediction mode group.
  • the intra prediction modes in the second intra prediction mode group may be rearranged based on the index.
  • the intra prediction modes in the second intra prediction mode group may be rearranged based on the index and the intra prediction modes of the upper and left prediction units of the current prediction unit.
  • At least one intra prediction mode may be added to the first intra prediction mode group. For example, when one mode is added, a DC mode or a planar mode may be added. If two modes are added, a DC mode and a planar mode or a vertical mode may be added. If three modes are added, two of the DC mode, the planar mode, the vertical mode, and the horizontal mode may be added.
  • At least one or two intra prediction modes may be added to the first intra prediction mode group. If one is added, one of DC mode and planar mode can be added. When two are added, it depends on whether the valid intra prediction mode is a directional mode. When the valid intra prediction mode is a non-directional prediction mode (DC mode or planar mode), a vertical mode and a horizontal mode or another non-directional mode (planar mode or DC mode) and a vertical mode may be added. When the valid intra prediction mode is a directional mode, both intra prediction modes closest to the valid intra prediction mode may be added. However, in the case where the directional mode exists only in one side of the valid intra prediction mode (mode 6 or mode 9), one adjacent mode (mode 25 or mode 33) and DC or planar may be added.
  • DC mode or planar mode DC mode and planar mode
  • the prediction mode decoder 251 may decode the intra prediction mode of the current prediction unit as follows. First, a flag (pred_flag) indicating whether the intra prediction mode of the current prediction unit is the same as one of the adjacent previous prediction units (eg, the upper and left prediction units) intra prediction mode is parsed. If the value of the flag pred_flag is 1, the intra prediction mode of the current prediction unit is obtained using the intra prediction modes of the available left and upper prediction units. When the value of the flag pred_flag is 0, the intra prediction mode of the current prediction unit is obtained by using the remaining intra prediction mode information rem_pred_mode. In this case, the remaining intra prediction mode information (rem_pred_mode) indicates the order of the intra prediction mode of the current prediction unit among the intra prediction modes except the intra prediction modes of the available left and upper prediction units.
  • the reference pixel generator 252 generates the reference pixel in the same manner as the reference pixel generator 151 of the encoding apparatus 100. However, the reference pixel generator 252 adaptively generates the reference pixel according to the intra prediction mode reconstructed by the prediction mode decoder 251. That is, the reference pixel generator 252 generates the reference pixel only when the reference pixels to be used to generate the prediction block using the reconstructed intra prediction mode are invalid.
  • the reference pixel filter 253 adaptively filters the reference pixels based on the intra prediction mode reconstructed by the prediction mode decoder 251 and based on the size information of the current prediction unit.
  • the filtering condition and the filter are the same as the filtering condition and the filter of the reference pixel filtering unit 152 of the encoding apparatus 100.
  • the prediction block generator 254 generates a prediction block using reference pixels according to the intra prediction mode reconstructed by the prediction mode decoder 251.
  • the method of generating the prediction block is the same as that of the prediction block generator 154 of the encoding apparatus 100.
  • the prediction block transmitter 255 transmits the prediction block received from the prediction mode generator 254 to the adder 290.
  • FIG. 7 is a flowchart illustrating an intra prediction decoding process according to the present invention.
  • the intra prediction information and the residual signal information are demultiplexed from the received bitstream (S100).
  • the step is performed in units of coding units.
  • the intra prediction information is obtained from prediction unit syntax in the coding unit
  • the residual signal information is obtained from transform unit syntax in the coding unit.
  • the intra prediction mode of the current prediction unit is decoded using the intra prediction information obtained from the prediction unit syntax (S110).
  • the intra prediction information includes an intra prediction mode group indicator (pred_mode) and a prediction mode index. If the intra prediction information does not include a prediction mode index, the prediction mode index is regarded as zero.
  • the intra prediction mode group indicator indicates an intra prediction mode group to which the current prediction unit belongs. When two intra prediction mode groups exist, the intra prediction group indicator pred_mode may be a flag of 1 bit. The number of intra prediction mode groups may be two or three.
  • FIG. 8 is a diagram for specifically describing an operation (S110) of restoring an intra prediction mode when the number of prediction modes in the first intra prediction mode group is variable.
  • S110 an operation of restoring an intra prediction mode when the number of prediction modes in the first intra prediction mode group is variable.
  • the case where the number of intra prediction mode groups is two will be described.
  • a first intra prediction mode group is generated using the available intra prediction modes of the prediction unit adjacent to the current prediction unit (S111).
  • the first intra prediction mode group may be configured using valid intra prediction modes of the upper and left prediction units of the current prediction unit. In this case, when both intra prediction modes of the upper and left prediction units are not valid, a DC or a planar mode may be added.
  • the first intra prediction mode group may further include at least one mode effective among intra prediction modes of the upper right, lower left and upper left prediction units of the current prediction unit. The mode is the first valid intra prediction mode searched in a predetermined order.
  • the intra prediction mode of the first valid prediction unit is set as the upper intra prediction mode while scanning in a predetermined direction (for example, from left to right). Even when there are a plurality of left prediction units of the current prediction unit, the intra prediction mode of the first valid prediction unit that is valid while scanning in a predetermined direction (eg, from top to bottom) may be set as the left intra prediction mode.
  • the valid intra prediction mode does not fall within the allowable intra prediction mode of the current prediction unit, the valid intra prediction mode is mapped to one of the allowable intra prediction modes of the current prediction unit.
  • the intra prediction mode group indicator is used to determine whether the intra prediction mode of the current prediction unit belongs to the first intra prediction mode group (S112).
  • step S113 If the intra prediction mode of the current prediction unit belongs to the first intra prediction mode group in step S112, it is determined whether a prediction mode index exists (S113).
  • an intra prediction mode corresponding to the prediction mode index among intra prediction modes in the first intra prediction mode group is determined as an intra prediction mode of the current prediction unit (S114).
  • the intra prediction mode existing in the first intra prediction mode group is determined as the intra prediction mode of the current prediction unit (S115). That is, if the prediction mode index does not exist, the first intra prediction mode group includes one intra prediction mode.
  • step S112 when the intra prediction mode of the current prediction unit does not belong to the first intra prediction mode group, an intra prediction mode corresponding to the prediction mode index is selected from intra prediction modes in the second intra prediction mode group, The intra prediction mode of the current prediction unit is determined (S116).
  • the second intra prediction mode group includes intra prediction modes except for an intra prediction mode belonging to the first intra prediction mode group.
  • An intra prediction mode candidate in the second intra prediction mode group may give a low index to a small intra prediction mode number.
  • FIG. 9 is a diagram specifically describing an intra prediction mode reconstruction step S110 according to the present invention when the number of prediction mode candidates in a first intra prediction mode group is a fixed value.
  • a first intra prediction mode group is generated using intra prediction modes of a prediction unit adjacent to a current prediction unit (S211).
  • the first intra prediction mode group includes two intra prediction modes.
  • the intra prediction mode group consists of the intra prediction modes of the upper and left prediction units of the current prediction unit. If only one of the intra prediction modes of the upper and left prediction unit of the current prediction unit is valid or two have the same intra prediction mode, one intra prediction mode is added to the first intra prediction mode group. If the valid one intra prediction mode is not the DC mode, a DC mode may be added. If the valid single intra prediction mode is a DC mode, a planar mode or a vertical mode may be added.
  • the first intra prediction mode group includes three intra prediction modes.
  • the valid intra prediction mode of the upper and left prediction units of the current prediction unit is determined whether the intra prediction modes of the upper and left prediction units of the current prediction unit are valid. And if the valid intra prediction mode does not belong to the allowable intra prediction mode of the current prediction unit, the valid intra prediction mode is converted (mapped) into one of the allowable intra prediction modes of the current prediction unit.
  • the first intra prediction mode group consists of the two valid intra prediction modes and one additional intra prediction mode.
  • the additional intra prediction mode is a mode different from the two intra prediction modes, and is one of a vertical mode, a horizontal mode, and a DC mode. In this case, one mode that can be added in the order of DC mode, vertical mode, and horizontal mode is included in the first intra prediction mode group.
  • the first intra prediction mode group is divided into the valid intra prediction mode and two additional intra prediction modes. It is composed.
  • the two additional intra prediction modes are adaptively determined according to the effective intra prediction mode and the size of the prediction unit. If the size of the prediction unit is less than or equal to a predetermined size, if the valid intra prediction mode is a directional prediction mode, intra prediction modes having a direction closest to the direction of the valid intra prediction mode are set to the additional intra prediction modes. . However, in case of Mode 6 or 9, Mode 9 or 6 is regarded as one of the directional prediction modes having the nearest direction, respectively.
  • the valid intra prediction mode is a non-directional prediction mode
  • the vertical mode and the horizontal mode may be set as additional intra prediction modes, or the other non-directional prediction mode and the vertical mode may be set as additional intra prediction modes.
  • the first intra prediction mode group consists of three additional intra prediction modes.
  • the three additional intra prediction modes may be a DC mode, a vertical mode and a horizontal mode. It may also be a DC mode, a planar mode, and a vertical mode.
  • the intra prediction mode of the first valid prediction unit is set as the upper intra prediction mode while scanning in a predetermined direction (for example, from left to right). Even when there are a plurality of left prediction units of the current prediction unit, the intra prediction mode of the first valid prediction unit that is valid while scanning in a predetermined direction (eg, from top to bottom) may be set as the left intra prediction mode.
  • the intra prediction mode group indicator is used to determine whether the intra prediction mode of the current prediction unit belongs to the first intra prediction mode group (S212).
  • the intra prediction mode of the current prediction unit belongs to the first intra prediction mode group in step S212, the intra prediction mode corresponding to the prediction mode index among the intra prediction modes in the first intra prediction mode group is intra of the current prediction unit.
  • the prediction mode is determined (S213).
  • step S212 when the intra prediction mode of the current prediction unit does not belong to the first intra prediction mode group, an intra prediction mode corresponding to the prediction mode index is selected from intra prediction modes in the second intra prediction mode group, The intra prediction mode of the current prediction unit is determined (S214).
  • the second intra prediction mode group includes intra prediction modes except for an intra prediction mode belonging to the first intra prediction mode group.
  • An intra prediction mode candidate in the second intra prediction mode group may give a low index to a small intra prediction mode number.
  • the reference pixel is adaptively generated based on the intra prediction mode of the decoded current prediction unit (S120).
  • the reference pixels may be generated by copying the available reference pixels existing in the nearest position.
  • reference pixels may be generated using a plurality of available reference pixels existing at the nearest position. If there are reference pixels available in both directions based on the unavailable reference pixels, reference pixels are generated using the nearest available reference pixels in each direction.
  • the generated reference pixel may generate a rounded average value of the two reference pixels (pixels located at positions closest to each direction) as reference pixel values. However, since there is a possibility that a large difference between the two reference pixel values occurs, the reference pixel may be generated using a linear interpolation method.
  • the filtering is to smooth the amount of change in the pixel value between the reference pixels, and applies a low-pass filter.
  • the low-pass filter may be [1, 2, 1], which is a 3-tap filter, or [1, 2, 4, 2, 1], which is a 5-tap filter.
  • the low-pass filter is adaptively applied according to the size of the current prediction unit and the intra prediction mode.
  • the filters are adaptively applied according to the size of the prediction unit for the modes existing between the vertical or horizontal mode and the modes having a 45 ° angle to the horizontal or vertical mode.
  • the filter may be applied only in the horizontal or vertical mode and a predetermined number of modes adjacent thereto according to the size of the intra prediction unit.
  • the predetermined number monotonically increases as the size of the prediction unit increases. That is, filtering is performed in a mode having a 45 ° angle with respect to the horizontal or vertical mode for the 8x8 prediction unit and a first number of modes adjacent thereto, and having a 45 ° angle with the horizontal or vertical mode with respect to the 16x16 prediction unit.
  • the filtering is performed in the mode and the second number of modes adjacent thereto, and the filtering is performed in the mode having a 45 ° angle with respect to the horizontal or vertical mode and the third number of modes adjacent to the 32x32 prediction unit.
  • the first number is less than or equal to the second number
  • the second number is less than or equal to the third number.
  • a prediction block is generated using reference pixels according to the decoded intra prediction mode (S140). Since the prediction block generation method is the same as the prediction block generation method of the prediction block generation unit of FIG. 6, it is omitted.
  • the demultiplexed residual signal is entropy decoded (S150).
  • the entropy decoded residual signal is inversely scanned (S160). That is, the decoded residual signal is converted into a dequantized block of a two-dimensional array. One of the plurality of inverse scanning patterns is selected for the conversion. The coefficient inverse scanning pattern may be determined according to the intra prediction mode. If the size of the current transform unit is larger than the predetermined size, the quantized transform unit is configured by inverse scanning in a subset unit of the predetermined size. When the size of the current transform unit is the same as that of a predetermined size, the quantized transform unit is configured by inverse scanning in units of transform units.
  • the inverse quantization block of the two-dimensional array is inversely quantized (S170).
  • the quantization step size predictor of the current coding unit is determined.
  • the determination process of the predictor is the same as the process of determining the predictor of the inverse quantization unit 230 of FIG.
  • the determined quantization step size predictor and the received residual quantization step size are added to obtain a quantization step size applied to the current inverse quantization block.
  • the inverse quantization coefficient is restored using the quantization matrix to which the quantization step size is applied.
  • the inverse quantized block is inversely transformed (S180).
  • the inverse transform matrix may be adaptively determined according to the decoded intra prediction mode.
  • the transformation unit may be transformed by two (horizontal and vertical) one-dimensional transformation matrices.
  • the intra prediction mode is horizontal, the probability of the residual block having the directionality in the vertical direction increases, so an inverse DCT based integer matrix is applied in the vertical direction, and an inverse DST based or inverse KLT based integer in the horizontal direction. Apply the matrix.
  • the intra prediction mode is vertical, an inverse DST-based or inverse KLT-based integer matrix is applied in the vertical direction, and an inverse DCT-based integer matrix is applied in the horizontal direction.
  • DC mode an inverse DCT-based integer matrix is applied in both directions.
  • a reconstructed image is generated by adding the predicted block and the inverse transformed block generated in step S140 (S190).
  • the reconstructed residual signal and the prediction block are reconstructed by being added in units of CUs.

Abstract

본 발명에 따른 인트라 예측 복호화 방법은 인트라 예측 정보 및 잔차신호를 역다중화하고, 상기 인트라 예측 정보 및 현재 예측 유닛에 인접한 예측 유닛의 인트라 예측 모드를 이용하여, 현재 예측 유닛의 인트라 예측 모드를 복호하고, 상기 현재 예측 유닛의 이용 가능하지 않는 참조 화소들이 존재하는 경우, 하나 이상의 이용 가능한 참조 화소를 이용하여 참조 화소들을 생성하고, 상기 복호된 인트라 예측 모드에 기초하여 상기 참조 화소를 필터링하고, 상기 복호된 인트라 예측 모드 및 상기 참조 화소들을 이용하여 예측 블록을 생성하고, 상기 역다중화된 잔차 신호를 복호화하여 잔차블록을 생성하고, 상기 예측 블록 및 잔차 블록을 이용하여 복원블록을 생성한다. 따라서, 인트라 예측 모드의 수가 증가함에 따라 발생하는 추가의 부호화량을 효과적으로 줄일 수 있을 수 있는 예측 모드 부호화 방식에 대응하는 예측 모드 복호화 방식을 제공할 뿐 아니라, 원본 영상에 가까운 예측 블록을 생성함으로써 부호화량을 줄이는 부호화방식에 대응하는 복호화 방식을 제공하여, 동영상 부호화/복호화시의 고성능 압축 및 재생효율을 발휘하도록 하는 효과가 있다.

Description

인트라 예측 복호화 방법
본 발명은 인트라 예측 복호화 방법에 관한 것으로, 보다 상세하게는 인트라 예측 모드를 복원하여 원신호에 가까운 예측 블록을 생성하고, 잔차신호를 복호하여 잔차 블록을 생성하고, 상기 생성된 예측 블록 및 잔차 블록을 이용하여 복원블록을 생성하는 인트라 예측 복호화 방법에 관한 것이다.
MPEG-1, MPEG-2, MPEG-4 H.264/MPEG-4 AVC(Advanced Video coding)와 같은 영상 압축 방식에서는 영상을 부호화하기 위해서 하나의 픽처를 매크로 블록으로 나눈다. 그리고, 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)을 이용해 각각의 매크로 블록을 부호화한다.
이 중에서 인트라 예측은 현재 픽처(picture)의 블록을 부호화하기 위해서 참조 픽처를 참조하는 것이 아니라, 부호화하려는 현재 블록과 공간적으로 인접한 화소값을 이용하여 부호화를 수행한다. 우선, 인접한 화소값을 이용하여 원본 매크로 블록과 비교하여 왜곡이 적은 인트라 예측 모드를 선택한다. 다음으로, 선택된 인트라 예측 모드 및 인접한 화소값을 이용하여 부호화하려는 현재 블록에 대한 예측값을 계산하고, 예측값과 원본 현재 블록의 화소값의 차이를 구한 후 이를 변환부호화, 양자화, 엔트로피 부호화를 통해 부호화한다. 그리고, 예측 모드도 부호화된다.
종래 기술에 따른 4×4 인트라 예측 모드에는 수직(vertical) 모드, 수평(horizontal) 모드, DC(direct current) 모드, 대각선 왼쪽(diagonal down-left) 모드, 대각선 오른쪽(diagonal down-right) 모드, 수직 오른쪽(vertical right) 모드, 수직 왼쪽(vertical left) 모드, 수평 위쪽(horizontal-up) 모드 및 수평 아래쪽(horizontal-down) 모드의 총 9개의 모드가 존재한다.
H.264 표준안에 따르면 영상을 4x4 영상을 부호화함에 있어 9가지 모드 중 어느 하나로 현재 블록의 예측블록을 생성하여 부호화한다. 또한, 최근에 표준화가 진행중인 HEVC에서는 블록의 크기에 따라 17가지 또는 34가지의 인트라 예측 모드가 존재한다.
그러나, 현재 블록에 포함된 화소들에 인접한 화소값들 중 일부 또는 전부가 존재하지 않거나, 부호화되지 않은 경우에는 인트라 예측 모드 중 일부 또는 전부를 적용할 수 없는 문제점이 발생한다. 적용 가능한 인트라 모드 중 선택하여 인트라 예측을 수행하면, 현재 블록과 예측블록 사이의 잔차신호(residue)가 크게 되므로 영상 압축의 효율이 떨어진다.
또한, 인트라 예측 모드의 수가 증가함에 따라, 기존의 인트라 예측 모드를 부호화하는 방법보다 효과적인 인트라 예측 모드를 부호화하는 방식이 필요하고, 이에 대응하여 효과적으로 인트라 예측 모드를 복호화하여 복원블록을 생성하는 방식이 필요하다.
본 발명이 이루고자 하는 목적은 인트라 예측 모드 따라 원본 영상과 유사한 예측 블록을 생성하고, 잔차신호를 복호화하여 잔차 블록을 생성하고, 상기 생성된 잔차 블록과 예측 블록을 이용하여 복원블록을 생성하는 방법을 제공하는데 있다.
본 발명에 따른 인트라 예측 복호화 방법은 인트라 예측 정보 및 잔차신호를 역다중화하고, 상기 인트라 예측 정보 및 현재 예측 유닛에 인접한 예측 유닛의 인트라 예측 모드를 이용하여, 현재 예측 유닛의 인트라 예측 모드를 복호하고, 상기 현재 예측 유닛의 이용 가능하지 않는 참조 화소들이 존재하는 경우, 하나 이상의 이용 가능한 참조 화소를 이용하여 참조 화소들을 생성하고, 상기 복호된 인트라 예측 모드에 기초하여 상기 참조 화소를 필터링하고, 상기 복호된 인트라 예측 모드 및 상기 참조 화소들을 이용하여 예측 블록을 생성하고, 상기 역다중화된 잔차 신호를 복호화하여 잔차블록을 생성하고, 상기 예측 블록 및 잔차 블록을 이용하여 복원블록을 생성하는 것을 특징으로 한다.
본 발명에 따른 인트라 예측 복호화 방법은 원본 영상에 유사한 예측 블록을 생성하기 위해, 현재 예측 유닛의 인트라 예측 모드를 복호하고, 상기 복호된 인트라 예측 모드에 따라 참조 화소들을 적응적으로 필터링하여 예측 블록을 생성한다. 또한, 잔차신호를 인트라 예측 모드에 따라 적응적으로 복호화함으로써 잔차 블록을 생성한다. 따라서, 원본 영상에 가까운 상기 예측 블록과 상기 잔차블록을 결합함으로서 복원블록을 생성한다. 따라서, 인트라 예측 모드의 수가 증가함에 따라 발생하는 추가의 부호화량을 효과적으로 줄일 수 있을 수 있는 예측 모드 부호화 방식에 대응하는 예측 모드 복호화 방식을 제공할 뿐 아니라, 원본 영상에 가까운 예측 블록을 생성함으로써 부호화량을 줄이는 부호화방식에 대응하는 복호화 방식을 제공하여, 동영상 부호화/복호화시의 고성능 압축 및 재생효율을 발휘하도록 하는 효과가 있다.
도 1은 본 발명에 따른 동영상 부호화 장치를 나타내는 블록도이다.
도 2는 본 발명에 따른 동영상 부호화 장치의 인트라 예측부의 구성을 나타내는 블록도이다.
도 3은 본 발명에 따른 인트라 예측에 사용되는 참조 화소들의 위치를 나타내는 도면이다.
도 4는 본 발명에 따른 방향성 인트라 예측 모드를 나타내는 도면이다.
도 5는 본 발명에 따른 동영상 복호화 장치의 구성을 나타내는 블록도이다.
도 6은 본 발명에 따른 동영상 복호화 장치의 인트라 예측부의 구성을 나타내는 블록도이다.
도 7은 본 발명에 따른 인트라 예측 모드의 복호화 과정을 나타내는 도면이다.
도 8은 본 발명에 따른 제1 인트라 예측 모드 그룹 내의 예측 모드의 수가 가변일 경우의 본 발명에 따른 인트라 예측 모드를 복원하는 과정을 나타내는 도면이다.
도 9는 본 발명에 따른 제1 인트라 예측 모드 그룹 내의 예측 모드의 수가 고정일 경우의 본 발명에 따른 인트라 예측 모드를 복원하는 과정을 나타내는 도면이다.
이하, 본 발명의 여러가지 실시예들을 예시적인 도면을 통해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
도 1은 본 발명에 따른 동영상 부호화 장치를 나타내는 블록도이다.
도 1을 참조하면, 본 발명에 따른 동영상 부호화 장치(100)는 픽쳐 분할부(110), 변환부(120), 양자화부(130), 스캐닝부(131), 엔트로피 부호화부(140), 인트라 예측부(150), 인터 예측부(160), 역양자화부(135), 역변환부(125), 후처리부(170), 픽쳐 저장부(180), 감산부(190) 및 가산부(195)를 포함한다.
픽쳐 분할부(110)는 입력되는 비디오 신호를 분석하여 픽쳐를 가장 큰 코딩 유닛마다 소정 크기의 코딩 유닛으로 분할하여 예측 모드를 결정하고, 상기 코딩 유닛별로 예측 유닛의 크기를 결정한다. 그리고, 픽쳐 분할부(110)는 부호화할 예측 유닛을 예측 모드에 따라 인트라 예측부(150) 또는 인터 예측부(160)로 보낸다. 또한, 픽쳐 분할부(110)는 부호화할 예측 유닛을 감산부(190)로 보낸다.
변환부(120)는 입력된 예측 유닛의 원본 블록과 인트라 예측부(150) 또는 인터 예측부(160)에서 생성된 예측 블록의 잔차신호인 잔차 블록을 변환한다. 상기 잔차 블록은 코딩 유닛으로 구성된다. 코딩 유닛으로 구성된 잔차 블록은 최적의 변환 단위로 분할되어 변환된다. 예측 모드(intra or inter)에 따라 서로 다른 변환 매트릭스가 결정될 수 있다. 또한, 인트라 예측의 잔차 신호는 인트라 예측 모드에 따라 방향성을 가지므로 인트라 예측 모드에 따라 적응적으로 변환 매트릭스가 결정될 수 있다. 변환 단위는 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있다. 예를 들어, 인터 예측의 경우에는 미리 결정된 1개의 변환 매트릭스가 결정된다. 반면에, 인트라 예측의 경우, 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를 적용한다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를, 수평 방향으로는 DCT 기반의 정수 매트릭스를 적용한다. DC 모드의 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용한다. 또한, 인트라 예측의 경우, 변환 단위의 크기에 의존하여 변환 매트릭스가 적응적으로 결정될 수도 있다.
양자화부(130)는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위한 양자화 스텝 사이즈를 코딩 유닛별로 결정한다. 양자화 스텝 사이즈는 미리 정해진 크기 이상의 부호화 단위별로 결정된다. 상기 미리 정해진 크기는 8x8 또는 16x16일 수 있다. 그리고, 결정된 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들을 양자화한다. 양자화부(130)는 현재 부호화 단위의 양자화 스텝 사이즈 예측자로서 현재 부호화 단위에 인접한 부호화 단위의 양자화 스텝 사이즈를 이용한다.
양자화부(130)는 현재 부호화 단위의 좌측 부호화 단위, 상측 부호화 단위, 좌상측 부호화 단위 순서로 검색하여 1개 또는 2개의 유효한 양자화 스텝 사이즈를 이용하여 현재 부호화 단위의 양자화 스텝 사이즈 예측자를 생성한다. 예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 스텝 사이즈를 양자화 스텝 사이즈 예측자로 결정할 수 있다. 또한, 상기 순서로 검색된 유효한 2개의 양자화 스텝 사이즈의 평균값을 양자화 스텝 사이즈 예측자로 결정할 수도 있고, 1개만이 유효한 경우에는 이를 양자화 스텝 사이즈 예측자로 결정할 수 있다. 상기 양자화 스텝 사이즈 예측자가 결정되면, 현재 부호화 단위의 양자화 스텝 사이즈와 상기 양자화 스텝 사이즈 예측자 사이의 차분값을 엔트로피 부호화부(140)로 전송한다.
한편, 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛, 좌상측 코딩 유닛 모두가 존재하지 않을 가능성이 있다. 반면에 최대 코딩 유닛 내의 부호화 순서 상으로 이전에 존재하는 코딩 유닛이 존재할 수 있다. 따라서, 현재 코딩 유닛에 인접한 코딩 유닛들과 상기 최대 코딩 유닛 내에서는 부호화 순서상 바로 이전의 코딩 유닛이 후보자가 될 수 있다. 이 경우, 1) 현재 코딩 유닛의 좌측 코딩 유닛, 2) 현재 코딩 유닛의 상측 코딩 유닛, 3) 현재 코딩 유닛의 좌상측 코딩 유닛, 4) 부호화 순서상 바로 이전의 코딩 유닛 순서로 우선순위를 둘 수 있다. 상기 순서는 바뀔 수 있고, 상기 좌상측 코딩 유닛은 생략될 수도 있다.
상기 양자화된 변환 블록은 역양자화부(135)와 스캐닝부(131)로 제공된다.
스캐닝부(131)는 양자화된 변환 블록의 계수들을 스캐닝하여 1차원의 양자화 계수들로 변환한다. 양자화 후의 변환 블록의 계수 분포가 인트라 예측 모드에 의존적일 수 있으므로, 스캐닝 방식은 인트라 예측 모드에 따라 결정된다. 또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있다. 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있다. 양자화 계수들의 스캔순서는 역방향으로 스캔한다.
상기 양자화된 계수들이 복수개의 서브셋으로 분할된 경우에는 각각의 서브셋 내의 양자화 계수들에 동일한 스캔패턴을 적용한다. 상기 복수개의 서브셋은 하나의 메인 서브셋과 적어도 하나 이상의 잔여 서브셋으로 구성된다. 메인 서브셋은 DC 계수를 포함하는 좌상측에 위치하고, 상기 잔여 서브셋은 메인 서브셋 이외의 영역을 커버한다.
서브셋 간의 스캔패턴은 지그재그 스캔을 적용한다. 스캔 패턴은 메인 서브셋으로부터 순방향으로 잔여 서브셋들로 스캔하는 것이 바람직하나, 그 역방향도 가능하다. 또한, 서브셋 내의 양자화된 계수들의 스캔패턴과 동일하게 서브셋 간의 스캔패턴을 설정할 수도 있다. 이 경우, 서브셋 간의 스캔패턴이 인트라 예측 모드에 따라 결정된다. 한편, 부호기는 상기 변환 유닛내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보를 복호기로 전송한다. 각 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보도 복호기로 전송한다. 상기 정보는 각각의 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타내는 정보일 수 있다.
역양자화(135)는 상기 양자화된 양자화 계수를 역양자화한다. 역변환부(125)는 역양자화된 변환 계수를 공간 영역의 잔차 블록으로 복원한다. 가산기는 상기 역변환부에 의해 복원된 잔차블록과 인트라 예측부(150) 또는 인터 예측부(160)로부터의 예측 블록을 합쳐서 복원 블록을 생성한다.
후처리부(170)는 복원된 픽쳐에 발생하는 블록킹 효과의 제거하기 위한 디블록킹 필터링 과정, 화소 단위로 원본 영상과의 차이값을 보완하기 위한 적응적 오프셋 적용 과정 및 코딩 유닛으로 원본 영상과의 차이값을 보완하기 위한 적응적 루프 필터링 과정을 수행한다.
디블록킹 필터링 과정은 미리 정해진 크기 이상의 크기를 갖는 예측 유닛 및 변환 단위의 경계에 적용하는 것이 바람직하다. 상기 크기는 8x8일 수 있다. 상기 디블록킹 필터링 과정은 필터링할 경계(boundary)를 결정하는 단계, 상기 경계에 적용할 경계 필터링 강도(bounary filtering strength)를 결정하는 단계, 디블록킹 필터의 적용 여부를 결정하는 단계, 상기 디블록킹 필터를 적용할 것으로 결정된 경우, 상기 경계에 적용할 필터를 선택하는 단계를 포함한다.
상기 디블록킹 필터의 적용 여부는 i) 상기 경계 필터링 강도가 0보다 큰지 여부 및 ii) 상기 필터링할 경계에 인접한 2개의 블록(P 블록, Q블록) 경계 부분에서의 화소값들이 변화 정도를 나타내는 값이 양자화 파라미터에 의해 결정되는 제1 기준값보다 작은지 여부에 의해 결정된다.
상기 필터는 적어도 2개 이상인 것이 바람직하다. 블록 경계에 위치한 2개의 화소들간의 차이값의 절대값이 제2 기준값보다 크거나 같은 경우에는 상대적으로 약한 필터링을 수행하는 필터를 선택한다. 상기 제2 기준값은 상기 양자화 파라미터 및 상기 경계 필터링 강도에 의해 결정된다.
적응적 오프셋 적용 과정은 디블록킹 필터가 적용된 영상내의 화소와 원본 화소간의 차이값(distortion)을 감소시키기 위한 것이다. 픽쳐 또는 슬라이스 단위로 상기 적응적 오프셋 적용 과정을 수행할지 여부를 결정할 수 있다. 픽쳐 또는 슬라이스는 복수개의 오프셋 영역들로 분할될 수 있고, 각 오프셋 영역별로 오프셋 타입이 결정될 수 있다. 오프셋 타입은 미리 정해진 개수(예를 들어, 4개)의 에지 오프셋 타입과 2개의 밴드 오프셋 타입을 포함할 수 있다. 오프셋 타입이 에지 오프셋 타입일 경우에는 각 화소가 속하는 에지 타입을 결정하여, 이에 대응하는 오프셋을 적용한다. 상기 에지 타입은 현재 화소와 인접하는 2개의 화소값의 분포를 기준으로 결정한다.
적응적 루프 필터링 과정은 디블록킹 필터링 과정 또는 적응적 오프셋 적용 과정을 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 적응적 루프 필터링은 상기 결정된 ALF는 4x4 크기 또는 8x8 크기의 블록에 포함된 화소 전체에 적용될 수 있다. 적응적 루프 필터의 적용 여부는 코딩 유닛별로 결정될 수 있다. 각 코딩 유닛에 따라 적용될 루프 필터의 크기 및 계수는 달라질 수 있다. 코딩 유닛별 상기 적응적 루프 필터의 적용 여부를 나타내는 정보는 각 슬라이스 헤더에 포함될 수 있다. 색차 신호의 경우에는, 픽쳐 단위로 적응적 루프 필터의 적용 여부를 결정할 수 있다. 루프 필터의 형태도 휘도와 달리 직사각형 형태를 가질 수 있다.
적응적 루프 필터링은 슬라이스별로 적용 여부를 결정할 수 있다. 따라서, 현재 슬라이스에 적응적 루프 필터링이 적용되는지 여부를 나타내는 정보는 슬라이스 헤더 또는 픽쳐 헤더에 포함된다. 현재 슬라이스에 적응적 루프 필터링이 적용됨을 나타내면, 슬라이스 헤더 또는 픽쳐 헤더는 추가적으로 적응적 루프 필터링 과정에 사용되는 휘도 성분의 수평 및/또는 수직 방향의 필터 길이를 나타내는 정보를 포함한다.
슬라이스 헤더 또는 픽쳐 헤더는 필터 세트의 수를 나타내는 정보를 포함할 수 있다. 이때 필터 세트의 수가 2 이상이면, 필터 계수들이 예측 방법을 사용하여 부호화될 수 있다. 따라서, 슬라이스 헤더 또는 픽쳐 헤더는 필터 계수들이 예측 방법으로 부호화되는지 여부를 나타내는 정보를 포함할 수 있으며, 예측 방법이 사용되는 경우에는 예측된 필터 계수를 포함한다.
한편, 휘도 뿐만 아니라, 색차 성분들도 적응적으로 필터링될 수 있다. 따라서, 색차 성분 각각이 필터링되는지 여부를 나타내는 정보를 슬라이스 헤더 또는 픽쳐 헤더가 포함할 수 있다. 이 경우, 비트수를 줄이기 위해 Cr과 Cb에 대한 필터링 여부를 나타내는 정보를 조인트 코딩(즉, 다중화 코딩)할 수 있다. 이때, 색차 성분들의 경우에는 복잡도 감소를 위해 Cr과 Cb를 모두 필터링하지 않는 경우가 가장 빈번할 가능성이 높으므로, Cr과 Cb를 모두 필터링하지 않는 경우에 가장 작은 인덱스를 할당하여 엔트로피 부호화를 수행한다. 그리고, Cr 및 Cb를 모두 필터링하는 경우에 가장 큰 인덱스를 할당하여 엔트로피 부호화를 수행한다.
픽쳐 저장부(180)는 후처리된 영상 데이터를 후처리부(160)로부터 입력 받아 픽쳐(picture) 단위로 영상을 복원하여 저장한다. 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다. 픽쳐 저장부(180)는 다수의 픽쳐를 저장할 수 있는 버퍼(도시되지 않음)를 구비한다.
인터 예측부(160)는 상기 픽쳐 저장부(180)에 저장된 적어도 하나 이상의 참조 픽쳐를 이용하여 움직임 추정을 수행하고, 참조 픽쳐를 나타내는 참조 픽쳐 인덱스 및 움직임 벡터를 결정한다. 그리고, 결정된 참조 픽쳐 인덱스 및 움직임 벡터에 따라, 픽쳐 저장부(180)에 저장된 다수의 참조 픽쳐들 중 움직임 추정에 이용된 참조 픽쳐로부터, 부호화하고자 하는 예측 유닛에 대응하는 예측 블록을 추출하여 출력한다.
인트라 예측부(150)는 현재 예측 유닛이 포함되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행한다. 인트라 예측부(150)는 예측 부호화할 현재 예측 유닛을 입력 받아 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행한다. 인트라 예측부는 인트라 예측 블록을 생성하기 위해 참조 화소를 적응적으로 필터링한다. 참조 화소가 이용 가능하지 않은 경우에는 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수 있다.
엔트로피 부호화부(140)는 양자화부(130)에 의해 양자화된 양자화 계수, 인트라 예측부(140)로부터 수신된 인트라 예측 정보, 인터 예측부(150)로부터 수신된 움직임 정보 등를 엔트로피 부호화한다.
도 2는 본 발명에 따른 부호화 장치(100)의 인트라 예측부(150)를 나타내는 블록도이다.
도 2를 참조하면, 인트라 예측부(150)는 참조화소 생성부(151), 참조화소 필터링부(152), 예측블록 생성부(153), 예측모드 결정부(154) 및 예측모드 부호화부(155)를 포함한다.
참조화소 생성부(151)는 인트라 예측을 위한 참조 화소들의 생성 여부를 판단하고, 생성될 필요성이 있을 경우 참조 화소를 생성한다.
도 3은 현재 예측 유닛의 인트라 예측에 사용되는 참조 화소들의 위치를 나타낸 도면이다. 도 3에 도시된 바와 같이, 현재 예측 유닛의 상측 참조 화소들은 상측 참조 화소들, 좌측 참조 화소들 및 코너 참조화소로 구성된다. 현재 예측 유닛의 상측 참조 화소들은 현재 예측 유닛의 가로 길이의 2배에 걸쳐 존재하는 화소들(영역 C, D)이고, 현재 예측 유닛의 좌측 화소들은 좌측 참조 화소들은 현재 예측 유닛의 세로길이의 2배에 걸쳐 존재하는 화소들(영역 A, B)이다. 현재 예측 유닛의 코너 참조화소는 (x=-1, y=-1)에 위치한다.
참조 화소 생성부(151)는 참조화소들이 이용 가능(available)한지를 판단한다. 참조 화소의 일부가 이용 가능하지 않을 경우에는 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소들을 생성한다.
현재 예측 유닛이 픽쳐 또는 슬라이스의 상측 경계에 위치하는 경우에는 현재 예측 유닛의 상측 참조화소들(영역 C, D)과 코너 참조화소가 존재하지 않는다. 마찬가지로, 현재 예측 유닛이 픽쳐 또는 슬라이스의 좌측 경계에 위치하는 경우에는 좌측 참조 화소들(영역 A, B)과 코너 참조화소가 존재하지 않는다. 이와 같이 어느 한쪽의 참조화소들 및 코너 참조화소가 이용 가능하지 않을 경우, 가장 인접한 이용 가능한 참조 화소를 복사하여 참조 화소를 생성할 수 있다. 전자의 경우, 가장 인접한 이용 가능한 참조 화소는 좌측 가장 위쪽의 참조화소(즉, 영역 A의 가장 위쪽 참조화소)이다. 후자의 경우, 가장 인접한 이용 가능한 참조 화소는 상측 가장 왼쪽의 참조화소(즉, 영역 C의 가장 왼쪽의 참조화소)이다.
다음으로, 부호화할 현재 예측 유닛의 상측 또는 좌측의 참조 화소들 중 일부분이 이용 가능하지 않은 경우에 대해 설명한다. 이용 가능하지 않은 참조화소를 기준으로 1) 한쪽 방향으로만 이용 가능한 참조 화소들이 존재하는 경우와, 2) 양쪽 모두 이용 가능한 참조 화소들이 존재하는 경우의 2가지가 존재한다.
먼저, 이용 가능하지 않은 참조화소를 기준으로 한쪽 방향으로만 이용 가능한 참조 화소들이 존재하는 경우에 대해 설명한다.
현재 예측 유닛의 상측에 인접하는 참조 화소들(영역 C)은 유효하나 우상측 참조 화소들(영역 D)이 유효하지 않을 수 있다. 현재 예측 유닛이 픽쳐 또는 슬라이스의 우측 경계 또는 최대 코딩 유닛의 우측 경계에 위치하는 경우에는 영역 D의 참조화소들이 이용 가능하지 않다. 이 경우에는 하나 이상의 상측 참조화소들을 이용하여 우상측 참조 화소들(영역 D)을 생성한다. 바람직하게는 상측 최우측 참조 화소를 복사할 수 있다. 또한, 2개 이상의 상측 참조 화소를 이용하여 우상측 참조 화소들을 생성할 수도 있다.
현재 예측 블록의 좌측에 인접하는 참조 화소들(영역 A)은 유효하나 좌하측 참조 화소들(영역 B)이 유효하지 않을 수 있다. 현재 예측 유닛이 픽쳐 또는 슬라이스의 아래측 경계 또는 최대 코딩 유닛의 아래측 경계에 위치하는 경우에는 영역 B의 참조화소들이 이용 가능하지 않다. 이 경우에는 하나 이상의 좌측 참조 화소들을 이용하여 좌하측 참조 화소들(영역 B)을 생성한다. 바람직하게는 좌측 최하측 참조 화소를 복사할 수 있다. 또한, 2개 이상의 좌측 참조 화소를 이용하여 좌하측 참조 화소들을 생성할 수도 있다.
상기 경우와 같이, 이용 가능하지 않은 참조화소를 기준으로 한쪽 방향으로만 이용 가능한 참조 화소들이 존재하는 경우에는 가장 가까운 위치에 존재하는 이용 가능한 참조 화소를 복사하여 참조 화소들을 생성할 수 있다. 또 다른 방법으로 가장 가까운 위치에 존재하는 복수개의 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수도 있다.
다음으로, 이용 가능하지 않은 참조화소를 기준으로 양쪽 방향 모두 이용 가능한 참조 화소들이 존재하는 경우에 대해 설명한다.
예를 들어, 현재 예측 유닛이 슬라이스의 상측 경계에 위치하고, 상기 현재 예측 유닛의 우상측 예측 유닛이 이용 가능한 경우, 현재 예측 유닛의 영역 C에 대응하는 참조 화소들은 이용 가능하지 않지만, 영역 A 및 영역 D에 위치하는 참조화소들은 이용 가능하다. 이와 같이 양쪽 모두 이용 가능한 참조화소가 존재하는 경우에는, 각 방향으로 가장 가까운 위치에 존재하는 이용 가능한 참조화소 1개씩을 선택하여, 이들(즉, 영역 A의 가장 위쪽 참조화소와 영역 D의 가장 왼쪽 참조화소)을 이용하여 이용 가능하지 않은 위치의 참조화소들을 생성한다.
상기 2개 참조 화소(각 방향으로 가장 가까운 위치에 존재하는 화소)의 반올림한 평균값을 참조화소값으로 생성할 수도 있다. 그러나, 상기 2개의 참조 화소값의 차이가 클 경우가 발생할 가능성이 있으므로, 선형 보간 방법을 사용하여 참조 화소를 생성할 수도 있다. 구체적으로 이용 가능한 2개의 참조 화소들과의 위치를 고려하여 현재 위치의 이용 가능하지 않은 참조 화소를 생성할 수 있다.
참조화소 필터링부(152)는 현재 예측 유닛의 참조화소들을 적응적으로 필터링한다.
도 4를 참조하여, 참조화소 필터링부(152)의 동작을 설명한다. 도 4는 본 발명에 따른 방향성 인트라 예측 모드를 나타내는 도면이다.
참조화소 필터링부(152)는 인트라 예측 모드 및 참조 화소의 위치에 따라 적응적으로 필터링한다.
예측모드가 수직(모드 0), 수평(모드 1), DC(모드 2)인 경우에는 참조 화소들에 필터를 적용하지 않는다. 그 이외의 방향성 모드들에 대해서는 적응적으로 참조 화소를 필터링한다. 또한, 현재 예측 유닛의 상측의 참조화소들 중 가장 오른쪽의 참조 화소(즉 (x=2N-1, y=-1)에 위치하는 참조 화소)와 현재 예측 유닛의 좌측의 참조 화소들 중 가장 아래쪽에 위치하는 참조 화소(즉 (x=-1, y=2N-1)에 위치하는 참조 화소) 필터링 하지 않고, 나머지 화소들은 이웃하는 2개의 화소들을 이용하여 필터링한다.
상기 필터링은 참조화소들 사이의 화소값의 변화량을 스무딩(smoothing)하기 위한 것으로, low-pass filter를 적용한다. Low-pass filter는 3-tap 필터인 [1, 2, 1] 또는 5-tap 필터인 [1, 2, 4, 2, 1]일 수 있다.
상기 low-pass filter는 현재 예측 유닛의 크기 및 인트라 예측 모드에 따라 적응적으로 적용된다.
인트라 예측 방향이 수평 또는 수직 방향에 대해 45° 기울어진 모드들(모드 3, 6, 9)에 대해서는 예측 유닛의 크기에 따라 적응적으로 필터를 적용한다. 이 경우, 미리 정해진 크기보다 작은 예측 유닛에 대해서는 제1 필터를, 미리 정해진 크기 이상의 예측 유닛에 대해서는 스무딩 효과가 더 큰 제2 필터를 사용할 수 있다. 상기 미리 정해진 크기는 16x16일 수 있다.
그리고, 상기 수직 또는 수평 모드와, 상기 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드들 사이에 존재하는 모드들에 대해서는 예측 유닛의 크기에 따라 적응적으로 필터를 적용한다. 이 경우, 상기 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드에 인접하는 미리 정해진 개수의 모드들에서만 필터를 적용할 수 있다. 방향성 인트라 예측 모드의 수가 동일한 예측 유닛들에 대해서는, 상기 미리 정해진 개수는 예측 유닛의 크기가 클수록 증가한다. 즉, 8x8 예측 유닛에 대해서는 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드와 이에 인접하는 제1 개수의 모드에서 필터링을 수행하고, 16x16 예측 유닛에 대해서는 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드와 이에 인접하는 제2 개수의 모드에서 필터링을 수행하고, 32x32 예측 유닛에 대해서는 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드와 이에 인접하는 제3 개수의 모드에서 필터링을 수행한다. 여기서, 제1개수는 제2개수보다 작거나 같고, 제2개수는 제3개수보다 작거나 같다.
예측블록 생성부(153)는 인트라 예측 모드에 대응하는 예측 블록을 생성한다. 상기 예측 블록은 인트라 예측 모드에 기초하여 참조 화소들을 이용한다.
DC 모드의 경우에는, 예측 블록이 참조화소들의 평균값으로 이루어지기 때문에 참조화소들과 인접하는 예측 블록 내의 화소 사이에는 단차가 발생할 수 있다. 따라서, 참조화소들과 인접하는 예측 블록 내의 상측 라인의 화소들 및 좌측 라인의 화소들은 참조화소들을 이용하여 필터링한다. 구체적으로, 예측 블록 내의 좌상측 코너에 위치하는 화소는 인접하는 참조화소가 2개(상측 참조화소와 좌측 참조화소)이므로, 3-tap 필터를 이용하여 상기 좌상측 코너의 화소를 필터링(또는 스무딩)한다. 그리고, 그 이외의 화소들(즉, 예측 블록 내의 상측 라인의 화소들 및 좌측 라인의 화소들)은 인접하는 참조화소가 1개이므로 2-tap 필터를 이용하여 필터링한다.
Planar 모드에서는 코너 참조 화소, 좌측 참조 화소 및 상측 참조 화소를 이용하여 예측 블록의 참조 화소를 생성한다. 생성하고자 하는 참조 화소의 위치가 (a, b)인 경우 생성되는 참조 화소 X(a, b)는 코너 참조 화소 C(x=-1, y=-1), 상측 참조 화소 T(x=a, y=-1) 및 좌측 참조 화소 L(x=-1, y=b)를 이용할 수 있다. 플래너 모드에서는 예측 블록을 필터링하지 않는다.
수직 모드(모드 번호 0)에서는 상측 참조 화소를 그대로 복사할 경우, 예측 블록 내의 좌측 화소들과 이에 인접하는 좌측 참조화소들 사이에 correlation이 떨어지게 된다. 상측으로부터 멀어질수록 correlation이 감소하게 된다. 마찬가지로, 수평 모드(모드 번호 1)에서는 예측 블록 내의 상측 화소들과 상측 참조픽셀 사이의 관계도 우측으로 갈수록 correlation이 떨어지게 된다. 이로 인해 수직 모드에서는 예측 블록의 아래쪽으로 갈수록 원본 예측 유닛과의 차이값이 커지게 된다.
따라서, 상기 차이값을 줄이기 위해 수직 모드인 경우에는 예측 블록의 좌측 부분의 픽셀들을 예측 블록 생성에 이용되지 않은 좌측 참조픽셀들을 이용하여 필터링할 수 있다. 마찬가지로, 수평 모드인 경우에는 예측 블록의 상측 부분의 픽셀들을 예측 블록 생성에 이용되지 않은 상측 참조픽셀들을 이용하여 필터링할 수 있다.
모드번호 0과 6 사이의 방향성을 갖는 인트라 예측 모드들(모드번호 22, 12, 23, 5, 24, 13, 25) 및 모드번호 6을 갖는 인트라 예측 모드의 경우, 현재 예측 유닛의 상측 참조픽셀들만을 이용하여 예측 블록이 생성되면, 참조픽셀과 인접하는 생성된 예측블록의 좌측 라인의 픽셀들과 상기 참조픽셀 사이의 단차는 아래쪽으로 갈수록 커질 수 있다.
마찬가지로, 모드번호 1과 9 사이의 방향성을 갖는 인트라 예측 모드(모드번호 30, 16, 31, 8, 32, 17, 33)들 및 모드번호 9를 갖는 인트라 예측 모드의 경우, 현재 예측 유닛의 좌측 참조픽셀들만을 이용하여 예측 블록이 생성되면, 참조픽셀과 인접하는 생성된 예측블록의 상측 라인의 픽셀들과 상기 참조픽셀 사이의 단차는 오른쪽으로 갈수록 단차가 커질 수 있다.
따라서, 상기 단차를 보완하기 위해 DC 이외의 방향성 모드에 대해서도 적응적으로 예측 블록의 일부 화소들을 필터링할 수 있다. 또는 상기 단차를 보완하기 위해 예측 블록 생성을 위해 상측 및 좌측 참조픽셀들을 모두 이용할 수도 있다.
먼저, 예측 블록의 일부 화소들을 필터링하는 방법에 대해 설명한다.
모드번호가 6일 경우에는 상측 참조화소들을 이용하여 예측 블록을 생성하고, 상기 좌측 참조화소와 인접하는 생성된 예측 블록내의 좌측 화소들을 필터링한다. 현재 예측 유닛의 크기에 따라 생성된 예측 블록내의 필터링하는 예측블록에 화소의 영역이 달라질 수 있다. 즉, 예측 유닛의 크기에 따라 필터링 되는 라인의 수와 라인 내에서의 필터링되는 픽셀들의 비율이 달라질 수 있다. 예측 유닛의 크기가 커질수록 필터링 되는 라인의 수가 같거나 증가할 수 있다. 도한, 라인 내에서의 필터링되는 픽셀들의 비율이 감소할 수 있다. 또한, 참조픽셀로부터 멀어질수록 필터링 강도를 낮출 수 있다.
예를 들어, 4x4 예측 유닛에 대해서는 생성된 예측 블록내의 좌측 첫번째 라인에 위치하는 픽셀들, 즉, (x=0, y=0~3)에 위치하는 픽셀들만을 필터링할 수 있다. 8x8 예측 유닛에 대해서는 좌측 첫번째 라인에 위치하는 모든 픽셀들 및 두번째 라인에 위치하는 일부 픽셀들을 필터링할 수 있다. 상기 일부 픽셀들은, 예를 들어, (x=1, y=4~7)에 위치하는 픽셀들일 수 있다. 16x16 예측 유닛에 대해서는 좌측 첫번째 라인에 위치하는 모든 픽셀들, 두번째 라인에 위치하는 제1 개수의 픽셀들, 세번째 라인에 위치하는 제2개수의 픽셀들을 필터링할 수 있다. 상기 제1 개수의 픽셀들은, 예를 들어, (x=1, y=4~7)에 위치하는 픽셀들일 수 있다. 상기 제2 개수의 픽셀들은, 예를 들어, (x=2, y=8~15)에 위치하는 픽셀들일 수 있다. 또한, 32x32 예측 유닛에 대해서는 좌측 첫번째 라인에 위치하는 모든 픽셀들, 두번째 라인에 위치하는 제1 개수의 픽셀들, 세번째 라인에 위치하는 제2개수의 픽셀들 및 네번째 라인의 제3 개수의 픽셀들을 필터링할 수 있다. 제3 개수의 픽셀들은 (x=3, y=16~31)에 위치하는 픽셀들일 수 있다.
모드번호 0, 6 사이의 방향성을 갖는 모드들 중 모드 번호 6에 가까운 방향성을 갖는 소정 개수의 모드들에 대해서도 모드번호 6와 동일한 방법으로 필터링을 수행할 수 있다. 이 경우 모드 번호 6으로부터 먼 모드일수록 멀어질수록 필터링 해야 할 화소의 수가 같거나 작아질 수 있다. 모드번호 0, 6 사이의 방향성을 갖는 모드들 중 모드 번호 0에 가까운 방향성을 갖는 소정 개수의 모드들에 대해서는 수직 모드와 동일한 방법으로 필터링이 수행될 수도 있다.
모드번호가 9인 경우에도 모드번호 6과 동일한 방법을 적용한다. 그리고, 상기 모드번호 1, 9 사이의 방향성을 갖는 모드들에 대해서는 모드번호 0과 6 사이의 방향성을 갖는 모드들과 동일한 방법 적용한다.
한편, 모드번호 6 및 이에 인접한 소정 개수의 모드들에 대해서는 상기한 예측 블록의 일부 화소들을 필터링하는 방법을 적용하지 않고, 상측 및 좌측 참조픽셀들을 모두 이용하여 예측 블록을 생성할 수 있다. 마찬가지로 모드번호 9와 이에 인접한 소정 개수의 모드들에 대해서도 동일한다.
상기한 예측 블록의 일부 화소들을 필터링하는 방법은, 예측 블록의 생성시에 필터링 효과와 동일한 효과를 갖도록 예측 블록의 화소의 위치(즉, 필터링할 화소의 위치)에 따라 서로 다른 방식으로 예측 픽셀을 생성할 수 있다.
예측모드 결정부(154)는 현재 예측 유닛의 인트라 예측 모드를 결정한다. 예측모드 결정부(154)는 각 인트라 예측 모드에 대한 잔차블록의 부호화량이 최소가 되는 모드를 현재 예측 유닛의 인트라 예측 모드로 결정할 수 있다.
예측 모드 부호화부(155)는 예측모드 결정부(154)에 의해 결정된 현재 예측 유닛의 인트라 예측 모드를 부호화한다. 예측 모드 부호화부(155)는 인트라 예측부(150)에 포함되어 수행될 수도 있고, 엔트로피 부호화부(140)에서 행해질 수도 있다.
예측 모드 부호화부(155)는 현재 예측 유닛에 인접하는 예측 유닛의 인트라 예측 모드를 이용하여 현재 예측 유닛의 인트라 예측 모드를 부호화한다. 현재 예측 유닛에 허용되는 인트라 예측 모드들(예를 들어, 35개의 모드들)을 복수개의 인트라 예측 모드 그룹으로 분류한다. 그리고, 현재 예측 유닛의 인트라 예측 모드가 속하는 그룹 및 그룹 내에서의 현재 예측 유닛의 인트라 예측 모드에 대응하는 인덱스를 부호화한다. 상기 각각의 그룹은 적어도 하나 이상의 인트라 예측 모드를 포함한다. 상기 인트라 예측 모드 그룹의 수는 2개 또는 3개인 것이 바람직하다.
이하, 인트라 예측 모드 그룹이 2개인 경우에 대해 설명한다.
먼저, 현재 예측 유닛에 인접하는 예측 유닛들의 인트라 예측 모드들을 유도한다. 상기 모드들은 현재 예측 유닛의 상측 예측 유닛 및 좌측 예측 유닛의 인트라 예측 모드들일 수 있다. 현재 예측 유닛의 상측 예측 유닛이 복수개 존재하는 경우에는 미리 정해진 방향(예를 들어, 좌에서 우로)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 상측 인트라 예측 모드로 설정한다. 현재 예측 유닛의 좌측 예측 유닛이 복수개 존재하는 경우에도 미리 정해진 방향(예를 들어, 위에서 아래로)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 좌측 인트라 예측 모드로 설정할 수 있다. 또는 복수개의 유효한 예측 유닛들의 모드번호들 중 가장 작은 모드번호를 상측 인트라 예측 모드로 설정할 수도 있다.
다음으로, 유도된 인트라 예측 모드들의 모드 번호가 현재 예측 유닛에 허용되는 인트라 예측 모드의 수보다 크거나 같으면, 상기 유도된 인트라 예측 모드들을 현재 예측 유닛에서 허용하는 인트라 예측 모드 중 하나로 맵핑한다.
다음으로, 상기 유도된 또는 맵핑된 인트라 예측 모드들을 이용하여 제1 인트라 예측 모드 그룹을 형성한다.
상기 유도된 또는 맵핑된 인트라 예측 모드 및 상기 인트라 예측 모드에 따라 미리 정해진 순서의 후보자 인트라 예측 모드들을 이용하여 제1 인트라 예측 모드 그룹을 형성할 수 있다. 상기 유도된 또는 맵핑된 인트라 예측 모드가 방향성 모드인 경우에는, 상기 미리 정해진 후보자 인트라 예측 모드는 상기 유도된 또는 맵핑된 인트라 예측 모드의 방향성에 가장 인접하는 적어도 하나 이상의 인트라 예측 모드일 수 있다.
다음으로, 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 포함되는지를 판단한다.
현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 포함되면, 상기 제1 인트라 예측 모드 그룹을 나타내는 정보와 상기 제1 인트라 예측 모드 그룹 내의 대응하는 인덱스를 부호화한다.
그러나, 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 포함되지 않으면, 제2 인트라 예측 모드 그룹을 나타내는 정보와 상기 제2 인트라 예측 모드 그룹 내의 대응하는 인덱스를 부호화한다. 상기 제2 인트라 예측 모드 그룹에 속하는 인트라 예측 모드들은 제1 인트라 예측 모드 그룹에 속하는 인트라 예측 모드들을 제외한 인트라 예측 모드들이다.
상기 현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드가 모두 유효(available)하지 않은 경우에는 적어도 하나 이상의 인트라 예측 모드가 상기 제1 인트라 예측 모드 그룹에 추가될 수 있다. 예를 들어, 하나의 모드가 추가될 경우에는 DC 모드 또는 planar 모드가 추가될 수 있다. 두 개의 모드가 추가될 경우에는 DC 모드와, planar 모드 또는 수직 모드가 추가될 수 있다. 세 개의 모드가 추가될 경우에는 DC 모드와, planar 모드, 수직 모드 및 수평 모드 중 2개가 추가될 수 있다.
상기 좌측 및 상측 예측 유닛의 인트라 예측 모드 중 하나만이 유효하거나, 동일한 경우에는 적어도 하나 또는 2개의 인트라 예측 모드가 상기 제1 인트라 예측 모드 그룹에 추가될 수 있다.
1개가 추가될 경우에는 DC 모드와 planar 모드 중 하나가 추가될 수 있다.
2개가 추가될 경우에는 상기 유효한 인트라 예측 모드가 방향성 모드인지 여부에 따라 달라진다. 상기 유효한 인트라 예측 모드가 비방향성 예측 모드(DC 모드 또는 planar 모드)인 경우에는 수직 모드와 수평모드 또는 다른 하나의 비방향성 모드(planar 모드 또는 DC 모드)와 수직 모드가 추가될 수 있다. 상기 유효한 인트라 예측 모드가 방향성 모드인 경우에는 상기 유효한 인트라 예측 모드와 가장 인접한 양쪽의 인트라 예측 모드가 추가될 수 있다. 그러나, 상기 유효한 인트라 예측 모드의 한쪽에만 방향성 모드가 존재하는 모드(모드 6 또는 모드 9)의 경우에는 인접하는 하나의 모드(모드 25 또는 모드 33)와 DC 또는 planar가 추가될 수 있다.
현재 예측 유닛의 인트라 예측 모드가 상기 제2 인트라 예측 모드 그룹에 속하는 경우에는 상기 마지막 예측 모드 그룹에 포함된 인트라 예측 모드를 재정렬한 모드번호에 대응하는 인덱스를 부호화한다. 이 경우 하나의 VLC 테이블을 사용할 수 있다.
이상에서는 인트라 예측 모드 그룹이 2개인 경우를 예시로 들었지만, 인트라 예측 모드 그룹이 3개인 경우도 가능하다. 이 경우에는 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하지 않으면, 제2 인트라 예측 모드 그룹에 속하는지 여부를 판단한다. 그리고, 제2 인트라 예측 모드 그룹에 속하면 상기 제2 인트라 예측 모드 그룹을 나타내는 정보와, 상기 제2 인트라 예측 모드 그룹 내의 대응하는 인덱스를 부호화한다. 그러나, 제2 인트라 예측 모드 그룹에 속하지 않으면, 제3 인트라 예측 모드 그룹을 나타내는 정보와 상기 제3 인트라 예측 모드 그룹 내의 대응하는 인덱스를 부호화한다. 이 경우, 상기 제2 인트라 예측 모드 그룹은 현재 예측 유닛의 좌측 및 상측 예측 유닛의 인트라 예측 모드에 기초하여 생성된다.
또한, 예측 모드 부호화부(155)는 현재 예측 유닛의 인트라 예측 모드를 다음과 같이 부호화할 수도 있다. 먼저, 현재 예측 유닛의 인트라 예측모드가 인접하는 이전 블록의 인트라 예측 모드 중 어느 하나와 동일한지를 결정한다. 현재 예측 유닛의 인트라 예측모드가 인접하는 이전 블록의 인트라 예측 모드 중 어느 하나와 동일하면, 이를 나타내는 플래그(pred_flag)의 값을 1로 설정하고, 상기 인접하는 좌측 또는 상측의 available한 모드를 이용하여 현재 예측 유닛의 인트라 예측 모드를 부호화한다. 그러나, 현재 예측 유닛의 인트라 예측모드가 인접하는 이전 블록의 인트라 예측 모드 중 어느 하나와 동일하지 않으면, 상기 플래그(pred_flag)의 값을 0으로 설정하고, 상기 좌측 및 상측의 인트라 예측 모드를 제외한 나머지 인트라 예측 모드들 중에 현재 예측 유닛의 인트라 예측 모드가 몇번째에 대응하는지를 나타내는 값을 부호화한다.
한편, chroma의 인트라 예측 모드는 luma의 인트라 예측 모드를 이용하는 모드(luma 모드)를 적응적으로 포함할 수 있다. 따라서, 상기 luma 모드를 포함할 경우 SPS, PPS 또는 슬라이스 헤더에 상기 정보를 포함할 수 있다. Chroma의 인트라 예측 모드의 수는 예측 유닛의 사이즈에 따라 달라질 수 있다. Chroma의 인트라 예측 모드 부호화는 luma와 마찬가지로 인접 블록의 인트라 예측 모드를 이용할 수 있다. 구체적 방법은 위에 예시한 방식과 동일할 수 있다. 또한, chroma의 인트라 예측 모드는 인접 블록의 인트라 예측 모드 정보를 이용하지 않고 그대로 부호화될 수도 있다. 이 경우, VLC 테이블이 사용될 수 있다.
예측블록 송신부(156)는 상기 예측모드 결정부(154)에 의해 결정된 인트라 예측 모드에 대응하여 생성된 예측 블록을 감산부(190)로 송신한다.
도 5는 본 발명의 실시예에 따른 동영상 복호화 장치를 나타내는 블록도이다.
도 5를 참조하면, 본 발명에 따른 동영상 복호화 장치는, 엔트로피 복호부(210), 역스캐닝부(220), 역양자화부(230), 역변환부(240), 인트라 예측부(250), 인터 예측부(260), 후처리부(270), 픽쳐 저장부(280), 가산부(290), 및 인트라/인터전환 스위치(295)를 구비한다.
엔트로피 복호부(210)는, 수신된 부호화 비트 스트림을 복호하여, 인트라 예측 정보, 인터 예측 정보, 양자화 계수 정보 등으로 분리한다. 엔트로피 복호부(210)는 복호된 인터 예측 정보를 인터 예측부(260)에 공급한다. 엔트로피 복호부(210)는 인트라 예측 정보를 복호하여 인트라 예측부(250)로 공급한다. 또한, 상기 엔트로피 복호화(210)는 상기 역양자화 계수 정보를 역스캔부(220)로 공급한다.
역스캐닝부(220)는 상기 양자화 계수 정보를 2차원 배열의 역양자화 블록으로 변환한다. 상기 변환을 위해 복수개의 역스캐닝 패턴 중에 하나를 선택한다. 계수 역스캐닝 패턴은 인트라 예측 모드에 따라 결정될 수 있다. 현재 변환 유닛의 크기가 미리 정해진 크기보다 큰 경우에는 미리 정해진 크기의 서브셋 단위로 역스캔하여 양자화된 변환 유닛을 구성한다. 그리고, 현재 변환 유닛의 크기가 미리 정해진 크기인 경우와 동일한 경우에는 변환 유닛 단위로 역스캔하여 양자화된 변환 유닛을 구성한다. 상기 양자화된 계수들이 복수개의 서브셋 단위로 역스캔될 경우에는 각각의 서브셋 내의 양자화 계수들에 동일한 역스캔패턴을 적용한다. 상기 복수개의 서브셋은 하나의 메인 서브셋과 적어도 하나 이상의 잔여 서브셋으로 구성된다. 메인 서브셋은 DC 계수를 포함하는 좌상측에 위치하고, 상기 잔여 서브셋은 메인 서브셋 이외의 영역을 커버한다.
서브셋 간의 역스캔패턴은 역지그재그 스캔을 적용한다. 스캔 패턴은 잔여 서브셋들로부터 메인 서브셋으로 역스캔하는 것이 바람직하나, 그 역방향도 가능하다. 또한, 서브셋 내의 양자화된 계수들의 역스캔패턴과 동일하게 서브셋 간의 역스캔패턴을 설정할 수도 있다. 역스캐닝부(220)는 현재 변환 유닛 내의 0이 아닌 마지막 양자화 계수의 위치를 나타내는 정보를 이용하여 역스캐닝을 수행한다.
역양자화부(230)는 현재 코딩 유닛의 양자화 스텝 사이즈 예측자를 결정한다. 상기 예측자의 결정과정은 도 1의 양자화부(130)의 예측자 결정 과정과 동일하므로 생략한다. 역양자화부(230)는 결정된 양자화 스텝 사이즈 예측자와 수신한 잔차 양자화 스텝 사이즈를 더하여 현재 역양자화 블록에 적용된 양자화 스텝 사이즈를 얻는다. 역양자화부(230)는 양자화 스텝 사이즈가 적용된 양자화 매트릭스를 이용하여 역양자화 계수를 복원한다. 복원하고자 하는 현재 블록의 크기에 따라 서로 다른 양자화 매트릭스가 적용되며, 동일 크기의 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스가 선택된다.
역변환부(240)는 역양자화 블록을 역변환하여 잔차 블록을 복원한다. 그리고, 상기 복원된 양자화 계수를 역변환하여 잔차 블록을 복원한다. 상기 역양자화 블록에 적용할 역변환 매트릭스는 예측 모드(인트라 또는 인터) 및 인트라 예측 모드에 따라 적응적으로 결정될 수 있다. 도 1의 변환부(120)에 적용된 변환 매트릭스의 역변환 매트릭스가 결정되므로 구체적인 기재는 생략한다.
가산부(290)는 역변환부(240)에 의해 복원된 잔차 블록과 인트라 예측부(250) 또는 인터 예측부(260)에 의해 생성되는 예측 블록을 가산함으로써, 영상 블록을 복원한다.
인트라 예측부(250)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 정보에 기초하여 현재 블록의 인트라 예측 모드를 복원한다. 그리고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.
인터 예측부(260)는 엔트로피 복호화부(210)로부터 수신된 인터 예측 정보에 기초하여 참조 픽쳐 인덱스와 움직임 벡터를 복원한다. 그리고, 상기 참조 픽쳐 인덱스와 움직임 벡터를 이용하여 현재 블록에 대한 예측 블록을 생성한다. 소수 정밀도의 움직임 보상이 적용될 경우에는 선택된 보간 필터를 적용하여 예측 블록을 생성한다.
후처리부(270)의 동작은 도 3의 후처리부(160)의 동작과 동일하므로 생략한다.
픽쳐 저장부(280)는 후처리부(270)에 의해 후처리된 복호 영상을 픽쳐 단위로 저장한다.
도 6은 본 발명에 따른 복호화 장치(200)의 인트라 예측부(250)를 나타내는 블록도이다.
본 발명에 따른 인트라 예측부(250)는 예측모드 복호화부(251), 참조화소 생성부(252), 참조화소 필터링부(253), 예측블록 생성부(254) 및 예측 블록 송신부(255)를 포함한다.
예측모드 복호화부(251)는 엔트로피 복호부(210)부로부터 인트라 예측 정보를 수신하여 현재 예측 유닛의 인트라 예측 모드를 복원한다. 상기 인트라 예측 정보는 복호화할 현재 예측 유닛의 인트라 예측 모드가 속하는 인트라 예측 모드 그룹을 나타내는 정보와 인트라 예측 모드 인덱스를 포함한다.
예측모드 복호화부(251)는 현재 예측 유닛에 인접하는 예측 유닛들의 인트라 예측 모드들을 유도한다. 상기 모드들은 현재 예측 유닛의 상측 예측 유닛 및 좌측 예측 유닛의 인트라 예측 모드들일 수 있다. 현재 예측 유닛의 상측 예측 유닛이 복수개 존재하는 경우에는 미리 정해진 방향(예를 들어, 좌에서 우로)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 상측 인트라 예측 모드로 설정한다. 현재 예측 유닛의 좌측 예측 유닛이 복수개 존재하는 경우에도 미리 정해진 방향(예를 들어, 위에서 아래로)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 좌측 인트라 예측 모드로 설정할 수 있다. 또는 복수개의 유효한 예측 유닛들의 모드번호들 중 가장 작은 모드번호를 상측 인트라 예측 모드로 설정할 수도 있다.
유도된 인트라 예측 모드들의 모드 번호가 현재 예측 유닛에 허용되는 인트라 예측 모드의 수보다 크거나 같으면, 상기 유도된 인트라 예측 모드들을 현재 예측 유닛에서 허용하는 인트라 예측 모드 중 하나로 맵핑한다.
상기 유도된 또는 맵핑된 인트라 예측 모드들을 이용하여 제1 인트라 예측 모드 그룹을 형성한다. 상기 유도된 또는 맵핑된 인트라 예측 모드 및 상기 인트라 예측 모드에 따라 미리 정해진 순서의 후보자 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 포함될 수 있다. 상기 유도된 또는 맵핑된 인트라 예측 모드가 방향성 모드인 경우에는, 상기 미리 정해진 후보자 인트라 예측 모드는 상기 유도된 또는 맵핑된 인트라 예측 모드의 방향성에 가장 인접하는 적어도 하나 이상의 인트라 예측 모드일 수 있다.
상기 엔트로피 복호화부(210)로부터 수신된 현재 예측 유닛의 인트라 예측 모드를 나타내는 정보가 제1 인트라 예측 모드 그룹을 나타내는지를 판단한다.
상기 수신된 현재 예측 유닛의 인트라 예측 모드를 나타내는 정보가 제1 인트라 예측 모드 그룹을 나타내면, 수신된 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 상기 형성된 제1 인트라 예측 모드 그룹내에서 선택한다. 그리고, 선택된 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 설정한다.
그러나, 상기 수신된 현재 예측 유닛의 인트라 예측 모드를 나타내는 정보가 제2 인트라 예측 모드 그룹을 나타내면, 수신된 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 제2 인트라 예측 모드 그룹내에서 선택한다. 그리고, 선택된 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 설정한다. 상기 제2 인트라 예측 모드 그룹은 상기 제1 인트라 예측 모드 그룹 내에 속하는 인트라 예측 모드들 이외의 인트라 예측 모드들로 구성된다. 상기 제2 인트라 예측 모드 그룹내의 인트라 예측 모드는 인덱스를 기준으로 재정렬될 수 있다. 또한, 상기 제2 인트라 예측 모드 그룹 내의 인트라 예측 모드는 인덱스 및 현재 예측 유닛의 상측 및 좌측 예측유닛의 인트라 예측 모드에 기초하여 재정렬될 수도 있다.
상기 현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드가 모두 유효(available)하지 않은 경우에는 적어도 하나 이상의 인트라 예측 모드가 상기 제1 인트라 예측 모드 그룹에 추가될 수 있다. 예를 들어, 하나의 모드가 추가될 경우에는 DC 모드 또는 planar 모드가 추가될 수 있다. 두 개의 모드가 추가될 경우에는 DC 모드와, planar 모드 또는 수직 모드가 추가될 수 있다. 세 개의 모드가 추가될 경우에는 DC 모드와, planar 모드, 수직 모드 및 수평 모드 중 2개가 추가될 수 있다.
상기 좌측 및 상측 예측 유닛의 인트라 예측 모드 중 하나만이 유효하거나, 동일한 경우에는 적어도 하나 또는 2개의 인트라 예측 모드가 상기 제1 인트라 예측 모드 그룹에 추가될 수 있다. 1개가 추가될 경우에는 DC 모드와 planar 모드 중 하나가 추가될 수 있다. 2개가 추가될 경우에는 상기 유효한 인트라 예측 모드가 방향성 모드인지 여부에 따라 달라진다. 상기 유효한 인트라 예측 모드가 비방향성 예측 모드(DC 모드 또는 planar 모드)인 경우에는 수직 모드와 수평모드 또는 다른 하나의 비방향성 모드(planar 모드 또는 DC 모드)와 수직 모드가 추가될 수 있다. 상기 유효한 인트라 예측 모드가 방향성 모드인 경우에는 상기 유효한 인트라 예측 모드와 가장 인접한 양쪽의 인트라 예측 모드가 추가될 수 있다. 그러나, 상기 유효한 인트라 예측 모드의 한쪽에만 방향성 모드가 존재하는 모드(모드 6 또는 모드 9)의 경우에는 인접하는 하나의 모드(모드 25 또는 모드 33)와 DC 또는 planar가 추가될 수 있다.
또한, 예측 모드 복호화부(251)는 현재 예측 유닛의 인트라 예측 모드를 다음과 같이 복호화할 수도 있다. 먼저, 현재 예측 유닛의 인트라 예측모드가 인접하는 이전 예측 유닛(예를 들어, 상측 및 좌측 예측 유닛) 인트라 예측 모드 중 어느 하나와 동일한지 여부를 나타내는 플래그(pred_flag)를 파싱한다. 상기 플래그(pred_flag)의 값이 1이면 이용 가능한 좌측 및 상측 예측 유닛의 인트라 예측 모드를 이용하여 현재 예측 유닛의 인트라 예측 모드를 구한다. 상기 플래그(pred_flag)의 값이 0이면, 잔여 인트라 예측 모드 정보(rem_pred_mode)를 이용하여 현재 예측 유닛의 인트라 예측 모드를 구한다. 이 경우, 상기 잔여 인트라 예측 모드 정보(rem_pred_mode)는 상기 이용 가능한 좌측 및 상측 예측 유닛의 인트라 예측 모드들을 제외한 인트라 예측 모드 중 현재 예측 유닛의 인트라 예측 모드의 순서를 나타낸다.
참조화소 생성부(252)는 부호화 장치(100)의 참조화소 생성부(151)와 동일한 방법으로 참조화소를 생성한다. 다만, 참조화소 생성부(252)는 예측모드 복호화부(251)에 의해 복원된 인트라 예측 모드에 따라 적응적으로 참조화소를 생성한다. 즉, 참조화소 생성부(252)는 복원된 인트라 예측 모드를 이용하여 예측 블록을 생성하는데 사용될 참조 화소들이 유효하지 않은 경우에만 참조화소를 생성한다.
참조화소 필터링부(253)는 예측모드 복호화부(251)에 의해 복원된 인트라 예측 모드에 및 현재 예측 유닛의 크기 정보에 기초하여 참조화소들을 적응적으로 필터링한다. 필터링 조건 및 필터는 부호화 장치(100)의 참조화소 필터링부(152)의 필터링 조건 및 필터와 동일하다.
예측블록 생성부(254)는 예측모드 복호화부(251)에 의해 복원된 인트라 예측 모드에 따라, 참조화소들을 이용하여 예측 블록을 생성한다. 예측 블록의 생성 방법은 부호화 장치(100)의 예측블록 생성부(154)와 동일하다.
예측 블록 송신부(255)는 상기 예측모드 생성부(254)로부터 수신된 예측 블록을 가산기(290)로 전송한다.
도 7은 본 발명에 따른 인트라 예측 복호화 과정을 나타내는 순서도이다.
먼저, 수신된 비트스트림으로부터 인트라 예측 정보와 잔차신호 정보를 역다중화한다(S100). 상기 단계는 코딩 유닛 단위로 수행된다. 상기 인트라 예측 정보는 코딩 유닛 내의 예측 유닛 신택스로부터 얻고, 잔차신호 정보는 코딩 유닛 내의 변환 유닛 신택스로부터 얻는다.
예측 유닛 신택스로부터 얻은 인트라 예측 정보를 이용하여 현재 예측 유닛의 인트라 예측 모드를 복호한다(S110). 상기 인트라 예측 정보는 인트라 예측 모드 그룹 지시자(pred_mode) 및 예측 모드 인덱스를 포함한다. 상기 인트라 예측 정보가 예측 모드 인덱스를 포함하지 않을 경우, 상기 예측 모드 인덱스는 0으로 간주한다. 상기 인트라 예측 모드 그룹 지시자는 현재 예측 유닛이 속하는 인트라 예측 모드 그룹을 나타낸다. 인트라 예측 모드 그룹이 2개 존재하는 경우, 상기 인트라 예측 그룹 지시자(pred_mode)는 1 비트의 flag일 수 있다. 인트라 예측 모드 그룹의 수는 2개 또는 3개일 수 있다.
도 8은 제1 인트라 예측 모드 그룹 내의 예측 모드의 수가 가변일 경우의 본 발명에 따른 인트라 예측 모드를 복원하는 단계(S110)를 구체적으로 설명하는 도면이다. 여기서는 인트라 예측 모드 그룹의 수가 2개인 경우에 대하여 설명한다.
먼저, 현재 예측 유닛에 인접한 예측 유닛의 이용 가능한 인트라 예측 모드들을 이용하여 제1 인트라 예측 모드 그룹을 생성한다(S111).
상기 제1 인트라 예측 모드 그룹은 현재 예측 유닛의 상측 및 좌측 예측 유닛의 유효한 인트라 예측 모드들을 이용하여 구성될 수 있다. 이 경우, 상기 상측 및 좌측 예측 유닛의 인트라 예측 모드들이 모두 유효하지 않은 경우에는 DC 또는 Planar 모드가 추가될 수 있다. 또한, 상기 제1 인트라 예측 모드 그룹은 현재 예측 유닛의 우상측, 좌하측, 좌상측 예측 유닛의 인트라 예측 모드들 중 유효한 적어도 하나의 모드를 더 포함할 수 있다. 상기 모드는 미리 정해진 순서에 따라 검색된 첫번재 유효한 인트라 예측 모드이다.
현재 예측 유닛의 상측 예측 유닛이 복수개 존재하는 경우에는 미리 정해진 방향(예를 들어, 왼쪽에서 오른쪽 방향)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 상측 인트라 예측 모드로 설정한다. 현재 예측 유닛의 좌측 예측 유닛이 복수개 존재하는 경우에도 미리 정해진 방향(예를 들어, 위에서 아래쪽 방향)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 좌측 인트라 예측 모드로 설정할 수 있다.
상기 유효한 인트라 예측 모드가 현재 예측 유닛의 허용 가능한 인트라 예측 모드 내에 속하지 않는 경우에는 상기 유효한 인트라 예측 모드는 현재 예측 유닛의 허용 가능한 인트라 예측 모드들 중 하나로 매핑된다.
상기 인트라 예측 모드 그룹 지시자를 이용하여, 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는지를 판단한다(S112).
단계 S112에서 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는 경우, 예측 모드 인덱스가 존재하는지를 판단한다(S113).
단계 S113에서 예측 모드 인덱스가 존재하면, 상기 제1 인트라 예측 모드 그룹 내의 인트라 예측 모드들 중에서 상기 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 결정한다(S114).
단계 S113에서 예측 모드 인덱스가 존재하지 않으면, 예측 모드 인덱스가 0인 것으로 간주한다. 그리고, 상기 제1 인트라 예측 모드 그룹 내에 존재하는 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 결정한다(S115). 즉, 예측 모드 인덱스가 존재하지 않으면, 제1 인트라 예측 모드 그룹은 하나의 인트라 예측 모드를 포함한다.
단계 S112에서, 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하지 않는 경우에는 제2 인트라 예측 모드 그룹내의 인트라 예측 모드들 중에서, 상기 예측 모드 인덱스에 대응하는 인트라 예측 모드를 선택하여, 현재 예측 유닛의 인트라 예측 모드로 결정한다(S116). 상기 제2 인트라 예측 모드 그룹은 상기 제1 인트라 예측 모드 그룹에 속하는 인트라 예측 모드를 제외한 인트라 예측 모드들로 구성된다. 상기 제2 인트라 예측 모드 그룹내의 인트라 예측 모드 후보자는 인트라 예측 모드 번호가 작은 것에 낮은 인덱스를 부여할 수 있다.
도 9는 제1 인트라 예측 모드 그룹 내의 예측 모드 후보자 수가 고정된 값일 경우의 본 발명에 따른 인트라 예측 모드 복원 단계(S110)를 구체적으로 설명하는 도면이다.
먼저, 현재 예측 유닛에 인접한 예측 유닛의 인트라 예측 모드들을 이용하여 제1 인트라 예측 모드 그룹을 생성한다(S211).
상기 제1 인트라 예측 모드 그룹이 2개의 인트라 예측 모드를 포함하는 경우에 대해 설명한다.
현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드가 유효한지를 판단한다. 그리고, 상기 유효한 인트라 예측 모드가 현재 예측 유닛의 허용 가능한 인트라 예측 모드 내에 속하지 않는 경우에는, 상기 유효한 인트라 예측 모드는 현재 예측 유닛의 허용 가능한 인트라 예측 모드들 중 하나로 변환(매핑)된다. 현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드가 모두 유효하고 동일하지 않은 경우에는, 상기 제1 인트라 예측 모드 그룹은 상기 현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드들로 구성된다. 현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드들 중 하나만이 유효하거나, 2개가 동일한 인트라 예측 모드를 갖는 경우에는, 하나의 인트라 예측 모드가 상기 제1 인트라 예측 모드 그룹에 추가된다. 상기 유효한 하나의 인트라 예측 모드가 DC 모드가 아닌 경우에는 DC 모드를 추가할 수 있다. 상기 유효한 하나의 인트라 예측 모드가 DC 모드인 경우에는 Planar 모드 또는 수직 모드가 추가될 수 있다.
다음으로, 상기 제1 인트라 예측 모드 그룹이 3개의 인트라 예측 모드를 포함하는 경우에 대해 설명한다.
현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드가 유효한지를 판단한다. 그리고, 상기 유효한 인트라 예측 모드가 현재 예측 유닛의 허용 가능한 인트라 예측 모드 내에 속하지 않는 경우에는, 상기 유효한 인트라 예측 모드는 현재 예측 유닛의 허용 가능한 인트라 예측 모드들 중 하나로 변환(매핑)된다.
현재 예측 유닛의 상측 및 좌측 예측 유닛의 인트라 예측 모드가 모두 유효하고 동일하지 않은 경우에는, 상기 제1 인트라 예측 모드 그룹은 상기 유효한 2개의 인트라 예측 모드들과 1개의 추가 인트라 예측 모드로 구성된다. 상기 추가 인트라 예측 모드는 상기 2개의 인트라 예측 모드와는 다른 모드로서, 수직 모드, 수평 모드 및 DC 모드 중 하나이다. 이 경우, DC 모드, 수직 모드, 수평 모드의 순서로 추가 가능한 하나의 모드가 상기 제1 인트라 예측 모드 그룹에 포함된다.
현재 예측 유닛의 상측 및 좌측 예측의 인트라 예측 모드 중 하나만이 유효하거나 상기 2개의 인트라 예측 모드가 동일한 경우에는, 상기 제1 인트라 예측 모드 그룹은 상기 유효한 인트라 예측 모드와 2개의 추가 인트라 예측 모드들로 구성된다. 상기 2개의 추가 인트라 예측 모드들은 상기 유효한 인트라 예측 모드 및 예측 유닛의 크기에 따라 적응적으로 결정된다. 예측 유닛의 크기가 미리 정해진 크기보다 작거나 같으면, 상기 유효한 인트라 예측 모드가 방향성 예측 모드이면, 상기 유효한 인트라 예측 모드의 방향에 가장 인접한 방향을 갖는 인트라 예측 모드들이 상기 추가 인트라 예측 모드들로 설정된다. 다만, 모드 6 또는 9의 경우에는 각각 모드 9 또는 6을 가장 인접한 방향을 갖는 방향성 예측 모드 중 하나로 간주한다. 상기 유효한 인트라 예측 모드가 비방향성 예측 모드이면, 수직 모드 및 수평 모드가 추가 인트라 예측 모드들로 설정되거나, 나머지 하나의 비방향성 예측 모드와 수직 모드가 추가 인트라 예측 모드들로 설정될 수 있다.
현재 예측 유닛의 상측 및 좌측 예측의 인트라 예측 모드들이 모두 유효하지 않은 경우에는, 상기 제1 인트라 예측 모드 그룹은 3개의 추가 인트라 예측 모드로 구성된다. 상기 3개의 추가 인트라 예측 모드들은 DC 모드, 수직 모드 및 수평 모드일 수 있다. 또한, DC 모드, planar 모드 및 수직 모드일 수 있다.
현재 예측 유닛의 상측 예측 유닛이 복수개 존재하는 경우에는 미리 정해진 방향(예를 들어, 왼쪽에서 오른쪽 방향)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 상측 인트라 예측 모드로 설정한다. 현재 예측 유닛의 좌측 예측 유닛이 복수개 존재하는 경우에도 미리 정해진 방향(예를 들어, 위에서 아래쪽 방향)으로 스캔하면서 유효한 첫번째 예측 유닛의 인트라 예측 모드를 좌측 인트라 예측 모드로 설정할 수 있다.
다음으로, 상기 인트라 예측 모드 그룹 지시자를 이용하여, 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는지를 판단한다(S212).
단계 S212에서 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는 경우, 상기 제1 인트라 예측 모드 그룹 내의 인트라 예측 모드들 중에서 상기 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 결정한다(S213).
단계 S212에서, 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하지 않는 경우에는 제2 인트라 예측 모드 그룹내의 인트라 예측 모드들 중에서, 상기 예측 모드 인덱스에 대응하는 인트라 예측 모드를 선택하여, 현재 예측 유닛의 인트라 예측 모드로 결정한다(S214). 상기 제2 인트라 예측 모드 그룹은 상기 제1 인트라 예측 모드 그룹에 속하는 인트라 예측 모드를 제외한 인트라 예측 모드들로 구성된다.
상기 제2 인트라 예측 모드 그룹내의 인트라 예측 모드 후보자는 인트라 예측 모드 번호가 작은 것에 낮은 인덱스를 부여할 수 있다.
다음으로, 상기 복호된 현재 예측 유닛의 인트라 예측 모드에 기초하여 참조 화소를 적응적으로 생성한다(S120).
이용 가능하지 않은 참조화소를 기준으로 한쪽 방향으로만 이용 가능한 참조 화소들이 존재하는 경우에는 가장 가까운 위치에 존재하는 이용 가능한 참조 화소를 복사하여 참조 화소들을 생성할 수 있다. 또 다른 방법으로 가장 가까운 위치에 존재하는 복수개의 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수도 있다. 이용 가능하지 않은 참조화소를 기준으로 양쪽 방향 모두 이용 가능한 참조 화소들이 존재하는 경우에는 각 방향의 가장 인접한 이용 가능한 참조 화소를 이용하여 참조 화소들을 생성한다. 상기 생성되는 참조 화소는 상기 2개 참조 화소(각 방향으로 가장 가까운 위치에 존재하는 화소)의 반올림한 평균값을 참조화소값으로 생성할 수도 있다. 그러나, 상기 2개의 참조 화소값의 차이가 클 경우가 발생할 가능성이 있으므로, 선형 보간 방법을 사용하여 참조 화소를 생성할 수도 있다.
다음으로, 복호된 인트라 예측 모드에 기초하여 참조 화소들을 적응적으로 필터링한다(S130). 복호된 인트라 예측모드가 수직(모드 0), 수평(모드 1), DC(모드 2)인 경우에는 참조 화소들에 필터를 적용하지 않는다. 그 이외의 방향성 모드들에 대해서는 적응적으로 참조 화소를 필터링한다. 또한, 현재 예측 유닛의 상측의 참조화소들 중 가장 오른쪽의 참조 화소(즉 (x=2N-1, y=-1)에 위치하는 참조 화소)와 현재 예측 유닛의 좌측의 참조 화소들 중 가장 아래쪽에 위치하는 참조 화소(즉 (x=-1, y=2N-1)에 위치하는 참조 화소) 필터링 하지 않고, 나머지 화소들은 이웃하는 2개의 화소들을 이용하여 필터링한다.
상기 필터링은 참조화소들 사이의 화소값의 변화량을 스무딩(smoothing)하기 위한 것으로, low-pass filter를 적용한다. Low-pass filter는 3-tap 필터인 [1, 2, 1] 또는 5-tap 필터인 [1, 2, 4, 2, 1]일 수 있다. 상기 low-pass filter는 현재 예측 유닛의 크기 및 인트라 예측 모드에 따라 적응적으로 적용된다.
수직 또는 수평 모드와, 상기 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드들 사이에 존재하는 모드들에 대해서는 예측 유닛의 크기에 따라 적응적으로 필터를 적용한다. 이 경우, 인트라 예측 유닛의 크기에 따라 상기 수평 또는 수직 모드 및 이에 인접하는 미리 정해진 개수의 모드들에서만 필터를 적용할 수 있다. 방향성 인트라 예측 모드의 수가 동일한 예측 유닛들에 대해서는, 상기 미리 정해진 개수는 예측 유닛의 크기가 클수록 단조 증가한다. 즉, 8x8 예측 유닛에 대해서는 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드와 이에 인접하는 제1 개수의 모드에서 필터링을 수행하고, 16x16 예측 유닛에 대해서는 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드와 이에 인접하는 제2 개수의 모드에서 필터링을 수행하고, 32x32 예측 유닛에 대해서는 수평 또는 수직 모드에 대해 45° 각도를 갖는 모드와 이에 인접하는 제3 개수의 모드에서 필터링을 수행한다. 여기서, 제1개수는 제2개수보다 작거나 같고, 제2개수는 제3개수보다 작거나 같다.
다음으로, 복호된 인트라 예측 모드에 따라 참조 화소들을 이용하여 예측 블록을 생성한다(S140). 상기 예측 블록의 생성 방법은 도 6의 예측 블록 생성부의 예측 블록 생성 방법과 동일하므로 생략한다.
역다중화된 잔차신호를 엔트로피 복호화한다(S150).
엔트로피 복호화된 잔차신호를 역스캔한다(S160). 즉, 복호화된 잔차신호를 2차원 배열의 역양자화 블록으로 변환한다. 상기 변환을 위해 복수개의 역스캐닝 패턴 중에 하나를 선택한다. 계수 역스캐닝 패턴은 인트라 예측 모드에 따라 결정될 수 있다. 현재 변환 유닛의 크기가 미리 정해진 크기보다 큰 경우에는 미리 정해진 크기의 서브셋 단위로 역스캔하여 양자화된 변환 유닛을 구성한다. 그리고, 현재 변환 유닛의 크기가 미리 정해진 크기인 경우와 동일한 경우에는 변환 유닛 단위로 역스캔하여 양자화된 변환 유닛을 구성한다.
2차원 배열의 역양자화 블록을 역양자화한다(S170). 이를 위해 현재 코딩 유닛의 양자화 스텝 사이즈 예측자를 결정한다. 상기 예측자의 결정과정은 도 5의 역양자화부(230)의 예측자 결정 과정과 동일하므로 생략한다. 결정된 양자화 스텝 사이즈 예측자와 수신한 잔차 양자화 스텝 사이즈를 더하여 현재 역양자화 블록에 적용된 양자화 스텝 사이즈를 얻는다. 그리고, 양자화 스텝 사이즈가 적용된 양자화 매트릭스를 이용하여 역양자화 계수를 복원한다.
다음으로, 역양자화된 블록을 역변환한다(S180). 복호된 인트라 예측 모드에 따라 적응적으로 역변환 매트릭스가 결정될 수 있다. 변환 단위는 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있다. 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 역 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 역 DST 기반 또는 역 KLT 기반의 정수 매트릭스를 적용한다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 역 DST 기반 또는 역 KLT 기반의 정수 매트릭스를, 수평 방향으로는 역 DCT 기반의 정수 매트릭스를 적용한다. DC 모드의 경우에는 양방향 모두 역 DCT 기반 정수 매트릭스를 적용한다.
다음으로, 단계 S140에서 생성된 예측 블록과 역변환된 블록을 더하여 복원영상을 생성한다(S190). 복원된 잔차신호와 예측블록은 CU 단위로 합해져서 복원된다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (12)

  1. 인트라 예측 복호화 방법에 있어서,
    인트라 예측 정보 및 잔차신호를 역다중화하는 단계;
    상기 인트라 예측 정보 및 현재 예측 유닛에 인접한 예측 유닛의 인트라 예측 모드를 이용하여, 현재 예측 유닛의 인트라 예측 모드를 복호하는 단계;
    현재 예측 유닛의 이용 가능하지 않는 참조 화소들이 존재하는 경우, 하나 이상의 이용 가능한 참조 화소를 이용하여 참조 화소들을 생성하는 단계;
    상기 복호된 인트라 예측 모드에 기초하여 상기 참조 화소들을 필터링하는 단계;
    상기 복호된 인트라 예측 모드 및 상기 참조 화소들을 이용하여 예측 블록을 생성하는 단계;
    상기 역다중화된 잔차 신호를 복호화하여 잔차블록을 생성하는 단계; 및
    상기 예측 블록 및 잔차 블록을 이용하여 복원블록을 생성하는 단계를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  2. 제1항에 있어서, 참조 화소들을 생성하는 단계는
    상기 현재 예측 유닛의 이용 가능하지 않은 참조화소들의 일방에만 이용 가능한 참조 화소가 존재하면, 상기 일방의 가장 인접한 이용 가능한 참조 화소를 이용하여 참조 화소들을 생성하는 단계; 및
    상기 현재 예측 유닛의 이용 가능하지 않은 참조화소들의 양방향에 이용 가능한 참조 화소들이 존재하는 경우, 일방의 가장 인접한 이용 가능한 참조 화소 및 타방의 가장 인접한 이용 가능한 참조 화소를 이용하여 참조 화소들을 생성하는 단계를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  3. 제1항에 있어서, 상기 현재 예측 유닛의 이용 가능하지 않은 참조화소들의 양방향에 이용 가능한 참조 화소들이 존재하는 경우, 일방의 가장 인접한 이용 가능한 참조 화소 및 타방의 가장 인접한 이용 가능한 참조 화소의 반올림한 평균값 또는 선형결합에 의해 생성된 값을 이용하여 참조 화소들을 생성하는 단계를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  4. 제1항에 있어서, 현재 예측 유닛의 인트라 예측 모드를 복호화하는 단계는
    현재 예측 유닛에 인접한 인트라 예측 유닛의 이용 가능한 인트라 예측 모드를 이용하여 제1 인트라 예측 모드 그룹을 생성하는 단계;
    상기 인트라 예측 정보 내의 인트라 예측 모드 그룹 지시자를 이용하여 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는지, 제2 인트라 예측 모드 그룹에 속하는지를 판단하는 단계;
    현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는 경우, 상기 인트라 예측 정보 내의 예측 모드 인덱스가 존재하면 상기 제1 인트라 예측 모드 그룹 내의 인트라 예측 모드들 중에서 상기 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 결정하고, 상기 인트라 예측 정보 내의 예측 모드 인덱스가 존재하지 않으면, 상기 제1 인트라 예측 모드 내에 존재하는 1개의 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 결정하는 단계; 및
    현재 예측 유닛의 인트라 예측 모드가 제2 인트라 예측 모드 그룹에 속하면, 상기 인트라 예측 정보 내의 예측 모드 인덱스를 이용하여 현재 예측 유닛의 인트라 예측 모드를 결정하는 단계를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  5. 제4항에 있어서, 상기 제1 인트라 예측 모드 그룹은 현재 예측 유닛의 좌측 예측 유닛의 이용 가능한 인트라 예측 모드 및 현재 예측 유닛의 상측 예측 유닛의 이용 가능한 인트라 예측 모드를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  6. 제4항에 있어서, 상기 현재 예측 유닛의 좌측 예측 유닛의 인트라 예측 모드 및 현재 예측 유닛의 상측 예측 유닛의 인트라 예측 모드가 모두 이용 가능하지 않은 경우, 상기 제1 인트라 예측 모드 그룹은 DC 모드 또는 planar 모드를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  7. 제5항에 있어서, 현재 예측 유닛의 좌측에 복수개의 인트라 예측 유닛이 존재하는 경우, 이용 가능한 인트라 예측 모드를 갖는 가장 상측의 인트라 예측 유닛의 인트라 예측 모드를 좌측 예측 유닛의 인트라 예측 모드로 결정하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  8. 제1항에 있어서, 상기 인트라 예측 정보는 인트라 예측 모드 그룹 지시자와 예측 모드 인덱스를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  9. 제8항에 있어서, 현재 예측 유닛의 인트라 예측 모드를 복호화하는 단계는
    현재 예측 유닛에 인접한 인트라 예측 유닛의 이용 가능한 인트라 예측 모드를 이용하여 제1 인트라 예측 모드 그룹을 생성하는 단계;
    상기 인트라 예측 모드 그룹 지시자를 이용하여 현재 예측 유닛의 인트라 예측 모드가 제1 인트라 예측 모드 그룹에 속하는지, 제2 인트라 예측 모드 그룹에 속하는지 여부를 판단하는 단계;
    상기 예측 모드 인덱스를 이용하여 상기 판단된 인트라 예측 모드 그룹 내의 인트라 예측 모드들 중에서 상기 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 예측 유닛의 인트라 예측 모드로 결정하는 단계를 포함하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  10. 제9항에 있어서, 현재 예측 유닛의 좌측 예측 유닛의 인트라 예측 모드 및 현재 예측 유닛의 상측 예측 유닛의 인트라 예측 모드들 중 이용 가능한 모드 수에 따라 상기 상기 제1 인트라 예측 모드 그룹을 생성하는 방법을 달리하는 것을 특징으로 하는 인트라 예측 복호화 방법.
  11. 제9항에 있어서, 현재 예측 유닛의 좌측 예측 유닛의 인트라 예측 모드 및 현재 예측 유닛의 상측 예측 유닛의 인트라 예측 모드가 모두 이용 가능하고, 서로 다른 값을 갖는 경우, 상기 제1 인트라 예측 모드 그룹은 상기 2개의 인트라 예측 모드들을 포함하는 것을 특징으로 하는 인트라 예측 모드 복호화 방법.
  12. 제9항에 있어서, 상기 제1 인트라 예측 모드 그룹은, 현재 예측 유닛의 좌측 예측 유닛의 인트라 예측 모드 및 현재 예측 유닛의 상측 예측 유닛의 인트라 예측 모드들 중 이용 가능한 인트라 예측 모드에 따라 적응적으로 추가 인트라 예측 모드를 포함하는 것을 특징으로 하는 인트라 예측 모드 복호화 방법.
PCT/KR2011/005941 2010-08-17 2011-08-12 인트라 예측 복호화 방법 WO2012023762A2 (ko)

Priority Applications (54)

Application Number Priority Date Filing Date Title
DK11818362.3T DK2608541T3 (en) 2010-08-17 2011-08-12 Method for decoding intrapredictions
KR1020187009843A KR20180039754A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
PL16184578T PL3125558T3 (pl) 2010-08-17 2011-08-12 Sposób kodowania trybu intra-predykcji
PL16184569T PL3125554T3 (pl) 2010-08-17 2011-08-12 Urządzenie do kodowania trybu intra-predykcji
JP2013524784A JP5982612B2 (ja) 2010-08-17 2011-08-12 イントラ予測モード復号化方法
KR1020147010248A KR101474987B1 (ko) 2010-08-17 2011-08-12 잔차 신호 부호화 장치
KR1020187009841A KR20180039752A (ko) 2010-08-17 2011-08-12 영상 부호화 장치
EP11818362.3A EP2608541B1 (en) 2010-08-17 2011-08-12 Method for decoding intra-predictions
PL16184582T PL3125559T3 (pl) 2010-08-17 2011-08-12 Urządzenie do dekodowania trybu intra-predykcji
KR1020147010246A KR20140057672A (ko) 2010-08-17 2011-08-12 인트라 예측 복호화 방법
KR1020147010247A KR20140057673A (ko) 2010-08-17 2011-08-12 인트라 예측 복호화 방법
KR1020147014092A KR20140071507A (ko) 2010-08-17 2011-08-12 예측 블록 생성 장치
KR1020187009842A KR20180039753A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
RS20161024A RS55325B1 (sr) 2010-08-17 2011-08-12 Postupak za dekodiranje intra predikcija
EP16184582.1A EP3125559B1 (en) 2010-08-17 2011-08-12 Apparatus for decoding an intra prediction mode
EP16184578.9A EP3125558B1 (en) 2010-08-17 2011-08-12 Method for encoding an intra prediction mode
EP16184586.2A EP3125560B1 (en) 2010-08-17 2011-08-12 Apparatus for decoding an intra prediction mode
KR1020187009845A KR20180039756A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
KR1020187009839A KR20180039750A (ko) 2010-08-17 2011-08-12 영상 부호화 장치
KR1020137020599A KR101854489B1 (ko) 2010-08-17 2011-08-12 인트라 예측 모드 복호화 방법
KR1020137020598A KR20130091799A (ko) 2010-08-17 2011-08-12 인트라 예측 복호화 방법
EP16184577.1A EP3125557B1 (en) 2010-08-17 2011-08-12 Apparatus for encoding an intra prediction mode
KR1020187009840A KR20180039751A (ko) 2010-08-17 2011-08-12 영상 부호화 장치
EP16184569.8A EP3125554B1 (en) 2010-08-17 2011-08-12 Apparatus for encoding an intra prediction mode
ES11818362.3T ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
KR1020147014100A KR20140075020A (ko) 2010-08-17 2011-08-12 예측 블록 생성 장치
EP16184574.8A EP3125556B1 (en) 2010-08-17 2011-08-12 Method for encoding an intra prediction mode
KR1020187009846A KR20180039757A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
CN201180050177.7A CN103168472B (zh) 2010-08-17 2011-08-12 帧内预测模式的解码方法
PL16184586T PL3125560T3 (pl) 2010-08-17 2011-08-12 Urządzenie do dekodowania trybu intra-predykcji
SI201131041A SI2608541T1 (sl) 2010-08-17 2011-08-12 Postopek za dekodiranje notranjih napovedi
LTEP11818362.3T LT2608541T (lt) 2010-08-17 2011-08-12 Vidinės prognozės dekodavimo būdas
PL16184577T PL3125557T3 (pl) 2010-08-17 2011-08-12 Urządzenie do kodowania trybu intra-predykcji
KR1020127028865A KR101373819B1 (ko) 2010-08-17 2011-08-12 인트라 예측 모드 복호화 방법
PL16184574T PL3125556T3 (pl) 2010-08-17 2011-08-12 Sposób kodowania trybu intra-predykcji
KR1020187009844A KR20180039755A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
US13/624,844 US9491478B2 (en) 2010-08-17 2012-09-21 Method for decoding in intra prediction mode
US15/189,243 US10123009B2 (en) 2010-08-17 2016-06-22 Apparatus for encoding an image
US15/189,219 US9716886B2 (en) 2010-08-17 2016-06-22 Method for restoring an intra prediction mode
US15/189,305 US10136130B2 (en) 2010-08-17 2016-06-22 Apparatus for decoding an image
US15/189,374 US9918086B2 (en) 2010-08-17 2016-06-22 Method for encoding an intra prediction mode
US15/189,561 US9924187B2 (en) 2010-08-17 2016-06-22 Method for restoring an intra prediction mode
US15/189,452 US9924186B2 (en) 2010-08-17 2016-06-22 Method for encoding an intra prediction mode
US15/189,485 US9918087B2 (en) 2010-08-17 2016-06-22 Method for encoding an intra prediction mode
US15/189,273 US10123010B2 (en) 2010-08-17 2016-06-22 Apparatus for encoding an image
US15/189,521 US10085019B2 (en) 2010-08-17 2016-06-22 Method for restoring an intra prediction mode
US15/189,596 US10003795B2 (en) 2010-08-17 2016-06-22 Method for encoding an intra prediction mode
US15/189,346 US10063854B2 (en) 2010-08-17 2016-06-22 Apparatus for decoding an image
SM201600449T SMT201600449B (it) 2010-08-17 2016-12-13 METODO Dl DECODIFICA Dl MODALITÀ Dl PREDIZIONE INTRA
CY20161101330T CY1118382T1 (el) 2010-08-17 2016-12-22 Μεθοδος για την αποκωδικοποιηση των ενδο-προβλεψεων
HRP20170053TT HRP20170053T1 (hr) 2010-08-17 2017-01-12 Metoda za dekodiranje unutarokvirnog predviđanja
US16/171,548 US10567760B2 (en) 2010-08-17 2018-10-26 Apparatus for encoding an image
US16/725,167 US10944965B2 (en) 2010-08-17 2019-12-23 Apparatus for encoding an image
US17/161,113 US11284072B2 (en) 2010-08-17 2021-01-28 Apparatus for decoding an image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0079529 2010-08-17
KR20100079529 2010-08-17
KR10-2011-0064301 2011-06-30
KR1020110064301A KR20120058384A (ko) 2010-08-17 2011-06-30 인트라 프리딕션 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/624,844 Continuation US9491478B2 (en) 2010-08-17 2012-09-21 Method for decoding in intra prediction mode
US13/624,844 Continuation-In-Part US9491478B2 (en) 2010-08-17 2012-09-21 Method for decoding in intra prediction mode

Publications (2)

Publication Number Publication Date
WO2012023762A2 true WO2012023762A2 (ko) 2012-02-23
WO2012023762A3 WO2012023762A3 (ko) 2012-04-12

Family

ID=45605532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/005941 WO2012023762A2 (ko) 2010-08-17 2011-08-12 인트라 예측 복호화 방법

Country Status (19)

Country Link
US (4) US9491478B2 (ko)
EP (11) EP3125560B1 (ko)
JP (12) JP5982612B2 (ko)
KR (16) KR20140075020A (ko)
CN (12) CN106851287B (ko)
CY (5) CY1118382T1 (ko)
DK (5) DK3125552T3 (ko)
ES (11) ES2602779T3 (ko)
HR (5) HRP20170053T1 (ko)
HU (9) HUE042510T2 (ko)
LT (5) LT3125555T (ko)
NO (1) NO3125552T3 (ko)
PL (11) PL3125559T3 (ko)
PT (5) PT3125552T (ko)
RS (5) RS57165B1 (ko)
SI (5) SI3125561T1 (ko)
SM (1) SMT201600449B (ko)
TR (2) TR201807094T4 (ko)
WO (1) WO2012023762A2 (ko)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064249A (ja) * 2012-09-24 2014-04-10 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2014099911A (ja) * 2012-01-20 2014-05-29 Sony Corp Hevcビデオ符号化における論理的イントラモードネーミング
JP2014132793A (ja) * 2010-12-28 2014-07-17 Panasonic Corp 画像符号化方法及び画像符号化装置
JP2014535225A (ja) * 2011-11-04 2014-12-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated イントラモードビデオコーディング
JP2015507903A (ja) * 2012-01-20 2015-03-12 パンテック カンパニー リミテッド 画面内予測方法及び画像復号化装置
JP2015518342A (ja) * 2012-04-26 2015-06-25 ソニー株式会社 データ符号化及び復号化
JP2015136173A (ja) * 2011-10-24 2015-07-27 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
JP2015159576A (ja) * 2011-10-24 2015-09-03 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
AU2012259700B2 (en) * 2011-05-20 2015-10-01 Kt Corporation Method and apparatus for intra prediction within display screen
JP2015233293A (ja) * 2011-01-14 2015-12-24 ▲ホア▼▲ウェイ▼技術有限公司 符号化又は復号化における予測方法、及び予測器
JP2016012928A (ja) * 2015-08-21 2016-01-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2016026451A (ja) * 2011-01-14 2016-02-12 ▲ホア▼▲ウェイ▼技術有限公司 画像の符号化および復号の方法、画像データの処理方法、およびその装置
JP2016123118A (ja) * 2011-04-01 2016-07-07 アイベックス・ピイティ・ホールディングス・カンパニー・リミテッド イントラ予測モードにおける映像復号化方法
JP2016136786A (ja) * 2016-04-28 2016-07-28 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2017112629A (ja) * 2017-02-03 2017-06-22 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
JP2017143570A (ja) * 2011-09-12 2017-08-17 キヤノン株式会社 装置、符号化装置、復号装置、方法、及びプログラム
WO2018026219A1 (ko) * 2016-08-03 2018-02-08 주식회사 케이티 비디오 신호 처리 방법 및 장치
JP2018050320A (ja) * 2017-11-07 2018-03-29 株式会社Nttドコモ 動画像予測復号方法
US9961343B2 (en) 2011-10-24 2018-05-01 Infobridge Pte. Ltd. Method and apparatus for generating reconstructed block
JP2018191332A (ja) * 2011-06-28 2018-11-29 サムスン エレクトロニクス カンパニー リミテッド ビデオ復号化方法及びその装置
JP2019013040A (ja) * 2018-09-20 2019-01-24 株式会社Nttドコモ 動画像予測復号方法
RU2715519C1 (ru) * 2012-07-02 2020-02-28 Нтт Докомо, Инк. Устройство кодирования видео с предсказанием, способ кодирования видео с предсказанием, программа кодирования видео с предсказанием, устройство декодирования видео с предсказанием, способ декодирования видео с предсказанием и программа декодирования видео с предсказанием
US10645415B2 (en) 2011-04-25 2020-05-05 Lg Electronics Inc. Intra-prediction method, and encoder and decoder using same

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
ES2618917T3 (es) * 2010-04-23 2017-06-22 M&K Holdings Inc. Aparato de codificación de imagen
SI3125561T1 (en) * 2010-08-17 2018-06-29 M&K Holdings Inc. Procedure for restoring the internal predictive mode
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
US9008175B2 (en) * 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
WO2012078001A2 (ko) * 2010-12-08 2012-06-14 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
EP2870755A1 (en) * 2012-07-05 2015-05-13 Thomson Licensing Video coding and decoding method with adaptation of coding modes
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
US9426473B2 (en) * 2013-02-01 2016-08-23 Qualcomm Incorporated Mode decision simplification for intra prediction
JP6212890B2 (ja) * 2013-03-22 2017-10-18 富士通株式会社 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
KR102294830B1 (ko) * 2014-01-03 2021-08-31 삼성전자주식회사 디스플레이 구동 장치 및 이미지 데이터 처리 장치의 동작 방법
CN105338365B (zh) * 2014-05-27 2018-11-20 富士通株式会社 视频编码方法和视频编码装置
US10856009B2 (en) 2014-09-04 2020-12-01 Mediatek Inc. Method of block vector clipping and coding for screen content coding and video coding
EP3189661B1 (en) * 2014-10-08 2020-07-29 MediaTek Inc. Method of block vector clipping and coding for screen content coding and video coding
CN106375768B (zh) * 2015-07-23 2019-05-17 中国科学院信息工程研究所 基于帧内预测模式校准的视频隐写分析方法
CN105354526B (zh) * 2015-09-28 2018-03-20 西安中颖电子有限公司 提高一维条码解码效率的方法以及一维条码的解码系统
JP6740534B2 (ja) * 2016-07-04 2020-08-19 日本放送協会 符号化装置、復号装置及びプログラム
CN109937571B (zh) * 2016-09-05 2022-01-18 Lg电子株式会社 图像编码/解码方法及其装置
TWI669942B (zh) * 2016-10-14 2019-08-21 聯發科技股份有限公司 用以移除漣漪效應之平滑化濾波方法和裝置
KR20190092382A (ko) * 2016-12-27 2019-08-07 삼성전자주식회사 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치
US10863198B2 (en) 2017-01-03 2020-12-08 Lg Electronics Inc. Intra-prediction method and device in image coding system for 360-degree video
WO2019011484A1 (en) 2017-07-10 2019-01-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. BINARY PLAN CODING
WO2019199093A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20230174765A (ko) 2018-05-10 2023-12-28 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
MX2021002931A (es) 2018-09-13 2021-07-16 Fraunhofer Ges Forschung Intrapredicciones ponderadas lineales afines.
RU2768956C1 (ru) 2018-09-28 2022-03-25 ДжейВиСиКЕНВУД Корпорейшн Устройство декодирования изображения, способ декодирования изображения, устройство кодирования изображения и способ кодирования изображения
CN112514378A (zh) 2018-09-28 2021-03-16 Jvc建伍株式会社 图像解码装置、图像解码方法以及图像解码程序
CN115695783A (zh) * 2018-11-26 2023-02-03 华为技术有限公司 对图像的块进行解码的方法和设备,解码设备,和计算机可读介质
CN111193934A (zh) * 2020-04-10 2020-05-22 杭州雄迈集成电路技术股份有限公司 一种帧内预测方法、系统、计算机设备及可读存储介质
JP7104101B2 (ja) * 2020-06-24 2022-07-20 日本放送協会 符号化装置、復号装置及びプログラム
CN114466238B (zh) * 2020-11-09 2023-09-29 华为技术有限公司 帧解复用方法、电子设备及存储介质
WO2024080706A1 (ko) * 2022-10-10 2024-04-18 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835207B2 (ja) * 2001-06-27 2006-10-18 ソニー株式会社 試着画像提供システム及び試着画像提供方法、試着画像生成装置及び試着画像生成方法
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
CA2488266C (en) * 2002-06-11 2013-08-13 Nokia Corporation Spatial prediction based intra coding
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR100982514B1 (ko) * 2003-11-14 2010-09-16 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 장치
KR20050121627A (ko) 2004-06-22 2005-12-27 삼성전자주식회사 동영상 코덱의 필터링 방법 및 필터링 장치
CA2573990A1 (en) * 2004-07-15 2006-02-23 Qualcomm Incorporated H.264 spatial error concealment based on the intra-prediction direction
CN100455021C (zh) * 2004-09-30 2009-01-21 华为技术有限公司 帧内预测模式的选择方法
CN101053259B (zh) * 2004-11-04 2015-03-04 汤姆森特许公司 一种用于编码可分成宏块的图像的视频数据的装置和方法
KR100679025B1 (ko) * 2004-11-12 2007-02-05 삼성전자주식회사 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
WO2006106935A1 (ja) * 2005-04-01 2006-10-12 Matsushita Electric Industrial Co., Ltd. 画像復号化装置及び画像復号化方法
KR100739714B1 (ko) * 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20080137744A1 (en) * 2005-07-22 2008-06-12 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080165849A1 (en) * 2005-07-22 2008-07-10 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US20080123947A1 (en) * 2005-07-22 2008-05-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080130990A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100739790B1 (ko) * 2006-02-02 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
WO2007093629A1 (en) * 2006-02-17 2007-08-23 Thomson Licensing Process for coding images using intra prediction mode
KR20060027842A (ko) 2006-02-24 2006-03-28 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
US8000390B2 (en) * 2006-04-28 2011-08-16 Sharp Laboratories Of America, Inc. Methods and systems for efficient prediction-mode selection
KR101011303B1 (ko) * 2006-07-28 2011-01-28 가부시끼가이샤 도시바 화상 부호화 및 복호화 방법 및 장치
US8976870B1 (en) * 2006-08-30 2015-03-10 Geo Semiconductor Inc. Block and mode reordering to facilitate parallel intra prediction and motion vector prediction
KR20090074164A (ko) * 2006-09-29 2009-07-06 톰슨 라이센싱 기하학적 인트라 예측
EP2079242A4 (en) * 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
KR100856392B1 (ko) * 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
WO2008130367A1 (en) * 2007-04-19 2008-10-30 Thomson Licensing Adaptive reference picture data generation for intra prediction
JP5351021B2 (ja) * 2007-06-29 2013-11-27 シャープ株式会社 画像符号化装置、および画像復号装置
KR101479263B1 (ko) * 2007-07-09 2015-01-06 삼성전자주식회사 이동 통신 시스템에서 적응적 피어투피어 통신 선택 방법 및 장치
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
JP2009081576A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動画像復号装置、および動画像復号方法
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
US8670488B2 (en) * 2007-12-21 2014-03-11 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive intra mode selection
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
CN101500161B (zh) * 2008-01-31 2012-03-21 华为技术有限公司 基于自适应块变换的帧内预测方法及装置
KR20090095316A (ko) * 2008-03-05 2009-09-09 삼성전자주식회사 영상 인트라 예측 방법 및 장치
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
WO2009136743A2 (ko) * 2008-05-07 2009-11-12 Lg전자 비디오 신호의 디코딩 방법 및 장치
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
JP2009302776A (ja) * 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
JP5238523B2 (ja) 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
EP2393296A1 (en) * 2009-01-29 2011-12-07 Panasonic Corporation Image coding method and image decoding method
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
KR101033769B1 (ko) * 2009-05-11 2011-05-09 선문대학교 산학협력단 영상 데이터의 인트라 예측 모드 결정 방법
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
CN101605263B (zh) * 2009-07-09 2012-06-27 杭州士兰微电子股份有限公司 帧内预测的方法和装置
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8463059B2 (en) * 2010-04-23 2013-06-11 Futurewei Technologies, Inc. Two-layer prediction method for multiple predictor-set intra coding
EP2388999B1 (en) * 2010-05-17 2021-02-24 Lg Electronics Inc. New intra prediction modes
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
SI3125561T1 (en) * 2010-08-17 2018-06-29 M&K Holdings Inc. Procedure for restoring the internal predictive mode
CA2822800C (en) 2010-12-23 2017-08-29 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
CN103283222B (zh) * 2011-09-13 2016-10-26 寰发股份有限公司 基于最可能模式的帧内预测模式的方法及装置
EP3917147A1 (en) 2011-10-24 2021-12-01 Innotive Ltd Image decoding apparatus
WO2013062193A1 (ko) * 2011-10-24 2013-05-02 (주)인터앱 영상 복호화 방법 및 장치
HUE056506T2 (hu) * 2011-10-24 2022-02-28 Innotive Ltd Eljárás és készülék intra predikciósmód dekódolására
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
JP6472242B2 (ja) * 2014-12-26 2019-02-20 亀田製菓株式会社 焼き菓子
JP2016123339A (ja) * 2014-12-26 2016-07-11 ユニーテック株式会社 多能性幹細胞の品質診断方法及び診断キット、抗がん剤並びに疾患モデル動物
JP6481365B2 (ja) * 2014-12-26 2019-03-13 井関農機株式会社 苗移植機
JP2016123336A (ja) * 2014-12-26 2016-07-11 大日本印刷株式会社 細胞培養容器
JP6320911B2 (ja) * 2014-12-26 2018-05-09 サントリーホールディングス株式会社 食物繊維
JP2016123333A (ja) * 2014-12-26 2016-07-11 味の素株式会社 新規調味料用組成物
JP6694635B2 (ja) * 2014-12-26 2020-05-20 国立大学法人大阪大学 マイクロrnaにおけるメチル化修飾部位を計測する方法
JP6441072B2 (ja) * 2014-12-26 2018-12-19 ミヨシ油脂株式会社 食用油脂中のクロロプロパノール類を低減する方法
JP6447125B2 (ja) * 2014-12-26 2019-01-09 大日本印刷株式会社 細胞培養容器
JP2016123340A (ja) * 2014-12-26 2016-07-11 株式会社エバンス 膵癌治療感受性の診断方法及び膵癌治療感受性の増強剤

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2608541A4

Cited By (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014132793A (ja) * 2010-12-28 2014-07-17 Panasonic Corp 画像符号化方法及び画像符号化装置
JP2015233325A (ja) * 2010-12-28 2015-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 再生方法及び再生装置
JP2015233293A (ja) * 2011-01-14 2015-12-24 ▲ホア▼▲ウェイ▼技術有限公司 符号化又は復号化における予測方法、及び予測器
US9979965B2 (en) 2011-01-14 2018-05-22 Huawei Technologies Co., Ltd. Image coding and decoding method, image data processing method, and devices thereof
JP2016026451A (ja) * 2011-01-14 2016-02-12 ▲ホア▼▲ウェイ▼技術有限公司 画像の符号化および復号の方法、画像データの処理方法、およびその装置
US10264254B2 (en) 2011-01-14 2019-04-16 Huawei Technologies Co., Ltd. Image coding and decoding method, image data processing method, and devices thereof
JP2017073774A (ja) * 2011-01-14 2017-04-13 ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. 画像の符号化および復号の方法、画像データの処理方法、およびその装置
JP2019033516A (ja) * 2011-04-01 2019-02-28 アイベックス・ピイティ・ホールディングス・カンパニー・リミテッド イントラ予測モードにおける映像復号化方法
JP2018057029A (ja) * 2011-04-01 2018-04-05 アイベックス・ピイティ・ホールディングス・カンパニー・リミテッド イントラ予測モードにおける映像復号化方法
JP2017085592A (ja) * 2011-04-01 2017-05-18 アイベックス・ピイティ・ホールディングス・カンパニー・リミテッド イントラ予測モードにおける映像復号化方法
JP2016123118A (ja) * 2011-04-01 2016-07-07 アイベックス・ピイティ・ホールディングス・カンパニー・リミテッド イントラ予測モードにおける映像復号化方法
JP2018057030A (ja) * 2011-04-01 2018-04-05 アイベックス・ピイティ・ホールディングス・カンパニー・リミテッド イントラ予測モードにおける映像復号化方法
US11910010B2 (en) 2011-04-25 2024-02-20 Lg Electronics Inc. Intra-prediction method, and encoder and decoder using same
US11006146B2 (en) 2011-04-25 2021-05-11 Lg Electronics Inc. Intra-prediction method, and encoder and decoder using same
US10645415B2 (en) 2011-04-25 2020-05-05 Lg Electronics Inc. Intra-prediction method, and encoder and decoder using same
US9756341B2 (en) 2011-05-20 2017-09-05 Kt Corporation Method and apparatus for intra prediction within display screen
US10158862B2 (en) 2011-05-20 2018-12-18 Kt Corporation Method and apparatus for intra prediction within display screen
US9154803B2 (en) 2011-05-20 2015-10-06 Kt Corporation Method and apparatus for intra prediction within display screen
US9288503B2 (en) 2011-05-20 2016-03-15 Kt Corporation Method and apparatus for intra prediction within display screen
US9749640B2 (en) 2011-05-20 2017-08-29 Kt Corporation Method and apparatus for intra prediction within display screen
AU2012259700B2 (en) * 2011-05-20 2015-10-01 Kt Corporation Method and apparatus for intra prediction within display screen
US9749639B2 (en) 2011-05-20 2017-08-29 Kt Corporation Method and apparatus for intra prediction within display screen
US9432695B2 (en) 2011-05-20 2016-08-30 Kt Corporation Method and apparatus for intra prediction within display screen
US9432669B2 (en) 2011-05-20 2016-08-30 Kt Corporation Method and apparatus for intra prediction within display screen
US9445123B2 (en) 2011-05-20 2016-09-13 Kt Corporation Method and apparatus for intra prediction within display screen
US9843808B2 (en) 2011-05-20 2017-12-12 Kt Corporation Method and apparatus for intra prediction within display screen
US9584815B2 (en) 2011-05-20 2017-02-28 Kt Corporation Method and apparatus for intra prediction within display screen
JP2018191332A (ja) * 2011-06-28 2018-11-29 サムスン エレクトロニクス カンパニー リミテッド ビデオ復号化方法及びその装置
JP2017143570A (ja) * 2011-09-12 2017-08-17 キヤノン株式会社 装置、符号化装置、復号装置、方法、及びプログラム
US10264253B2 (en) 2011-09-12 2019-04-16 Canon Kabushiki Kaisha Deriving reference mode values and encoding and decoding information representing prediction modes
JP2015136174A (ja) * 2011-10-24 2015-07-27 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
JP2015159575A (ja) * 2011-10-24 2015-09-03 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
US10587877B2 (en) 2011-10-24 2020-03-10 Infobridge Pte. Ltd. Image decoding apparatus
US10523942B2 (en) 2011-10-24 2019-12-31 Infobridge Pte. Ltd. Image decoding apparatus
US10523943B2 (en) 2011-10-24 2019-12-31 Infobridge Pte. Ltd. Image decoding apparatus
US11785218B2 (en) 2011-10-24 2023-10-10 Gensquare Llc Image decoding apparatus
US10523941B2 (en) 2011-10-24 2019-12-31 Infobridge Pte. Ltd. Image decoding apparatus
JP2015159574A (ja) * 2011-10-24 2015-09-03 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
US9615105B2 (en) 2011-10-24 2017-04-04 Infobridge Pte. Ltd. Image decoding apparatus
JP2015136173A (ja) * 2011-10-24 2015-07-27 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
JP2015159576A (ja) * 2011-10-24 2015-09-03 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
US9961343B2 (en) 2011-10-24 2018-05-01 Infobridge Pte. Ltd. Method and apparatus for generating reconstructed block
JP2015136172A (ja) * 2011-10-24 2015-07-27 インフォブリッジ ピーティーイー. エルティーディー. 映像復号化装置
JP2014535225A (ja) * 2011-11-04 2014-12-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated イントラモードビデオコーディング
JP2021078149A (ja) * 2012-01-20 2021-05-20 ソニーグループ株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
US10863173B2 (en) 2012-01-20 2020-12-08 Dolby Laboratories Licensing Corporation Intra prediction mode mapping method and device using the method
US11012712B2 (en) 2012-01-20 2021-05-18 Sony Corporation Logical intra mode naming in HEVC video coding
JP2017038382A (ja) * 2012-01-20 2017-02-16 パンテック カンパニー リミテッド 画面内予測方法及び画像復号化装置
JP2017011765A (ja) * 2012-01-20 2017-01-12 ソニー株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
US10616575B2 (en) 2012-01-20 2020-04-07 Intellectual Discovery Co., Ltd. Intra prediction mode mapping method and device using the method
JP2020102870A (ja) * 2012-01-20 2020-07-02 ソニー株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
US9854239B2 (en) 2012-01-20 2017-12-26 Intellectual Discovery Co., Ltd. Intra prediction mode mapping method and device using the method
US10148980B2 (en) 2012-01-20 2018-12-04 Sony Corporation Logical intra mode naming in HEVC video coding
US10158852B2 (en) 2012-01-20 2018-12-18 Intellectual Discovery Co., Ltd. Intra prediction mode mapping method and device using the method
US11412255B2 (en) 2012-01-20 2022-08-09 Sony Corporation Logical intra mode naming in HEVC video coding
JP2018026870A (ja) * 2012-01-20 2018-02-15 ソニー株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
JP2015507903A (ja) * 2012-01-20 2015-03-12 パンテック カンパニー リミテッド 画面内予測方法及び画像復号化装置
US9986238B2 (en) 2012-01-20 2018-05-29 Intellectual Discovery Co., Ltd. Intra prediction mode mapping method and device using the method
JP2016027765A (ja) * 2012-01-20 2016-02-18 ソニー株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
JP2019071652A (ja) * 2012-01-20 2019-05-09 ソニー株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
JP2014099911A (ja) * 2012-01-20 2014-05-29 Sony Corp Hevcビデオ符号化における論理的イントラモードネーミング
US10623772B2 (en) 2012-01-20 2020-04-14 Sony Corporation Logical intra mode naming in HEVC video coding
US20160127744A1 (en) 2012-01-20 2016-05-05 Sony Corporation Logical intra mode naming in hevc video coding
JP2018152863A (ja) * 2012-01-20 2018-09-27 インテレクチュアル ディスカバリー カンパニー リミテッド 画面内予測方法及び画像復号化装置
JP7024897B2 (ja) 2012-01-20 2022-02-24 ソニーグループ株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
US10567795B2 (en) 2012-01-20 2020-02-18 Sony Corporation Logical intra mode naming in HEVC video coding
JP2015518342A (ja) * 2012-04-26 2015-06-25 ソニー株式会社 データ符号化及び復号化
RU2715519C1 (ru) * 2012-07-02 2020-02-28 Нтт Докомо, Инк. Устройство кодирования видео с предсказанием, способ кодирования видео с предсказанием, программа кодирования видео с предсказанием, устройство декодирования видео с предсказанием, способ декодирования видео с предсказанием и программа декодирования видео с предсказанием
RU2642810C1 (ru) * 2012-09-24 2018-01-26 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
RU2715017C1 (ru) * 2012-09-24 2020-02-21 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
RU2701052C1 (ru) * 2012-09-24 2019-09-24 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
RU2699675C1 (ru) * 2012-09-24 2019-09-09 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
RU2673393C1 (ru) * 2012-09-24 2018-11-26 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
JP2014064249A (ja) * 2012-09-24 2014-04-10 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
RU2715015C1 (ru) * 2012-09-24 2020-02-21 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
RU2602978C1 (ru) * 2012-09-24 2016-11-20 Нтт Докомо, Инк. Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео
JP2016012928A (ja) * 2015-08-21 2016-01-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2016136786A (ja) * 2016-04-28 2016-07-28 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
US11438582B2 (en) 2016-08-03 2022-09-06 Kt Corporation Video signal processing method and device for performing intra-prediction for an encoding/decoding target block
WO2018026219A1 (ko) * 2016-08-03 2018-02-08 주식회사 케이티 비디오 신호 처리 방법 및 장치
JP2017112629A (ja) * 2017-02-03 2017-06-22 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
JP2018050320A (ja) * 2017-11-07 2018-03-29 株式会社Nttドコモ 動画像予測復号方法
JP2019013040A (ja) * 2018-09-20 2019-01-24 株式会社Nttドコモ 動画像予測復号方法

Also Published As

Publication number Publication date
PL3125554T3 (pl) 2019-02-28
SI2608541T1 (sl) 2017-01-31
KR20180039750A (ko) 2018-04-18
KR20130091800A (ko) 2013-08-19
PL3125553T3 (pl) 2018-09-28
JP6371799B2 (ja) 2018-08-08
SI3125555T1 (en) 2018-07-31
US20130016780A1 (en) 2013-01-17
CN107105234A (zh) 2017-08-29
CN107105234B (zh) 2019-11-01
CY1120813T1 (el) 2019-12-11
JP2016213855A (ja) 2016-12-15
KR101854489B1 (ko) 2018-05-03
CN106851285B (zh) 2019-10-11
EP3125561A1 (en) 2017-02-01
CN106851284B (zh) 2019-05-10
WO2012023762A3 (ko) 2012-04-12
RS57112B1 (sr) 2018-06-29
ES2696898T3 (es) 2019-01-18
HRP20181098T1 (hr) 2018-09-07
PL3125556T3 (pl) 2019-03-29
KR20140075020A (ko) 2014-06-18
HUE039248T2 (hu) 2018-12-28
JP2016213851A (ja) 2016-12-15
US9924187B2 (en) 2018-03-20
CN106851286A (zh) 2017-06-13
LT3125553T (lt) 2018-07-25
LT2608541T (lt) 2017-01-10
DK3125555T3 (en) 2018-06-18
HUE039207T2 (hu) 2018-12-28
JP6371801B2 (ja) 2018-08-08
EP2608541B1 (en) 2016-10-12
HUE040604T2 (hu) 2019-03-28
CN107071426A (zh) 2017-08-18
JP6371795B2 (ja) 2018-08-08
RS57166B1 (sr) 2018-07-31
DK3125552T3 (en) 2018-06-14
HRP20181145T1 (hr) 2018-09-21
CN106851286B (zh) 2019-11-01
CN104602005B (zh) 2017-10-20
CN104602004B (zh) 2016-05-11
SI3125561T1 (en) 2018-06-29
CN106231308B (zh) 2019-04-12
CN106851285A (zh) 2017-06-13
CN104602004A (zh) 2015-05-06
KR20180039754A (ko) 2018-04-18
RS57233B1 (sr) 2018-07-31
KR20140057672A (ko) 2014-05-13
KR20180039753A (ko) 2018-04-18
JP2016213853A (ja) 2016-12-15
DK3125553T3 (en) 2018-06-18
JP6322230B2 (ja) 2018-05-09
ES2670326T3 (es) 2018-05-30
CN107071426B (zh) 2019-07-12
ES2696931T3 (es) 2019-01-18
CY1120815T1 (el) 2019-12-11
HRP20170053T1 (hr) 2017-03-10
KR20180039756A (ko) 2018-04-18
ES2693905T3 (es) 2018-12-14
ES2602779T3 (es) 2017-02-22
PL3125560T3 (pl) 2019-01-31
PT3125561T (pt) 2018-05-08
RS57165B1 (sr) 2018-07-31
PL3125552T3 (pl) 2018-09-28
HUE040601T2 (hu) 2019-03-28
EP3125552B1 (en) 2018-04-11
EP3125553A1 (en) 2017-02-01
CY1118382T1 (el) 2017-06-28
LT3125561T (lt) 2018-05-25
EP3125556A1 (en) 2017-02-01
EP2608541A4 (en) 2014-05-14
SI3125553T1 (en) 2018-07-31
EP3125557B1 (en) 2018-08-01
CN107105250A (zh) 2017-08-29
KR101373819B1 (ko) 2014-03-17
JP2016213856A (ja) 2016-12-15
PT3125553T (pt) 2018-06-06
PT3125552T (pt) 2018-06-04
EP3125554A1 (en) 2017-02-01
HUE042510T2 (hu) 2019-07-29
EP3125553B1 (en) 2018-04-18
HUE040410T2 (hu) 2019-03-28
KR20140071507A (ko) 2014-06-11
PL3125558T3 (pl) 2019-04-30
CN106231308A (zh) 2016-12-14
JP5982612B2 (ja) 2016-08-31
LT3125555T (lt) 2018-07-25
HUE031186T2 (hu) 2017-07-28
NO3125552T3 (ko) 2018-09-08
JP6371794B2 (ja) 2018-08-08
EP3125559B1 (en) 2018-08-08
HRP20181147T1 (hr) 2018-09-21
JP2016213852A (ja) 2016-12-15
JP2016197881A (ja) 2016-11-24
KR101474987B1 (ko) 2014-12-24
EP3125557A1 (en) 2017-02-01
US20170272747A9 (en) 2017-09-21
SI3125552T1 (en) 2018-07-31
JP6371796B2 (ja) 2018-08-08
CN106851284A (zh) 2017-06-13
CN107071425A (zh) 2017-08-18
ES2685668T3 (es) 2018-10-10
EP3125560B1 (en) 2018-08-08
JP6371798B2 (ja) 2018-08-08
ES2685669T3 (es) 2018-10-10
CN103168472B (zh) 2016-11-09
PL3125561T3 (pl) 2018-09-28
EP3125560A1 (en) 2017-02-01
PL3125559T3 (pl) 2019-01-31
CN107071425B (zh) 2019-07-12
EP3125552A1 (en) 2017-02-01
JP2016213854A (ja) 2016-12-15
JP2016187212A (ja) 2016-10-27
SMT201600449B (it) 2017-01-10
JP6371800B2 (ja) 2018-08-08
KR20130091799A (ko) 2013-08-19
CN106851287B (zh) 2019-07-12
EP3125556B1 (en) 2018-10-17
ES2670325T3 (es) 2018-05-30
HUE039205T2 (hu) 2018-12-28
EP3125558B1 (en) 2018-10-17
CY1120795T1 (el) 2019-12-11
EP3125559A1 (en) 2017-02-01
JP6322231B2 (ja) 2018-05-09
US20170302948A9 (en) 2017-10-19
KR20180039752A (ko) 2018-04-18
US9491478B2 (en) 2016-11-08
EP3125558A1 (en) 2017-02-01
TR201807094T4 (tr) 2018-06-21
JP2016187211A (ja) 2016-10-27
LT3125552T (lt) 2018-07-10
CN107105250B (zh) 2019-07-12
JP6371797B2 (ja) 2018-08-08
ES2670324T3 (es) 2018-05-30
JP2016213850A (ja) 2016-12-15
PT3125555T (pt) 2018-05-28
ES2670327T3 (es) 2018-05-30
US20160301929A1 (en) 2016-10-13
JP6322232B2 (ja) 2018-05-09
EP3125561B1 (en) 2018-03-28
PT2608541T (pt) 2016-12-20
CN104602005A (zh) 2015-05-06
EP3125555B1 (en) 2018-04-18
KR20140057674A (ko) 2014-05-13
KR20180039757A (ko) 2018-04-18
CN106851287A (zh) 2017-06-13
EP3125554B1 (en) 2018-08-01
RS55325B1 (sr) 2017-03-31
DK2608541T3 (en) 2017-01-23
US20160309166A1 (en) 2016-10-20
CN103168472A (zh) 2013-06-19
EP2608541A2 (en) 2013-06-26
KR20140057673A (ko) 2014-05-13
KR20180039755A (ko) 2018-04-18
PL3125555T3 (pl) 2018-09-28
US9924186B2 (en) 2018-03-20
JP2013537771A (ja) 2013-10-03
US20160301928A1 (en) 2016-10-13
JP2016197880A (ja) 2016-11-24
KR20130051443A (ko) 2013-05-20
US9918087B2 (en) 2018-03-13
CY1120190T1 (el) 2018-12-12
US20170302947A9 (en) 2017-10-19
HUE038963T2 (hu) 2018-12-28
HRP20180834T1 (hr) 2018-07-13
PL3125557T3 (pl) 2019-03-29
ES2693903T3 (es) 2018-12-14
PL2608541T3 (pl) 2017-06-30
KR20180039751A (ko) 2018-04-18
DK3125561T3 (en) 2018-06-14
TR201806128T4 (tr) 2018-06-21
EP3125555A1 (en) 2017-02-01

Similar Documents

Publication Publication Date Title
WO2012023762A2 (ko) 인트라 예측 복호화 방법
WO2012018198A2 (ko) 예측 블록 생성 장치
WO2012081879A1 (ko) 인터 예측 부호화된 동영상 복호화 방법
WO2018080135A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2012023763A2 (ko) 인터 예측 부호화 방법
WO2018066863A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018174593A1 (ko) 적응적인 화소 분류 기준에 따른 인루프 필터링 방법
WO2012018197A2 (ko) 인트라 예측 복호화 장치
WO2018044088A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017039256A1 (ko) 비디오 신호 처리 방법 및 장치
WO2012148138A2 (ko) 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
WO2014171713A1 (ko) 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치
WO2018236028A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2013154366A1 (ko) 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치
WO2020185004A1 (ko) 예측 유닛을 서브 유닛들로 분할하여 예측하는 인트라 예측 방법 및 장치
WO2019078581A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020009419A1 (ko) 병합 후보를 사용하는 비디오 코딩 방법 및 장치
WO2019117639A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2016159610A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018044089A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013109123A1 (ko) 인트라 예측 처리 속도 향상을 위한 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
WO2020242145A1 (ko) 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치
WO2016114583A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016048092A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019125035A1 (ko) 선택적 변환에 기반한 영상 코딩 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11818362

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 20127028865

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2013524784

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2011818362

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011818362

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: P-2016/1024

Country of ref document: RS