WO2012148138A2 - 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기 - Google Patents

인트라 예측 방법과 이를 이용한 부호화기 및 복호화기 Download PDF

Info

Publication number
WO2012148138A2
WO2012148138A2 PCT/KR2012/003093 KR2012003093W WO2012148138A2 WO 2012148138 A2 WO2012148138 A2 WO 2012148138A2 KR 2012003093 W KR2012003093 W KR 2012003093W WO 2012148138 A2 WO2012148138 A2 WO 2012148138A2
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
sample
prediction mode
value
reference sample
Prior art date
Application number
PCT/KR2012/003093
Other languages
English (en)
French (fr)
Other versions
WO2012148138A3 (ko
Inventor
박준영
박승욱
임재현
김정선
최영희
전병문
전용준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to ES201390088A priority Critical patent/ES2459890B2/es
Priority to CN201280030010.9A priority patent/CN103621079B/zh
Priority to DE112012001609.2T priority patent/DE112012001609B9/de
Priority to KR1020217013394A priority patent/KR102350988B1/ko
Priority to EP18209846.7A priority patent/EP3471412B8/en
Priority to MX2013012478A priority patent/MX2013012478A/es
Priority to CA2834249A priority patent/CA2834249C/en
Priority to KR1020207004743A priority patent/KR102164571B1/ko
Priority to EP23172623.3A priority patent/EP4224844B1/en
Priority to DK12775964.5T priority patent/DK2704435T3/da
Priority to GB1319111.9A priority patent/GB2505345B/en
Priority to PL18209846T priority patent/PL3471412T3/pl
Priority to RU2013152175/08A priority patent/RU2550539C1/ru
Priority to KR1020197009940A priority patent/KR102081350B1/ko
Priority to KR1020157006823A priority patent/KR101763496B1/ko
Priority to EP12775964.5A priority patent/EP2704435B1/en
Priority to JP2014508283A priority patent/JP5869666B2/ja
Priority to US14/113,708 priority patent/US10368090B2/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to AU2012249024A priority patent/AU2012249024B2/en
Priority to KR1020207028497A priority patent/KR102250105B1/ko
Priority to KR1020137030935A priority patent/KR101645787B1/ko
Priority to EP20200228.3A priority patent/EP3783889B1/en
Priority to MX2016002952A priority patent/MX347329B/es
Priority to KR1020187012530A priority patent/KR101968325B1/ko
Priority to PL12775964T priority patent/PL2704435T3/pl
Priority to KR1020177020723A priority patent/KR101855951B1/ko
Publication of WO2012148138A2 publication Critical patent/WO2012148138A2/ko
Publication of WO2012148138A3 publication Critical patent/WO2012148138A3/ko
Priority to US14/692,134 priority patent/US10645415B2/en
Priority to AU2015246147A priority patent/AU2015246147B2/en
Priority to AU2017228642A priority patent/AU2017228642B2/en
Priority to AU2019253843A priority patent/AU2019253843B2/en
Priority to US16/835,894 priority patent/US11006146B2/en
Priority to US17/132,378 priority patent/US11910010B2/en
Priority to AU2021204343A priority patent/AU2021204343B2/en
Priority to AU2022279488A priority patent/AU2022279488B2/en
Priority to US18/407,955 priority patent/US20240146960A1/en
Priority to AU2024201564A priority patent/AU2024201564A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to an intra prediction method in an image encoder and a decoder, and more particularly, to a method for deriving a value of a specific boundary sample of a prediction block for a current block and an apparatus using the same.
  • a high efficiency image compression technique can be used to effectively transmit, store, and reproduce high resolution, high quality images.
  • inter prediction and intra prediction may be used.
  • a pixel value in a current picture is predicted from a picture before and / or after in time
  • intra prediction a pixel value in a current picture is predicted using pixel information in a current picture.
  • weight prediction for preventing deterioration of image quality due to lighting changes
  • entropy coding for assigning short codes to symbols with high appearance frequency and long codes for symbols with low appearance frequency Etc.
  • Another object of the present invention is to provide an intra prediction method capable of increasing the prediction efficiency and an apparatus using the same.
  • an intra prediction method includes deriving a prediction mode of the current block and generating a prediction block for the current block based on the prediction mode of the current block.
  • the prediction mode of the current block is Intra_Angular prediction mode
  • the value of the boundary sample which is not located in the prediction direction of the intra directional prediction mode among the left boundary samples and the upper boundary samples of the prediction block is located in the prediction direction. It is derived based on the reference sample and the adjacent reference sample.
  • the value of the left boundary sample may be derived based on the top reference sample and the adjacent reference sample of the left boundary sample.
  • the value of the prediction sample that is not the left boundary sample may be derived as the value of the top reference sample of the prediction sample.
  • the value of the left boundary sample may be derived based on the top reference sample of the left boundary sample, the reference sample adjacent to the left boundary sample, and the reference sample adjacent to the top left of the current block. .
  • the value of the upper boundary sample may be derived based on the left reference sample and the adjacent reference sample of the upper boundary sample.
  • the value of the prediction sample that is not the upper boundary sample may be derived as the value of the left reference sample of the prediction sample.
  • the value of the upper boundary sample may be derived based on the left reference sample of the upper boundary sample, the reference sample adjacent to the upper boundary sample, and the reference sample adjacent to the upper left end of the current block. .
  • the value of the left boundary sample may be derived based on a reference sample located in the prediction direction and an adjacent reference sample.
  • the value of the upper boundary sample may be derived based on a reference sample located in the prediction direction and an adjacent reference sample.
  • an image encoding apparatus includes a prediction unit generating a prediction block for the current block based on a prediction mode of the current block, and an entropy encoding unit encoding information on the prediction block.
  • the prediction mode of the current block is Intra_Angular prediction mode
  • the prediction unit sets a value of a boundary sample that is not located in the prediction direction of the intra directional prediction mode among the left boundary samples and the upper boundary samples of the prediction block to the prediction direction. Derivations are derived based on the reference sample and the adjacent reference sample.
  • an image decoding apparatus includes an entropy decoding unit for entropy decoding information received from the encoding apparatus, and a prediction unit generating a prediction block for the current block based on the entropy decoded information.
  • the prediction unit sets a value of a boundary sample that is not located in the prediction direction of the intra directional prediction mode among the left boundary samples and the upper boundary samples of the prediction block to the prediction direction. Derivations are derived based on the reference sample and the adjacent reference sample.
  • the prediction unit may derive the value of the left boundary sample based on the top reference sample and the adjacent reference sample of the left boundary sample.
  • the prediction unit may derive the value of the left boundary sample based on the top reference sample of the left boundary sample, the reference sample adjacent to the left boundary sample, and the reference sample adjacent to the upper left of the current block. Can be.
  • the prediction unit may derive the value of the upper boundary sample based on the left reference sample and the adjacent reference sample of the upper boundary sample.
  • the prediction unit may derive the value of the upper boundary sample based on the left reference sample of the upper boundary sample, the reference sample adjacent to the upper boundary sample, and the reference sample adjacent to the upper left of the current block. Can be.
  • the efficiency of intra prediction can be increased, and the performance of image compression can be improved.
  • the accuracy of the value of the predictive sample at the position adjacent to the reference sample can be improved.
  • FIG. 1 is a block diagram schematically illustrating an image encoder according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating an image decoder according to an embodiment of the present invention.
  • FIG. 3 is a flowchart schematically illustrating an intra prediction method in an image decoder.
  • FIG. 6 illustrates a case in which the prediction direction is vertical in the intra prediction mode according to an embodiment of the present invention.
  • FIG. 7 illustrates a case in which the prediction direction is horizontal in the intra prediction mode according to an embodiment of the present invention.
  • FIG 9 illustrates a case in which the prediction direction is upward in the intra prediction mode according to an embodiment of the present invention.
  • FIG. 10 illustrates a case in which the prediction direction is left downward in the intra prediction mode according to an embodiment of the present invention.
  • FIG 11 illustrates a case in which the prediction direction is vertical in the intra prediction mode according to another embodiment of the present invention.
  • FIG. 12 illustrates a case in which the prediction direction is horizontal in the intra prediction mode according to another embodiment of the present invention.
  • FIG. 13 is a diagram schematically illustrating an operation of an encoder in a system to which the present invention is applied.
  • FIG. 14 is a diagram schematically illustrating an operation of a decoder in a system to which the present invention is applied.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of the description of the different characteristic functions in the image encoder / decoder, each component is implemented in separate hardware or separate software It does not mean to be.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each component is integrated / separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • the image encoder 100 may include a picture splitter 105, a predictor 110, a transformer 115, a quantizer 120, a reordering unit 125, an entropy encoder 130, An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150 are included.
  • the picture dividing unit 105 may divide the input picture into at least one processing unit.
  • the processing unit may be a prediction unit (prediction unit), a transform unit (TU), or a coding unit (CU).
  • the prediction unit 110 may include an inter prediction unit that performs inter prediction and an intra prediction unit that performs intra prediction.
  • the prediction unit 110 performs prediction on the processing unit of the picture divided by the picture dividing unit 105 and generates a prediction block.
  • the processing unit of the picture may be a coding unit, a transformation unit, or a prediction unit.
  • the prediction unit 110 determines whether to perform inter prediction or intra prediction on the processing unit, and performs prediction according to the determined prediction method.
  • the unit in which the prediction method is determined may be different from the unit in which the prediction is performed.
  • the unit in which the prediction method is determined may be a prediction unit, and the unit in which the prediction is performed may be a transformation unit.
  • a prediction block is generated by performing prediction based on information on at least one of a previous picture and a subsequent picture of the current picture.
  • a prediction block is generated by performing prediction based on pixel information in a current picture.
  • a reference picture may be selected for a current block, and a reference block having the same size as that of the current block may be selected in integer pixel units. Subsequently, a prediction block is generated in which the residual value of the current block and the size of the motion vector are minimum.
  • a skip mode a merge mode, a motion vector prediction (MVP), and the like can be used.
  • the prediction block may be generated in units less than or equal to an integer such as 1/2 and 1/4.
  • the motion vector may also be expressed in units of integer pixels or less.
  • the luminance component may be expressed in units of 1/4 pixels and the chrominance component may be expressed in units of 1/8 pixels.
  • Information such as an index, a motion vector, and a residual signal of a reference picture selected through inter prediction is entropy encoded and transmitted to the decoder.
  • a unit for determining a prediction mode may be a prediction unit, and a unit for performing prediction may be a prediction unit or a transform unit.
  • intra prediction may support 33 directional prediction modes and at least two non-directional prediction modes.
  • the non-directional prediction mode may include a DC prediction mode and a planar mode.
  • a sample may mean using information of the sample, for example, a pixel value.
  • use sample information or "use pixel value” may simply be referred to as "use sample”.
  • Prediction units can have various sizes / shapes. For example, in the case of inter prediction, it may have a size of 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, or N ⁇ N, and in the case of intra prediction, it may have a size of 2N ⁇ 2N or N ⁇ N. Can be.
  • the N ⁇ N prediction unit may be set to apply only in a specific case.
  • the N ⁇ N size prediction unit may be used only for the minimum size coding unit, or may be configured to be used only for intra prediction.
  • prediction units having sizes of N ⁇ mN, mN ⁇ N, 2N ⁇ mN, or mN ⁇ 2N (m ⁇ 1) may be defined and used.
  • the residual block between the generated prediction block and the original block is input to the transformer 115.
  • information about a prediction mode, a prediction unit, and a motion vector used for prediction is encoded by the entropy encoder 130 and transmitted to the decoder.
  • the transform unit 115 performs transform on the residual block to generate transform coefficients.
  • the processing unit in the converter 115 may be a transform unit, and may have a quad tree structure. At this time, the size of the conversion unit may be determined within a range of a predetermined maximum and minimum size.
  • the transform unit 115 converts the residual block using a discrete cosine transform (DCT), a discrete sine transform (DST), or the like.
  • DCT discrete cosine transform
  • DST discrete sine transform
  • the quantization unit 120 quantizes the transform coefficients generated by the transform unit 115 to generate quantization coefficients.
  • the quantization coefficients generated by the quantization unit 120 are transferred to the reordering unit 125 and the inverse quantization unit 135.
  • the reordering unit 125 rearranges the quantization coefficients transferred from the quantization unit 120. By rearranging the quantization coefficients, the efficiency of encoding in the entropy encoder 130 may be increased.
  • the reordering unit 125 rearranges the quantization coefficients in the form of a two-dimensional block into a one-dimensional vector form through a coefficient scanning method.
  • the reordering unit 125 may increase the entropy coding efficiency of the entropy encoder 130 by changing the order of coefficient scanning based on probabilistic statistics of the quantization coefficients transmitted from the quantization unit 120.
  • the entropy encoder 130 performs entropy encoding on the rearranged quantization coefficients. At this time, an encoding method such as Exponential Golomb and Context-Adaptive Binary Arithmetic Coding (CABAC) may be used.
  • CABAC Exponential Golomb and Context-Adaptive Binary Arithmetic Coding
  • the entropy encoder 130 may include block type information, prediction mode information, division unit information, prediction unit information, transmission unit information, motion vector information, reference picture information, block interpolation information received from the prediction unit 110, Various information such as filtering information is encoded.
  • the entropy encoder 130 may apply a constant change to a transmitted parameter set or syntax.
  • the inverse quantization unit 135 inverse quantizes the quantized values in the quantization unit 120, and the inverse transformer 140 inversely transforms the inverse quantized values in the inverse quantization unit 135.
  • the residual block reconstructed by the inverse quantizer 135 and the inverse transformer 140 may be combined with the prediction block generated by the predictor 110 to generate a reconstructed block.
  • the filter unit 145 may apply a deblocking filter, an adaptive loop filter (ALF), a sample adaptive offset (SAO), and the like to the reconstructed picture.
  • ALF adaptive loop filter
  • SAO sample adaptive offset
  • the deblocking filter may remove block distortion generated at the boundary between blocks in the reconstructed picture.
  • the ALF may perform filtering based on a value obtained by comparing the reconstructed picture filtered by the deblocking filter with the original picture. ALF may only be operated when high efficiency is applied.
  • the SAO restores the offset difference from the original image on a pixel-by-pixel basis for the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
  • filtering may not be performed on the reconstructed block used for inter prediction.
  • the memory 150 may store a reconstruction block or a picture.
  • the reconstructed block or picture stored in the memory 150 may be transferred to the predictor 110 that performs inter prediction.
  • the image decoder 200 includes an entropy decoder 210, a reordering unit 215, an inverse quantizer 220, an inverse transformer 225, a predictor 230, and a filter 235.
  • Memory 240 stores instructions for executing code.
  • the image decoder may decode the bitstream according to a procedure in which image information is processed by the image encoder.
  • the entropy decoder 210 performs entropy decoding using CABAC correspondingly.
  • the residual signal entropy decoded by the entropy decoder 210 is transferred to the reordering unit 215, and information for generating a prediction block among the information entropy decoded by the entropy decoder 210 is transferred to the predictor 230. .
  • the reordering unit 215 rearranges the bitstream de-entropy decoded by the entropy decoding unit 210 based on the reordering method in the image encoder.
  • the reordering unit 215 receives the information related to the coefficient scanning performed by the encoder, and inversely scans the coefficients expressed in the form of a one-dimensional vector through a method of inversely scanning based on the scanning order performed by the encoder. Reconstruct and reorder the coefficients of the form.
  • the inverse quantization unit 220 performs inverse quantization based on the quantization parameter provided from the encoder and the coefficient values of the rearranged block.
  • the inverse transform unit 225 performs inverse transform on the transform performed by the transform unit of the encoder.
  • the inverse transform may be performed based on a transmission unit or a division unit determined by the encoder.
  • the encoder of the encoder may selectively perform DCT or DST according to a plurality of pieces of information such as a prediction method, a size of a current block, a prediction direction, and the like.
  • the inverse transformer 225 of the decoder may perform transform information performed by the encoder of the encoder. Inverse transformation can be performed based on.
  • the prediction unit 230 generates the prediction block based on the information for generating the prediction block provided from the entropy decoding unit 210 and the already decoded block and / or picture information provided from the memory 240.
  • the reconstruction block is generated based on the prediction block generated by the predictor 230 and the residual block provided by the inverse transform unit 225. For example, when the current block is encoded in the inter prediction mode, inter prediction is performed on the current prediction unit based on information included in at least one of the previous picture and the subsequent picture of the current picture. In this case, motion information required for inter prediction such as a motion vector and a reference picture index may be derived from a skip flag, a merge flag, and the like provided from the encoder.
  • the reconstructed block and / or picture may be provided to the filter unit 235.
  • the filter unit 235 applies deblocking filtering, SAO and / or adaptive loop filtering to the reconstructed blocks and / or pictures.
  • the reconstructed pictures and blocks may be stored in the memory 240 so that they can be used as reference pictures or reference blocks, and transferred to an output unit (not shown).
  • the encoder encodes the encoding target block based on the image information of the encoding object block using the most efficient encoding method
  • the decoder determines the decoding method based on the encoding method used in the encoder.
  • the encoding method used in the encoder may be derived through a bitstream transmitted from the encoder or based on information of a decoding target block. If the current block is encoded in the intra prediction mode, intra prediction is performed to generate a prediction block based on pixel information in the current picture.
  • FIG. 3 is a flowchart schematically illustrating an intra prediction method in an image decoder.
  • the decoder derives the prediction mode of the current block (S310).
  • the prediction direction may be determined according to the position of a reference sample used for prediction.
  • An intra prediction mode having a prediction direction is called an intra directional prediction mode.
  • an intra prediction mode having no prediction direction there are Intra_Planar prediction mode, Intra_DC prediction mode, and Intra_Fromluma prediction mode.
  • Table 1 shows the mode values of the intra prediction mode shown in FIG. 4.
  • intra prediction prediction is performed on the current block based on the derived prediction mode. Since the prediction sample and the specific prediction method are different according to the prediction mode, when the current block is encoded in the intra prediction mode, the decoder derives the prediction mode of the current block to perform the prediction.
  • the decoder may check whether neighboring samples of the current block can be used for prediction and configure reference samples to be used for prediction (S320).
  • the neighboring samples of the current block are samples of 2 * nS length adjacent to the left border and the bottom left of the current block of size nS x nS, and 2 * nS length samples adjacent to the upper boundary and the right top of the current block. it means.
  • some of the surrounding samples of the current block may not be decoded yet or may be available. In that case, the decoder may construct reference samples for use in prediction by substituting samples that are not available with the available samples.
  • the decoder may perform filtering of reference samples based on the prediction mode (S330).
  • the decoder may perform filtering of the reference sample before performing the prediction. Whether filtering of the reference sample is performed is determined based on the prediction mode of the current block. Adaptive filtering of reference samples according to the prediction mode is called MDIS (Mode Dependent Intra Smoothing) or simply smoothing filtering.
  • MDIS Mode Dependent Intra Smoothing
  • Table 2 is an example of determining whether to apply the filter of the reference samples based on the prediction mode.
  • the decoder generates a prediction block for the current block based on the prediction mode and the reference samples (S340).
  • the decoder generates a prediction block for the current block based on the prediction mode derived in the prediction mode derivation step S310 and the reference samples obtained through the reference sample configuration step S320 and the reference sample filtering step S330.
  • the boundary sample means a sample located in the prediction block and adjacent to the boundary of the prediction block.
  • the left boundary sample 522 and the upper boundary sample 521 of the current block 500 refer to the left reference sample 530 and the top reference, respectively. Since the probability of being similar to the sample 510 is high, a smoothing filter may be applied as shown in FIG. 5.
  • the shaded portion 505 represents the filtering target region.
  • a 2-tap filter may be applied to the left boundary sample and the top boundary sample similarly to the Intra_DC mode. However, it is not applied to both the left boundary sample and the top boundary sample, but adaptively applies to the left boundary samples or the top boundary samples according to the prediction direction. That is, it applies only to boundary samples adjacent to the reference sample that are not used for actual directional prediction.
  • the value of the prediction sample may be derived based on a reference sample located in the prediction direction.
  • a boundary sample not located in the prediction direction among the left boundary sample and the upper boundary sample of the prediction block may be adjacent to a reference sample that is not used for prediction. That is, the distance from the reference sample not used for prediction may be much closer than the distance from the reference sample used for prediction.
  • the neighboring reference for the boundary sample which is not located in the prediction direction among the left boundary sample and the upper boundary sample is increased. Apply filtering with the sample.
  • deriving the value of the predictive sample in the intra directional prediction mode by deriving the value of the predictive sample as the value of the reference sample located in the prediction direction, and the left boundary sample and the upper boundary sample of the prediction block.
  • the process will be described by dividing and modifying a boundary sample that is not located in the prediction direction.
  • [x, y] coordinates are set in which the coordinate values increase in the lower right direction based on the upper left samples of the current block and the prediction block.
  • the size of the current block and the prediction block is defined as nS.
  • the upper left boundary sample of the prediction block has a position of [0, 0]
  • the left boundary samples are [0, 0..nS-1]
  • the upper boundary samples are [0..nS-1, 0].
  • the value of the prediction sample is derived based on the reference sample located in the prediction direction.
  • the value of the prediction sample is derived as the value of the sample having the same x coordinate among reference samples adjacent to the upper boundary of the current block. That is, the value predSamples [x, y] of the prediction sample is derived as in Equation 1.
  • p [a, b] represents the value of the sample which has the position of [a, b].
  • the value of the predictive sample is derived as the value of the sample having the same y coordinate among reference samples adjacent to the left boundary of the current block. That is, the value predSamples [x, y] of the prediction sample is derived as in Equation 2.
  • the value of the prediction sample is located in the prediction direction among the reference samples adjacent to the upper boundary of the current block and the reference samples located at the upper right. Is derived from the value of the reference sample.
  • the value of the prediction sample is the prediction direction among the reference samples adjacent to the left boundary of the current block and the reference samples located at the lower left. Derived from the value of the reference sample located at.
  • FIG. 6 illustrates a case in which the prediction direction is vertical in the intra prediction mode according to an embodiment of the present invention.
  • a smoothing filter may be applied to the left boundary sample 620.
  • the value of the predictive sample is derived as the value of the upper reference sample.
  • reference samples adjacent to the left boundary of the current block 600 are not used for the directional prediction, but are adjacent to the left boundary samples of the current block 600. That is, in the case of the left boundary sample 620, the distance from the left reference sample 630, which is a reference sample not used for prediction, is closer than the distance from the upper reference sample 610, which is a reference sample used for prediction.
  • the upper reference sample 610 means a sample ([x, -1]) adjacent to the upper boundary of the current block and having the same x coordinate, and the left reference sample 630 is adjacent to the left boundary of the current block.
  • the smoothing filter may be applied to the left boundary sample 620 as shown in FIG. 6.
  • the shaded portion 605 represents the filtering target region.
  • the value predSamples [x, y] of the modified left boundary sample 620 may be derived as shown in Equation 3 below.
  • the coefficient of the filter is not limited to [1 1] / 2, and a filter having coefficients such as [1 3] / 4, [1 7] / 8 and the like may be applied.
  • the coefficient of the filter may be adaptively determined according to the size of the current block.
  • information of neighboring blocks may be further considered. For example, in consideration of a change in a sample value according to the y coordinate value of the left boundary sample 620, based on the upper left reference sample 640, the value of the left boundary sample 620 modified as shown in Equation 4 is obtained. Can be derived.
  • the value of the prediction sample may exceed a prescribed bit depth.
  • the value of the prediction sample can be limited to a defined bit depth or weighted for the difference.
  • the value of the modified left boundary sample 620 may be derived as shown in Equation 5 below.
  • FIG. 7 illustrates a case in which the prediction direction is horizontal in the intra prediction mode according to an embodiment of the present invention.
  • a smoothing filter may be applied to the upper boundary sample 720.
  • the value of the predictive sample is derived as the value of the left reference sample.
  • reference samples adjacent to the upper boundary of the current block 700 are not used for the directional prediction, but are adjacent to the upper boundary samples of the current block 700. That is, in the case of the upper boundary sample 720, the distance from the upper reference sample 710, which is a reference sample not used for prediction, is closer than the distance with the left reference sample 730, which is a reference sample used for prediction.
  • the upper reference sample 710 means a sample ([x, -1]) adjacent to the upper boundary of the current block and having the same x coordinate, and the left reference sample 730 is adjacent to the left boundary of the current block.
  • the smoothing filter may be applied to the upper boundary sample 720 as shown in FIG. 7.
  • the shaded portion 705 represents the filtering target region.
  • the value predSamples [x, y] of the modified upper boundary sample 620 may be derived as shown in Equation (6).
  • the coefficient of the filter is not limited to [1 1] / 2, and a filter having coefficients such as [1 3] / 4, [1 7] / 8 and the like may be applied.
  • the coefficient of the filter may be adaptively determined according to the size of the current block.
  • information of neighboring blocks may be further considered.
  • the value of the modified upper boundary sample 720 is expressed as shown in Equation (7). Can be derived.
  • the value of the prediction sample may exceed a prescribed bit depth.
  • the value of the prediction sample can be limited to a defined bit depth or weighted for the difference.
  • the value of the modified upper boundary sample 720 may be derived as shown in Equation (8).
  • the method of applying the smoothing filter to the left boundary sample or the top boundary sample based on the prediction mode of the current block may be applied to other intra directional modes as well as the vertical prediction mode and / or the horizontal prediction mode.
  • the intra directional prediction modes may be classified based on the prediction direction, and adaptive filtering may be performed according to a group to which the corresponding mode belongs.
  • the smoothing filter may be applied to the left boundary sample, similarly to the vertical prediction mode.
  • a smoothing filter may be applied to the upper boundary sample.
  • FIG 9 illustrates a case in which the prediction direction is upward in the intra prediction mode according to an embodiment of the present invention.
  • the value of the prediction sample is one of the reference samples adjacent to the right boundary of the current block and the reference samples located at the upper right end. It is derived from the value of the reference sample 910 located in the prediction direction.
  • reference samples adjacent to the left boundary of the current block 900 are not used, but are adjacent to the left boundary samples. That is, in the case of the left boundary sample 920, the distance from the left reference sample 930 is closer than the distance from the reference sample 910 located in the prediction direction.
  • the left reference sample 630 means a sample ([-1, y]) adjacent to the left boundary of the current block and having the same y coordinate.
  • the smoothing filter may be applied to the left boundary sample 920 as shown in FIG. 9.
  • the shaded portion 905 represents the filtering target region.
  • FIG. 10 illustrates a case in which the prediction direction is left downward in the intra prediction mode according to an embodiment of the present invention.
  • the values of the prediction samples are the reference samples adjacent to the left boundary of the current block and the reference samples located at the lower left end.
  • the value of the reference sample 1030 located in the prediction direction is derived.
  • reference samples adjacent to the upper boundary of the current block 1000 are not used, but adjacent to the upper boundary samples. That is, in the case of the upper boundary sample 1020, the distance from the upper reference sample 1010 is closer than the distance from the reference sample 1030 positioned in the prediction direction.
  • the upper reference sample 1010 means a sample ([x, -1]) adjacent to the upper boundary of the current block and having the same x coordinate.
  • the shaded portion 1005 represents a filtering target region.
  • the process of deriving the value of the predictive sample may include, for convenience of explanation, deriving the value of the predictive sample as the value of the reference sample located in the prediction direction, and the left boundary sample of the predictive block;
  • the process of deriving a value of the prediction sample may be performed in one step without dividing into a plurality of steps.
  • the filtering of the boundary sample is not performed as a separate step, and the prediction sample is not performed.
  • Deriving the value of as a value of the reference sample located in the prediction direction and may be performed as one step.
  • the value of the left boundary sample 620 is equal to the upper reference sample 610 and the reference sample 630 adjacent to the left boundary sample, as shown in Equations 3 to 5. Can be derived based on this.
  • the value of the upper boundary sample 720 is equal to the left reference sample 730 and the reference sample 710 adjacent to the upper boundary sample, as shown in Equations 6 to 8. Can be derived based on this.
  • the value of the left boundary sample 920 may be derived based on the reference sample 910 located in the prediction direction and the reference sample 930 adjacent to the left boundary sample. have.
  • the value of the upper boundary sample 1020 may be derived based on a reference sample 1030 positioned in the prediction direction and a reference sample 1010 adjacent to the upper boundary sample. have.
  • the value of the prediction sample is derived as the value of the reference sample located in the prediction direction. do.
  • the value of the prediction sample other than the left boundary sample is derived as shown in Equation 9 below.
  • the value of the prediction sample other than the upper boundary sample is derived as in Equation 10.
  • the method of applying the smoothing filter to the left boundary samples or the upper boundary samples based on the prediction mode of the current block may be applied to a part of the prediction samples of the corresponding boundary samples instead of all the prediction samples.
  • the error of the prediction sample is likely not to be large. In this case, it may be rather accurate not to apply the smoothing filter, ie not to consider other sample information. Therefore, according to the position in the block of the boundary sample, it may be determined whether to perform filtering with an adjacent reference sample.
  • the smoothing filter may be applied to only some of the left boundary samples, or in the horizontal prediction mode, the smoothing filter may be applied to only some of the upper boundary samples.
  • a smoothing filter may be applied to only some of the left boundary samples. That is, the farther the distance from the reference sample used for prediction, the lower the accuracy of the prediction, so that the smoothing filter can be applied only to the samples of the region having the lower accuracy.
  • the smoothing filter may be applied only to the left boundary sample 1120 far from the top reference sample 1110 among the left boundary samples based on half of the height of the current block 1100.
  • the shaded portion 1105 represents an area to be filtered.
  • the prediction mode of the current block is the horizontal prediction mode, it may be determined whether to perform filtering with adjacent reference samples according to the position in the block of the upper boundary sample.
  • FIG. 12 illustrates a case in which the prediction direction is horizontal in the intra prediction mode according to another embodiment of the present invention.
  • a smoothing filter may be applied to only some of the upper boundary samples.
  • the smoothing filter may be applied only to the upper boundary samples 1220 far from the upper reference sample 1230 among the upper boundary samples based on half of the width of the current block 1200.
  • the shaded portion 1205 represents a filtering target region.
  • the area to which the smoothing filter is applied is not limited to half the height or width of the current block. That is, it may be set to a size of 1/4 or 3/4, and may be adaptively determined based on the distance to the sample used for prediction according to the intra prediction mode. In this case, an area to which the smoothing filter is applied may be defined as a look-up table, thereby reducing the computational burden of the encoder or the decoder.
  • the technical idea of the present invention can be applied to both the rumor component and chroma component, but only to the rumor component, it may not be applied to the chroma component.
  • the value of the predictive sample of the chroma component is derived derived in the same way as the normal intra prediction mode.
  • FIG. 13 is a diagram schematically illustrating an operation of an encoder in a system to which the present invention is applied.
  • the encoder performs prediction on the current block (S1310).
  • the encoder generates a predictive block for the current block based on the prediction mode of the current block. In this case, neighboring samples of the current block may be used as a reference sample to derive the value of the prediction sample.
  • the encoder is configured to reference a value of a boundary sample that is not located in the prediction direction of the intra directional prediction mode among the left boundary samples and the upper boundary samples of the prediction block in the prediction direction. And a reference sample adjacent to the boundary sample.
  • the boundary sample means a sample located in the prediction block and adjacent to the boundary of the prediction block.
  • the encoder may derive the value of the left boundary sample based on the top reference sample of the left boundary sample and the reference sample adjacent to the left boundary sample.
  • the upper reference sample means a sample adjacent to the upper boundary of the current block and having the same x coordinate.
  • the encoder may determine the value of the left boundary sample by the upper reference sample of the left boundary sample, the reference sample adjacent to the left boundary sample, and the reference adjacent to the upper left of the current block. Can be derived based on the sample.
  • the encoder may derive a value of an upper boundary sample based on a left reference sample of the upper boundary sample and a reference sample adjacent to the upper boundary sample.
  • the left reference sample means a sample adjacent to the left boundary of the current block and having the same y coordinate.
  • the encoder may determine the value of the upper boundary sample by the left reference sample of the upper boundary sample, the reference sample adjacent to the upper boundary sample, and the reference adjacent to the upper left of the current block. Can be derived based on the sample.
  • the encoder may derive the value of the left boundary sample based on a reference sample located in the prediction direction and a reference sample adjacent to the left boundary sample.
  • the encoder may derive a value of an upper boundary sample based on a reference sample positioned in the prediction direction and a reference sample adjacent to the upper boundary sample.
  • the encoder may derive the value of the prediction sample, not the boundary sample not located in the prediction direction of the intra directional prediction mode, from the left boundary sample and the top boundary sample of the prediction block as the value of the reference sample located in the prediction direction.
  • the encoder may derive the value of the prediction sample as the value of the upper reference sample of the prediction sample.
  • the encoder may derive the value of the prediction sample as the value of the left reference sample of the prediction sample.
  • the encoder entropy encodes information on the prediction block generated through the prediction step S1310 (S1320).
  • the entropy encoding may use encoding methods such as exponential Golomb and CABAC. Codewords may be allocated in consideration of the occurrence frequency of each prediction mode or prediction type.
  • the encoder signals the encoded information through the entropy encoding step S1320 (S1330). For example, the encoder may signal the prediction mode information and the residual signal between the prediction block and the original block. In addition, when a smoothing filter is applied in the process of performing intra prediction, information about a coefficient of the smoothing filter may be signaled.
  • FIG. 14 is a diagram schematically illustrating an operation of a decoder in a system to which the present invention is applied.
  • the decoder receives information from the encoder (S1410). Information received from the encoder may be included in the bitstream and transmitted.
  • the decoder entropy-decodes the information received through the information receiving step (S1410) (S1420).
  • the decoder decodes information for prediction of the current block through an entropy decoding step (S1520), for example, a prediction method (inter prediction / intra prediction, etc.), motion vector (inter prediction), prediction mode (intra prediction) of the current block.
  • S1520 a prediction method (inter prediction / intra prediction, etc.), motion vector (inter prediction), prediction mode (intra prediction) of the current block.
  • a residual signal can be obtained.
  • the decoder performs prediction on the current block based on the information obtained through the entropy decoding step S1420 (S1430).
  • the decoder generates a predictive block for the current block based on the prediction mode of the current block. In this case, neighboring samples of the current block may be used as a reference sample to derive the value of the prediction sample.
  • the prediction method performed by the decoder is the same as or similar to the prediction method performed by the encoder.
  • the decoder when the prediction mode of the current block is an intra directional prediction mode, the decoder is configured to locate a value of a boundary sample that is not located in the prediction direction of the intra directional prediction mode among the left boundary samples and the upper boundary samples of the prediction block in the prediction direction.
  • a reference sample and a reference sample adjacent to the boundary sample may be derived.
  • the decoder may derive the value of the left boundary sample based on the top reference sample of the left boundary sample and the reference sample adjacent to the left boundary sample.
  • the decoder may determine the value of the left boundary sample by the upper reference sample of the left boundary sample, the reference sample adjacent to the left boundary sample, and the reference adjacent to the upper left of the current block. Can be derived based on the sample.
  • the decoder may derive a value of an upper boundary sample based on a left reference sample of the upper boundary sample and a reference sample adjacent to the upper boundary sample.
  • the decoder may determine the value of the upper boundary sample by the left reference sample of the upper boundary sample, the reference sample adjacent to the upper boundary sample, and the reference adjacent to the upper left of the current block. Can be derived based on the sample.
  • the decoder may derive the value of the left boundary sample based on a reference sample located in the prediction direction and a reference sample adjacent to the left boundary sample.
  • the decoder may derive a value of an upper boundary sample based on a reference sample positioned in the prediction direction and a reference sample adjacent to the upper boundary sample.
  • the decoder may derive the value of the prediction sample that is not the boundary sample not located in the prediction direction of the intra directional prediction mode among the left boundary sample and the top boundary sample of the prediction block as the value of the reference sample located in the prediction direction.
  • the decoder may derive the value of the prediction sample as the value of the upper reference sample of the prediction sample.
  • the decoder may derive the value of the prediction sample as the value of the left reference sample of the prediction sample.
  • the decoder reconstructs an image based on the prediction block generated through the prediction step S1430 (S1440).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

본 발명은 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기에 관한 것으로, 본 발명의 일 실시예에 따른 인트라 예측 방법은 현재 블록의 예측 모드를 도출하는 단계 및 현재 블록의 예측 모드에 기반하여 현재 블록에 대한 예측 블록을 생성하는 단계를 포함한다. 현재 블록의 예측 모드가 인트라 방향성 예측 모드(Intra_Angular prediction mode)인 경우, 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값은 예측 방향에 위치하는 참조 샘플 및 인접하는 참조 샘플을 기반으로 도출된다.

Description

인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
본 발명은 영상 부호화기 및 복호화기에서의 인트라 예측 방법에 관한 것으로, 더욱 자세하게는 현재 블록에 대한 예측 블록의 특정 경계 샘플의 값을 도출하는 방법 및 이를 이용하는 장치에 관한 것이다.
최근, 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 하지만, 영상이 고해상도, 고품질화 될수록 해당 영상에 관한 정보량도 함께 증가한다.
많은 정보량의 고해상도, 고품질의 영상을 기존의 유무선 광대역 회선과 같은 매체를 이용하여 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 따라서, 고해상도, 고품질의 영상을 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술을 이용할 수 있다.
영상 압축의 효율을 높이기 위해, 인터 예측(inter prediction)과 인트라 예측(intra prediction)을 이용할 수 있다.
인터 예측에서는 시간적으로 이전 및/또는 이후의 픽쳐(picture)로부터 현재 픽쳐 내의 픽셀(pixel) 값을 예측하며, 인트라 예측에서는 현재 픽쳐 내의 픽셀 정보를 이용하여 현재 픽쳐 내의 픽셀 값을 예측한다.
또한, 인터 예측 및 인트라 예측 외에도, 조명 변화 등에 의한 화질의 열화를 방지하기 위한 가중치 예측, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 등을 이용할 수 있다.
본 발명의 목적은 효과적인 영상 압축 기술과 이를 이용하는 장치를 제공하는 것이다.
본 발명의 다른 목적은 예측 효율을 증가시킬 수 있는 인트라 예측 방법 및 이를 이용하는 장치를 제공하는 것이다.
본 발명의 또 다른 목적은 현재 블록에 대한 예측 블록의 특정 경계 샘플의 값을 도출하는 방법 및 이를 이용하는 장치를 제공하는 것이다.
본 발명의 일 실시예에 따르면 인트라 예측 방법이 제공된다. 상기 인트라 예측 방법은 현재 블록의 예측 모드를 도출하는 단계 및 현재 블록의 예측 모드에 기반하여 현재 블록에 대한 예측 블록을 생성하는 단계를 포함한다. 현재 블록의 예측 모드가 인트라 방향성 예측 모드(Intra_Angular prediction mode)인 경우, 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값은 예측 방향에 위치하는 참조 샘플 및 인접하는 참조 샘플을 기반으로 도출된다.
인트라 방향성 예측 모드가 수직 예측 모드인 경우, 좌측 경계 샘플의 값은 좌측 경계 샘플의 상단 참조 샘플 및 인접하는 참조 샘플을 기반으로 도출될 수 있다. 좌측 경계 샘플이 아닌 예측 샘플의 값은 예측 샘플의 상단 참조 샘플의 값으로 도출될 수 있다.
인트라 방향성 예측 모드가 수직 예측 모드인 경우, 좌측 경계 샘플의 값은 좌측 경계 샘플의 상단 참조 샘플, 좌측 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플을 기반으로 도출될 수 있다.
인트라 방향성 예측 모드가 수평 예측 모드인 경우, 상단 경계 샘플의 값은 상단 경계 샘플의 좌측 참조 샘플 및 인접하는 참조 샘플을 기반으로 도출될 수 있다. 상단 경계 샘플이 아닌 예측 샘플의 값은 예측 샘플의 좌측 참조 샘플의 값으로 도출될 수 있다.
인트라 방향성 예측 모드가 수평 예측 모드인 경우, 상단 경계 샘플의 값은 상단 경계 샘플의 좌측 참조 샘플, 상단 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플을 기반으로 도출될 수 있다.
인트라 방향성 예측 모드의 예측 방향이 우상향인 경우, 좌측 경계 샘플의 값은 예측 방향에 위치하는 참조 샘플 및 인접하는 참조 샘플을 기반으로 도출될 수 있다.
인트라 방향성 예측 모드의 예측 방향이 좌하향인 경우, 상단 경계 샘플의 값은 예측 방향에 위치하는 참조 샘플 및 인접하는 참조 샘플을 기반으로 도출될 수 있다.
본 발명의 다른 일 실시예에 따르면 영상 부호화 장치가 제공된다. 상기 영상 부호화 장치는 현재 블록의 예측 모드에 기반하여 상기 현재 블록에 대한 예측 블록을 생성하는 예측부 및 예측 블록에 대한 정보를 부호화하는 엔트로피 부호화부를 포함한다. 현재 블록의 예측 모드가 인트라 방향성 예측 모드(Intra_Angular prediction mode)인 경우, 예측부는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값을 예측 방향에 위치하는 참조 샘플 및 인접하는 참조 샘플에 기반하여 도출한다.
본 발명의 또 다른 일 실시예에 따르면 영상 복호화 장치가 제공된다. 상기 영상 복호화 장치는 부호화 장치로부터 수신한 정보를 엔트로피 복호화하는 엔트로피 복호화부 및 엔트로피 복호화된 정보를 기반으로 현재 블록에 대한 예측 블록을 생성하는 예측부를 포함한다. 현재 블록의 예측 모드가 인트라 방향성 예측 모드(Intra_Angular prediction mode)인 경우, 예측부는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값을 예측 방향에 위치하는 참조 샘플 및 인접하는 참조 샘플에 기반하여 도출한다.
인트라 방향성 예측 모드가 수직 예측 모드인 경우, 예측부는 좌측 경계 샘플의 값을 좌측 경계 샘플의 상단 참조 샘플 및 인접하는 참조 샘플에 기반하여 도출할 수 있다.
인트라 방향성 예측 모드가 수직 예측 모드인 경우, 예측부는 좌측 경계 샘플의 값을 좌측 경계 샘플의 상단 참조 샘플, 좌측 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
인트라 방향성 예측 모드가 수평 예측 모드인 경우, 예측부는 상단 경계 샘플의 값을 상단 경계 샘플의 좌측 참조 샘플 및 인접하는 참조 샘플에 기반하여 도출할 수 있다.
인트라 방향성 예측 모드가 수평 예측 모드인 경우, 예측부는 상단 경계 샘플의 값을 상단 경계 샘플의 좌측 참조 샘플, 상단 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
본 발명에 따르면, 인트라 예측의 효율을 증가시키고, 영상 압축의 성능을 향상 시킬 수 있다.
본 발명에 따르면, 참조 샘플에 인접하는 위치의 예측 샘플의 값의 정확도를 높일 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화기를 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화기를 개략적으로 나타낸 블록도이다.
도 3은 영상 복호화기에서의 인트라 예측 방법을 개략적으로 설명하는 순서도이다.
도 4는 인트라 예측 모드에서의 예측 방향을 나타낸다.
도 5는 현재 블록이 Intra_DC 예측 모드로 부호화된 경우를 나타낸 것이다.
도 6은 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수직인 경우를 나타낸 것이다.
도 7은 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수평인 경우를 나타낸 것이다.
도 8은 인트라 예측 모드들을 예측 방향에 따라 분류한 일 예이다.
도 9는 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 우상향인 경우를 나타낸 것이다.
도 10은 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 좌하향인 경우를 나타낸 것이다.
도 11은 본 발명의 다른 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수직인 경우를 나타낸 것이다.
도 12는 본 발명의 다른 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수평인 경우를 나타낸 것이다.
도 13은 본 발명이 적용되는 시스템에서 부호화기의 동작을 개략적으로 설명하는 도면이다.
도 14는 본 발명이 적용되는 시스템에서 복호화기의 동작을 개략적으로 설명하는 도면이다.
본 발명은 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면을 참조하여 설명하고자 한다. 그러나, 본 발명은 설명되는 특정 실시예들로 한정되는 것은 아니고, 본 발명의 기술적 사상의 범위 내에서 다양한 변경이 가해질 수 있다.
본 명세서에서 사용하는 용어는 단지 특정 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 영상 부호화기/복호화기에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예를 들어, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합/분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화기를 개략적으로 나타낸 블록도이다. 도 1을 참조하면, 영상 부호화기(100)는 픽쳐 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 부호화부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 포함한다.
픽쳐 분할부(105)는 입력된 픽쳐(picture)를 적어도 하나 이상의 처리 단위로 분할할 수 있다. 이때, 처리 단위는 예측 유닛(Prediction Unit: 예측 유닛)일 수도 있고, 변환 유닛(Transform Unit: TU)일 수도 있으며, 부호화 유닛(Coding Unit: CU)일 수도 있다.
예측부(110)는 인터 예측(inter prediction)을 수행하는 인터 예측부와 인트라 예측(intra prediction)을 수행하는 인트라 예측부를 포함할 수 있다. 예측부(110)는 픽쳐 분할부(105)에서 분할된 픽쳐의 처리 단위에 대하여 예측을 수행하고 예측 블록을 생성한다. 이때, 픽쳐의 처리 단위는 부호화 유닛일 수도 있고, 변환 유닛일 수도 있고, 예측 유닛일 수도 있다. 또한, 예측부(110)는 해당 처리 단위에 대하여 인터 예측을 수행할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 결정된 예측 방법에 따라 예측을 수행한다. 이때, 예측 방법이 결정되는 단위와 예측이 수행되는 단위는 다를 수 있다. 예를 들어, 예측 방법이 결정되는 단위는 예측 유닛이고, 예측이 수행되는 단위는 변환 유닛일 수 있다.
인터 예측에서는 현재 픽쳐의 이전 픽쳐와 이후 픽쳐 중 적어도 하나 이상의 픽쳐에 대한 정보를 기반으로 예측을 수행하여 예측 블록을 생성한다. 또한, 인트라 예측에서는 현재 픽쳐 내의 픽셀(pixel) 정보를 기반으로 예측을 수행하여 예측 블록을 생성한다.
인터 예측에서는 현재 블록에 대하여 참조 픽쳐를 선택하고 현재 블록과 동일한 크기의 참조 블록을 정수 픽셀 단위로 선택할 수 있다. 이어서, 현재 블록과의 잔차(residual) 값과 움직임 벡터의 크기가 최소가 되는 예측 블록을 생성한다. 인터 예측의 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Prediction) 등을 이용할 수 있다. 예측 블록은 1/2, 1/4과 같이 정수 이하의 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 이하의 단위로 표현될 수 있다. 예를 들어 휘도 성분에 대해서는 1/4 픽셀 단위로, 색차 성분에 대해서는 1/8 픽셀 단위로 표현될 수 있다. 인터 예측을 통해 선택된 참조 픽쳐의 인덱스, 움직임 벡터, 잔차 신호 등의 정보는 엔트로피 부호화되어 복호화기로 전달된다.
인트라 예측에서, 예측 모드를 결정하는 단위는 예측 유닛이고, 예측을 수행하는 단위는 예측 유닛 또는 변환 유닛일 수 있다. 또한, 인트라 예측에서는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 예측 모드를 지원할 수 있다. 이때, 비방향성 예측 모드는 DC 예측 모드 및 플레이너 모드(planar mode)를 포함할 수 있다.
한편, 본 명세서에서 샘플을 이용한다는 것은 해당 샘플의 정보, 예를 들어 픽셀 값 등을 이용한다는 것을 의미할 수 있다. 다만, 설명의 편의를 위해, "샘플 정보를 이용한다" 또는 "픽셀 값을 이용한다"는 표현을 "샘플을 이용한다"고 간단하게 나타낼 수도 있음에 유의한다.
예측 유닛은 다양한 사이즈/형태를 가질 수 있다. 예를 들어, 인터 예측의 경우에는 2N×2N, 2N×N, N×2N, 또는 N×N 등의 크기를 가질 수 있고, 인트라 예측의 경우에는 2N×2N 또는 N×N 등의 크기를 가질 수 있다. 이때, N×N 크기의 예측 유닛은 특정한 경우에만 적용하도록 설정할 수 있다. 예를 들어, 최소 크기 코딩 유닛에 대해서만 N×N 크기의 예측 유닛을 이용할 수 있도록 설정하거나, 인트라 예측에 대해서만 이용할 수 있도록 설정할 수 있다. 또한, 상술한 크기의 예측 유닛 외에, N×mN, mN×N, 2N×mN 또는 mN×2N (m<1) 등의 크기를 가지는 예측 유닛을 정의하여 사용할 수도 있다.
생성되는 예측 블록과 원본 블록 사이의 잔차 블록은 변환부(115)로 입력된다. 또한, 예측을 위해 사용한 예측 모드, 예측 단위, 움직임 벡터에 관한 정보 등은 엔트로피 부호화부(130)에서 부호화되어 복호화기로 전달된다.
변환부(115)는 잔차 블록에 대한 변환을 수행하여 변환 계수를 생성한다. 변환부(115)에서의 처리 단위는 변환 유닛이며, 쿼드 트리(quad tree) 구조를 가질 수 있다. 이때, 변환 유닛의 크기는 소정의 최대 및 최소 크기의 범위 내에서 정해질 수 있다. 변환부(115)는 잔차 블록을 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform) 등을 이용하여 변환한다.
양자화부(120)는 변환부(115)에서 생성된 변환 계수를 양자화하여 양자화 계수를 생성한다. 양자화부(120)에서 생성된 양자화 계수는 재정렬부(125)와 역양자화부(135)로 전달된다.
재정렬부(125)는 양자화부(120)로부터 전달된 양자화 계수들을 재정렬한다. 양자화 계수들을 재정렬함으로써 엔트로피 부호화부(130)에서의 부호화의 효율을 높일 수 있다. 재정렬부(125)는 계수 스캐닝(coefficient scanning) 방법을 통해 2차원 블록 형태의 양자화 계수들을 1차원의 벡터 형태로 재정렬한다. 재정렬부(125)는 양자화부(120)로부터 전달된 양자화 계수들의 확률적인 통계에 기반하여 계수 스캔닝의 순서를 변경함으로써 엔트로피 부호화부(130)에서의 엔트로피 부호화 효율을 높일 수도 있다.
엔트로피 부호화부(130)는 재정렬부(125)에서 재정렬된 양자화 계수들에 대한 엔트로피 부호화를 수행한다. 이때, 지수 골롬(Exponential Golomb), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 또한, 엔트로피 부호화부(130)는 예측부(110)로부터 전달받은 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 유닛 정보, 전송 단위 정보, 움직임 벡터 정보, 참조 픽쳐 정보, 블록의 보간 정보, 필터링 정보와 같은 다양한 정보를 부호화한다.
또한, 엔트로피 부호화부(130)는 필요한 경우에, 전송되는 파라미터 셋(parameter set) 또는 신택스(syntax)에 일정한 변경을 가할 수도 있다.
역양자화부(135)는 양자화부(120)에서 양자화된 값들을 역양자화하고, 역변환부(140)는 역양자화부(135)에서 역양자화된 값들을 역변환한다. 역양자화부(135) 및 역변환부(140)에서 복원된 잔차 블록은 예측부(110)에서 생성되는 예측 블록과 합쳐져, 복원 블록(Reconstructed Block)이 생성될 수 있다.
필터부(145)는 디블록킹 필터(deblocking filter), ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset)등을 복원된 픽쳐에 적용할 수 있다.
디블록킹 필터는 복원된 픽쳐에서 블록 간의 경계에 생긴 블록 왜곡을 제거할 수 있다. ALF는 디블록킹 필터에서 필터링된 복원 영상과 원본 영상을 비교한 값을 기반으로 필터링을 수행할 수 있다. ALF는 고효율을 적용하는 경우에만 운용될 수도 있다. SAO는 디블록킹 필터가 적용된 잔차 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(band offset), 에지 오프셋(edge offset) 등의 형태로 적용된다.
한편, 인터 예측에 사용되는 복원 블록에 대해서는 필터링이 수행되지 않을 수 있다.
메모리(150)는 복원 블록 또는 픽쳐를 저장할 수 있다. 메모리(150)에 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행하는 예측부(110)에 전달될 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화기를 개략적으로 나타낸 블록도이다. 도 2를 참조하면, 영상 복호화기(200)는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 메모리(240)를 포함한다.
영상 부호화기에서 생성된 영상 비트스트림이 입력된 경우, 영상 복호화기는 영상 부호화기에서 영상 정보가 처리된 절차에 따라서 비트스트림을 복호화할 수 있다.
예를 들어, 영상 부호화기가 CABAC을 이용하여 엔트로피 부호화를 수행한 경우, 엔트로피 복호화부(210)는 이에 대응하여 CABAC을 이용하여 엔트로피 복호화를 수행한다.
엔트로피 복호화부(210)에서 엔트로피 복호화된 잔차 신호는 재정렬부(215)로 전달되고, 엔트로피 복호화부(210)에서 엔트로피 복호화된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(230)로 전달된다.
재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 영상 부호화기에서 재정렬한 방법을 기반으로 재정렬한다. 재정렬부(215)는 부호화기에서 수행된 계수 스캐닝에 관련된 정보를 전달받고, 부호화기에서 수행된 스캐닝 순서에 기반하여 역으로 스캐닝하는 방법을 통해, 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬한다.
역양자화부(220)는 부호화기로부터 제공되는 양자화 파라미터와 재정렬된 블록의 계수값을 기반으로 역양자화를 수행한다.
역변환부(225)는 부호화기의 변환부에서 수행된 변환에 대한 역변환을 수행한다. 역변환은 부호화기에서 결정된 전송 단위 또는 분할 단위를 기반으로 수행될 수 있다. 부호화기의 변환부는 예측 방법, 현재 블록의 크기, 예측 방향 등과 같은 복수의 정보에 따라 DCT 또는 DST를 선택적으로 수행할 수 있고, 복호화기의 역변환부(225)는 부호화기의 변환부에서 수행된 변환 정보를 기반으로 역변환을 수행할 수 있다.
예측부(230)는 엔트로피 복호화부(210)로부터 제공되는 예측 블록을 생성하기 위한 정보와 메모리(240)로부터 제공되는 이미 복호화된 블록 및/또는 픽쳐 정보에 기반하여 예측 블록을 생성한다. 복원 블록은 예측부(230)에서 생성되는 예측 블록과 역변환부(225)로부터 제공되는 잔차 블록을 기반하여 생성된다. 예를 들어, 현재 블록이 인터 예측 모드로 부호화된 경우, 현재 픽쳐의 이전 픽쳐와 이후 픽쳐 중 적어도 하나 이상의 픽쳐에 포함된 정보를 기반으로 현재 예측 유닛에 대한 화면 간 예측을 수행한다. 이때, 움직임 벡터, 참조 픽쳐 인덱스와 같은 인터 예측에 필요한 움직임 정보는 부호화기로부터 제공되는 스킵 플래그, 머지 플래그 등으로부터 유도될 수 있다.
복원된 블록 및/또는 픽쳐는 필터부(235)에 제공될 수 있다. 필터부(235)는 디블록킹 필터링, SAO 및/또는 적응적 루프 필터링 등을 복원된 블록 및/또는 픽처에 적용한다.
복원된 픽쳐와 블록은 참조 픽쳐 또는 참조 블록으로 사용될 수 있도록 메모리(240)에 저장될 수 있고, 출력부(미도시)에 전달될 수 있다.
한편, 부호화기는 부호화 대상 블록의 영상 정보에 기반하여 가장 효율적인 부호화 방법으로 부호화 대상 블록을 부호화하고, 복호화기는 부호화기에서 사용된 부호화 방법에 기반하여 복호화 방법을 결정한다. 부호화기에서 사용된 부호화 방법은 부호화기로부터 전송되는 비트스트림을 통해 또는 복호화 대상 블록의 정보에 기반하여 도출될 수 있다. 만약 현재 블록이 인트라 예측 모드로 부호화된 경우, 현재 픽쳐 내의 픽셀 정보를 기반으로 예측 블록을 생성하는 화면 내 예측을 수행한다.
도 3은 영상 복호화기에서의 인트라 예측 방법을 개략적으로 설명하는 순서도이다.
복호화기는 현재 블록의 예측 모드를 도출(derivation)한다(S310).
인트라 예측에서는 예측에 사용되는 참조 샘플의 위치에 따른 예측 방향을 가질 수 있다. 예측 방향을 가지는 인트라 예측 모드를 인트라 방향성 예측 모드(Intra_Angular prediction mode)라 한다. 반면에, 예측 방향을 가지지 않는 인트라 예측 모드로서, Intra_Planar 예측 모드, Intra_DC 예측 모드 및 Intra_Fromluma 예측 모드가 있다.
도 4는 인트라 예측 모드에서의 예측 방향을 나타내고, 표 1은 도 4에 도시된 인트라 예측 모드의 모드 값을 나타낸다.
표 1
Figure PCTKR2012003093-appb-T000001
인트라 예측에서는 도출되는 예측 모드에 기반하여 현재 블록에 대한 예측을 수행한다. 예측 모드에 따라 예측에 사용되는 참조 샘플과 구체적인 예측 방법이 달라지므로, 현재 블록이 인트라 예측 모드로 부호화된 경우, 복호화기는 예측을 수행하기 위해 현재 블록의 예측 모드를 도출한다.
복호화기는 현재 블록의 주변 샘플들(neighboring samples)이 예측에 사용될 수 있는지를 확인하고, 예측에 사용할 참조 샘플들을 구성할 수 있다(S320). 인트라 예측에서 현재 블록의 주변 샘플들은 nS x nS 크기의 현재 블록의 좌측 경계 및 좌하단에 인접하는 2*nS 길이의 샘플들과 현재 블록의 상단 경계 및 우상단에 인접하는 2*nS 길이의 샘플들을 의미한다. 그러나, 현재 블록의 주변 샘플들 중 일부는 아직 복호화되지 않았거나, 이용 가능하지 않을 수 있다. 상기 경우, 복호화기는 이용 가능한 샘플들로 이용 가능하지 않은 샘플들을 대체(substitution)하여 예측에 사용할 참조 샘플들을 구성할 수 있다.
복호화기는 예측 모드에 기반하여 참조 샘플의 필터링을 수행할 수 있다(S330). 복호화기는 예측을 수행하기 전에, 참조 샘플의 필터링을 수행할 수 있다. 참조 샘플의 필터링 수행 여부는 현재 블록의 예측 모드에 기반하여 결정된다. 예측 모드에 따라 적응적으로 참조 샘플의 필터링을 수행하는 것을 MDIS(Mode Dependent Intra Smoothing) 또는 간단히 스무딩 필터링(smoothing filtering)이라고 한다.
표 2는 예측 모드에 기반하여 참조 샘플들의 필터의 적용 여부를 결정하는 일 예이다.
표 2
Figure PCTKR2012003093-appb-T000002
표 2에서 intraFilterType이 1인 경우, 스무딩 필터링이 수행된다. 예를 들어, Intra_Planar 모드이고, nS = 8인 경우, 스무딩 필터링이 수행될 수 있다. 이때, 다양한 필터링 계수의 스무딩 필터가 적용될 수 있다. 예를 들어, 계수가 [1 2 1]인 스무딩 필터가 적용될 수 있다.
복호화기는 예측 모드와 참조 샘플들에 기반하여 현재 블록에 대한 예측 블록을 생성한다(S340). 복호화기는 예측 모드 도출 단계(S310)에서 도출된 예측 모드와 참조 샘플 구성 단계(S320)와 참조 샘플 필터링 단계(S330)를 통해 획득한 참조 샘플들에 기반하여 현재 블록에 대한 예측 블록을 생성한다.
예측 블록 생성 단계(S340)에 있어서, 현재 블록이 Intra_DC 예측 모드로 부호화된 경우, 블록 경계의 불연속성(discontinuity)를 최소화하기 위해, 예측 블록의 좌측 경계 샘플과 상단 경계 샘플을 2 탭 필터링(2 tap filtering)할 수 있다. 여기서, 경계 샘플이란 예측 블록 내에 위치하고, 예측 블록의 경계에 인접하는 샘플을 의미한다.
도 5는 현재 블록이 Intra_DC 예측 모드로 부호화된 경우를 나타낸 것이다.
도 5를 참조하면, 현재 블록(500)이 Intra_DC 예측 모드로 부호화된 경우, 현재 블록(500)의 좌측 경계 샘플(522)과 상단 경계 샘플(521)은 각각 좌측 참조 샘플(530)과 상단 참조 샘플(510)과 유사할 확률이 높으므로, 도 5와 같이 스무딩 필터를 적용할 수 있다. 도면에서 음영처리 된 부분(505)은 필터링 대상 영역을 나타낸다.
인트라 방향성 예측 모드들 중 일부의 모드들에 대해서도 Intra_DC 모드와 유사하게 좌측 경계 샘플과 상단 경계 샘플에 2 탭 필터를 적용할 수 있다. 단, 좌측 경계 샘플 및 상단 경계 샘플 모두에 적용하는 것이 아니라, 예측 방향에 따라 적응적으로 좌측 경계 샘플들 또는 상단 경계 샘플들에 적용한다. 즉, 실제 방향성 예측(directional prediction)에 사용되지 않는 참조 샘플과 인접한 경계 샘플들에만 적용한다.
구체적으로, 예측 블록 생성 단계(S340)에 있어서, 현재 블록이 인트라 방향성 예측 모드로 부호화된 경우, 예측 방향에 위치하는 참조 샘플에 기반하여 예측 샘플의 값을 도출할 수 있다. 이때, 인트라 방향성 예측 모드들 중 일부의 모드들에서는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플이 예측에 사용되지 않는 참조 샘플과 인접할 수 있다. 즉, 예측에 사용되는 참조 샘플과의 거리보다 예측에 사용되지 않는 참조 샘플과의 거리가 훨씬 가까울 수 있다. 예측 샘플의 값은 거리가 가까운 참조 샘플과 유사할 확률이 높으므로, 본 발명에서는 예측 성능과 부호화 효율을 높이기 위해 좌측 경계 샘플 및 상단 경계 샘플 중에서 예측 방향에 위치하지 않는 경계 샘플에 대해 인접하는 참조 샘플과의 필터링을 적용한다.
설명의 편의를 위해, 인트라 방향성 예측 모드에서 예측 샘플의 값을 도출하는 과정을 예측 샘플의 값을 예측 방향에 위치하는 참조 샘플의 값으로 도출하는 단계, 및 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플을 필터링하여 수정(modify)하는 단계로 나누어 설명한다. 또한, 현재 블록 및 예측 블록의 좌상단 샘플을 기준으로 하여 우하단 방향으로 좌표 값이 증가하는 [x, y] 좌표를 설정한다. 또한, 현재 블록 및 예측 블록의 크기를 nS로 정의한다. 예를 들어, 예측 블록의 좌상단 경계 샘플은 [0, 0]의 위치를 가지며, 좌측 경계 샘플들은 [0, 0..nS-1], 상단 경계 샘플들은 [0..nS-1, 0]의 위치를 가진다.
우선, 예측 샘플의 값을 예측 방향에 위치하는 참조 샘플에 기반하여 도출한다.
예를 들어, 현재 블록이 수직 예측 모드로 부호화된 경우, 예측 샘플의 값은 현재 블록의 상단 경계에 인접하는(adjacent) 참조 샘플들 중 동일한 x 좌표를 가지는 샘플의 값으로 도출된다. 즉, 예측 샘플의 값 predSamples[x, y]는 수학식 1과 같이 도출된다.
수학식 1
Figure PCTKR2012003093-appb-M000001
여기서, p[a, b]는 [a, b]의 위치를 가지는 샘플의 값을 나타낸다.
예를 들어, 현재 블록이 수평 예측 모드로 부호화된 경우, 예측 샘플의 값은 현재 블록의 좌측 경계에 인접하는(adjacent) 참조 샘플들 중 동일한 y 좌표를 가지는 샘플의 값으로 도출된다. 즉, 예측 샘플의 값 predSamples[x, y]는 수학식 2와 같이 도출된다.
수학식 2
Figure PCTKR2012003093-appb-M000002
예를 들어, 예측 방향이 우상향인 인트라 방향성 예측 모드로 현재 블록이 부호화된 경우, 예측 샘플의 값은 현재 블록의 상단 경계에 인접하는 참조 샘플들과 우상단에 위치하는 참조 샘플들 중 예측 방향에 위치하는 참조 샘플의 값으로 도출된다.
예를 들어, 예측 방향이 좌하향인 인트라 방향성 예측 모드로 현재 블록이 부호화된 경우, 예측 샘플의 값은 현재 블록의 좌측 경계에 인접하는 참조 샘플들과 좌하단에 위치하는 참조 샘플들 중 예측 방향에 위치하는 참조 샘플의 값으로 도출된다.
예측 방향에 위치하는 참조 샘플에 기반하여 예측 샘플의 값을 도출한 후에, 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플을 인접하는 참조 샘플에 기반하여 필터링함으로써, 해당 경계 샘플의 값을 수정할 수 있다. 이하, 예측 방향에 위치하지 않는 참조 샘플을 이용하여 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플을 필터링하는 방법을 도 5 내지 도 13을 통해 자세히 설명하기로 한다.
도 6은 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수직인 경우를 나타낸 것이다.
도 6을 참조하면, 수직 예측 모드(Intra_Vertical prediction mode)의 경우, 좌측 경계 샘플(620)에 스무딩 필터를 적용할 수 있다.
상술한 바와 같이, 현재 블록(600)이 수직 예측 모드로 부호화된 경우, 예측 샘플의 값은 상단 참조 샘플의 값으로 도출된다. 이때, 현재 블록(600)의 좌측 경계에 인접하는 참조 샘플들은 방향성 예측에 사용되지 않지만, 현재 블록(600)의 좌측 경계 샘플들과 인접하여 있다. 즉, 좌측 경계 샘플(620)의 경우, 예측에 사용되는 참조 샘플인 상단 참조 샘플(610)과의 거리보다 예측에 사용되지 않는 참조 샘플인 좌측 참조 샘플(630)과의 거리가 가깝다. 여기서, 상단 참조 샘플(610)은 현재 블록의 상단 경계에 인접하고 동일한 x 좌표를 가지는 샘플([x, -1])을 의미하고, 좌측 참조 샘플(630)은 현재 블록의 좌측 경계에 인접하고 동일한 y 좌표를 가지는 샘플([-1, y])을 의미한다. 따라서, 좌측 경계 샘플(620)의 값은 인접하는 좌측 참조 샘플(630)의 값과 유사할 확률이 높으므로, 좌측 경계 샘플(620)에 대해 도 6과 같이 스무딩 필터를 적용할 수 있다. 도면에서 음영 처리된 부분(605)은 필터링 대상 영역을 나타낸다.
예를 들어, 계수가 [1 1]/2인 스무딩 필터를 적용하면, 수정된 좌측 경계 샘플(620)의 값 predSamples[x, y]는 수학식 3과 같이 도출될 수 있다.
수학식 3
Figure PCTKR2012003093-appb-M000003
필터의 계수는 [1 1]/2로 한정되지 않고, [1 3]/4, [1 7]/8 등의 계수를 가지는 필터를 적용할 수도 있다. 또한, 현재 블록의 크기에 따라 적응적으로 필터의 계수를 결정할 수도 있다.
한편, 좌측 참조 샘플과의 필터링을 수행함에 있어서, 주변 블록의 정보를 더 고려할 수도 있다. 예를 들어, 좌상단 참조 샘플(640)을 기준으로, 좌측 경계 샘플(620)의 y 좌표 값에 따른 샘플 값의 변화를 고려하여, 수학식 4와 같이 수정된 좌측 경계 샘플(620)의 값을 도출할 수 있다.
수학식 4
Figure PCTKR2012003093-appb-M000004
상술한 방법으로 좌측 경계 샘플(620)의 값을 도출하는 경우, 예측 샘플의 값이 규정된 비트 깊이(bit depth)를 초과할 수 있다. 따라서, 예측 샘플의 값을 규정된 비트 깊이로 제한하거나, 상기 차이에 가중치를 둘 수 있다. 예를 들어, 루머(luma) 성분의 예측 샘플의 경우, 수정된 좌측 경계 샘플(620)의 값은 수학식 5와 같이 도출될 수 있다.
수학식 5
Figure PCTKR2012003093-appb-M000005
도 7은 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수평인 경우를 나타낸 것이다.
도 7을 참조하면, 수평 예측 모드(Intra_Horizontal prediction mode)의 경우, 상단 경계 샘플(720)에 스무딩 필터를 적용할 수 있다.
상술한 바와 같이, 현재 블록(700)이 수평 예측 모드로 부호화된 경우, 예측 샘플의 값은 좌측 참조 샘플의 값으로 도출된다. 이때, 현재 블록(700)의 상단 경계에 인접하는 참조 샘플들은 방향성 예측에 사용되지 않지만, 현재 블록(700)의 상단 경계 샘플들과 인접하여 있다. 즉, 상단 경계 샘플(720)의 경우, 예측에 사용되는 참조 샘플인 좌측 참조 샘플(730)과의 거리보다 예측에 사용되지 않는 참조 샘플인 상단 참조 샘플(710)과의 거리가 가깝다. 여기서, 상단 참조 샘플(710)은 현재 블록의 상단 경계에 인접하고 동일한 x 좌표를 가지는 샘플([x, -1])을 의미하고, 좌측 참조 샘플(730)은 현재 블록의 좌측 경계에 인접하고 동일한 y 좌표를 가지는 샘플([-1, y])을 의미한다. 따라서, 상단 경계 샘플(720)의 값은 인접하는 상단 참조 샘플(710)의 값과 유사할 확률이 높으므로, 상단 경계 샘플(720)에 대해 도 7과 같이 스무딩 필터를 적용할 수 있다. 도면에서 음영 처리된 부분(705)은 필터링 대상 영역을 나타낸다.
예를 들어, 계수가 [1 1]/2인 스무딩 필터를 적용하면, 수정된 상단 경계 샘플(620)의 값 predSamples[x, y]는 수학식 6과 같이 도출될 수 있다.
수학식 6
Figure PCTKR2012003093-appb-M000006
필터의 계수는 [1 1]/2로 한정되지 않고, [1 3]/4, [1 7]/8 등의 계수를 가지는 필터를 적용할 수도 있다. 또한, 현재 블록의 크기에 따라 적응적으로 필터의 계수를 결정할 수도 있다.
한편, 상단 참조 샘플과의 필터링을 수행함에 있어서, 주변 블록의 정보를 더 고려할 수도 있다. 예를 들어, 좌상단 참조 샘플(740)을 기준으로, 상단 경계 샘플(720)의 x 좌표 값에 따른 샘플 값의 변화를 고려하여, 수학식 7과 같이 수정된 상단 경계 샘플(720)의 값을 도출할 수 있다.
수학식 7
Figure PCTKR2012003093-appb-M000007
상술한 방법으로 상단 경계 샘플(720)의 값을 도출하는 경우, 예측 샘플의 값이 규정된 비트 깊이(bit depth)를 초과할 수 있다. 따라서, 예측 샘플의 값을 규정된 비트 깊이로 제한하거나, 상기 차이에 가중치를 둘 수 있다. 예를 들어, 루머(luma) 성분의 예측 샘플의 경우, 수정된 상단 경계 샘플(720)의 값은 수학식 8과 같이 도출될 수 있다.
수학식 8
Figure PCTKR2012003093-appb-M000008
한편, 현재 블록의 예측 모드에 기반하여 좌측 경계 샘플 또는 상단 경계 샘플에 스무딩 필터를 적용하는 방법을, 수직 예측 모드 및/또는 수평 예측 모드뿐만 아니라 다른 인트라 방향성 모드에도 적용할 수 있다.
예를 들어, 인트라 방향성 예측 모드를 예측 방향에 기반하여 분류하여, 해당 모드가 속한 그룹에 따라 적응적으로 필터링을 수행할 수도 있다.
도 8은 인트라 예측 모드들을 예측 방향에 따라 분류한 일 예이다.
인트라 예측 모드의 예측 방향이 우상향(810)인 경우, 수직 예측 모드와 마찬가지로, 좌측 경계 샘플에 스무딩 필터를 적용할 수 있다. 또한, 인트라 예측 모드의 예측 방향이 좌하향(820)인 경우, 수평 예측 모드와 마찬가지로, 상단 경계 샘플에 스무딩 필터를 적용할 수 있다.
도 9는 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 우상향인 경우를 나타낸 것이다.
상술한 바와 같이, 예측 방향이 우상향인 인트라 방향성 예측 모드로 현재 블록(900)이 부호화된 경우, 예측 샘플의 값은 현재 블록의 우측 경계에 인접하는 참조 샘플들과 우상단에 위치하는 참조 샘플들 중 예측 방향에 위치하는 참조 샘플(910)의 값으로 도출된다. 이때, 현재 블록(900)의 좌측 경계에 인접하는 참조 샘플들은 사용되지 않지만, 좌측 경계 샘플들과 인접하여 있다. 즉, 좌측 경계 샘플(920)의 경우, 예측 방향에 위치하는 참조 샘플(910)과의 거리보다 좌측 참조 샘플(930)과의 거리가 가깝다. 여기서, 좌측 참조 샘플(630)은 현재 블록의 좌측 경계에 인접하고 동일한 y 좌표를 가지는 샘플([-1, y])을 의미한다. 따라서, 좌측 경계 샘플(920)의 값은 인접하는 좌측 참조 샘플(930)의 값과 유사할 확률이 높으므로, 좌측 경계 샘플(920)에 대해 도 9와 같이 스무딩 필터를 적용할 수 있다. 도면에서 음영 처리된 부분(905)은 필터링 대상 영역을 나타낸다.
도 10은 본 발명의 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 좌하향인 경우를 나타낸 것이다.
상술한 바와 같이, 예측 방향이 좌하향인 인트라 방향성 예측 모드로 현재 블록(1000)이 부호화된 경우, 예측 샘플의 값은 현재 블록의 좌측 경계에 인접하는 참조 샘플들과 좌하단에 위치하는 참조 샘플들 중 예측 방향에 위치하는 참조 샘플(1030)의 값으로 도출된다. 이때, 현재 블록(1000)의 상단 경계에 인접하는 참조 샘플들은 사용되지 않지만, 상단 경계 샘플들과 인접하여 있다. 즉, 상단 경계 샘플(1020)의 경우, 예측 방향에 위치하는 참조 샘플(1030)과의 거리보다 상단 참조 샘플(1010)과의 거리가 가깝다. 여기서, 상단 참조 샘플(1010)은 현재 블록의 상단 경계에 인접하고 동일한 x 좌표를 가지는 샘플([x, -1])을 의미한다. 따라서, 상단 경계 샘플(1020)의 값은 인접하는 상단 참조 샘플(1030)의 값과 유사할 확률이 높으므로, 상단 경계 샘플(1020)에 대해 도 10과 같이 스무딩 필터를 적용할 수 있다. 도면에서 음영 처리된 부분(1005)은 필터링 대상 영역을 나타낸다.
한편, 상술한 바와 같이, 예측 샘플의 값을 도출하는 과정을, 설명의 편의를 위해, 예측 샘플의 값을 예측 방향에 위치하는 참조 샘플의 값으로 도출하는 단계, 및 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플을 필터링하여 수정(modify)하는 단계로 나누어 설명하였으나, 예측 샘플의 값을 도출하는 과정을 복수의 단계로 나누지 않고 하나의 단계로 수행할 수 있다. 예를 들어, 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플의 값을 도출하는 과정에 있어서, 해당 경계 샘플을 필터링하는 단계를 별개의 단계로서 수행하지 않고, 예측 샘플의 값을 예측 방향에 위치하는 참조 샘플의 값으로 도출하는 단계와 하나의 단계로서 수행할 수 있다.
예를 들어, 도 6의 실시예에 있어서, 좌측 경계 샘플(620)의 값은 수학식 3 내지 수학식 5와 같이 상단 참조 샘플(610)과 상기 좌측 경계 샘플에 인접하는 참조 샘플(630)에 기반하여 도출될 수 있다.
예를 들어, 도 7의 실시예에 있어서, 상단 경계 샘플(720)의 값은 수학식 6 내지 수학식 8과 같이 좌측 참조 샘플(730)과 상기 상단 경계 샘플에 인접하는 참조 샘플(710)에 기반하여 도출될 수 있다.
예를 들어, 도 9의 실시예에 있어서, 좌측 경계 샘플(920)의 값은 예측 방향에 위치하는 참조 샘플(910) 및 상기 좌측 경계 샘플에 인접하는 참조 샘플(930)에 기반하여 도출될 수 있다.
예를 들어, 도 10의 실시예에 있어서, 상단 경계 샘플(1020)의 값은 예측 방향에 위치하는 참조 샘플(1030) 및 상기 상단 경계 샘플에 인접하는 참조 샘플(1010)에 기반하여 도출될 수 있다.
한편, 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 예측 방향에 위치하지 않는 경계 샘플이 아닌 예측 샘플에는 스무딩 필터링이 수행되지 않으므로, 상기 예측 샘플의 값은 예측 방향에 위치하는 참조 샘플의 값으로 도출된다.
예를 들어, 현재 블록이 수직 예측 모드로 부호화된 경우, 좌측 경계 샘플이 아닌 예측 샘플의 값은 수학식 9와 같이 도출된다.
수학식 9
Figure PCTKR2012003093-appb-M000009
예를 들어, 현재 블록이 수평 예측 모드로 부호화된 경우, 상단 경계 샘플이 아닌 예측 샘플의 값은 수학식 10과 같이 도출된다.
수학식 10
Figure PCTKR2012003093-appb-M000010
한편, 현재 블록의 예측 모드에 기반하여 좌측 경계 샘플들 또는 상단 경계 샘플들에 스무딩 필터를 적용하는 방법을 해당 경계 샘플의 모든 예측 샘플에 적용하지 않고, 일부에 한정하여 적용할 수도 있다.
방향성 예측에 사용되는 참조 샘플과의 거리가 가까운 경우, 예측 샘플의 오차는 크지 않을 확률이 높다. 상기 경우, 스무딩 필터를 적용하지 않는 것이, 즉 다른 샘플 정보를 고려하지 않는 것이 오히려 정확할 수 있다. 따라서, 경계 샘플의 블록 내 위치에 따라, 인접하는 참조 샘플과의 필터링을 수행할 것인지를 결정할 수 있다.
예를 들어, 수직 예측 모드에 있어서, 좌측 경계 샘플들 중 일부에만 스무딩 필터를 적용하거나, 수평 예측 모드에 있어서, 상단 경계 샘플들 중 일부에만 스무딩 필터를 적용할 수 있다.
도 11은 본 발명의 다른 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수직인 경우를 나타낸 것이다. 도 11을 참조하면, 좌측 경계 샘플들 중 일부에만 스무딩 필터를 적용할 수 있다. 즉, 예측에 사용되는 참조 샘플과의 거리가 멀수록, 예측의 정확도가 떨어지므로, 정확도가 떨어지는 영역의 샘플들에만 한정하여 스무딩 필터를 적용할 수 있다.
예를 들어, 현재 블록(1100)의 높이(height)의 절반을 기준으로 하여 좌측 경계 샘플들 중 상단 참조 샘플(1110)로부터 멀리 떨어진 좌측 경계 샘플(1120)에만 스무딩 필터를 적용할 수 있다. 도면에서 음영 처리된 부분(1105)은 필터링 대상 영역을 나타낸다.
현재 블록의 예측 모드가 수평 예측 모드인 경우에도, 상단 경계 샘플의 블록 내 위치에 따라, 인접하는 참조 샘플과의 필터링을 수행할 것인지를 결정할 수 있다.
도 12는 본 발명의 다른 일 실시예에 따른 인트라 예측 모드에서 예측 방향이 수평인 경우를 나타낸 것이다. 도 12을 참조하면, 상단 경계 샘플들 중 일부에만 스무딩 필터를 적용할 수 있다.
예를 들어, 현재 블록(1200)의 너비(width)의 절반을 기준으로 하여 상단 경계 샘플들 중 상단 참조 샘플(1230)로부터 멀리 떨어진 상단 경계 샘플들(1220)에만 스무딩 필터를 적용할 수 있다. 도면에서 음영 처리된 부분(1205)은 필터링 대상 영역을 나타낸다.
한편, 스무딩 필터가 적용되는 영역은 현재 블록의 높이 또는 너비의 절반 크기에 한정되지 않는다. 즉, 1/4 또는 3/4의 크기로 설정될 수도 있고, 인트라 예측 모드에 따라 예측에 사용되는 샘플과의 거리에 기반하여 적응적으로 결정될 수 있다. 이 경우, 스무딩 필터를 적용하는 영역을 룩업테이블(look-up-table)로 정의하여, 부호화기 또는 복호화기의 계산 상의 부담(burden)을 감소시킬 수 있다.
한편, 본 발명의 기술적 사상은 루머 성분과 크로마(chroma) 성분 모두에 적용할 수 있지만, 루머 성분에만 적용하고, 크로마 성분에는 적용하지 않을 수 있다. 루머 성분에만 적용하는 경우, 크로마 성분의 예측 샘플의 값은 일반적인 인트라 예측 모드와 동일한 방법으로 도출된 도출된다.
도 13은 본 발명이 적용되는 시스템에서 부호화기의 동작을 개략적으로 설명하는 도면이다.
부호화기는 현재 블록에 대한 예측을 수행한다(S1310). 부호화기는 현재 블록의 예측 모드에 기반하여 현재 블록에 대한 예측 블록을 생성한다. 이때, 예측 샘플의 값을 도출하기 위해, 현재 블록의 주변 샘플들(neighboring samples)이 참조 샘플로 사용될 수 있다.
현재 블록의 예측 모드가 인트라 방향성 예측 모드인 경우, 부호화기는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 해당 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다. 여기서, 경계 샘플은 예측 블록 내에 위치하고, 예측 블록의 경계에 인접하는 샘플을 의미한다.
예를 들어, 인트라 방향성 예측 모드가 수직 예측 모드인 경우, 부호화기는 좌측 경계 샘플의 값을 상기 좌측 경계 샘플의 상단 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다. 여기서, 상단 참조 샘플은 현재 블록의 상단 경계에 인접하고 동일한 x 좌표를 가지는 샘플을 의미한다.
예를 들어, 인트라 방향성 예측 모드가 수직 예측 모드인 경우, 부호화기는 좌측 경계 샘플의 값을 상기 좌측 경계 샘플의 상단 참조 샘플, 상기 좌측 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수평 예측 모드인 경우, 부호화기는 상단 경계 샘플의 값을 상기 상단 경계 샘플의 좌측 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다. 여기서, 좌측 참조 샘플은 현재 블록의 좌측 경계에 인접하고 동일한 y 좌표를 가지는 샘플을 의미한다.
예를 들어, 인트라 방향성 예측 모드가 수평 예측 모드인 경우, 부호화기는 상단 경계 샘플의 값을 상기 상단 경계 샘플의 좌측 참조 샘플, 상기 상단 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 예측 모드의 예측 방향이 우상향인 경우, 부호화기는 좌측 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 예측 모드의 예측 방향이 좌하향인 경우, 부호화기는 상단 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
한편, 부호화기는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플이 아닌 예측 샘플의 값을 예측 방향에 위치하는 참조 샘플의 값으로 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수직 예측 모드인 경우, 부호화기는 예측 샘플의 값을 상기 예측 샘플의 상단 참조 샘플의 값으로 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수평 예측 모드인 경우, 부호화기는 예측 샘플의 값을 상기 예측 샘플의 좌측 참조 샘플의 값으로 도출할 수 있다.
부호화기는 예측 단계(S1310)를 통해 생성된 예측 블록에 대한 정보를 엔트로피 부호화한다(S1320). 엔트로피 부호화에는 상술한 바와 같이, 지수 골롬, CABAC과 같은 부호화 방법이 사용될 수 있으며, 각 예측 모드 혹은 예측 타입의 발생 빈도를 고려하여 코드워드를 할당할 수도 있다.
부호화기는 엔트로피 부호화 단계(S1320)를 통해 부호화된 정보를 시그널링한다(S1330). 예를 들어, 부호화기는 예측 모드 정보, 예측 블록과 원본 블록 사이의 잔차 신호를 시그널링할 수 있다. 또한, 인트라 예측을 수행하는 과정에서 스무딩 필터가 적용된 경우, 스무딩 필터의 계수에 관한 정보를 시그널링할 수도 있다.
도 14는 본 발명이 적용되는 시스템에서 복호화기의 동작을 개략적으로 설명하는 도면이다.
복호화기는 부호화기로부터 정보를 수신한다(S1410). 부호화기로부터 수신되는 정보는 비트스트림에 포함되어 전달될 수 있다.
복호화기는 정보 수신 단계(S1410)를 통해 수신된 정보를 엔트로피 복호화한다(S1420). 복호화기는 엔트로피 복화화 단계(S1520)를 통해 현재 블록의 예측을 위한 정보, 예를 들어, 현재 블록의 예측 방법(인터 예측/인트라 예측 등), 움직임 벡터(인터 예측), 예측 모드(인트라 예측), 잔차 신호를 획득할 수 있다.
복호화기는 엔트로피 복호화 단계(S1420)를 통해 획득된 정보를 기반으로 현재 블록에 대한 예측을 수행한다(S1430). 복호화기는 현재 블록의 예측 모드에 기반하여 현재 블록에 대한 예측 블록을 생성한다. 이때, 예측 샘플의 값을 도출하기 위해, 현재 블록의 주변 샘플들(neighboring samples)이 참조 샘플로 사용될 수 있다.
복호화기에서 수행되는 예측 방법은 부호화기에서 수행되는 예측 방법과 동일 또는 유사하다.
즉, 현재 블록의 예측 모드가 인트라 방향성 예측 모드인 경우, 복호화기는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 해당 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수직 예측 모드인 경우, 복호화기는 좌측 경계 샘플의 값을 상기 좌측 경계 샘플의 상단 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수직 예측 모드인 경우, 복호화기는 좌측 경계 샘플의 값을 상기 좌측 경계 샘플의 상단 참조 샘플, 상기 좌측 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수평 예측 모드인 경우, 복호화기는 상단 경계 샘플의 값을 상기 상단 경계 샘플의 좌측 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수평 예측 모드인 경우, 복호화기는 상단 경계 샘플의 값을 상기 상단 경계 샘플의 좌측 참조 샘플, 상기 상단 경계 샘플에 인접하는 참조 샘플 및 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 예측 모드의 예측 방향이 우상향인 경우, 복호화기는 좌측 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
예를 들어, 예측 모드의 예측 방향이 좌하향인 경우, 복호화기는 상단 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플에 기반하여 도출할 수 있다.
또한, 복호화기는 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플이 아닌 예측 샘플의 값을 예측 방향에 위치하는 참조 샘플의 값으로 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수직 예측 모드인 경우, 복호화기는 예측 샘플의 값을 상기 예측 샘플의 상단 참조 샘플의 값으로 도출할 수 있다.
예를 들어, 인트라 방향성 예측 모드가 수평 예측 모드인 경우, 복호화기는 예측 샘플의 값을 상기 예측 샘플의 좌측 참조 샘플의 값으로 도출할 수 있다.
복호화기는 예측 단계(S1430)를 통해 생성된 예측 블록에 기반하여 영상을 복원한다(S1440).
이상, 상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로 표현된 순서도를 기반으로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 일부의 단계는 다른 단계와, 다른 순서 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
지금까지 본 발명에 관한 설명에서 일 구성 요소가 타 구성 요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 경우, 상기 일 구성 요소가 상기 타 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 두 구성 요소 사이에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 일 구성 요소가 타 구성 요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 경우에는, 두 구성 요소 사이에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 한다.

Claims (15)

  1. 현재 블록의 예측 모드를 도출하는 단계; 및
    상기 예측 모드에 기반하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계를 포함하며,
    상기 예측 모드는 인트라 방향성 예측 모드(Intra_Angular prediction mode)이고,
    상기 예측 블록을 생성하는 단계에서, 상기 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 상기 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값은
    상기 예측 방향에 위치하는 참조 샘플 및 상기 경계 샘플에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  2. 제 1 항에 있어서,
    상기 인트라 방향성 예측 모드는 수직 예측 모드이고,
    상기 예측 블록을 생성하는 단계에서, 상기 좌측 경계 샘플의 값은
    상기 좌측 경계 샘플의 상단 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  3. 제 2 항에 있어서,
    상기 예측 블록을 생성하는 단계에서, 상기 좌측 경계 샘플이 아닌 예측 샘플의 값은
    상기 예측 샘플의 상단 참조 샘플의 값으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  4. 제 1 항에 있어서,
    상기 인트라 방향성 예측 모드는 수직 예측 모드이고,
    상기 예측 블록을 생성하는 단계에서, 상기 좌측 경계 샘플의 값은
    상기 좌측 경계 샘플의 상단 참조 샘플, 상기 좌측 경계 샘플에 인접하는 참조 샘플 및 상기 현재 블록의 좌상단에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  5. 제 1 항에 있어서,
    상기 인트라 방향성 예측 모드는 수평 예측 모드이고,
    상기 예측 블록을 생성하는 단계에서, 상기 상단 경계 샘플의 값은
    상기 상단 경계 샘플의 좌측 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  6. 제 5 항에 있어서,
    상기 예측 블록을 생성하는 단계에서, 상기 상단 경계 샘플이 아닌 예측 샘플의 값은
    상기 예측 샘플의 좌측 참조 샘플의 값으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  7. 제 1 항에 있어서,
    상기 인트라 방향성 예측 모드는 수평 예측 모드이고,
    상기 예측 블록을 생성하는 단계에서, 상기 상단 경계 샘플의 값은
    상기 상단 경계 샘플의 좌측 참조 샘플, 상기 상단 경계 샘플에 인접하는 참조 샘플 및 상기 현재 블록의 좌상단에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  8. 제 1 항에 있어서,
    상기 예측 방향은 우상향이고,
    상기 예측 블록을 생성하는 단계에서, 상기 좌측 경계 샘플의 값은
    상기 예측 방향에 위치하는 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  9. 제 1 항에 있어서,
    상기 예측 방향은 좌하향이고,
    상기 예측 블록을 생성하는 단계에서, 상기 상단 경계 샘플의 값은
    상기 예측 방향에 위치하는 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플을 기반으로 도출되는 것을 특징으로 하는 인트라 예측 방법.
  10. 현재 블록의 예측 모드에 기반하여 상기 현재 블록에 대한 예측 블록을 생성하는 예측부; 및
    상기 예측 블록에 대한 정보를 부호화하는 엔트로피 부호화부를 포함하며,
    상기 예측 모드가 인트라 방향성 예측 모드(Intra_Angular prediction mode)인 경우,
    상기 예측부는 상기 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 상기 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 상기 경계 샘플에 인접하는 참조 샘플에 기반하여 도출하는 것을 특징으로 하는 부호화 장치.
  11. 부호화 장치로부터 수신한 정보를 엔트로피 복호화하는 엔트로피 복호화부; 및
    상기 엔트로피 복호화된 정보를 기반으로 현재 블록에 대한 예측 블록을 생성하는 예측부를 포함하며,
    상기 현재 블록의 예측 모드가 인트라 방향성 예측 모드(Intra_Angular prediction mode)인 경우,
    상기 예측부는 상기 예측 블록의 좌측 경계 샘플 및 상단 경계 샘플 중 상기 인트라 방향성 예측 모드의 예측 방향에 위치하지 않는 경계 샘플의 값을 상기 예측 방향에 위치하는 참조 샘플 및 상기 경계 샘플에 인접하는 참조 샘플에 기반하여 도출하는 것을 특징으로 하는 복호화 장치.
  12. 제 11 항에 있어서,
    상기 인트라 방향성 예측 모드는 수직 예측 모드이고,
    상기 예측부는 상기 좌측 경계 샘플의 값을 상기 좌측 경계 샘플의 상단 참조 샘플 및 상기 좌측 경계 샘플에 인접하는 참조 샘플에 기반하여 도출하는 것을 특징으로 하는 복호화 장치.
  13. 제 11 항에 있어서,
    상기 인트라 방향성 예측 모드는 수직 예측 모드이고,
    상기 예측부는 상기 좌측 경계 샘플의 값을 상기 좌측 경계 샘플의 상단 참조 샘플, 상기 좌측 경계 샘플에 인접하는 참조 샘플 및 상기 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출하는 것을 특징으로 하는 복호화 장치.
  14. 제 11 항에 있어서,
    상기 인트라 방향성 예측 모드는 수평 예측 모드이고,
    상기 예측부는 상기 상단 경계 샘플의 값을 상기 상단 경계 샘플의 좌측 참조 샘플 및 상기 상단 경계 샘플에 인접하는 참조 샘플에 기반하여 도출하는 것을 특징으로 하는 복호화 장치.
  15. 제 11 항에 있어서,
    상기 인트라 방향성 예측 모드는 수평 예측 모드이고,
    상기 예측부는 상기 상단 경계 샘플의 값을 상기 상단 경계 샘플의 좌측 참조 샘플, 상기 상단 경계 샘플에 인접하는 참조 샘플 및 상기 현재 블록의 좌상단에 인접하는 참조 샘플에 기반하여 도출하는 것을 특징으로 하는 복호화 장치.
PCT/KR2012/003093 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기 WO2012148138A2 (ko)

Priority Applications (36)

Application Number Priority Date Filing Date Title
AU2012249024A AU2012249024B2 (en) 2011-04-25 2012-04-20 Intra-prediction method, and encoder and decoder using same
DE112012001609.2T DE112012001609B9 (de) 2011-04-25 2012-04-20 Intra-Prädiktionsverfahren, Kodierer und Dekodierer zur Benutzung desselben
KR1020217013394A KR102350988B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
EP18209846.7A EP3471412B8 (en) 2011-04-25 2012-04-20 Intra-prediction method for video decoding and video encoding
MX2013012478A MX2013012478A (es) 2011-04-25 2012-04-20 Metodo de intra - prediccion y codificador y decodificador que lo utilizan.
CA2834249A CA2834249C (en) 2011-04-25 2012-04-20 Intra-prediction method, and encoder and decoder using same
KR1020207004743A KR102164571B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
EP23172623.3A EP4224844B1 (en) 2011-04-25 2012-04-20 Intra-prediction method for video decoding and video encoding
DK12775964.5T DK2704435T3 (da) 2011-04-25 2012-04-20 Fremgangsmåde til interforudsigelse, samt koder og afkoder, som anvender denne
GB1319111.9A GB2505345B (en) 2011-04-25 2012-04-20 Intra-prediction method, and encoder and decoder using same
PL18209846T PL3471412T3 (pl) 2011-04-25 2012-04-20 Sposób intra-predykcji dla kodowania wideo oraz dekodowania wideo
RU2013152175/08A RU2550539C1 (ru) 2011-04-25 2012-04-20 Способ внутреннего предсказания и кодер и декодер, использующие его
KR1020207028497A KR102250105B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
KR1020157006823A KR101763496B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
CN201280030010.9A CN103621079B (zh) 2011-04-25 2012-04-20 帧内预测方法以及使用该方法的编码器和解码器
JP2014508283A JP5869666B2 (ja) 2011-04-25 2012-04-20 イントラ予測方法とそれを利用した符号化器及び復号化器
US14/113,708 US10368090B2 (en) 2011-04-25 2012-04-20 Intra-prediction method, and encoder and decoder using same
ES201390088A ES2459890B2 (es) 2011-04-25 2012-04-20 Método de predicción intra, y codificador y descodificador que lo usan
EP12775964.5A EP2704435B1 (en) 2011-04-25 2012-04-20 Intra-prediction method, and encoder and decoder using same
KR1020197009940A KR102081350B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
KR1020137030935A KR101645787B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
EP20200228.3A EP3783889B1 (en) 2011-04-25 2012-04-20 Video decoding apparatus and video encoding apparatus
MX2016002952A MX347329B (es) 2011-04-25 2012-04-20 Método de intra-predicción, y codificador y decodificador que lo utilizan.
KR1020187012530A KR101968325B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
PL12775964T PL2704435T3 (pl) 2011-04-25 2012-04-20 Sposób intra-predykcji i koder oraz dekoder wykorzystujący go
KR1020177020723A KR101855951B1 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
US14/692,134 US10645415B2 (en) 2011-04-25 2015-04-21 Intra-prediction method, and encoder and decoder using same
AU2015246147A AU2015246147B2 (en) 2011-04-25 2015-10-23 Intra-prediction method, and encoder and decoder using same
AU2017228642A AU2017228642B2 (en) 2011-04-25 2017-09-14 Intra-prediction method, and encoder and decoder using same
AU2019253843A AU2019253843B2 (en) 2011-04-25 2019-10-23 Intra-prediction method, and encoder and decoder using same
US16/835,894 US11006146B2 (en) 2011-04-25 2020-03-31 Intra-prediction method, and encoder and decoder using same
US17/132,378 US11910010B2 (en) 2011-04-25 2020-12-23 Intra-prediction method, and encoder and decoder using same
AU2021204343A AU2021204343B2 (en) 2011-04-25 2021-06-25 Intra-prediction method, and encoder and decoder using same
AU2022279488A AU2022279488B2 (en) 2011-04-25 2022-12-01 Intra-prediction method, and encoder and decoder using same
US18/407,955 US20240146960A1 (en) 2011-04-25 2024-01-09 Intra-prediction method, and encoder and decoder using same
AU2024201564A AU2024201564A1 (en) 2011-04-25 2024-03-08 Intra-prediction method, and encoder and decoder using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161478912P 2011-04-25 2011-04-25
US61/478,912 2011-04-25

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/113,708 A-371-Of-International US10368090B2 (en) 2011-04-25 2012-04-20 Intra-prediction method, and encoder and decoder using same
US14/692,134 Continuation US10645415B2 (en) 2011-04-25 2015-04-21 Intra-prediction method, and encoder and decoder using same

Publications (2)

Publication Number Publication Date
WO2012148138A2 true WO2012148138A2 (ko) 2012-11-01
WO2012148138A3 WO2012148138A3 (ko) 2013-01-17

Family

ID=47072876

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/003093 WO2012148138A2 (ko) 2011-04-25 2012-04-20 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기

Country Status (21)

Country Link
US (5) US10368090B2 (ko)
EP (4) EP2704435B1 (ko)
JP (6) JP5869666B2 (ko)
KR (8) KR101645787B1 (ko)
CN (5) CN107071412B (ko)
AU (7) AU2012249024B2 (ko)
CA (5) CA3222766A1 (ko)
DE (1) DE112012001609B9 (ko)
DK (1) DK2704435T3 (ko)
ES (2) ES2954591T3 (ko)
FI (1) FI3783889T3 (ko)
GB (1) GB2505345B (ko)
HR (1) HRP20230996T1 (ko)
HU (2) HUE063555T2 (ko)
MX (4) MX2013012478A (ko)
PL (3) PL2704435T3 (ko)
PT (2) PT2704435T (ko)
RU (6) RU2550539C1 (ko)
SI (1) SI3783889T1 (ko)
TR (1) TR201905119T4 (ko)
WO (1) WO2012148138A2 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014131162A (ja) * 2012-12-28 2014-07-10 Nippon Telegr & Teleph Corp <Ntt> イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
WO2015009092A1 (ko) * 2013-07-18 2015-01-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2017222325A1 (ko) * 2016-06-24 2017-12-28 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017222326A1 (ko) * 2016-06-24 2017-12-28 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2018008905A1 (ko) * 2016-07-05 2018-01-11 주식회사 케이티 비디오 신호 처리 방법 및 장치
JP2018129815A (ja) * 2011-06-20 2018-08-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像符号化/復号化方法及びその装置
WO2019039806A1 (ko) * 2017-08-21 2019-02-28 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN110225356A (zh) * 2013-04-08 2019-09-10 Ge视频压缩有限责任公司 多视图解码器
WO2019182292A1 (ko) * 2018-03-19 2019-09-26 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10757406B2 (en) 2016-04-12 2020-08-25 Industry Academy Cooperation Foundation Of Sejong University Intra prediction-based video signal processing method and apparatus
US11323705B2 (en) 2018-03-09 2022-05-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus using sample filtering
US11570431B2 (en) 2017-05-31 2023-01-31 Lg Electronics Inc. Method and device for performing image decoding on basis of intra prediction in image coding system

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012078001A2 (ko) * 2010-12-08 2012-06-14 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
PT2704435T (pt) * 2011-04-25 2019-04-24 Lg Electronics Inc Processo de intra-predição, e codificador e descodificador utilizando o mesmo
KR101956284B1 (ko) * 2011-06-30 2019-03-08 엘지전자 주식회사 보간 방법 및 이를 이용한 예측 방법
JP6101709B2 (ja) 2012-01-18 2017-03-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像復号化装置
US10129542B2 (en) * 2013-10-17 2018-11-13 Futurewei Technologies, Inc. Reference pixel selection and filtering for intra coding of depth map
EP2961168A1 (en) * 2014-06-27 2015-12-30 Thomson Licensing Method and apparatus for predicting image samples for encoding or decoding
AU2014216056A1 (en) * 2014-08-25 2016-03-10 Canon Kabushiki Kaisha Method, apparatus and system for predicting a block of video samples
US11463689B2 (en) * 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding
WO2017043786A1 (ko) * 2015-09-10 2017-03-16 엘지전자 주식회사 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
US10425648B2 (en) * 2015-09-29 2019-09-24 Qualcomm Incorporated Video intra-prediction using position-dependent prediction combination for video coding
US10819987B2 (en) * 2015-11-12 2020-10-27 Lg Electronics Inc. Method and apparatus for coefficient induced intra prediction in image coding system
WO2017091016A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
WO2017090957A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR102345475B1 (ko) * 2016-01-05 2022-01-03 한국전자통신연구원 잔차 신호에 대한 예측 방법 및 장치
KR102434479B1 (ko) 2016-02-16 2022-08-19 삼성전자주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
KR102609632B1 (ko) * 2016-02-25 2023-12-01 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR20190015216A (ko) * 2016-05-05 2019-02-13 브이아이디 스케일, 인크. 인트라 코딩을 위한 제어 포인트 기반의 인트라 방향 표현
WO2017209328A1 (ko) * 2016-06-03 2017-12-07 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측 방법 및 장치
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
CN116366838A (zh) 2016-09-20 2023-06-30 株式会社Kt 对图像进行解码和编码的方法以及传输方法
EP3522538A4 (en) * 2016-09-30 2020-07-29 LG Electronics Inc. -1- IMAGE PROCESSING METHOD AND DEVICE THEREFOR
WO2018174371A1 (ko) * 2017-03-21 2018-09-27 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
US10728548B2 (en) 2017-04-04 2020-07-28 Futurewei Technologies, Inc. Processing reference samples used for intra-prediction of a picture block
US10764587B2 (en) * 2017-06-30 2020-09-01 Qualcomm Incorporated Intra prediction in video coding
GB2567863A (en) * 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
CN111295881B (zh) * 2017-11-13 2023-09-01 联发科技(新加坡)私人有限公司 用于图像和视频编解码的画面内预测融合的方法和装置
EP3496401A1 (en) * 2017-12-05 2019-06-12 Thomson Licensing Method and apparatus for video encoding and decoding based on block shape
CN112204965A (zh) * 2018-06-21 2021-01-08 株式会社Kt 用于处理视频信号的方法和设备
CN110650349B (zh) 2018-06-26 2024-02-13 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
BR112021025153A2 (pt) * 2019-06-14 2022-01-25 Ericsson Telefon Ab L M Métodos de intraprevisão associado com um bloco atual, de codificação e de decodificação, aparelho de intraprevisão, codificador, decodificador, produto de programa de computador, e, mídia legível por computador
CN114009044A (zh) * 2019-06-14 2022-02-01 瑞典爱立信有限公司 用于基于矩阵的帧内预测的简化下采样
EP4300964A3 (en) * 2019-06-21 2024-03-13 VID SCALE, Inc. Precision refinement for motion compensation with optical flow
WO2021007175A1 (en) * 2019-07-05 2021-01-14 Beijing Dajia Internet Information Technology Co., Ltd. Motion compensation using combined inter and intra prediction
CN110944211B (zh) * 2019-11-15 2022-07-08 腾讯科技(深圳)有限公司 用于帧内预测的插值滤波方法、装置、介质及电子设备
WO2021194797A1 (en) * 2020-03-26 2021-09-30 Alibaba Group Holding Limited Method and apparatus for encoding or decoding video

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60123348A (ja) 1983-11-25 1985-07-02 ナショナル住宅産業株式会社 コンテナ装置
JPH06258980A (ja) 1993-03-02 1994-09-16 Ricoh Co Ltd 消色機能付き電子写真装置
DE10158658A1 (de) 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
KR100454501B1 (ko) 2001-12-26 2004-10-28 브이케이 주식회사 영상신호를 부호화 또는 복호화하기 위한 예측 장치 및 방법
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
AU2003248913A1 (en) 2003-01-10 2004-08-10 Thomson Licensing S.A. Defining interpolation filters for error concealment in a coded image
CN1589028B (zh) 2004-07-29 2010-05-05 展讯通信(上海)有限公司 基于像素流水的帧内预测装置及预测方法
GB0422439D0 (en) 2004-10-08 2004-11-10 European Molecular Biology Lab Embl Inhibitors of infection
BRPI0613659B1 (pt) * 2005-07-21 2019-06-04 Thomson Licensing Método e aparelho para o prognóstico ponderado para uma codificação de vídeo redimensionável
KR100678958B1 (ko) 2005-07-29 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
US8036274B2 (en) 2005-08-12 2011-10-11 Microsoft Corporation SIMD lapped transform-based digital media encoding/decoding
KR100825743B1 (ko) 2005-11-15 2008-04-29 한국전자통신연구원 실시간으로 비트스트림의 공간 해상도를 변환할 수 있는스케일러블 비디오 코딩 방법 및 그 방법을 이용한 코덱
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100739790B1 (ko) * 2006-02-02 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
EP1842846A1 (en) * 2006-04-07 2007-10-10 Santhera Pharmaceuticals (Schweiz) AG Phenylpiperidine derivatives as melanocortin-4 receptor modulators
US8228998B2 (en) * 2006-10-10 2012-07-24 Nippon Telegraph And Telephone Corporation Intra prediction encoding control method and apparatus, program therefor, and storage medium which stores the program
KR101365570B1 (ko) 2007-01-18 2014-02-21 삼성전자주식회사 인트라 예측 부호화, 복호화 방법 및 장치
CN101383970A (zh) 2007-09-06 2009-03-11 北京中电华大电子设计有限责任公司 基于avs的并行流水的帧内预测器的实现方法
JP2009094828A (ja) 2007-10-10 2009-04-30 Hitachi Ltd 画像符号化装置及び画像符号化方法、画像復号化装置及び画像復号化方法
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
KR20090095316A (ko) 2008-03-05 2009-09-09 삼성전자주식회사 영상 인트라 예측 방법 및 장치
EP2263381A1 (en) * 2008-04-11 2010-12-22 Thomson Licensing Deblocking filtering for displaced intra prediction and template matching
KR100949917B1 (ko) * 2008-05-28 2010-03-30 한국산업기술대학교산학협력단 적응적 인트라 예측을 통한 고속 부호화 방법 및 시스템
CN101330617B (zh) 2008-07-31 2010-11-17 上海交通大学 基于模式映射的多标准帧内预测器的硬件实现方法及装置
KR101590500B1 (ko) * 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
KR101260157B1 (ko) * 2009-02-13 2013-05-06 리서치 인 모션 리미티드 인트라코딩된 이미지 또는 프레임에 대한 인루프 디블로킹
US20100246675A1 (en) 2009-03-30 2010-09-30 Sony Corporation Method and apparatus for intra-prediction in a video encoder
KR101379185B1 (ko) 2009-04-14 2014-03-31 에스케이 텔레콤주식회사 예측 모드 선택 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20110008653A (ko) 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
US8199459B2 (en) * 2009-07-30 2012-06-12 Medtronic, Inc. Energy device with a first and second separator material
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
CN101827270B (zh) * 2009-12-16 2011-12-14 香港应用科技研究院有限公司 一种帧内预测中获取像素预测值的方法
US20120300849A1 (en) * 2010-01-12 2012-11-29 Yukinobu Yasugi Encoder apparatus, decoder apparatus, and data structure
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
US20110261880A1 (en) * 2010-04-27 2011-10-27 Sony Corporation Boundary adaptive intra prediction for improving subjective video quality
KR101772459B1 (ko) 2010-05-17 2017-08-30 엘지전자 주식회사 신규한 인트라 예측 모드
KR20120012385A (ko) 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
CN107071426B (zh) 2010-08-17 2019-07-12 M&K控股株式会社 用于编码帧内预测模式的方法
WO2012078001A2 (ko) * 2010-12-08 2012-06-14 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
PT2704435T (pt) 2011-04-25 2019-04-24 Lg Electronics Inc Processo de intra-predição, e codificador e descodificador utilizando o mesmo
CN116668681A (zh) * 2016-03-17 2023-08-29 世宗大学校产学协力团 视频解码方法、视频编码方法及比特流的传输方法
CN116366838A (zh) * 2016-09-20 2023-06-30 株式会社Kt 对图像进行解码和编码的方法以及传输方法
EP3410722A1 (en) * 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for low-complexity bi-directional intra prediction in video encoding and decoding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of EP2704435A4 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10536717B2 (en) 2011-06-20 2020-01-14 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
US11711541B2 (en) 2011-06-20 2023-07-25 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
US11689742B2 (en) 2011-06-20 2023-06-27 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
US10986368B2 (en) 2011-06-20 2021-04-20 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
US10979735B2 (en) 2011-06-20 2021-04-13 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
JP2018129815A (ja) * 2011-06-20 2018-08-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像符号化/復号化方法及びその装置
US10979734B2 (en) 2011-06-20 2021-04-13 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
US10904569B2 (en) 2011-06-20 2021-01-26 Electronics And Telecommunications Research Institute Image encoding/decoding method using prediction block and apparatus for same
JP2014131162A (ja) * 2012-12-28 2014-07-10 Nippon Telegr & Teleph Corp <Ntt> イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
CN110225356A (zh) * 2013-04-08 2019-09-10 Ge视频压缩有限责任公司 多视图解码器
CN110225356B (zh) * 2013-04-08 2024-02-13 Ge视频压缩有限责任公司 多视图解码器
WO2015009092A1 (ko) * 2013-07-18 2015-01-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US10129560B2 (en) 2013-07-18 2018-11-13 Lg Electronics Inc. Method and apparatus for processing video signal
US11272174B2 (en) 2016-04-12 2022-03-08 Industry Academy Cooperation Foundation Of Sejong University Intra prediction-based video signal processing method and apparatus
US10757406B2 (en) 2016-04-12 2020-08-25 Industry Academy Cooperation Foundation Of Sejong University Intra prediction-based video signal processing method and apparatus
WO2017222325A1 (ko) * 2016-06-24 2017-12-28 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11445177B2 (en) 2016-06-24 2022-09-13 Kt Corporation Method and apparatus for processing video signal
US10735720B2 (en) 2016-06-24 2020-08-04 Kt Corporation Method and apparatus for processing video signal
US11234015B2 (en) 2016-06-24 2022-01-25 Kt Corporation Method and apparatus for processing video signal
US11445178B2 (en) 2016-06-24 2022-09-13 Kt Corporation Method and apparatus for processing video signal
WO2017222326A1 (ko) * 2016-06-24 2017-12-28 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11350084B2 (en) 2016-06-24 2022-05-31 Kt Corporation Method and apparatus for processing video signal
US11445179B2 (en) 2016-06-24 2022-09-13 Kt Corporation Method and apparatus for processing video signal
WO2018008905A1 (ko) * 2016-07-05 2018-01-11 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11394988B2 (en) 2016-07-05 2022-07-19 Kt Corporation Method and apparatus for processing video signal
US10986358B2 (en) 2016-07-05 2021-04-20 Kt Corporation Method and apparatus for processing video signal
US11743481B2 (en) 2016-07-05 2023-08-29 Kt Corporation Method and apparatus for processing video signal
US12003708B2 (en) 2017-05-31 2024-06-04 Lg Electronics Inc. Method and device for performing image decoding on basis of intra prediction in image coding system
US11570431B2 (en) 2017-05-31 2023-01-31 Lg Electronics Inc. Method and device for performing image decoding on basis of intra prediction in image coding system
US11831910B2 (en) 2017-08-21 2023-11-28 Electronics And Telecommunications Research Institute Method and apparatus for encoding/decoding video, and recording medium storing bit stream
WO2019039806A1 (ko) * 2017-08-21 2019-02-28 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11323705B2 (en) 2018-03-09 2022-05-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus using sample filtering
US12003713B2 (en) 2018-03-09 2024-06-04 Intellectual Discovery Co., Ltd. Image encoding/decoding method and apparatus using sample filtering
WO2019182292A1 (ko) * 2018-03-19 2019-09-26 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11483564B2 (en) 2018-03-19 2022-10-25 Kt Corporation Method and apparatus for video signal processing determining reference sample lines for a prediction target sample

Also Published As

Publication number Publication date
JP2016077006A (ja) 2016-05-12
MX2013012478A (es) 2014-01-24
GB2505345B (en) 2018-05-09
AU2024201564A1 (en) 2024-03-28
CN107071411A (zh) 2017-08-18
HRP20230996T1 (hr) 2023-12-08
EP4224844B1 (en) 2024-07-03
RU2017124971A3 (ko) 2019-01-14
KR20200118242A (ko) 2020-10-14
AU2015246147B2 (en) 2017-06-15
KR102350988B1 (ko) 2022-01-13
CA2968765C (en) 2020-07-28
RU2627110C2 (ru) 2017-08-03
DE112012001609B9 (de) 2021-11-18
CA3140958A1 (en) 2012-11-01
US20200228835A1 (en) 2020-07-16
EP3471412B8 (en) 2020-12-23
CN106851270A (zh) 2017-06-13
CA2834249C (en) 2017-08-22
KR101968325B1 (ko) 2019-04-12
CA2834249A1 (en) 2012-11-01
US20240146960A1 (en) 2024-05-02
CN107071412A (zh) 2017-08-18
US11006146B2 (en) 2021-05-11
JP6258980B2 (ja) 2018-01-10
AU2019253843A1 (en) 2019-11-14
EP2704435A2 (en) 2014-03-05
EP4224844A2 (en) 2023-08-09
EP4224844A3 (en) 2023-09-27
KR101645787B1 (ko) 2016-08-04
DE112012001609B4 (de) 2021-11-04
CN103621079B (zh) 2017-01-18
RU2765234C1 (ru) 2022-01-26
EP2704435B1 (en) 2019-02-20
JP6588523B2 (ja) 2019-10-09
CN106851270B (zh) 2020-08-28
ES2954591T3 (es) 2023-11-23
KR20190040088A (ko) 2019-04-16
JP2014518031A (ja) 2014-07-24
KR102164571B1 (ko) 2020-10-12
CN107071411B (zh) 2020-08-28
US10645415B2 (en) 2020-05-05
ES2848835T3 (es) 2021-08-12
EP2704435A4 (en) 2014-11-26
HUE063555T2 (hu) 2024-01-28
JP7314350B2 (ja) 2023-07-25
KR20210054045A (ko) 2021-05-12
US11910010B2 (en) 2024-02-20
RU2015110504A (ru) 2015-08-10
EP3471412B1 (en) 2020-11-11
AU2021204343B2 (en) 2022-09-01
AU2022279488A1 (en) 2023-02-02
CN107071412B (zh) 2020-08-28
AU2012249024A1 (en) 2013-11-28
FI3783889T3 (fi) 2023-09-12
PT2704435T (pt) 2019-04-24
CN107071413B (zh) 2020-08-28
AU2019253843B2 (en) 2021-03-25
MX2023002585A (es) 2023-05-24
CA3082413A1 (en) 2012-11-01
AU2015246147A1 (en) 2015-11-12
PL2704435T3 (pl) 2019-08-30
JP2018061285A (ja) 2018-04-12
EP3783889B1 (en) 2023-06-14
AU2021204343A1 (en) 2021-07-22
EP3471412A1 (en) 2019-04-17
KR20170089953A (ko) 2017-08-04
AU2017228642A1 (en) 2017-10-05
CA2968765A1 (en) 2012-11-01
PT3471412T (pt) 2021-01-27
KR20140007465A (ko) 2014-01-17
JP2020022171A (ja) 2020-02-06
JP2022087158A (ja) 2022-06-09
CA3082413C (en) 2022-01-25
KR20200020986A (ko) 2020-02-26
CA3222766A1 (en) 2012-11-01
TR201905119T4 (tr) 2019-05-21
AU2012249024B2 (en) 2015-07-23
PL3471412T3 (pl) 2021-06-14
WO2012148138A3 (ko) 2013-01-17
KR20180051656A (ko) 2018-05-16
KR102250105B1 (ko) 2021-05-10
JP5869666B2 (ja) 2016-02-24
US20210112274A1 (en) 2021-04-15
CN107071413A (zh) 2017-08-18
DE112012001609T5 (de) 2014-12-11
AU2017228642B2 (en) 2019-07-25
GB201319111D0 (en) 2013-12-11
US20150229965A1 (en) 2015-08-13
CA3140958C (en) 2024-01-23
RU2017124971A (ru) 2019-01-14
JP7051773B2 (ja) 2022-04-11
KR102081350B1 (ko) 2020-02-25
MX347329B (es) 2017-04-21
RU2745827C1 (ru) 2021-04-01
RU2708443C1 (ru) 2019-12-06
KR101763496B1 (ko) 2017-07-31
DK2704435T3 (da) 2019-05-06
KR20150038688A (ko) 2015-04-08
AU2022279488B2 (en) 2024-01-04
KR101855951B1 (ko) 2018-05-09
RU2550539C1 (ru) 2015-05-10
HUE044405T2 (hu) 2019-10-28
US20140056352A1 (en) 2014-02-27
EP3783889A1 (en) 2021-02-24
SI3783889T1 (sl) 2023-10-30
JP2023126408A (ja) 2023-09-07
PL3783889T3 (pl) 2023-11-27
US10368090B2 (en) 2019-07-30
RU2688269C2 (ru) 2019-05-21
MX337507B (es) 2016-03-09
GB2505345A (en) 2014-02-26
RU2013152175A (ru) 2015-05-27
CN103621079A (zh) 2014-03-05

Similar Documents

Publication Publication Date Title
WO2012148138A2 (ko) 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
WO2017188652A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2017057953A1 (ko) 비디오 코딩 시스템에서 레지듀얼 신호 코딩 방법 및 장치
WO2017034331A1 (ko) 영상 코딩 시스템에서 크로마 샘플 인트라 예측 방법 및 장치
WO2017209328A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2017039256A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017014412A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2019240448A1 (ko) 성분 간 참조 기반의 비디오 신호 처리 방법 및 장치
WO2019147079A1 (ko) 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
WO2012023763A2 (ko) 인터 예측 부호화 방법
WO2012081879A1 (ko) 인터 예측 부호화된 동영상 복호화 방법
WO2012023762A2 (ko) 인트라 예측 복호화 방법
WO2013154366A1 (ko) 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치
WO2017082443A1 (ko) 영상 코딩 시스템에서 임계값을 이용한 적응적 영상 예측 방법 및 장치
WO2014098456A2 (ko) 영상 인코딩/디코딩 방법 및 이를 이용하는 장치
WO2019240449A1 (ko) 양자화 파라미터 기반의 잔차 블록 부호화/복호화 방법 및 장치
WO2017061671A1 (ko) 영상 코딩 시스템에서 적응적 변환에 기반한 영상 코딩 방법 및 장치
WO2016159610A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016204374A1 (ko) 영상 코딩 시스템에서 영상 필터링 방법 및 장치
WO2016114583A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017159901A1 (ko) 비디오 코딩 시스템에서 블록 구조 도출 방법 및 장치
WO2020242145A1 (ko) 적응적 파라미터 셋을 사용하는 비디오 코딩 방법 및 장치
WO2016122253A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016122251A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018128222A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12775964

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2834249

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2014508283

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/012478

Country of ref document: MX

Ref document number: P201390088

Country of ref document: ES

Ref document number: 112012001609

Country of ref document: DE

Ref document number: 1120120016092

Country of ref document: DE

ENP Entry into the national phase

Ref document number: 1319111

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20120420

WWE Wipo information: entry into national phase

Ref document number: 1319111.9

Country of ref document: GB

WWE Wipo information: entry into national phase

Ref document number: 2012775964

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14113708

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20137030935

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2013152175

Country of ref document: RU

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2012249024

Country of ref document: AU

Date of ref document: 20120420

Kind code of ref document: A