WO2013062197A1 - 영상 복호화 장치 - Google Patents

영상 복호화 장치 Download PDF

Info

Publication number
WO2013062197A1
WO2013062197A1 PCT/KR2012/003083 KR2012003083W WO2013062197A1 WO 2013062197 A1 WO2013062197 A1 WO 2013062197A1 KR 2012003083 W KR2012003083 W KR 2012003083W WO 2013062197 A1 WO2013062197 A1 WO 2013062197A1
Authority
WO
WIPO (PCT)
Prior art keywords
intra prediction
prediction mode
mode
block
modes
Prior art date
Application number
PCT/KR2012/003083
Other languages
English (en)
French (fr)
Inventor
박신지
Original Assignee
(주)인터앱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인터앱 filed Critical (주)인터앱
Priority to US14/124,596 priority Critical patent/US9769479B2/en
Publication of WO2013062197A1 publication Critical patent/WO2013062197A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Definitions

  • the present invention relates to an image decoding apparatus, and more particularly, to restore an intra prediction mode by using a prediction mode group indicator and a prediction mode index, and to generate a prediction block adaptively to the intra prediction mode and the size information of the prediction block. It relates to a device to.
  • image data In order to efficiently store or transmit image data, image data must be encoded.
  • Techniques for encoding image data include MPEG-1, MPEG-2, MPEG-4, and H.264 / MPEG-4 Advanced Video coding (AVC).
  • the techniques divide one picture into macroblocks, determine whether to perform intra encoding or inter encoding on a macroblock basis, and then encode each macroblock in the determined manner.
  • intra prediction is performed to increase the efficiency of intra coding. That is, instead of referring to a reference picture in order to encode a current block, a prediction block is generated using pixel values spatially adjacent to the current block to be encoded. In detail, an intra prediction mode having less distortion compared to an original macro block is selected using adjacent pixel values, and a prediction block for a current block to be encoded is generated using the selected intra prediction mode and adjacent pixel values. Then, a residual block composed of difference signals between the current block and the prediction block is generated, and the residual block is transformed, quantized, and entropy encoded. In addition, the intra prediction mode used to generate the prediction block is also encoded.
  • An object of the present invention is to reduce the number of bits required to encode the intra prediction mode of the current block by using the intra prediction mode of the left and upper blocks of the current block, to provide an apparatus for improving the encoding and decoding efficiency of the image It is.
  • an image decoding apparatus includes an intra prediction mode decoder for reconstructing an intra prediction mode of a current prediction unit by using a prediction mode group indicator and a prediction mode index, and the current prediction.
  • an intra prediction block determiner that determines the size of the subblock and a reference pixel when at least one of the reference pixels of the subblock is not available.
  • the intra prediction mode used for generating the prediction block is intra of the current prediction unit.
  • Side mode and, reference is used to generate the prediction block pixels include at least one or more pixels in the decoding order restoring the previous sub-block.
  • the intra prediction block determiner of the image decoding apparatus determines the size of the subblock by using information (split_transfrom_flag) indicating the size of transform coding, and the intra prediction mode decoder comprises a first intra prediction mode configured of three intra prediction modes. If the prediction mode group indicator indicates a first group, the intra prediction mode indicated by the prediction mode index among the intra prediction modes belonging to the first group is restored to the intra prediction mode of the current block.
  • An image decoding apparatus includes an intra prediction mode decoder configured to restore an intra prediction mode of a current prediction unit by using a prediction mode group indicator and a prediction mode index, and wherein the current prediction unit is an intra prediction block in units of a plurality of subblocks.
  • An intra prediction block determiner that determines a size of the subblock, a reference pixel generator that generates a reference pixel when at least one of the reference pixels of the subblock is not available, and the intra And a prediction block generator for generating a prediction block of each subblock using a prediction mode and the reference pixels.
  • the effective intra prediction modes of the left and upper blocks of the current block modes that are most likely to be identical to the intra prediction modes of the current block are included in the first group, and the intra to be encoded of the current block using the first group.
  • the prediction mode group indicator and the prediction mode index By determining the prediction mode group indicator and the prediction mode index, the amount of information of the intra prediction mode to be encoded can be reduced.
  • the prediction mode group indicator and the prediction mode index By determining the prediction mode group indicator and the prediction mode index, the amount of information of the intra prediction mode to be encoded can be reduced.
  • generating a prediction block similar to the current block by reducing the number of bits of the residual block to be encoded / decoded, encoding and decoding efficiency can be increased.
  • FIG. 1 is a block diagram illustrating a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a video decoding apparatus according to an embodiment of the present invention.
  • FIG 3 illustrates a method of generating an intra prediction block in a video decoding apparatus, according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an intra prediction mode according to an embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating an intra prediction block device 300 according to an embodiment of the present invention.
  • FIG. 6 shows a process of generating a reconstruction block according to an embodiment of the present invention.
  • FIG. 7 illustrates a process of generating a reconstruction block according to another embodiment of the present invention.
  • the video encoding apparatus and the video decoding apparatus may be a personal computer, a notebook computer, a personal digital assistant, a portable multimedia player, a smart phone, a wireless communication terminal, a server providing a service such as a TV, or the like.
  • the video encoding apparatus and the video decoding apparatus may include a communication device such as a communication modem for communicating with various devices or a wired / wireless communication network, a memory for encoding or decoding an image, or storing various programs and data for encoding or decoding; It may be a device having a microprocessor or the like for executing and controlling a program.
  • FIG. 1 is a block diagram illustrating a video encoding apparatus according to an embodiment of the present invention.
  • the video encoding apparatus 100 may include an intra predictor 110, an inter predictor 120, a transform and quantizer 130, an entropy encoder 140, an inverse quantization and inverse transform unit ( 150, a post processor 160, a picture buffer 170, a subtractor 190, and an adder 195.
  • the intra prediction unit 110 generates an intra prediction block by using the reconstructed pixels of the picture or slice that includes the current block.
  • the intra prediction unit 110 selects one of a preset number of intra prediction modes according to the size of the current block to be predictively encoded, and generates a prediction block according to the selected intra prediction mode.
  • the inter prediction unit 120 performs motion estimation using reference pictures stored in the picture buffer 170, and determines a reference picture index and a motion vector for motion prediction.
  • the inter prediction block of the current block is generated using the reference picture index and the motion vector.
  • the transform and quantization unit 130 transforms and quantizes the residual block of the prediction block generated by the current block and the intra prediction unit 110 or the inter prediction unit 120.
  • the transformation is done by one-dimensional transformation matrices in the horizontal and vertical directions.
  • the residual block of intra prediction is transformed by a transform matrix determined according to the size of the transform block (ie, the size of the residual block) and the intra prediction mode.
  • the residual block of inter prediction is transformed by a predetermined transform matrix.
  • the transform and quantization unit 130 quantizes the transform block using a quantization step size.
  • the quantization step size may be changed for each coding unit having a predetermined size or more.
  • the quantized transform block is provided to the inverse quantization and inverse transform unit 150 and the entropy encoder 140.
  • the inverse quantization and inverse transform unit 150 inverse quantizes the quantized transform block, and inversely transforms the inverse quantized transform block to restore a residual block.
  • the adder adds the residual block reconstructed by the inverse quantization and inverse transform unit 150 and the prediction block from the intra predictor 110 or the inter predictor 120 to generate a reconstructed block.
  • the post processor 160 is to improve the quality of the reconstructed picture and includes a deblocking filter 161, an offset applying unit 162, and a loop filtering unit 163.
  • the deblocking filtering unit 161 adaptively applies the deblocking filter to the boundary of the prediction block and the transform transform block.
  • the boundary can be defined by a boundary lying on an 8x8 grid.
  • the deblocking filtering unit 161 determines a boundary to filter, determines the boundary strength, and determines whether to apply a deblocking filter to the boundary when the boundary strength is greater than zero. do. If it is decided to filter the boundary, a filter to be applied to the boundary is selected and the boundary is filtered by the selected filter.
  • the offset applying unit 162 determines whether to apply an offset on a picture or slice basis in order to reduce a distortion between the original pixel and the pixel in the image which has passed through the deblocking filtering unit.
  • the slice may be divided into a plurality of offset regions, and an offset type may be determined for each offset region.
  • the offset type may include a predetermined number of edge offset types and band offset types. If the offset type is an edge offset type, the edge type to which each pixel belongs is determined, and an offset corresponding thereto is applied. The edge type is determined based on a distribution of two pixel values adjacent to the current pixel.
  • the loop filtering unit 163 adaptively loop-filters the reconstructed image based on a value obtained by comparing the reconstructed image passed through the offset applying unit 162 with the original image. It is determined whether to loop-filter the reconstructed image in coding units.
  • the size and coefficients of the loop filter to be applied according to each coding unit may vary.
  • Information indicating whether the adaptive loop filter is applied to each coding unit may be included in each slice header. In the case of a chrominance signal, it may be determined whether to apply an adaptive loop filter on a picture basis. Therefore, the slice header or the picture header may include information indicating whether each of the color difference components is filtered.
  • the picture buffer 170 receives the post-processed image data from the post processor 160 and restores and stores the image in a picture unit.
  • the picture may be an image in a frame unit or an image in a field unit.
  • the entropy encoder 140 entropy encodes the quantization coefficient information quantized by the transform and quantizer 130, intra prediction information received from the intra predictor 140, motion information received from the inter predictor 150, and the like. .
  • the entropy encoder 140 includes a scan unit 145 to convert coefficients of the quantized transform block into one-dimensional quantization coefficient information.
  • the scan unit 145 determines a scan type for transforming coefficients of the quantized transform block in one dimension.
  • the scan type may vary depending on the directional intra prediction mode and the size of the transform block.
  • the scan order of the quantization coefficients scans in the reverse direction.
  • the transform coefficients are divided into a plurality of subblocks and scanned.
  • the scan type applied to the transform coefficients of each subblock is the same.
  • the scan type applied between the lower blocks may be a zigzag scan or may be the same as the scan type applied to the conversion coefficients of the respective lower blocks.
  • FIG. 2 is a block diagram illustrating a video decoding apparatus 200 according to an embodiment of the present invention.
  • the video decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transform unit 230, an intra predictor 240, an inter predictor 250, and the like.
  • the processor 260 includes a picture buffer 270 and an adder 280.
  • the entropy decoder 210 decodes the received bitstream and separates the received bitstream into intra prediction information, inter prediction information, and quantization coefficient information.
  • the entropy decoder 210 supplies the decoded intra prediction information to the intra predictor 240, and supplies the decoded inter prediction information to the inter predictor 250.
  • Entropy decoding 210 includes an inverse scan unit 215 for inverse scanning the decoded quantization coefficient information.
  • the inverse scan unit 215 converts the quantization coefficient information into a quantization block of a two-dimensional array.
  • One of a plurality of scan types is selected for the conversion.
  • the scan type may vary depending on the directional intra prediction mode and the size of the transform block.
  • the scan order of the quantization coefficients scans in the reverse direction.
  • the transform coefficients are divided into a plurality of subblocks and scanned.
  • the scan type applied to the transform coefficients of each subblock is the same.
  • the scan type applied between the lower blocks may be a zigzag scan or may be the same as the scan type applied to the conversion coefficients of the respective lower blocks.
  • the inverse quantization unit 220 determines a quantization step size predictor of the current coding unit, and reconstructs the quantization step size of the current coding unit by adding the determined quantization step size predictor and the received residual quantization step size.
  • the inverse quantization unit 220 inversely quantizes the quantization block by using the quantization step size and the inverse quantization matrix.
  • the quantization matrix is determined according to the size and prediction mode of the quantization block. That is, a quantization matrix is also selected for a quantization block of the same size based on at least one of the prediction mode and the intra prediction mode of the current block.
  • the inverse transform unit 230 inversely transforms the inverse quantized transform block to restore the residual block.
  • An inverse transform matrix to be applied to the inverse quantization block may be determined according to a prediction mode and an intra prediction mode.
  • the adder 280 generates a reconstructed block by adding the residual block reconstructed by the inverse transform unit 230 and the prediction block generated by the intra predictor 240 or the inter predictor 250.
  • the intra predictor 240 restores the intra prediction mode of the current block based on the intra prediction information received from the entropy decoder 210.
  • the prediction block is generated according to the reconstructed intra prediction mode.
  • the inter prediction unit 250 reconstructs the reference picture index and the motion vector based on the inter prediction information received from the entropy decoding unit 210.
  • the prediction block for the current block is generated using the reference picture index and the motion vector.
  • the prediction block is generated by applying the selected interpolation filter.
  • the operation of the post processor 260 is the same as the operation of the post processor 160 of FIG. 1, it is omitted.
  • the picture buffer 270 stores the decoded image post-processed by the post processor 260 in picture units.
  • FIG 3 illustrates a method of generating an intra prediction block according to an embodiment of the present invention.
  • the intra prediction information is entropy decoded from the received bitstream (S110).
  • the intra prediction information includes an intra prediction mode group indicator and a prediction mode index.
  • the intra prediction mode group indicator indicates whether the intra prediction mode of the current block belongs to an MPM group or a group other than the MPM.
  • the prediction mode index is information indicating a specific intra prediction mode in the intra prediction mode group indicated by the intra prediction mode group indicator.
  • the intra prediction mode group indicator may be received in the form of an unsigned integer. In this case, the intra prediction mode group indicator may be used without entropy decoding. Alternatively, the intra prediction mode group indicator may be adaptively entropy coded according to the type of the current slice. For example, entropy coding may be performed using a context determined according to the slice type. Therefore, the restoration may be performed using a context determined according to the current slice type.
  • the prediction mode index is entropy coded in a different manner than in the case of belonging to the MPM group. Therefore, entropy decoding is performed in a mutual manner even in entropy decoding.
  • the prediction mode index is binarized and entropy coded by a truncated Exp-Golomb code or a truncated unary scheme. Therefore, after obtaining the binarization information by performing entropy decoding, the prediction mode index is restored using the above schemes.
  • the prediction mode index may be binarized to a fixed length. Therefore, after obtaining the binarization information by performing entropy decoding, the prediction mode index may be restored.
  • the MPM group is generated using the intra prediction modes of blocks adjacent to the current block, and the intra prediction mode of the current block is restored using the MPM group (S120).
  • the MPM group consists of three intra prediction modes. It demonstrates with reference to FIG. 4 is a diagram illustrating an intra prediction mode according to an embodiment of the present invention.
  • the MPM group consists of the two intra prediction modes and one additional intra prediction mode.
  • the additional intra prediction mode may be a planner mode.
  • the additional intra prediction mode may be a DC mode.
  • the additional intra prediction mode may be a vertical mode or a horizontal mode.
  • the additional intra prediction mode may be an intra prediction mode having a directionality between the two intra prediction modes, or may be a DC mode or a planner mode.
  • the MPM group includes the intra prediction mode and two additional intra prediction modes.
  • the two additional intra prediction modes are set to two intra prediction modes adjacent to the intra prediction mode. If the intra prediction mode is a DC mode, the two additional intra prediction modes may be a planner mode and a vertical mode.
  • the MPM group includes the intra prediction mode and two additional intra prediction modes.
  • the two additional intra prediction modes are determined by the intra prediction mode.
  • the MPM group may include a DC mode, a planner mode, and a vertical mode.
  • the intra prediction mode indicated by the prediction mode index is selected from the MPM group to determine the intra prediction mode of the current block.
  • the intra prediction mode group indicator may be flag information indicating whether the intra prediction mode of the current block belongs to an MPM group or a group other than the MPM.
  • the intra prediction unit 240 may determine that the prediction mode index is one of intra prediction modes (hereinafter, referred to as residual intra prediction modes) except for intra prediction modes belonging to the MPM group.
  • the indicated intra prediction mode is determined as the intra prediction mode of the current block.
  • the prediction mode index given to the remaining intra prediction modes depends on the configuration of the MPM group. That is, the decoded prediction mode index indicates the index of the remaining intra prediction modes rearranged according to the configuration of the MPM group. Accordingly, the intra prediction mode of the current block is selected from the remaining intra prediction modes according to the decoded prediction mode index and the intra prediction modes belonging to the MPM group.
  • the residual intra prediction modes of the current block are rearranged in order of mode number, and the intra prediction mode of the order corresponding to the received prediction mode index is selected as the intra prediction mode of the current block.
  • the intra prediction mode of the current block may be determined by comparing the intra prediction mode index of the current block with an intra prediction mode number belonging to the MPM group.
  • the above method may be applied to a case in which a mode number 2 is assigned to a DC and a mode number 34 is assigned to a planner mode, and the directional modes are assigned to the remaining modes.
  • the method may be applied by applying a small mode number (for example, mode number 0) to the planner mode. Can be. In this case, the mode numbers of other subordinated mode numbers are increased by one.
  • the intra prediction mode of the current block is a planner mode and the remaining intra prediction mode includes a planner mode
  • the intra prediction mode index may include zero.
  • the intra prediction mode in the order corresponding to the prediction mode index is arranged in the order of planner mode, DC mode, and directional modes.
  • Intra prediction mode may be set.
  • mode number 0 may be assigned to planner mode
  • mode number 1 may be assigned to DC mode
  • mode number 0 may be assigned to DC mode and mode number 1 to planner mode.
  • the intra prediction mode of the current block may be determined by comparing the intra prediction mode index of the current block with the intra prediction mode number belonging to the MPM group.
  • the size of the prediction block is determined using the information indicating the transform size of the current block (S130).
  • the prediction block is generated using the intra prediction mode of the current block and the reference pixels of the current block.
  • the reference pixels are pixels reconstructed or pixels generated before the current block.
  • the size of the prediction block is smaller than the size of the current block, that is, when the current block is divided into a plurality of subblocks and intra prediction is performed, the same intra prediction mode is generated when the prediction block of each subblock is generated. Intra prediction mode of the current block) is used. Further, the predictive blocks of the second and subsequent subblocks in the decoding order are generated using the reconstruction pixels of the preceding subblocks. Therefore, after completion of prediction block generation, residual block generation, and reconstruction block generation in each subblock unit, a prediction block of a next subblock is generated.
  • the reference pixels are pixels that have already been decoded and reconstructed. If at least one of the reference pixels is determined to be invalid, reference pixels are generated (S150).
  • L is the number of bits for indicating the gradation of the luminance component.
  • reference pixels located at the nearest position among the valid reference pixels are copied to generate reference pixels.
  • the reference pixels are adaptively filtered according to the reconstructed intra prediction mode and the size of the prediction block (S170).
  • Reference pixels are not filtered when the intra prediction mode is the DC mode. Reference pixels are not filtered even when the intra prediction mode is the vertical mode and the horizontal mode. However, when the intra prediction mode is directional modes other than the vertical mode and the horizontal mode, the reference pixel is adaptively filtered according to the intra prediction mode and the size of the prediction block. When the size of the prediction block is 4x4, the reference pixel may not be filtered to reduce the complexity regardless of the intra prediction mode.
  • the filtering is for smoothing the amount of change in the pixel value between the reference pixels, and uses a low-pass filter.
  • the low-pass filter may be [1, 2, 1], which is a 3-tap filter, or [1, 2, 4, 2, 1], which is a 5-tap filter.
  • the size of the prediction block is 8x8 to 32x32, the reference pixel is filtered in a larger number of intra prediction modes as the size of the prediction block increases.
  • a prediction block is generated according to the intra prediction mode (S180).
  • the reference pixels used in the prediction block may be pixels adaptively filtered according to the size of the prediction block and the intra prediction mode.
  • the prediction pixel at the position adjacent to the reference pixels may be generated using the average value and the weighted average of the reference pixel adjacent to the prediction pixel.
  • the prediction pixel can be generated in the same manner as in the DC mode.
  • the reference pixel located in the vertical direction becomes a prediction pixel.
  • prediction pixels adjacent to the left pixel may be generated using the vertical reference pixels and the amount of change of the left reference pixels.
  • the change amount represents a change amount between a corner reference pixel and a reference pixel adjacent to the prediction pixel.
  • the prediction pixel may be generated in the same manner as the vertical mode is different from the vertical mode.
  • the intra prediction block generating apparatus 300 includes a parser 310, a prediction mode decoder 320, a prediction block size determiner 330, a reference pixel validity determiner 340, and a reference pixel generator ( 350, a reference pixel filtering unit 360, and a prediction block generator 370.
  • the parser 310 entropy decodes the intra prediction information and the transform block size information from the received bitstream.
  • the intra prediction information includes an intra prediction mode group indicator and a prediction mode index.
  • the intra prediction mode group indicator indicates whether the intra prediction mode of the current block belongs to an MPM group or a group other than the MPM.
  • the prediction mode index is information indicating a specific intra prediction mode in the intra prediction mode group indicated by the intra prediction mode group indicator.
  • the entropy decoding method of the intra prediction information is the same as S110 of FIG. 3.
  • the transform size information includes at least one flag (split_transform_flag) indicating a transform size transmitted from an encoder.
  • the prediction mode decoder 320 generates an MPM group by using intra prediction modes of blocks adjacent to the current block, and restores the intra prediction mode of the current block by using the MPM group and the entropy decoded intra prediction information.
  • the MPM group consists of three intra prediction modes.
  • the MPM group consists of the two intra prediction modes and one additional intra prediction mode.
  • the additional intra prediction mode may be a planner mode.
  • the additional intra prediction mode may be a DC mode.
  • the additional intra prediction mode may be a vertical mode or a horizontal mode.
  • the additional intra prediction mode may be an intra prediction mode having a directionality between the two intra prediction modes, or may be a DC mode or a planner mode.
  • the MPM group includes the intra prediction mode and two additional intra prediction modes.
  • the two additional intra prediction modes are set to two intra prediction modes adjacent to the intra prediction mode. If the intra prediction mode is a DC mode, the two additional intra prediction modes may be a planner mode and a vertical mode.
  • the MPM group includes the intra prediction mode and two additional intra prediction modes.
  • the two additional intra prediction modes are determined by the intra prediction mode.
  • the MPM group may include a DC mode, a planner mode, and a vertical mode.
  • the intra prediction mode indicated by the prediction mode index is selected from the MPM group to determine the intra prediction mode of the current block.
  • the intra prediction mode group indicator may be flag information indicating whether the intra prediction mode of the current block belongs to an MPM group or a group other than the MPM.
  • the intra prediction unit 240 may determine that the prediction mode index is one of intra prediction modes (hereinafter, referred to as residual intra prediction modes) except for intra prediction modes belonging to the MPM group.
  • the indicated intra prediction mode is determined as the intra prediction mode of the current block.
  • the prediction mode index given to the remaining intra prediction modes depends on the configuration of the MPM group. That is, the decoded prediction mode index indicates the index of the remaining intra prediction modes rearranged according to the configuration of the MPM group. Accordingly, the intra prediction mode of the current block is selected from the remaining intra prediction modes according to the decoded prediction mode index and the intra prediction modes belonging to the MPM group.
  • the residual intra prediction modes of the current block are rearranged in order of mode number, and the intra prediction mode of the order corresponding to the received prediction mode index is selected as the intra prediction mode of the current block.
  • the intra prediction mode of the current block may be determined by comparing the intra prediction mode index of the current block with an intra prediction mode number belonging to the MPM group.
  • the MPM group configuration method may be applied to a case in which a mode number 2 is assigned to a DC in the non-directional mode, a mode number 34 is assigned to the planner mode, and the directional modes are assigned to the remaining modes.
  • the method may be applied by applying a small mode number (for example, mode number 0) to the planner mode. Can be. In this case, the mode numbers of other subordinated mode numbers are increased by one.
  • the intra prediction mode of the current block is a planner mode and the remaining intra prediction mode includes a planner mode
  • the intra prediction mode index may include zero.
  • the intra prediction mode in the order corresponding to the prediction mode index is arranged in the order of planner mode, DC mode, and directional modes.
  • Intra prediction mode may be set.
  • mode number 0 may be assigned to planner mode
  • mode number 1 may be assigned to DC mode
  • mode number 0 may be assigned to DC mode and mode number 1 to planner mode.
  • the intra prediction mode of the current block may be determined by comparing the intra prediction mode index of the current block with the intra prediction mode number belonging to the MPM group.
  • the prediction block size determiner 330 determines the size of the prediction block of the current block by using the block transform size.
  • the size of the prediction block may have the size of the current block or the size of the subblock of the current block.
  • the prediction block is generated using the intra prediction mode of the current block and the reference pixels of the current block.
  • the reference pixels are pixels reconstructed or pixels generated before the current block.
  • the size of the prediction block is smaller than the size of the current block, that is, when the current block is divided into a plurality of subblocks and intra prediction is performed, the same intra prediction mode is generated when the prediction block of each subblock is generated. Intra prediction mode of the current block) is used. Further, the predictive blocks of the second and subsequent subblocks in the decoding order are generated using the reconstruction pixels of the preceding subblocks. Therefore, after completion of prediction block generation, residual block generation, and reconstruction block generation in each subblock unit, a prediction block of a next subblock is generated.
  • the reference pixel validity determination unit 340 determines whether all of the reference pixels of the block corresponding to the size of the prediction block are valid.
  • the reference pixels are pixels that have already been decoded and reconstructed.
  • the reference pixel generator 350 generates reference pixels when it is determined that at least one of the reference pixels is invalid.
  • L is the number of bits for indicating the gradation of the luminance component.
  • reference pixels located at the nearest position among the valid reference pixels are copied to generate reference pixels.
  • the reference pixel filtering unit 360 determines whether to filter the reference pixels and adaptively filters the reference pixels according to the reconstructed intra prediction mode and the size of the prediction block.
  • Reference pixels are not filtered when the intra prediction mode is the DC mode. Reference pixels are not filtered even when the intra prediction mode is the vertical mode and the horizontal mode. However, when the intra prediction mode is directional modes other than the vertical mode and the horizontal mode, the reference pixel is adaptively filtered according to the intra prediction mode and the size of the prediction block. When the size of the prediction block is 4x4, the reference pixel may not be filtered to reduce the complexity regardless of the intra prediction mode.
  • the filtering is for smoothing the amount of change in the pixel value between the reference pixels, and uses a low-pass filter.
  • the low-pass filter may be [1, 2, 1], which is a 3-tap filter, or [1, 2, 4, 2, 1], which is a 5-tap filter.
  • the size of the prediction block is 8x8 to 32x32, the reference pixel is filtered in a larger number of intra prediction modes as the size of the prediction block increases.
  • the prediction block generator 370 generates a prediction block according to the intra prediction mode.
  • the reference pixels used in the prediction block may be pixels adaptively filtered according to the size of the prediction block and the intra prediction mode.
  • the prediction pixel at the position adjacent to the reference pixels may be generated using the average value and the weighted average of the reference pixel adjacent to the prediction pixel.
  • the prediction pixel can be generated in the same manner as in the DC mode.
  • the reference pixel located in the vertical direction becomes a prediction pixel.
  • prediction pixels adjacent to the left pixel may be generated using the vertical reference pixels and the amount of change of the left reference pixels.
  • the change amount represents a change amount between a corner reference pixel and a reference pixel adjacent to the prediction pixel.
  • the prediction pixel may be generated in the same manner as the vertical mode is different from the vertical mode.
  • 6 shows a process of generating a reconstruction block according to an embodiment of the present invention. 6 shows a process of generating a reconstructed block when the size of the prediction block is the same as the size of the current block.
  • the intra prediction mode of the current block is restored (S210).
  • the intra prediction mode is the same as step S120 of FIG. 3 described above.
  • a prediction block of the current block is generated according to the reconstructed intra prediction mode (S260).
  • a residual block is generated according to the reconstructed intra prediction mode (S270).
  • the size of the residual block is equal to the size of the current block.
  • the reconstructed block is generated by adding the prediction block of the current block and the residual block of the current block (S280).
  • 7 illustrates a process of generating a reconstruction block according to another embodiment of the present invention. 7 shows a process of generating a reconstructed block of a current block when the size of the prediction block is smaller than the size of the current block.
  • the intra prediction mode of the current block is restored (S310).
  • the intra prediction mode is the same as step S120 of FIG. 3 described above.
  • the filtering of the reference pixels is determined according to the reconstructed intra prediction mode and the size of the subblock. Whether or not the filtering is the same as step 170 of FIG. 3. If it is determined that the reference pixels of the subblock are to be filtered, the reference pixels are filtered (S360).
  • a prediction block of the subblock is generated according to the reconstructed intra prediction mode (S370).
  • a residual block of the subblock is generated according to the reconstructed intra prediction mode (S380).
  • the reconstructed block is generated by adding the prediction block of the current block and the residual block of the current block (S390).
  • step S395 it is determined whether the subblock is the last subblock of the current block (S395). If the subblock is not the last subblock of the current block, the process of determining a next subblock in encoding order (S320) and generating a prediction block of the subblock (S390) are repeated. In this case, the first and subsequent subblocks in the decoding order use some pixels of the reconstructed previous subblock as reference pixels of the subblock. In addition, since there are always invalid reference pixels for the first and subsequent subblocks, step S330 may be omitted and step S340 may proceed immediately. In addition, when the sizes of the subblocks are the same, the reference pixel filtering process may also be performed only on the first subblock and not subsequent subblocks.

Abstract

본 발명에 따른 영상 복호화 장치는 예측모드 그룹 지시자 및 예측모드 인덱스를 이용하여 현재 예측 유닛의 인트라 예측 모드를 복원하고, 상기 현재 예측 유닛이 복수개의 서브블록 단위로 인트라 예측 블록을 생성할 경우 상기 서브블록의 크기를 결정하고, 상기 서브블록별로 참조화소 생성 및 예측 블록을 생성한다. 따라서, 현재 블록의 좌측 및 상측 블록의 유효한 인트라 예측 모드에 따라 현재 블록의 인트라 예측 모드와 동일할 가능성이 높은 모드들을 이용하여 현재 블록의 부호화할 인트라 예측 모드 그룹 지시자와 예측모드 인덱스를 결정함으로써, 부호화할 인트라 예측 모드의 정보량을 줄일 수 있다. 또한, 상기 현재 블록과 유사한 예측 블록을 생성함으로써, 부호화/복호화할 잔차 블록의 비트수를 줄임으로써, 부호화 및 복호화 효율을 높일 수 있다.

Description

영상 복호화 장치
본 발명은 영상 복호화 장치에 관한 것으로, 보다 상세하게는 예측 모드 그룹 지시자와 예측 모드 인덱스를 이용하여 인트라 예측 모드를 복원하고, 상기 인트라 예측 모드 및 예측 블록의 크기 정보에 적응적으로 예측 블록을 생성하는 장치에 관한 것이다.
영상 데이터를 효율적으로 저장하거나 전송하기 위해서는 영상 데이터를 부호화하여야 한다. 영상 데이터를 부호화하는 기술로는 MPEG-1, MPEG-2, MPEG-4, H.264/MPEG-4 AVC(Advanced Video coding) 등이 있다. 상기 기술들은 하나의 픽처를 매크로 블록으로 나누고, 상기 매크로 블록 단위로 인트라 부호화를 수행할지 인터 부호화를 수행할지를 결정한 후, 상기 결정된 방식으로 각각의 매크로 블록을 부호화한다.
가장 최근의 영상 압축 기술인 H.264에서는 인트라 부호화의 효율을 높이기 위해 인트라 예측을 수행한다. 즉, 현재 블록을 부호화하기 위해서 참조 픽처를 참조하는 것이 아니라, 부호화하려는 현재 블록과 공간적으로 인접한 화소값을 이용하여 예측 블록을 생성한다. 구체적으로, 인접한 화소값을 이용하여 원본 매크로 블록과 비교하여 왜곡이 적은 인트라 예측 모드를 선택하고, 선택된 인트라 예측 모드 및 인접한 화소값을 이용하여 부호화하려는 현재 블록에 대한 예측 블록을 생성한다. 그리고, 현재 블록과 예측 블록의 차이신호들로 구성되는 잔차블록을 생성하고, 상기 잔차 블록을 변환, 양자화, 엔트로피 부호화한다. 또한, 상기 예측 블록을 생성하는데 이용된 인트라 예측 모드도 부호화한다.
그러나, H.264에서는 현재 블록의 좌측 및 상측 블록의 인트라 예측 모드들의 방향성과 무관하게 현재 블록의 인트라 예측 모드를 부호화하여 부호화 효율이 떨어지는 문제점이 있다. 또한, 잔차블록의 부호화 효율을 증가시키기 위해 인트라 예측 모드의 수가 증가하는 경우에는 H.264의 인트라 예측 모드 부호화 방식보다 더욱 부호화 효율이 높은 인트라 예측 모드를 부호화/복호화하는 방식이 요구된다.
또한, H.264에서는 현재 블록의 인트라 예측 모드를 이용하여 동일한 크기의 복원블록만을 생성하였다. 따라서, 현재 블록의 크기가 커질 경우 예측 블록과 원본 블록의 잔차신호가 커지게 되어 부호화 효율이 떨어지는 문제가 있다. 따라서, 원본 블록과 유사한 예측 블록을 생성하는 새로운 인트라 예측 부호화/복호화 방식이 요구된다.
본 발명이 이루고자 하는 목적은 현재 블록의 좌측 및 상측 블록의 인트라 예측 모드를 이용하여 현재 블록의 인트라 예측 모드를 부호화하는데 소요되는 비트수를 줄임으로서, 영상의 부호화 및 복호화 효율을 향상시키는 장치를 제공하는 것이다.
상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 영상 복호화 장치는 예측모드 그룹 지시자 및 예측모드 인덱스를 이용하여 현재 예측 유닛의 인트라 예측 모드를 복원하는 인트라 예측 모드 복호화부와, 상기 현재 예측 유닛이 복수개의 서브블록 단위로 인트라 예측 블록을 생성할 경우, 상기 서브블록의 크기를 결정하는 인트라 예측 블록 결정부와, 상기 서브블록의 참조화소들 중 적어도 하나가 이용 가능하지 않은 경우, 참조화소를 생성하는 참조화소 생성부와, 상기 인트라 예측 모드 및 상기 참조화소들을 이용하여 상기 각 서브블록의 예측 블록을 생성하는 예측블록 생성부를 포함하고, 상기 서브블록이 복호화 순서상 첫번째 서브블록이 아닌 경우, 상기 예측블록 생성에 사용되는 인트라 예측모드는 상기 현재 예측 유닛의 인트라 예측모드이고, 상기 예측블록 생성에 사용되는 참조화소들은 복호화 순서상 이전의 서브블록의 적어도 하나 이상의 복원화소를 포함한다.
상기 영상 복호화 장치의 상기 인트라 예측블록 결정부는 변환 부호화의 크기를 나타내는 정보(split_transfrom_flag)를 이용하여 상기 서브블록의 크기를 결정하고, 상기 인트라 예측 모드 복호화부는, 3개의 인트라 예측 모드로 구성되는 제1 그룹을 구성하고, 상기 예측모드 그룹 지시자가 제1 그룹을 나타내는 경우에는 상기 제1 그룹에 속하는 인트라 예측 모드 중 상기 예측모드 인덱스가 나타내는 인트라 예측모드를 현재 블록의 인트라 예측 모드로 복원한다.
본 발명에 따른 영상 복호화 장치는 예측모드 그룹 지시자 및 예측모드 인덱스를 이용하여 현재 예측 유닛의 인트라 예측 모드를 복원하는 인트라 예측 모드 복호화부와, 상기 현재 예측 유닛이 복수개의 서브블록 단위로 인트라 예측 블록을 생성할 경우, 상기 서브블록의 크기를 결정하는 인트라 예측 블록 결정부와, 상기 서브블록의 참조화소들 중 적어도 하나가 이용 가능하지 않은 경우, 참조화소를 생성하는 참조화소 생성부와, 상기 인트라 예측 모드 및 상기 참조화소들을 이용하여 상기 각 서브블록의 예측 블록을 생성하는 예측블록 생성부를 포함한다.
따라서, 현재 블록의 좌측 및 상측 블록의 유효한 인트라 예측 모드에 따라 현재 블록의 인트라 예측 모드와 동일할 가능성이 높은 모드들을 제1 그룹에 포함시키고, 상기 제1 그룹을 이용하여 현재 블록의 부호화할 인트라 예측 모드 그룹 지시자와 예측모드 인덱스를 결정함으로써, 부호화할 인트라 예측 모드의 정보량을 줄일 수 있다. 또한, 상기 현재 블록과 유사한 예측 블록을 생성함으로써, 부호화/복호화할 잔차 블록의 비트수를 줄임으로써, 부호화 및 복호화 효율을 높일 수 있다.
도 1은 본 발명의 일 실시예에 따른 동영상 부호화 장치를 나타내는 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 동영상 복호화 장치를 나타내는 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 동영상 복호화 장치에서의 인트라 예측 블록을 생성하는 방법에 대해 설명한다.
도 4는 본 발명에 일 실시예에 따른 인트라 예측 모드를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 인트라 예측 블록 장치(300)를 나타내는 블록 구성도이다.
도 6은 본 발명의 일 실시예에 따른 복원블록 생성 과정을 나타낸다.
도 7은 본 발명의 다른 실시예에 따른 복원블록 생성 과정을 나타낸다.
이하, 본 발명의 여러가지 실시예들을 예시적인 도면을 통해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
본 발명에 따른 동영상 부호화 장치 및 동영상 복호화 장치는 개인용 컴퓨터, 노트북, 개인용 휴대 단말기, 휴대형 멀티미디어 플레이, 스마트폰, 무선 통신 단말기, TV 등의 사용자 단말기 또는 서비스를 제공하는 서버 등일 수 있다. 또한, 상기 동영상 부호화 장치 및 동영상 복호화 장치는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화 또는 복호화를 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 장치일 수 있다.
도 1은 본 발명의 일 실시예에 따른 동영상 부호화 장치를 나타내는 블록 구성도이다.
본 발명에 일 실시예에 따른 동영상 부호화 장치(100)는 인트라 예측부(110), 인터 예측부(120), 변환 및 양자화부(130), 엔트로피 부호화부(140), 역양자화 및 역변환부(150), 후처리부(160), 픽쳐 버퍼(170), 감산부(190) 및 가산부(195)를 포함한다.
인트라 예측부(110)는 현재 블록이 포함되는 픽쳐 또는 슬라이스의 복원된 화소들을 이용하여 인트라 예측 블록을 생성한다. 인트라 예측부(110)는 예측 부호화할 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하고, 상기 선택된 인트라 예측 모드에 따라 예측 블록을 생성한다.
인터 예측부(120)는 상기 픽쳐 버퍼(170)에 저장된 참조 픽쳐들을 이용하여 움직임 추정을 수행하고, 움직임 예측을 위하여 참조 픽쳐 인덱스 및 움직임 벡터를 결정한다. 그리고, 상기 참조 픽쳐 인덱스 및 움직임 벡터를 이용하여 현재 블록의 인터 예측 블록을 생성한다.
변환 및 양자화부(130)는 현재 블록과 인트라 예측부(110) 또는 인터 예측부(120)에서 생성된 예측 블록의 잔차 블록을 변환하고 양자화한다. 상기 변환은 수평 및 수직 방향의 1차원 변환 매트릭스에 의해 행해진다. 인트라 예측의 잔차 블록은 변환 블록의 크기(즉, 잔차 블록의 크기) 및 인트라 예측 모드에 따라 결정되는 변환 매트릭스에 의해 변환된다. 인터 예측의 잔차 블록은 미리 정해진 변환 매트릭스에 의해 변환된다.
변환 및 양자화부(130)는 상기 변환 블록을 양자화 스텝 사이즈를 이용하여 양자화한다. 상기 양자화 스텝 사이즈는 미리 정해진 크기 이상의 부호화 단위별로 변경될 수 있다.
상기 양자화된 변환 블록은 역양자화 및 역변환부(150)와 엔트로피 부호화부(140)로 제공된다.
역양자화 및 역변환부(150)는 상기 양자화된 변환 블록을 역양자화하고, 상기 역양화된 변환 블록을 역변환하여 잔차 블록을 복원한다. 가산기는 상기 역양자화 및 역변환부(150)에 의해 복원된 잔차 블록과 인트라 예측부(110) 또는 인터 예측부(120)로부터의 예측 블록을 더하여 복원 블록을 생성한다.
후처리부(160)는 복원된 픽쳐의 화질을 개선하기 위한 것으로, 디블로킹 필터링부(161), 오프셋 적용부(162) 및 루프 필터링부(163)을 포함한다.
디블록킹 필터링부(161)는 예측 블록 및 변환 변환 블록의 경계에 디블록킹 필터를 적응적으로 적용한다. 상기 경계는 8x8 그리드에 놓여 있는 경계로 한정할 수 있다. 디블록킹 필터링부(161)는 필터링할 경계(boundary)를 결정하고, 상기 경계 강도(bounary strength)를 결정하고, 상기 경계 강도가 0보다 큰 경우에는 디블록킹 필터를 상기 경계에 적용할지 여부를 판단한다. 상기 경계를 필터링할 것으로 결정하면, 상기 경계에 적용할 필터를 선택하고, 선택된 필터로 경계를 필터링한다.
오프셋 적용부(162)는 디블록킹 필터링부를 거친 영상내의 화소와 원본 화소간의 차이값(distortion)을 감소시키기 위하여, 픽쳐 또는 슬라이스 단위로 오프셋을 적용할지 여부를 결정한다. 또는 슬라이스를 복수개의 오프셋 영역들로 분할하고, 각 오프셋 영역별로 오프셋 타입을 결정할 수 있다. 오프셋 타입은 미리 정해진 개수의 에지 오프셋 타입과 밴드 오프셋 타입을 포함할 수 있다. 오프셋 타입이 에지 오프셋 타입일 경우에는 각 화소가 속하는 에지 타입을 결정하여, 이에 대응하는 오프셋을 적용한다. 상기 에지 타입은 현재 화소와 인접하는 2개의 화소값의 분포를 기준으로 결정한다.
루프 필터링부(163)는 오프셋 적용부(162)를 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 복원 영상을 적응적으로 루프 필터링한다. 코딩 단위로 복원 영상을 루프 필터링할지 여부가 결정된다. 각 코딩 유닛에 따라 적용될 루프 필터의 크기 및 계수는 달라질 수 있다. 코딩 유닛별 상기 적응적 루프 필터의 적용 여부를 나타내는 정보는 각 슬라이스 헤더에 포함될 수 있다. 색차 신호의 경우에는, 픽쳐 단위로 적응적 루프 필터의 적용 여부를 결정할 수 있다. 따라서, 색차 성분 각각이 필터링되는지 여부를 나타내는 정보를 슬라이스 헤더 또는 픽쳐 헤더가 포함할 수 있다.
픽쳐 버퍼(170)는 후처리된 영상 데이터를 후처리부(160)로부터 입력 받아 픽쳐(picture) 단위로 영상을 복원하여 저장한다. 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다.
엔트로피 부호화부(140)는 변환 및 양자화부(130)에 의해 양자화된 양자화 계수정보, 인트라 예측부(140)로부터 수신된 인트라 예측 정보, 인터 예측부(150)로부터 수신된 움직임 정보 등를 엔트로피 부호화한다. 엔트로피 부호화부(140)는 상기 양자화된 변환 블록의 계수들을 1차원의 양자화 계수정보들로 변환하기 위해, 스캔부(145)를 포함한다.
스캔부(145)는 상기 양자화된 변환 블록의 계수들을 1차원으로 변환하기 위한 스캔 타입을 결정한다. 스캔 타입은 방향성 인트라 예측 모드 및 변환 블록의 크기에 따라 달라질 수 있다. 양자화 계수들의 스캔순서는 역방향으로 스캔한다.
상기 양자화된 변호나 블록이 소정 크기보다 큰 경우에는, 상기 변환 계수들이 복수개의 하위블록으로 분할되어 스캔된다. 각각의 하위블록의 상기 변환 계수들에 적용되는 스캔타입은 동일하다. 상기 하위 블록들 사이에 적용되는 스캔 타입은 지그재그 스캔일 수도 있고, 상기 각 하위블록의 변환계수들에 적용되는 스캔 타입과 동일할 수도 있다.
도2는 본 발명의 일 실시예에 따른 동영상 복호화 장치(200)를 나타내는 블록 구성도이다.
본 발명의 일실시예에 따른 동영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 후처리부(260), 픽쳐 버퍼(270), 가산부(280)를 포함한다.
엔트로피 복호화부(210)는 수신된 비트스트림을 복호하여, 인트라 예측 정보, 인터 예측 정보, 양자화 계수 정보 등으로 분리한다. 엔트로피 복호화부(210)는 복호화된 인트라 예측정보를 인트라 예측부(240)로 공급하고, 복호화된 인터 예측 정보를 인터 예측부(250)에 공급한다. 엔트로피 복호화(210)는 상기 복호화된 양자화 계수 정보를 역스캔하기 위한 역스캔부(215)를 포함한다.
역스캔부(215)는 상기 양자화 계수 정보를 2차원 배열의 양자화 블록으로 변환한다. 상기 변환을 위해 복수개의 스캔 타입 중에 하나를 선택한다. 스캔 타입은 방향성 인트라 예측 모드 및 변환 블록의 크기에 따라 달라질 수 있다. 양자화 계수들의 스캔순서는 역방향으로 스캔한다. 상기 양자화된 변호나 블록이 소정 크기보다 큰 경우에는, 상기 변환 계수들이 복수개의 하위블록으로 분할되어 스캔된다. 각각의 하위블록의 상기 변환 계수들에 적용되는 스캔타입은 동일하다. 상기 하위 블록들 사이에 적용되는 스캔 타입은 지그재그 스캔일 수도 있고, 상기 각 하위블록의 변환계수들에 적용되는 스캔 타입과 동일할 수도 있다.
역양자화부(220)는 현재 코딩 유닛의 양자화 스텝 사이즈 예측자를 결정하고, 상기 결정된 양자화 스텝 사이즈 예측자와 수신된 잔차 양자화 스텝 사이즈를 더하여 현재 코딩 유닛의 양자화 스텝 사이즈를 복원한다. 역양자화부(220)는 상기 양자화 스텝 사이즈와 역양자화 매트릭스를 이용하여 상기 양자화 블록을 역양자화한다. 상기 양자화 블록의 크기 및 예측모드에 따라 상기 양자화 매트릭스가 결정된다. 즉, 동일 크기의 양자화 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스가 선택된다.
역변환부(230)는 역양자화된 변환 블록을 역변환하여 잔차 블록을 복원한다. 상기 역양자화 블록에 적용할 역변환 매트릭스는 예측 모드 및 인트라 예측 모드에 따라 결정될 수 있다.
가산부(280)는 역변환부(230)에 의해 복원된 잔차 블록과 인트라 예측부(240) 또는 인터 예측부(250)에 의해 생성되는 예측 블록을 더하여 복원 블록을 생성한다.
인트라 예측부(240)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 정보에 기초하여 현재 블록의 인트라 예측 모드를 복원한다. 그리고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.
인터 예측부(250)는 엔트로피 복호화부(210)로부터 수신된 인터 예측 정보에 기초하여 참조 픽쳐 인덱스와 움직임 벡터를 복원한다. 그리고, 상기 참조 픽쳐 인덱스와 움직임 벡터를 이용하여 현재 블록에 대한 예측 블록을 생성한다. 소수 정밀도의 움직임 보상이 적용될 경우에는 선택된 보간 필터를 적용하여 예측 블록을 생성한다.
후처리부(260)의 동작은 도 1의 후처리부(160)의 동작과 동일하므로 생략한다.
픽쳐 버퍼(270)는 후처리부(260)에 의해 후처리된 복호 영상을 픽쳐 단위로 저장한다.
도 3은 본 발명의 일 실시예에 따른 인트라 예측 블록을 생성하는 방법에 대해 설명한다.
먼저, 수신된 비트스트림으로부터 인트라 예측 정보를 엔트로피 복호화한다(S110).
인트라 예측 정보는 인트라 예측 모드 그룹 지시자와 예측모드 인덱스를 포함한다. 상기 인트라 예측 모드 그룹 지시자는 현재 블록의 인트라 예측 모드가 MPM 그룹에 속하는지 MPM 이외의 그룹에 속하는지를 나타낸다. 예측모드 인덱스는 인트라 예측 모드 그룹 지시자가 나타내는 인트라 예측 모드 그룹 내에서의 특정 인트라 예측 모드를 나타내는 정보이다.
상기 인트라 예측 모드 그룹 지시자는 unsigned integer의 형태로 수신될 수 있다. 이 경우, 상기 인트라 예측 모드 그룹 지시자는 엔트로피 복호화되지 않고 사용될 수도 있다. 또는 상기 인트라 예측 모드 그룹 지시자는 현재 슬라이스의 타입에 따라 적응적으로 엔트로피 부호화될 수도 있다. 예를 들어, 상기 슬라이스 타입에 따라 결정되는 컨텍스트를 이용하여 엔트로피 부호화될 수 있다. 따라서, 복원시에도 현재 슬라이스 타입에 따라 결정되는 컨텍스트를 이용하여 복원될 수 있다. 상기 예측 모드 인덱스는 MPM 그룹에 속하는 경우와, 그렇지 않은 경우에 서로 다른 방식으로 엔트로피 부호화된다. 따라서, 엔트로피 복호화시에도 서로 방식으로 엔트로피 복호화된다. 구체적으로, 상기 인트라 예측 모드 그룹 지시자가 현재 블록의 인트라 예측 모드가 MPM 그룹에 속하는 것을 나타내면, 상기 예측 모드 인덱스는 truncated Exp-Golomb code 또는 truncated unary 방식으로 이진화되어 엔트로피 부호화된다. 따라서, 엔트로피 복호화를 수행하여 이진화 정보를 얻은 후에, 상기 방식들을 이용하여 예측모드 인덱스를 복원한다. 상기 인트라 예측 모드 그룹 지시자가 현재 블록의 인트라 예측 모드가 MPM 그룹에 속하지 않는 것을 나타내면, 상기 예측 모드 인덱스는 고정길이로 이진화될 수 있다. 따라서, 엔트로피 복호화를 수행하여 이진화 정보를 얻은 후에, 상기 예측모드 인덱스를 복원할 수 있다.
다음으로, 현재 블록에 인접한 블록들의 인트라 예측 모드를 이용하여 MPM 그룹을 생성하고, 상기 MPM 그룹을 이용하여 현재 블록의 인트라 예측모드를 복원한다(S120). MPM 그룹은 3개의 인트라 예측 모드로 구성된다. 도 4를 참조하여 설명한다. 도 4는 본 발명에 일 실시예에 따른 인트라 예측 모드를 나타내는 도면이다.
1) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드가 모두 존재하고 서로 다른 경우, 상기 MPM 그룹은 상기 2개의 인트라 예측 모드와 1개의 추가 인트라 예측 모드로 구성된다.
상기 2개의 인트라 예측 모드들 중 하나가 DC 모드이고, 다른 하나가 플래터 모드가 아닌 경우에는 상기 추가 인트라 예측 모드는 플래너 모드일 수 있다. 마찬가지로, 상기 두 개의 인트라 예측 모드 중 하나가 플래너 모드이고, 다른 하나가 DC 모드인 경우에는 상기 추가 인트라 예측 모드는 DC 모드일 수 있다.
상기 2개의 인트라 예측 모드가 DC 모드 및 플래너 모드인 경우에는 상기 추가 인트라 예측 모드는 수직 모드 또는 수평 모드일 수 있다.
상기 2개의 인트라 예측 모드가 DC 모드 및 플래너 모드가 아닌 경우에는, 상기 추가 인트라 예측 모드는 상기 2개의 인트라 예측 모드 사이들 사이의 방향성을 갖는 인트라 예측모드이거나, DC 모드 또는 플래너 모드일 수 있다.
2) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드가 모두 존재하고 동일한 경우, 상기 MPM 그룹은 상기 인트라 예측 모드 및 2개의 추가 인트라 예측 모드들을 포함한다.
상기 인트라 예측 모드가 DC 모드 및 플래너 모드가 아닌 경우에는 상기 2개의 추가 인트라 예측 모드들은 상기 인트라 예측 모드에 인접하는 2개의 인트라 예측 모드들로 설정된다. 상기 인트라 예측 모드가 DC 모드이면, 상기 2개의 추가 인트라 예측 모드들은 플래너 모드 및 수직 모드일 수 있다.
3) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드들 중 하나만이 존재하는 경우, 상기 MPM 그룹은 상기 인트라 예측 모드 및 2개의 추가 인트라 예측 모드들을 포함한다. 상기 2개의 추가 인트라 예측 모드들은 상기 인트라 예측 모드에 의해 결정된다.
4) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드들이 모두 존재하지 않는 경우, 상기 MPM 그룹은 DC 모드, 플래너 모드 및 수직 모드를 포함할 수 있다.
상기 인트라 예측 모드 그룹 지시자가 상기 MPM 그룹을 나타내면, 상기 예측모드 인덱스가 나타내는 인트라 예측 모드를 상기 MPM 그룹에서 선택하여 현재 블록의 인트라 예측 모드로 결정한다. 상기 인트라 예측 모드 그룹 지시자는 현재 블록의 인트라 예측 모드가 MPM 그룹에 속하는지 MPM 이외의 그룹에 속하는지를 나타내는 플래그 정보일 수 있다.
상기 인트라 예측 모드 그룹 지시자가 상기 MPM 그룹을 나타내지 않으면, 인트라 예측부(240)는 MPM 그룹에 속한 인트라 예측 모드들을 제외한 인트라 예측 모드들(이하, 잔여 인트라 예측 모드들이라 함) 중에서 상기 예측 모드 인덱스가 나타내는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정한다. 상기 잔여 인트라 예측 모드들에 주어지는 예측 모드 인덱스는 MPM 그룹의 구성에 따라 달라진다. 즉, 상기 복호된 예측 모드 인덱스는 MPM 그룹의 구성에 따라 재배열된 잔여 인트라 예측 모드들의 인덱스를 나타낸다. 따라서, 상기 복호된 예측 모드 인덱스 및 MPM 그룹에 속하는 인트라 예측 모드들에 따라 현재 블록의 인트라 예측 모드를 상기 잔여 인트라 예측 모드들 중에서 선택한다.
구체적으로, 현재 블록의 상기 잔여 인트라 예측 모드들을 모드번호순으로 재배열하고, 상기 수신된 예측 모드 인덱스에 대응하는 순서의 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 선택한다. 이 경우, 상기 잔여 인트라 예측 모드들을 재배열할 수도 있지만, 현재 블록의 상기 인트라 예측 모드 인덱스와 상기 MPM 그룹에 속하는 인트라 예측 모드번호를 비교하여 현재 블록의 인트라 예측 모드를 결정할 수도 있다.
상기 방법은 비방향성 모드 중 DC에 모드번호 2, 플래너 모드에 모드번호 34를 부여하고, 나머지 모드들에 방향성 모드들을 부여한 경우에 적용될 수 있다. 그러나, 현재 블록의 인트라 예측 모드로 플래너 모드 및 DC 모드가 선택될 확률이 다른 방향성 모드들보다 높기 때문에, 플래너 모드에 작은 모드번호(예를 들어, 모드 번호 0)을 적용하여 상기 방법을 적용할 수 있다. 이 경우, 다른 후순위 모드번호들의 모드번호가 1씩 증가하게 된다.
또는 비방향성 모드들에 가장 낮은 인덱스들을 부여할 수도 있다. 일예로, 현재 블록의 인트라 예측 모드가 플래너 모드이고, 상기 잔여 인트라 예측모드에 플래너 모드가 포함되는 경우, 상기 인트라 예측모드 인덱스는 0을 포함할 수 있다. 다른 예로, 상기 잔여 인트라 예측 모드에 플래너 모드 및 DC 모드가 포함되는 경우, 플래너 모드, DC 모드, 방향성 모드들 순으로 정렬된 상태에서 상기 예측모드 인덱스에 대응하는 순서의 인트라 예측모드가 현재 블록의 인트라 예측모드로 설정될 수 있다. 또 다른 예로, 플래너 모드에 모드번호 0, DC 모드에 모드번호 1을 할당하거나, DC 모드에 모드번호 0, 플래너 모드에 모드번호 1을 할당할 수도 있다. 이 경우, 현재 블록의 상기 인트라 예측 모드 인덱스와 상기 MPM 그룹에 속하는 인트라 예측 모드번호를 비교하여 현재 블록의 인트라 예측 모드를 결정할 수 있다.
다음으로, 현재 블록의 변환 크기를 나타내는 정보를 이용하여 예측 블록의 크기를 결정한다(S130).
상기 예측 블록의 크기가 현재 블록의 크기와 동일한 경우에는, 현재 블록의 인트라 예측 모드 및 현재 블록의 참조 화소들을 이용하여 예측 블록을 생성한다. 상기 참조화소는 현재 블록 이전에 복원된 화소들 또는 생성된 화소들이다.
상기 예측 블록의 크기가 현재 블록의 크기보다 작은 경우, 즉, 현재 블록이 복수개의 서브블록으로 나누어져 인트라 예측이 수행되는 경우에는, 각 서브블록의 예측 블록 생성시에 동일한 인트라 예측 모드(즉, 현재 블록의 인트라 예측 모드)가 이용된다. 또한, 복호화 순서상 두번째 이후의 서브블록들의 예측 블록은 선행하는 서브블록들의 복원화소를 이용하여 생성된다. 따라서, 각 서브블록 단위로 예측블록 생성, 잔차블록 생성 및 복원블록 생성이 끝난 후에 다음 순서의 서브블록의 예측블록이 생성된다.
다음으로, 상기 예측 블록의 크기에 대응하는 블록의 참조화소들이 모두 유효한지를 판단한다(S140). 상기 참조화소들은 이미 복호화되어 복원된 화소들이다. 상기 참조화소들 중 적어도 하나가 유효하지 않은 것으로 판단되는 경우에는 참조화소들을 생성한다(S150).
구체적으로, 모든 참조화소들이 유효하지 않은 것으로 판단되는 경우에는, 2L-1 값으로 대체한다. 여기서 L은 휘도성분의 계조를 나타내기 위한 비트수이다.
유효하지 않은 참조화소 위치를 기준으로 한쪽 방향으로만 유효한 참조화소가 존재하는 경우에는 상기 유효한 참조화소 중 가장 가까운 위치에 있는 참조화소를 복사하여 참조화소들을 생성한다.
유효하지 않은 참조화소 위치를 기준으로 유효한 참조화소가 양쪽방향 모두에 존재할 경우, 미리 정해진 방향의 가장 가까운 위치의 참조화소를 복사하거나, 각각의 방향으로 가장 인접한 참조화소 2개의 평균값으로 참조화소를 생성할 수 있다.
다음으로, 참조화소를 필터링할지 여부를 결정한다(S160). 상기 복원된 인트라 예측 모드 및 예측 블록의 크기에 따라 상기 참조화소들을 적응적으로 필터링한다(S170).
인트라 예측 모드가 DC 모드인 경우에는 참조화소들을 필터링하지 않는다. 인트라 예측 모드가 수직 모드 및 수평 모드인 경우에도 참조화소들을 필터링하지 않는다. 그러나, 인트라 예측 모드가 상기 수직 모드 및 수평 모드 이외의 방향성 모드들인 경우에는, 상기 인트라 예측 모드 및 상기 예측 블록의 크기에 따라 적응적으로 참조 화소를 필터링한다. 상기 예측 블록의 크기가 4x4인 경우에는, 인트라 예측 모드에 관계없이, 복잡도 감소를 위해 참조화소를 필터링하지 않을 수 있다. 상기 필터링은 참조화소들 사이의 화소값의 변화량을 스무딩(smoothing)하기 위한 것으로, low-pass filter를 이용한다. Low-pass filter는 3-tap 필터인 [1, 2, 1] 또는 5-tap 필터인 [1, 2, 4, 2, 1]일 수 있다. 상기 예측 블록의 크기가 8x8~32x32인 경우, 상기 예측블록의 크기가 커짐에 따라 더 많은 수의 인트라 예측 모드들에서 참조화소를 필터링한다.
다음으로, 인트라 예측 모드에 따라 예측 블록을 생성한다(S180). 상기 예측 블록에 사용되는 참조화소들은 상기 예측 블록의 크기 및 인트라 예측모드에 따라 적응적으로 필터링된 화소들일 수 있다.
DC 모드에서는 (x=0,..N-1, y=-1) 위치의 N개의 상측 참조화소들과 (x=-1, y=0,..M-1) 위치의 좌측 참조화소들 및 (x=-1, y=-1) 위치의 코너화소의 평균값이 예측블록의 예측화소로 결정될 수 있다. 그러나, 상기 참조화소들과 인접하는 위치의 예측 화소는 상기 평균값과 상기 예측화소에 인접하는 참조화소의 가중평균을 이용하여 생성할 수 있다. 플래너 모드에서도, 상기 DC 모드에서와 동일한 방식으로 예측화소를 생성할 수 있다.
수직 모드에서는 수직방향에 위치하는 참조화소가 예측화소가 된다. 그러나, 좌측 화소와 인접한 예측 화소들은 상기 수직방향의 참조화소와, 상기 좌측 참조화소들의 변화량을 이용하여 생성될 수 있다. 상기 변화량은 코너 참조화소와 상기 예측 화소에 인접하는 참조화소 사이의 변화량을 나타낸다. 수평 모드에서도 상기 수직모드와 방향만 틀릴 뿐, 동일한 방식으로 예측화소를 생성할 수 있다.
도 5는 본 발명의 일 실시예에 따른 인트라 예측 블록 장치(300)를 나타내는 블록 구성도이다. 본 발명에 따른 인트라 예측 블록 생성 장치(300)는 파싱부(310), 예측모드 복호화부(320), 예측블록 크기 결정부(330), 참조화소 유효성 판단부(340), 참조화소 생성부(350), 참조화소 필터링부(360), 예측 블록 생성부(370)를 포함한다.
파싱부(310)는 수신된 비트스트림으로부터 인트라 예측 정보 및 변환블록 크기 정보를 엔트로피 복호화한다.
인트라 예측 정보는 인트라 예측 모드 그룹 지시자와 예측모드 인덱스를 포함한다. 상기 인트라 예측 모드 그룹 지시자는 현재 블록의 인트라 예측 모드가 MPM 그룹에 속하는지 MPM 이외의 그룹에 속하는지를 나타낸다. 예측모드 인덱스는 인트라 예측 모드 그룹 지시자가 나타내는 인트라 예측 모드 그룹 내에서의 특정 인트라 예측 모드를 나타내는 정보이다. 상기 인트라 예측 정보의 엔트로피 복호화 방법은 도 3의 S110과 동일하다.
상기 변환 크기 정보는 부호기로부터 전송되는 변환 크기를 나타내는 적어도 하나 이상의 플래그(split_transform_flag)를 포함한다.
예측모드 복호화부(320)는 현재 블록에 인접한 블록들의 인트라 예측 모드를 이용하여 MPM 그룹을 생성하고, 상기 MPM 그룹 및 상기 엔트로피 복호화된 인트라 예측 정보를 이용하여 현재 블록의 인트라 예측모드를 복원한다. MPM 그룹은 3개의 인트라 예측 모드로 구성된다. 예측모드 복호화부(320)는
1) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드가 모두 존재하고 서로 다른 경우, 상기 MPM 그룹은 상기 2개의 인트라 예측 모드와 1개의 추가 인트라 예측 모드로 구성된다.
상기 2개의 인트라 예측 모드들 중 하나가 DC 모드이고, 다른 하나가 플래터 모드가 아닌 경우에는 상기 추가 인트라 예측 모드는 플래너 모드일 수 있다. 마찬가지로, 상기 두 개의 인트라 예측 모드 중 하나가 플래너 모드이고, 다른 하나가 DC 모드인 경우에는 상기 추가 인트라 예측 모드는 DC 모드일 수 있다.
상기 2개의 인트라 예측 모드가 DC 모드 및 플래너 모드인 경우에는 상기 추가 인트라 예측 모드는 수직 모드 또는 수평 모드일 수 있다.
상기 2개의 인트라 예측 모드가 DC 모드 및 플래너 모드가 아닌 경우에는, 상기 추가 인트라 예측 모드는 상기 2개의 인트라 예측 모드 사이들 사이의 방향성을 갖는 인트라 예측모드이거나, DC 모드 또는 플래너 모드일 수 있다.
2) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드가 모두 존재하고 동일한 경우, 상기 MPM 그룹은 상기 인트라 예측 모드 및 2개의 추가 인트라 예측 모드들을 포함한다.
상기 인트라 예측 모드가 DC 모드 및 플래너 모드가 아닌 경우에는 상기 2개의 추가 인트라 예측 모드들은 상기 인트라 예측 모드에 인접하는 2개의 인트라 예측 모드들로 설정된다. 상기 인트라 예측 모드가 DC 모드이면, 상기 2개의 추가 인트라 예측 모드들은 플래너 모드 및 수직 모드일 수 있다.
3) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드들 중 하나만이 존재하는 경우, 상기 MPM 그룹은 상기 인트라 예측 모드 및 2개의 추가 인트라 예측 모드들을 포함한다. 상기 2개의 추가 인트라 예측 모드들은 상기 인트라 예측 모드에 의해 결정된다.
4) 현재 블록의 상측 및 좌측 블록의 인트라 예측 모드들이 모두 존재하지 않는 경우, 상기 MPM 그룹은 DC 모드, 플래너 모드 및 수직 모드를 포함할 수 있다.
상기 인트라 예측 모드 그룹 지시자가 상기 MPM 그룹을 나타내면, 상기 예측모드 인덱스가 나타내는 인트라 예측 모드를 상기 MPM 그룹에서 선택하여 현재 블록의 인트라 예측 모드로 결정한다. 상기 인트라 예측 모드 그룹 지시자는 현재 블록의 인트라 예측 모드가 MPM 그룹에 속하는지 MPM 이외의 그룹에 속하는지를 나타내는 플래그 정보일 수 있다.
상기 인트라 예측 모드 그룹 지시자가 상기 MPM 그룹을 나타내지 않으면, 인트라 예측부(240)는 MPM 그룹에 속한 인트라 예측 모드들을 제외한 인트라 예측 모드들(이하, 잔여 인트라 예측 모드들이라 함) 중에서 상기 예측 모드 인덱스가 나타내는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정한다. 상기 잔여 인트라 예측 모드들에 주어지는 예측 모드 인덱스는 MPM 그룹의 구성에 따라 달라진다. 즉, 상기 복호된 예측 모드 인덱스는 MPM 그룹의 구성에 따라 재배열된 잔여 인트라 예측 모드들의 인덱스를 나타낸다. 따라서, 상기 복호된 예측 모드 인덱스 및 MPM 그룹에 속하는 인트라 예측 모드들에 따라 현재 블록의 인트라 예측 모드를 상기 잔여 인트라 예측 모드들 중에서 선택한다.
구체적으로, 현재 블록의 상기 잔여 인트라 예측 모드들을 모드번호순으로 재배열하고, 상기 수신된 예측 모드 인덱스에 대응하는 순서의 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 선택한다. 이 경우, 상기 잔여 인트라 예측 모드들을 재배열할 수도 있지만, 현재 블록의 상기 인트라 예측 모드 인덱스와 상기 MPM 그룹에 속하는 인트라 예측 모드번호를 비교하여 현재 블록의 인트라 예측 모드를 결정할 수도 있다.
상기 MPM 그룹 구성 방법은 비방향성 모드 중 DC에 모드번호 2, 플래너 모드에 모드번호 34를 부여하고, 나머지 모드들에 방향성 모드들을 부여한 경우에 적용될 수 있다. 그러나, 현재 블록의 인트라 예측 모드로 플래너 모드 및 DC 모드가 선택될 확률이 다른 방향성 모드들보다 높기 때문에, 플래너 모드에 작은 모드번호(예를 들어, 모드 번호 0)을 적용하여 상기 방법을 적용할 수 있다. 이 경우, 다른 후순위 모드번호들의 모드번호가 1씩 증가하게 된다.
또는 비방향성 모드들에 가장 낮은 인덱스들을 부여할 수도 있다. 일예로, 현재 블록의 인트라 예측 모드가 플래너 모드이고, 상기 잔여 인트라 예측모드에 플래너 모드가 포함되는 경우, 상기 인트라 예측모드 인덱스는 0을 포함할 수 있다. 다른 예로, 상기 잔여 인트라 예측 모드에 플래너 모드 및 DC 모드가 포함되는 경우, 플래너 모드, DC 모드, 방향성 모드들 순으로 정렬된 상태에서 상기 예측모드 인덱스에 대응하는 순서의 인트라 예측모드가 현재 블록의 인트라 예측모드로 설정될 수 있다. 또 다른 예로, 플래너 모드에 모드번호 0, DC 모드에 모드번호 1을 할당하거나, DC 모드에 모드번호 0, 플래너 모드에 모드번호 1을 할당할 수도 있다. 이 경우, 현재 블록의 상기 인트라 예측 모드 인덱스와 상기 MPM 그룹에 속하는 인트라 예측 모드번호를 비교하여 현재 블록의 인트라 예측 모드를 결정할 수 있다.
예측블록 크기 결정부(330)는 상기 블록 변환 크기를 이용하여 현재 블록의 예측 블록의 크기를 결정한다. 예측 블록의 크기는 현재 블록의 크기 또는 현재 블록의 서브블록의 크기를 가질 수 있다.
상기 예측 블록의 크기가 현재 블록의 크기와 동일한 경우에는, 현재 블록의 인트라 예측 모드 및 현재 블록의 참조 화소들을 이용하여 예측 블록을 생성한다. 상기 참조화소는 현재 블록 이전에 복원된 화소들 또는 생성된 화소들이다.
상기 예측 블록의 크기가 현재 블록의 크기보다 작은 경우, 즉, 현재 블록이 복수개의 서브블록으로 나누어져 인트라 예측이 수행되는 경우에는, 각 서브블록의 예측 블록 생성시에 동일한 인트라 예측 모드(즉, 현재 블록의 인트라 예측 모드)가 이용된다. 또한, 복호화 순서상 두번째 이후의 서브블록들의 예측 블록은 선행하는 서브블록들의 복원화소를 이용하여 생성된다. 따라서, 각 서브블록 단위로 예측블록 생성, 잔차블록 생성 및 복원블록 생성이 끝난 후에 다음 순서의 서브블록의 예측블록이 생성된다.
상술된 구체적 과정은 후술한다.
참조화소 유효성 판단부(340)는 상기 예측 블록의 크기에 대응하는 블록의 참조화소들이 모두 유효한지를 판단한다. 상기 참조화소들은 이미 복호화되어 복원된 화소들이다.
참조화소 생성부(350)는 상기 참조화소들 중 적어도 하나가 유효하지 않은 것으로 판단되는 경우에는 참조화소들을 생성한다.
구체적으로, 모든 참조화소들이 유효하지 않은 것으로 판단되는 경우에는, 2L-1 값으로 대체한다. 여기서 L은 휘도성분의 계조를 나타내기 위한 비트수이다.
유효하지 않은 참조화소 위치를 기준으로 한쪽 방향으로만 유효한 참조화소가 존재하는 경우에는 상기 유효한 참조화소 중 가장 가까운 위치에 있는 참조화소를 복사하여 참조화소들을 생성한다.
유효하지 않은 참조화소 위치를 기준으로 유효한 참조화소가 양쪽방향 모두에 존재할 경우, 미리 정해진 방향의 가장 가까운 위치의 참조화소를 복사하거나, 각각의 방향으로 가장 인접한 참조화소 2개의 평균값으로 참조화소를 생성할 수 있다.
참조화소 필터링부(360)는 참조화소를 필터링할지 여부를 결정하고, 상기 복원된 인트라 예측 모드 및 예측 블록의 크기에 따라 상기 참조화소들을 적응적으로 필터링한다.
인트라 예측 모드가 DC 모드인 경우에는 참조화소들을 필터링하지 않는다. 인트라 예측 모드가 수직 모드 및 수평 모드인 경우에도 참조화소들을 필터링하지 않는다. 그러나, 인트라 예측 모드가 상기 수직 모드 및 수평 모드 이외의 방향성 모드들인 경우에는, 상기 인트라 예측 모드 및 상기 예측 블록의 크기에 따라 적응적으로 참조 화소를 필터링한다. 상기 예측 블록의 크기가 4x4인 경우에는, 인트라 예측 모드에 관계없이, 복잡도 감소를 위해 참조화소를 필터링하지 않을 수 있다. 상기 필터링은 참조화소들 사이의 화소값의 변화량을 스무딩(smoothing)하기 위한 것으로, low-pass filter를 이용한다. Low-pass filter는 3-tap 필터인 [1, 2, 1] 또는 5-tap 필터인 [1, 2, 4, 2, 1]일 수 있다. 상기 예측 블록의 크기가 8x8~32x32인 경우, 상기 예측블록의 크기가 커짐에 따라 더 많은 수의 인트라 예측 모드들에서 참조화소를 필터링한다.
예측블록 생성부(370)는 인트라 예측 모드에 따라 예측 블록을 생성한다. 상기 예측 블록에 사용되는 참조화소들은 상기 예측 블록의 크기 및 인트라 예측모드에 따라 적응적으로 필터링된 화소들일 수 있다.
DC 모드에서는 (x=0,..N-1, y=-1) 위치의 N개의 상측 참조화소들과 (x=-1, y=0,..M-1) 위치의 좌측 참조화소들 및 (x=-1, y=-1) 위치의 코너화소의 평균값이 예측블록의 예측화소로 결정될 수 있다. 그러나, 상기 참조화소들과 인접하는 위치의 예측 화소는 상기 평균값과 상기 예측화소에 인접하는 참조화소의 가중평균을 이용하여 생성할 수 있다. 플래너 모드에서도, 상기 DC 모드에서와 동일한 방식으로 예측화소를 생성할 수 있다.
수직 모드에서는 수직방향에 위치하는 참조화소가 예측화소가 된다. 그러나, 좌측 화소와 인접한 예측 화소들은 상기 수직방향의 참조화소와, 상기 좌측 참조화소들의 변화량을 이용하여 생성될 수 있다. 상기 변화량은 코너 참조화소와 상기 예측 화소에 인접하는 참조화소 사이의 변화량을 나타낸다. 수평 모드에서도 상기 수직모드와 방향만 틀릴 뿐, 동일한 방식으로 예측화소를 생성할 수 있다.
도 6은 본 발명의 일 실시예에 따른 복원블록 생성 과정을 나타낸다. 도 6은 상기 예측 블록의 크기와 현재 블록의 크기가 동일한 경우의 복원블록 생성 과정을 나타낸다.
먼저, 현재 블록의 인트라 예측 모드를 복원한다(S210). 상기 인트라 예측 모드는 상술된 도 3의 단계 S120와 동일하다.
다음으로, 현재 블록의 미리 정해진 위치의 참조화소들이 모두 유효한지를 판단한다(S220). 미리 정해진 위치의 참조화소들 중 적어도 하나가 유효하지 않은 경우에는 유효하지 않은 위치의 참조화소들을 생성한다(S230). 상기 참조화소의 생성 방법은 상술한 도 3의 단계150과 동일한다. 다만, 예측 블록의 크기가 현재 블록의 크기와 동일하다.
다음으로, 현재 블록의 참조화소들을 필터링할지 여부를 결정한다(S240). 상기 복원된 인트라 예측 모드 및 현재 블록의 크기에 따라 상기 참조화소들의 필터링 여부가 결정된다. 상기 필터링 여부는 도 3의 단계 170과 동일하다. 현재 블록의 참조화소들이 필터링 될 것으로 결정되면 현재 블록의 참조화소들을 필터링한다(S250).
다음으로, 상기 복원된 인트라 예측 모드에 따라 현재 블록의 예측 블록을 생성한다(S260). 또한, 상기 복원된 인트라 예측 모드에 따라 잔차 블록을 생성한다(S270). 상기 잔차 블록의 크기는 현재 블록의 크기와 동일하다.
다음으로, 상기 현재 블록의 예측 블록과, 현재 블록의 잔차블록을 더하여 복원블록을 생성한다(S280).
도 7은 본 발명의 다른 실시예에 따른 복원블록 생성 과정을 나타낸다. 도 7은 상기 예측 블록의 크기와 현재 블록의 크기보다 작은 경우의 현재 블록의 복원블록 생성 과정을 나타낸다.
먼저, 현재 블록의 인트라 예측 모드를 복원한다(S310). 상기 인트라 예측 모드는 상술된 도 3의 단계 S120와 동일하다.
다음으로, 복원할 현재 블록의 서브블록을 결정한다(S320).
다음으로, 상기 서브블록의 미리 정해진 위치의 참조화소들이 모두 유효한지를 판단한다(S330). 미리 정해진 위치의 참조화소들 중 적어도 하나가 유효하지 않은 경우에는 유효하지 않은 위치의 참조화소들을 생성한다(S340). 상기 참조화소의 생성 방법은 상술한 도 3의 단계 150과 동일하다.
다음으로, 상기 서브블록의 참조화소들을 필터링할지 여부를 결정한다(S350). 상기 복원된 인트라 예측 모드 및 상기 서브블록의 크기에 따라 상기 참조화소들의 필터링 여부가 결정된다. 상기 필터링 여부는 도 3의 단계 170과 동일하다. 상기 서브블록의 참조화소들이 필터링될 것으로 결정되면 상기 참조화소들을 필터링한다(S360).
다음으로, 상기 복원된 인트라 예측 모드에 따라 상기 서브블록의 예측 블록을 생성한다(S370). 또한, 상기 복원된 인트라 예측 모드에 따라 상기 서브블록의 잔차 블록을 생성한다(S380).
다음으로, 상기 현재 블록의 예측 블록과, 현재 블록의 잔차블록을 더하여 복원블록을 생성한다(S390).
다음으로, 상기 서브블록이 현재 블록의 마지막 서브블록인지 여부를 판단한다(S395). 상기 서브블록이 현재 블록의 마지막 서브블록이 아니면, 부호화 순서상 다음이 서브블록을 결정하는 과정(S320)부터 서브블록의 예측블록을 생성하는 과정(S390)이 반복된다. 이 경우, 복호화 순서상 첫번째 이후의 서브블록들은 복원된 이전의 서브블록의 일부화소들을 상기 서브블록의 참조화소로 이용한다. 또한, 상기 첫번째 이후의 서브블록들에 대해서는 유효하지 않은 참조화소들이 늘 존재하기 때문에 단계 S330은 생략되고 단계 S340이 바로 진행될 수도 있다. 또한, 서브블록들의 크기가 동일한 경우, 참조화소 필터링 과정도 첫번째 서브블록에 대해서만 수행하고, 그 이후의 서브블록들에 대해서는 수행하지 않을 수 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (6)

  1. 예측모드 그룹 지시자 및 예측모드 인덱스를 이용하여 현재 예측 유닛의 인트라 예측 모드를 복원하는 인트라 예측 모드 복호화부;
    상기 현재 예측 유닛이 복수개의 서브블록 단위로 인트라 예측 블록을 생성할 경우, 상기 서브블록의 크기를 결정하는 인트라 예측 블록 결정부;
    상기 서브블록의 참조화소들 중 적어도 하나가 이용 가능하지 않은 경우, 참조화소를 생성하는 참조화소 생성부; 및
    상기 인트라 예측 모드 및 상기 참조화소들을 이용하여 상기 각 서브블록의 예측 블록을 생성하는 예측블록 생성부를 포함하고,
    상기 서브블록이 복호화 순서상 첫번째 서브블록이 아닌 경우, 상기 예측블록 생성에 사용되는 인트라 예측모드는 상기 현재 예측 유닛의 인트라 예측모드이고, 상기 예측블록 생성에 사용되는 참조화소들은 복호화 순서상 이전의 서브블록의 적어도 하나 이상의 복원화소를 포함하는 것을 특징으로 하는 영상 복호화 장치.
  2. 제1항에 있어서, 상기 인트라 예측블록 결정부는 변환 부호화의 크기를 나타내는 정보(split_transfrom_flag)를 이용하여 상기 서브블록의 크기를 결정하는 것을 특징으로 하는 영상 복호화 장치.
  3. 제1항에 있어서, 상기 인트라 예측 모드 복호화부는, 3개의 인트라 예측 모드로 구성되는 제1 그룹을 구성하고, 상기 예측모드 그룹 지시자가 제1 그룹을 나타내는 경우에는 상기 제1 그룹에 속하는 인트라 예측 모드 중 상기 예측모드 인덱스가 나타내는 인트라 예측모드를 현재 블록의 인트라 예측 모드로 복원하는 것을 특징으로 하는 영상 복호화 장치.
  4. 제3항에 있어서, 현재 블록의 좌측 및 상측 블록의 인트라 예측 모드가 모두 존재하고, 동일하지 않은 경우에는 상기 존재하는 2개의 인트라 예측 모드에 따라 결정되는 1개의 인트라 예측모드가 상기 제1 그룹에 추가되는 것을 특징으로 하는 영상 복호화 장치.
  5. 제4항에 있어서, 상기 상측 및 좌측 블록의 인트라 예측 모드가 모두 비방향성 모드인 경우에는 상기 추가되는 인트라 예측 모드는 수직 모드인 것을 특징으로 하는 영상 복호화 장치.
  6. 제4항에 있어서, 상기 좌측 및 상측 블록의 인트라 예측 모드가 모두 방향성 모드인 경우에는 상기 추가되는 인트라 예측 모드가 비방향성 모드인 것을 특징으로 하는 영상 복호화 장치.
PCT/KR2012/003083 2011-10-24 2012-04-20 영상 복호화 장치 WO2013062197A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/124,596 US9769479B2 (en) 2011-10-24 2012-04-20 Image decoding apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0108455 2011-10-24
KR20110108455 2011-10-24

Publications (1)

Publication Number Publication Date
WO2013062197A1 true WO2013062197A1 (ko) 2013-05-02

Family

ID=48168002

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2012/003083 WO2013062197A1 (ko) 2011-10-24 2012-04-20 영상 복호화 장치
PCT/KR2012/003078 WO2013062193A1 (ko) 2011-10-24 2012-04-20 영상 복호화 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/003078 WO2013062193A1 (ko) 2011-10-24 2012-04-20 영상 복호화 방법 및 장치

Country Status (18)

Country Link
US (10) US9036704B2 (ko)
EP (5) EP2773118B1 (ko)
JP (5) JP5611498B1 (ko)
KR (7) KR101947658B1 (ko)
CN (9) CN105338349B9 (ko)
CY (1) CY1123669T1 (ko)
DK (1) DK2773118T3 (ko)
ES (1) ES2828734T3 (ko)
HK (8) HK1215636A1 (ko)
HR (1) HRP20201980T1 (ko)
HU (1) HUE052290T2 (ko)
LT (1) LT2773118T (ko)
MX (4) MX350187B (ko)
PL (1) PL2773118T3 (ko)
PT (1) PT2773118T (ko)
RS (1) RS61146B1 (ko)
SI (1) SI2773118T1 (ko)
WO (2) WO2013062197A1 (ko)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356448B1 (ko) * 2008-10-01 2014-02-06 한국전자통신연구원 예측 모드를 이용한 복호화 장치
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
HUE039248T2 (hu) * 2010-08-17 2018-12-28 M&K Holdings Inc Eljárás intra predikció mód helyreállítására
WO2013062192A1 (ko) * 2011-10-24 2013-05-02 (주)인터앱 인트라 예측 정보 부호화 방법 및 장치
US9036704B2 (en) * 2011-10-24 2015-05-19 Infobridge Pte. Ltd. Image decoding method using intra prediction mode
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049525A (ko) * 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
CN103220506B (zh) * 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
US10841593B2 (en) * 2015-06-18 2020-11-17 Qualcomm Incorporated Intra prediction and intra mode coding
US10142627B2 (en) * 2015-06-18 2018-11-27 Qualcomm Incorporated Intra prediction and intra mode coding
US11463689B2 (en) 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding
US20160373742A1 (en) * 2015-06-18 2016-12-22 Qualcomm Incorporated Intra prediction and intra mode coding
US20160373782A1 (en) * 2015-06-18 2016-12-22 Qualcomm Incorporated Intra prediction and intra mode coding
CN108353164B (zh) * 2015-09-11 2022-06-24 株式会社Kt 用于处理视频信号的方法和设备
EP4192009A1 (en) * 2015-11-19 2023-06-07 LX Semicon Co., Ltd. Method and apparatus for encoding/decoding intra prediction mode
KR20170058837A (ko) * 2015-11-19 2017-05-29 한국전자통신연구원 화면내 예측모드 부호화/복호화 방법 및 장치
CN108605129A (zh) * 2016-01-28 2018-09-28 日本放送协会 编码装置、解码装置以及程序
WO2017142301A1 (ko) * 2016-02-16 2017-08-24 삼성전자 주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
CN105554507B (zh) * 2016-03-01 2018-10-02 福州瑞芯微电子股份有限公司 一种hevc sao硬件计算装置及方法
EP4072141A1 (en) * 2016-03-24 2022-10-12 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US10547854B2 (en) * 2016-05-13 2020-01-28 Qualcomm Incorporated Neighbor based signaling of intra prediction modes
CN117201807A (zh) * 2016-08-01 2023-12-08 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
CN114286091A (zh) * 2016-09-05 2022-04-05 Lg电子株式会社 图像编码和解码方法、比特流存储介质及数据传输方法
CN117201775A (zh) * 2016-09-13 2023-12-08 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
CN109792521A (zh) * 2016-10-04 2019-05-21 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备以及存储比特流的记录介质
KR20190052128A (ko) 2016-10-04 2019-05-15 김기백 영상 데이터 부호화/복호화 방법 및 장치
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
TW201815164A (zh) * 2016-10-07 2018-04-16 財團法人工業技術研究院 選擇畫面內預測的預測模式的方法、視訊編碼裝置及影像處理設備
WO2018068259A1 (zh) * 2016-10-13 2018-04-19 富士通株式会社 图像编码/解码方法、装置以及图像处理设备
CN116915991A (zh) 2016-10-19 2023-10-20 Sk电信有限公司 对视频数据进行编码或解码的方法及存储比特流的方法
KR20180043149A (ko) * 2016-10-19 2018-04-27 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
TWI626558B (zh) * 2016-10-27 2018-06-11 富邦金融控股股份有限公司 智能合約的實名帳戶建立系統及其方法
CN116896633A (zh) * 2016-10-28 2023-10-17 韩国电子通信研究院 视频编码/解码方法和设备以及存储比特流的记录介质
CN117041561A (zh) * 2016-12-07 2023-11-10 株式会社Kt 对视频进行解码或编码的方法和存储视频数据的设备
ES2945694T3 (es) * 2016-12-23 2023-07-05 Huawei Tech Co Ltd Un aparato de codificación para señalizar un modo de intrapredicción direccional de ampliación dentro de un conjunto de modos de intrapredicción direccional
CN117135347A (zh) * 2017-01-02 2023-11-28 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
CN109257608B (zh) * 2017-07-13 2021-11-30 华为技术有限公司 图像处理方法、设备及系统
CN116684618A (zh) * 2017-11-28 2023-09-01 Lx 半导体科技有限公司 图像编码/解码方法、图像数据的传输方法和存储介质
CA3105432A1 (en) 2018-01-15 2019-07-18 Ki Baek Kim Intra prediction encoding/decoding method and apparatus for chrominance components
WO2019172676A1 (ko) 2018-03-08 2019-09-12 삼성전자 주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
JP7217288B2 (ja) * 2018-03-29 2023-02-02 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ブロック単位の画像符号化のためのイントラ予測モードの概念
US11277644B2 (en) 2018-07-02 2022-03-15 Qualcomm Incorporated Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching
KR20220107089A (ko) * 2018-09-03 2022-08-01 후아웨이 테크놀러지 컴퍼니 리미티드 인트라 예측을 위한 방법 및 장치
KR20200028856A (ko) * 2018-09-07 2020-03-17 김기백 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2020060317A1 (ko) * 2018-09-21 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11516507B2 (en) * 2018-10-12 2022-11-29 Intellectual Discovery Co., Ltd. Image encoding/decoding methods and apparatuses
US11303885B2 (en) 2018-10-25 2022-04-12 Qualcomm Incorporated Wide-angle intra prediction smoothing and interpolation
WO2020145620A1 (ko) * 2019-01-09 2020-07-16 엘지전자 주식회사 Mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 장치
GB2581139A (en) 2019-01-31 2020-08-12 Ernst & Young Gmbh Interactive user interface for time series planning, evaluation and prediction system
WO2020184821A1 (ko) * 2019-03-12 2020-09-17 엘지전자 주식회사 Mpm 리스트를 구성하는 방법 및 장치
WO2020184966A1 (ko) * 2019-03-13 2020-09-17 엘지전자 주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
JP7299342B2 (ja) * 2019-04-12 2023-06-27 北京字節跳動網絡技術有限公司 ビデオ処理方法、装置、記憶媒体、及び記憶方法
KR20220013939A (ko) 2019-05-31 2022-02-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 행렬 기반 인트라 예측에서의 제한된 업샘플링 프로세스
CN113950836B (zh) 2019-06-05 2024-01-12 北京字节跳动网络技术有限公司 基于矩阵的帧内预测的上下文确定
MX2022000028A (es) 2019-06-24 2022-03-11 Lg Electronics Inc Método y aparato de codificación/decodificación de imágenes usando ajuste de tamaño de transformación máximo para bloque de croma, y método para transmitir flujo de bits.
US11375220B2 (en) 2019-11-27 2022-06-28 Tencent America LLC Method and apparatus for video decoding using a nominal directional mode and an angular offset
WO2023034629A1 (en) * 2021-09-05 2023-03-09 Beijing Dajia Internet Information Technology Co., Ltd. Intra prediction modes signaling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070005848A (ko) * 2005-07-06 2007-01-10 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR20070090700A (ko) * 2006-03-03 2007-09-06 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR20100037180A (ko) * 2008-10-01 2010-04-09 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3954656B2 (ja) * 1994-09-29 2007-08-08 ソニー株式会社 画像符号化装置及び方法
KR100750110B1 (ko) 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
CN1224270C (zh) * 2003-09-30 2005-10-19 清华大学 用于宏块组结构的两阶段预测编码的帧内编码帧编码方法
JP2006005438A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
CN100574443C (zh) * 2005-07-18 2009-12-23 华为技术有限公司 一种确定增强层帧内预测模式的方法和编解码设备
KR100678911B1 (ko) * 2005-07-21 2007-02-05 삼성전자주식회사 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치
WO2007063808A1 (ja) * 2005-11-30 2007-06-07 Kabushiki Kaisha Toshiba 画像符号化/画像復号化方法及び画像符号化/画像復号化装置
JP2007243391A (ja) * 2006-03-07 2007-09-20 Victor Co Of Japan Ltd 動画像符号化装置
JP4958825B2 (ja) 2008-03-28 2012-06-20 キヤノン株式会社 動画像符号化装置及びその制御方法、コンピュータプログラム
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
CN101605255B (zh) 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
KR101379187B1 (ko) * 2008-06-23 2014-04-15 에스케이 텔레콤주식회사 블록 변환을 이용한 인트라 예측 방법 및 장치와 그를이용한 영상 부호화/복호화 방법 및 장치
EP2393296A1 (en) * 2009-01-29 2011-12-07 Panasonic Corporation Image coding method and image decoding method
JP5564061B2 (ja) 2009-02-06 2014-07-30 トムソン ライセンシング ビデオ・エンコーダおよびデコーダにおける暗黙的および半暗黙的イントラ・モード信号伝達方法および装置
KR101507344B1 (ko) 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
ES2926171T3 (es) * 2010-09-27 2022-10-24 Lg Electronics Inc Método para partición de bloque y dispositivo de decodificación
US9204155B2 (en) 2010-09-30 2015-12-01 Futurewei Technologies, Inc. Multiple predictor set for intra coding with intra mode prediction
US8923395B2 (en) 2010-10-01 2014-12-30 Qualcomm Incorporated Video coding using intra-prediction
US9025661B2 (en) * 2010-10-01 2015-05-05 Qualcomm Incorporated Indicating intra-prediction mode selection for video coding
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
WO2012122495A1 (en) 2011-03-10 2012-09-13 Huawei Technologies Co., Ltd. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
CN106851300B (zh) 2011-09-13 2020-05-26 寰发股份有限公司 基于最可能模式的帧内预测模式的方法及装置
US9462290B2 (en) 2011-10-07 2016-10-04 Pantech Co., Ltd. Methods and apparatuses of encoding/decoding intra prediction mode using candidate intra prediction modes
US9036704B2 (en) 2011-10-24 2015-05-19 Infobridge Pte. Ltd. Image decoding method using intra prediction mode
KR20130049525A (ko) 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070005848A (ko) * 2005-07-06 2007-01-10 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR20070090700A (ko) * 2006-03-03 2007-09-06 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR20100037180A (ko) * 2008-10-01 2010-04-09 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치

Also Published As

Publication number Publication date
KR102292590B1 (ko) 2021-08-24
KR102292592B1 (ko) 2021-08-24
KR20190016989A (ko) 2019-02-19
CN105338349B9 (zh) 2019-03-05
KR20190016985A (ko) 2019-02-19
HK1215641A1 (zh) 2016-09-02
US20160353103A1 (en) 2016-12-01
US10708584B2 (en) 2020-07-07
US11206397B2 (en) 2021-12-21
JP6685208B2 (ja) 2020-04-22
HUE052290T2 (hu) 2021-04-28
US20200314420A1 (en) 2020-10-01
HK1215637A1 (zh) 2016-09-02
US20190289287A1 (en) 2019-09-19
HK1215634A1 (zh) 2016-09-02
CN105306933A (zh) 2016-02-03
KR20190016988A (ko) 2019-02-19
KR101947658B1 (ko) 2019-02-14
CN105306932A (zh) 2016-02-03
JP6660074B2 (ja) 2020-03-04
PL2773118T3 (pl) 2021-03-22
CN105338348A (zh) 2016-02-17
RS61146B1 (sr) 2020-12-31
LT2773118T (lt) 2020-10-12
EP3783899A1 (en) 2021-02-24
HK1215638A1 (zh) 2016-09-02
JP2017017742A (ja) 2017-01-19
CN105306932B (zh) 2018-11-13
US20150222897A1 (en) 2015-08-06
US20180152701A1 (en) 2018-05-31
JP2014530556A (ja) 2014-11-17
US10341656B2 (en) 2019-07-02
JP2018143002A (ja) 2018-09-13
WO2013062193A1 (ko) 2013-05-02
CN105338348B (zh) 2018-11-13
SI2773118T1 (sl) 2021-02-26
US20150222892A1 (en) 2015-08-06
US20150222891A1 (en) 2015-08-06
JP2015005998A (ja) 2015-01-08
CY1123669T1 (el) 2022-03-24
MX2014003542A (es) 2015-01-22
KR102292589B1 (ko) 2021-08-24
DK2773118T3 (da) 2020-12-07
KR20190016986A (ko) 2019-02-19
US9392284B2 (en) 2016-07-12
CN104170379B (zh) 2016-01-20
US9445097B2 (en) 2016-09-13
CN105338349A (zh) 2016-02-17
HK1215635A1 (zh) 2016-09-02
KR20130045150A (ko) 2013-05-03
EP2773118B1 (en) 2020-09-16
US20140226720A1 (en) 2014-08-14
JP6974516B2 (ja) 2021-12-01
US9912946B2 (en) 2018-03-06
CN105338347B (zh) 2018-11-13
US9769479B2 (en) 2017-09-19
US20150222929A1 (en) 2015-08-06
JP6006763B2 (ja) 2016-10-12
CN105338345B (zh) 2019-01-04
MX2023004266A (es) 2023-05-02
MX2023004268A (es) 2023-05-02
EP2773118A4 (en) 2015-12-02
KR20190016987A (ko) 2019-02-19
KR102292593B1 (ko) 2021-08-24
US20140219334A1 (en) 2014-08-07
CN105338349B (zh) 2018-11-02
JP2020074638A (ja) 2020-05-14
CN105338346A (zh) 2016-02-17
MX350187B (es) 2017-08-29
EP3780623A1 (en) 2021-02-17
KR102292591B1 (ko) 2021-08-24
CN104170379A (zh) 2014-11-26
EP2773118A1 (en) 2014-09-03
HK1215640A1 (zh) 2016-09-02
US9426470B2 (en) 2016-08-23
PT2773118T (pt) 2020-09-25
CN105306933B (zh) 2018-11-13
HRP20201980T1 (hr) 2021-04-16
HK1215636A1 (zh) 2016-09-02
CN105338347A (zh) 2016-02-17
HK1215639A1 (zh) 2016-09-02
CN105338350A (zh) 2016-02-17
EP3780622A1 (en) 2021-02-17
EP3783898A1 (en) 2021-02-24
ES2828734T3 (es) 2021-05-27
CN105338350B (zh) 2018-10-09
CN105338345A (zh) 2016-02-17
US9426471B2 (en) 2016-08-23
CN105338346B (zh) 2018-11-13
MX2023004267A (es) 2023-05-02
JP5611498B1 (ja) 2014-10-22
US9036704B2 (en) 2015-05-19
KR20130045154A (ko) 2013-05-03

Similar Documents

Publication Publication Date Title
WO2013062197A1 (ko) 영상 복호화 장치
WO2013062196A1 (ko) 영상 복호화 장치
WO2013062198A1 (ko) 영상 복호화 장치
WO2013062195A1 (ko) 인트라 예측 모드 복호화 방법 및 장치
WO2012018197A2 (ko) 인트라 예측 복호화 장치
WO2018174402A1 (ko) 영상 코딩 시스템에서 변환 방법 및 그 장치
WO2012018198A2 (ko) 예측 블록 생성 장치
WO2013062194A1 (ko) 복원 블록을 생성하는 방법 및 장치
WO2012134085A2 (ko) 인트라 예측 모드에서의 영상 복호화 방법
WO2012002785A2 (ko) 화면내 예측 부호화를 위한 영상 부호화/복호화 장치 및 방법
WO2013069932A1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
WO2016204360A1 (ko) 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
WO2011068331A2 (ko) 비디오 인코딩 장치 및 그 인코딩 방법, 비디오 디코딩 장치 및 그 디코딩 방법, 및 거기에 이용되는 방향적 인트라 예측방법
WO2011145819A2 (ko) 영상 부호화/복호화 장치 및 방법
WO2009113791A2 (ko) 영상 부호화장치 및 영상 복호화장치
WO2012144876A2 (ko) 인루프 필터링을 적용한 예측 방법을 이용한 영상 부호화/복호화 방법 및 장치
WO2009157665A2 (ko) 블록 변환을 이용한 인트라 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011126285A2 (ko) 부호화 모드에 대한 정보를 부호화, 복호화하는 방법 및 장치
WO2012093854A2 (ko) 코딩 유닛 단위 병렬 인트라예측을 이용한 부호화/복호화 방법 및 장치
WO2019059721A1 (ko) 해상도 향상 기법을 이용한 영상의 부호화 및 복호화
WO2018159987A1 (ko) 프리 스캔을 이용한 블록 기반 동영상 복호화 방법 및 그 장치
WO2016204372A1 (ko) 영상 코딩 시스템에서 필터 뱅크를 이용한 영상 필터링 방법 및 장치
WO2014084671A2 (ko) 트랜스폼을 이용한 영상 부호화/복호화 방법 및 장치
WO2022114742A1 (ko) 비디오 부호화 및 복호화를 위한 장치 및 방법
WO2023182673A1 (ko) 컨텍스트 모델 초기화를 사용하는 비디오 코딩을 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12843037

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14124596

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12843037

Country of ref document: EP

Kind code of ref document: A1