WO2020190077A1 - 예측모드 추정에 기반하는 인트라 예측장치 및 방법 - Google Patents

예측모드 추정에 기반하는 인트라 예측장치 및 방법 Download PDF

Info

Publication number
WO2020190077A1
WO2020190077A1 PCT/KR2020/003836 KR2020003836W WO2020190077A1 WO 2020190077 A1 WO2020190077 A1 WO 2020190077A1 KR 2020003836 W KR2020003836 W KR 2020003836W WO 2020190077 A1 WO2020190077 A1 WO 2020190077A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction mode
block
intra prediction
prediction
intra
Prior art date
Application number
PCT/KR2020/003836
Other languages
English (en)
French (fr)
Inventor
심동규
박시내
이종석
박승욱
임화평
Original Assignee
현대자동차주식회사
기아자동차주식회사
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사, 광운대학교 산학협력단 filed Critical 현대자동차주식회사
Priority to CN202080037443.1A priority Critical patent/CN113892268A/zh
Priority to US17/440,567 priority patent/US20220150470A1/en
Priority claimed from KR1020200034277A external-priority patent/KR20200113173A/ko
Publication of WO2020190077A1 publication Critical patent/WO2020190077A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • the present invention relates to an intra prediction method used in a video encoding and decoding apparatus. More specifically, the present invention relates to an intra prediction method for estimating an intra prediction mode of a current block by referring to an intra prediction mode of a previously reconstructed neighboring block.
  • moving picture data Since moving picture data has a large amount of data compared to audio data or still image data, it requires a lot of hardware resources including memory in order to store or transmit itself without processing for compression.
  • the moving picture data is compressed and stored or transmitted using an encoder, and the decoder receives the compressed moving picture data, decompresses and reproduces the compressed moving picture data.
  • video compression technologies there are H.264/AVC and HEVC (High Efficiency Video Coding), which improves coding efficiency by about 40% compared to H.264/AVC.
  • an intra prediction mode of a current block is estimated by referring to an intra prediction mode of a previously reconstructed neighboring block, and intra prediction is performed using the estimated prediction mode to generate a prediction sample for the current block.
  • the main object is to provide an intra prediction apparatus and method.
  • an intra prediction method used by an intra prediction apparatus comprising: decoding mode information indicating use of a prediction estimation mode for a prediction mode block from a bitstream; Estimating an intra prediction mode of each pixel group on a pixel group basis including one or more pixels in the prediction mode block from intra prediction modes of reference pixels at a plurality of pre-restored locations around the prediction mode block; And intra-predicting pixels in each pixel group using intra prediction modes of each pixel group.
  • an entropy decoder for decoding mode information indicating use of a prediction mode for a prediction mode block from a bitstream;
  • a prediction mode estimating unit for estimating an intra prediction mode of each pixel group from intra prediction modes of reference pixels of a plurality of previously restored reference pixels around the prediction mode block in a pixel group unit including one or more pixels in the prediction mode block ;
  • a prediction sample generator for intra-predicting pixels in each pixel group using intra prediction modes of each pixel group.
  • the intra prediction mode of the current block is estimated by referring to the intra prediction mode of the previously reconstructed neighboring block, and intra prediction is performed based on the estimated prediction mode.
  • FIG. 1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
  • FIG. 2 is a diagram for explaining a method of dividing a block using a QTBTTT structure.
  • FIG. 3 is a diagram illustrating a plurality of intra prediction modes including wide-angle intra prediction modes.
  • FIG. 4 is an exemplary block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
  • FIG. 5 is a block diagram of an intra prediction apparatus according to an embodiment of the present invention.
  • FIG. 6 is an exemplary diagram of a reference position used for estimation of a prediction mode according to an embodiment of the present invention.
  • FIG. 7 is an exemplary diagram for estimation of a prediction mode according to an embodiment of the present invention.
  • FIG. 8 is an exemplary diagram for estimation of a prediction mode according to another embodiment of the present invention.
  • FIG. 9 is an exemplary diagram of a location of a reconstructed reference sample used to generate an intra prediction sample according to an embodiment of the present invention.
  • FIG. 10 is an exemplary diagram of a location of a reconstructed reference sample used to generate an intra prediction sample according to another embodiment of the present invention.
  • FIG. 11 is an exemplary diagram for intra prediction of a chroma block according to an embodiment of the present invention.
  • FIG. 12 is a flowchart of an intra prediction method according to an embodiment of the present invention.
  • FIG. 1 is an exemplary block diagram of an image encoding apparatus capable of implementing the techniques of the present disclosure.
  • an image encoding apparatus and sub-elements of the apparatus will be described with reference to FIG. 1.
  • the image encoding apparatus includes a picture segmentation unit 110, a prediction unit 120, a subtractor 130, a transform unit 140, a quantization unit 145, a rearrangement unit 150, an entropy encoding unit 155, an inverse quantization unit. (160), an inverse transform unit 165, an adder 170, a filter unit 180, and a memory 190 may be included.
  • Each component of the image encoding apparatus may be implemented by hardware or software, or by a combination of hardware and software.
  • functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
  • One image is composed of a plurality of pictures. Each picture is divided into a plurality of regions, and encoding is performed for each region. For example, one picture is divided into one or more tiles or/and slices. Here, one or more tiles may be defined as a tile group. Each tile or/slice is divided into one or more Coding Tree Units (CTUs). And each CTU is divided into one or more CUs (Coding Units) by a tree structure. Information applied to each CU is encoded as the syntax of the CU, and information commonly applied to CUs included in one CTU is encoded as the syntax of the CTU.
  • CTUs Coding Tree Units
  • information commonly applied to all blocks in one slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one picture is a picture parameter set (PPS) or picture. It is coded in the header. Further, information commonly referred to by a plurality of pictures is encoded in a sequence parameter set (SPS). In addition, information commonly referred to by one or more SPSs is encoded in a video parameter set (VPS). Also, information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
  • PPS picture parameter set
  • SPS sequence parameter set
  • VPS video parameter set
  • information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header.
  • the picture dividing unit 110 determines the size of a coding tree unit (CTU).
  • CTU size Information on the size of the CTU (CTU size) is encoded as the syntax of the SPS or PPS and transmitted to the video decoding apparatus.
  • the picture dividing unit 110 After dividing each picture constituting an image into a plurality of CTUs (Coding Tree Units) having a predetermined size, the picture dividing unit 110 repetitively divides the CTU using a tree structure. (recursively) split. A leaf node in the tree structure becomes a coding unit (CU), which is a basic unit of coding.
  • CU coding unit
  • a quad tree (QuadTree, QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, or a binary tree (BinaryTree) in which an upper node is divided into two lower nodes. , BT), or a ternary tree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure in which two or more of these QT structures, BT structures, and TT structures are mixed.
  • QT quad tree
  • BT binary tree
  • TT ternary tree
  • a QTBT QuadTree plus BinaryTree
  • a QTBTTT QuadTree plus BinaryTree TernaryTree
  • MTT Multiple-Type Tree
  • the CTU may be first divided into a QT structure.
  • the quadtree division may be repeated until the size of a splitting block reaches the minimum block size (MinQTSize) of a leaf node allowed in QT.
  • a first flag (QT_split_flag) indicating whether each node of the QT structure is divided into four nodes of a lower layer is encoded by the entropy encoder 155 and signaled to the image decoding apparatus. If the leaf node of the QT is not larger than the maximum block size (MaxBTSize) of the root node allowed in BT, it may be further divided into one or more of a BT structure or a TT structure.
  • MaxBTSize maximum block size
  • a plurality of division directions may exist. For example, there may be two directions in which a block of a corresponding node is divided horizontally and a direction vertically divided.
  • a second flag indicating whether nodes are split, and if split, a flag indicating a split direction (vertical or horizontal) and/or a split type (Binary or Ternary).
  • a flag indicating) is encoded by the entropy encoder 155 and signaled to the image decoding apparatus.
  • a CU split flag (split_cu_flag) indicating whether the node is divided will be encoded. May be.
  • the block of the corresponding node becomes a leaf node in the split tree structure and becomes a coding unit (CU), which is a basic unit of encoding.
  • CU coding unit
  • a split flag indicating whether each node of the BT structure is divided into blocks of a lower layer and split type information indicating a type to be divided are encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
  • a type of dividing the block of the corresponding node into two blocks having an asymmetric shape may further exist.
  • the asymmetric form may include a form of dividing a block of a corresponding node into two rectangular blocks having a size ratio of 1:3, or a form of dividing a block of a corresponding node in a diagonal direction.
  • the CU can have various sizes according to the QTBT or QTBTTT split from the CTU.
  • a block corresponding to a CU to be encoded or decoded ie, a leaf node of QTBTTT
  • a'current block' a block corresponding to a CU to be encoded or decoded
  • the shape of the current block may be not only square but also rectangular.
  • the prediction unit 120 predicts the current block and generates a prediction block.
  • the prediction unit 120 includes an intra prediction unit 122 and an inter prediction unit 124.
  • each of the current blocks in a picture can be predictively coded.
  • prediction of the current block is performed using an intra prediction technique (using data from a picture containing the current block) or an inter prediction technique (using data from a picture coded before a picture containing the current block). Can be done.
  • Inter prediction includes both one-way prediction and two-way prediction.
  • the intra prediction unit 122 predicts pixels in the current block by using pixels (reference pixels) located around the current block in the current picture including the current block.
  • the plurality of intra prediction modes may include two non-directional modes including a planar mode and a DC mode, and 65 directional modes.
  • the surrounding pixels to be used and the equation are defined differently.
  • directional modes (67 to 80, intra prediction modes -1 to -14) shown by dotted arrows in FIG. 3B may be additionally used. These may be referred to as "wide angle intra-prediction modes". Arrows in FIG. 3B indicate corresponding reference samples used for prediction, and do not indicate a prediction direction. The prediction direction is opposite to the direction indicated by the arrow.
  • the wide-angle intra prediction modes when the current block is a rectangle, a specific directional mode is predicted in the opposite direction without additional bit transmission.
  • some wide-angle intra prediction modes available for the current block may be determined based on a ratio of the width and height of the rectangular current block.
  • intra prediction modes 67 to 80 can be used when the current block has a rectangular shape with a height smaller than the width, and wide-angle with an angle greater than -135 degrees.
  • the intra prediction modes can be used when the current block has a rectangular shape with a width greater than the height.
  • the intra prediction unit 122 may determine an intra prediction mode to be used to encode the current block.
  • the intra prediction unit 122 may encode the current block using several intra prediction modes and select an appropriate intra prediction mode to use from the tested modes. For example, the intra prediction unit 122 calculates rate distortion values using rate-distortion analysis for several tested intra prediction modes, and has the best rate distortion characteristics among the tested modes. It is also possible to select an intra prediction mode.
  • the intra prediction unit 122 selects one intra prediction mode from among a plurality of intra prediction modes, and predicts the current block using a neighboring pixel (reference pixel) determined according to the selected intra prediction mode and an equation.
  • Information on the selected intra prediction mode is encoded by the entropy encoder 155 and transmitted to the image decoding apparatus.
  • the inter prediction unit 124 generates a prediction block for the current block through a motion compensation process.
  • the inter prediction unit 124 searches for a block most similar to the current block in the coded and decoded reference picture prior to the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated.
  • motion estimation is performed on a luma component, and a motion vector calculated based on the luma component is used for both the luma component and the chroma component.
  • Motion information including information on a reference picture used to predict the current block and information on a motion vector is encoded by the entropy encoder 155 and transmitted to an image decoding apparatus.
  • the subtractor 130 generates a residual block by subtracting the prediction block generated by the intra prediction unit 122 or the inter prediction unit 124 from the current block.
  • the transform unit 140 converts the residual signal in the residual block having pixel values in the spatial domain into transform coefficients in the frequency domain.
  • the transform unit 140 may transform the residual signals in the residual block using the total size of the residual block as a transform unit, or divide the residual block into a plurality of sub-blocks and perform transformation using the sub-block as a transform unit. You may.
  • the residual signals may be transformed by dividing into two subblocks, which are a transform region and a non-transform region, and use only the transform region subblock as a transform unit.
  • the transform region subblock may be one of two rectangular blocks having a size ratio of 1:1 based on the horizontal axis (or vertical axis).
  • a flag indicating that only the subblock has been transformed (cu_sbt_flag), directional (vertical/horizontal) information (cu_sbt_horizontal_flag), and/or location information (cu_sbt_pos_flag) are encoded by the entropy encoder 155 and signaled to the image decoding apparatus.
  • the size of the transform region subblock may have a size ratio of 1:3 based on the horizontal axis (or vertical axis), and in this case, a flag (cu_sbt_quad_flag) that separates the corresponding segmentation is additionally encoded by the entropy encoder 155 and the image Signaled to the decoding device.
  • the transform unit 140 may individually transform the residual block in a horizontal direction and a vertical direction.
  • various types of transformation functions or transformation matrices can be used.
  • a pair of transform functions for transverse transformation and transformation may be defined as a multiple transform set (MTS).
  • the transform unit 140 may select one transform function pair having the best transform efficiency among MTS and transform the residual blocks in the horizontal and vertical directions, respectively.
  • Information (mts_idx) on the transform function pair selected from the MTS is encoded by the entropy encoder 155 and signaled to the image decoding apparatus.
  • the size of the transform block to which the MTS is applied may be limited within 32 ⁇ 32.
  • the quantization unit 145 quantizes the transform coefficients output from the transform unit 140 and outputs the quantized transform coefficients to the entropy encoding unit 155.
  • the rearrangement unit 150 may rearrange coefficient values on the quantized residual values.
  • the rearrangement unit 150 may change a two-dimensional coefficient array into a one-dimensional coefficient sequence through coefficient scanning. For example, the rearrangement unit 150 may scan from a DC coefficient to a coefficient in a high frequency region using a zig-zag scan or a diagonal scan to output a one-dimensional coefficient sequence. .
  • zig-zag scan instead of zig-zag scan, a vertical scan that scans a two-dimensional coefficient array in a column direction or a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used. That is, a scan method to be used may be determined from among zig-zag scan, diagonal scan, vertical scan, and horizontal scan according to the size of the transform unit and the intra prediction mode.
  • the entropy encoding unit 155 uses various encoding methods such as Context-based Adaptive Binary Arithmetic Code (CABAC), Exponential Golomb, and the like, and the quantized transform coefficients of 1D output from the reordering unit 150 are A bitstream is generated by encoding the sequence.
  • CABAC Context-based Adaptive Binary Arithmetic Code
  • Exponential Golomb Exponential Golomb
  • the entropy encoder 155 encodes information such as a CTU size related to block division, a CU division flag, a QT division flag, an MTT division type, and an MTT division direction, so that the video decoding apparatus performs the same block as the video encoding apparatus. Make it possible to divide.
  • the entropy encoder 155 encodes information on a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and intra prediction information (ie, intra prediction) according to the prediction type. Mode information) or inter prediction information (reference picture and motion vector information) is encoded.
  • the inverse quantization unit 160 inverse quantizes the quantized transform coefficients output from the quantization unit 145 to generate transform coefficients.
  • the inverse transform unit 165 converts transform coefficients output from the inverse quantization unit 160 from the frequency domain to the spatial domain to restore the residual block.
  • the addition unit 170 restores the current block by adding the restored residual block and the prediction block generated by the prediction unit 120.
  • the pixels in the reconstructed current block are used as reference pixels when intra-predicting the next block.
  • the filter unit 180 filters reconstructed pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization. Perform.
  • the filter unit 180 may include a deblocking filter 182 and a sample adaptive offset (SAO) filter 184.
  • the deblocking filter 180 filters the boundary between reconstructed blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter 184 adds additional information to the deblocking-filtered image. Filtering is performed.
  • the SAO filter 184 is a filter used to compensate for a difference between a reconstructed pixel and an original pixel caused by lossy coding.
  • the reconstructed block filtered through the deblocking filter 182 and the SAO filter 184 is stored in the memory 190.
  • the reconstructed picture may be used as a reference picture for inter prediction of a block in a picture to be encoded later.
  • FIG. 4 is an exemplary functional block diagram of an image decoding apparatus capable of implementing the techniques of the present disclosure.
  • an image decoding apparatus and sub-components of the apparatus will be described with reference to FIG. 4.
  • the image decoding apparatus includes an entropy decoding unit 410, a rearrangement unit 415, an inverse quantization unit 420, an inverse transform unit 430, a prediction unit 440, an adder 450, a filter unit 460, and a memory 470. ) Can be included.
  • each component of the image decoding apparatus may be implemented as hardware or software, or may be implemented as a combination of hardware and software.
  • functions of each component may be implemented as software, and a microprocessor may be implemented to execute a function of software corresponding to each component.
  • the entropy decoding unit 410 determines the current block to be decoded by decoding the bitstream generated by the image encoding apparatus and extracting information related to block division, and predicting information and residual signals necessary to restore the current block. Extract information, etc.
  • the entropy decoding unit 410 determines the size of the CTU by extracting information on the CTU size from a sequence parameter set (SPS) or a picture parameter set (PPS), and divides the picture into CTUs of the determined size. Then, the CTU is determined as the uppermost layer of the tree structure, that is, the root node, and the CTU is divided using the tree structure by extracting partition information for the CTU.
  • SPS sequence parameter set
  • PPS picture parameter set
  • a first flag (QT_split_flag) related to the splitting of the QT is extracted and each node is split into four nodes of a lower layer.
  • the second flag (MTT_split_flag) related to the splitting of the MTT is extracted to MTT Divide into structure.
  • each node may have 0 or more repetitive MTT segmentation after 0 or more repetitive QT segmentation.
  • MTT division may occur immediately, or, conversely, only multiple QT divisions may occur.
  • each node is divided into four nodes of a lower layer by extracting the first flag (QT_split_flag) related to the division of the QT.
  • QT_split_flag the first flag related to the division of the QT.
  • a split flag indicating whether or not the node corresponding to the leaf node of the QT is further split into BT and split direction information are extracted.
  • the entropy decoder 410 extracts information on a prediction type indicating whether the current block is intra prediction or inter prediction.
  • the prediction type information indicates intra prediction
  • the entropy decoder 410 extracts a syntax element for intra prediction information (intra prediction mode) of the current block.
  • the prediction type information indicates inter prediction
  • the entropy decoder 410 extracts a syntax element for the inter prediction information, that is, information indicating a motion vector and a reference picture referenced by the motion vector.
  • the entropy decoding unit 410 extracts information on quantized transform coefficients of the current block as information on the residual signal.
  • the rearrangement unit 415 in the reverse order of the coefficient scanning order performed by the image encoding apparatus, reconverts the sequence of one-dimensional quantized transform coefficients entropy-decoded by the entropy decoder 410 into a two-dimensional coefficient array (i.e., Block).
  • the inverse quantization unit 420 inverse quantizes the quantized transform coefficients, and the inverse transform unit 430 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain to restore residual signals to generate a residual block for the current block. .
  • the inverse transform unit 430 inverse transforms only a partial region (subblock) of the transform block, a flag indicating that only the subblock of the transform block has been transformed (cu_sbt_flag), and the direction (vertical/horizontal) information of the subblock (cu_sbt_horizontal_flag) ) And/or sub-block location information (cu_sbt_pos_flag), and inversely transforming the transform coefficients of the sub-block from the frequency domain to the spatial domain to restore residual signals. By filling in, the final residual block for the current block is created.
  • the inverse transform unit 430 determines a transform function or transform matrix to be applied in the horizontal and vertical directions, respectively, using MTS information (mts_idx) signaled from the image encoding apparatus, and uses the determined transform function. Inverse transform is performed on the transform coefficients in the transform block in the horizontal and vertical directions.
  • the prediction unit 440 may include an intra prediction unit 442 and an inter prediction unit 444.
  • the intra prediction unit 442 is activated when the prediction type of the current block is intra prediction
  • the inter prediction unit 444 is activated when the prediction type of the current block is inter prediction.
  • the intra prediction unit 442 determines an intra prediction mode of the current block among a plurality of intra prediction modes from a syntax element for the intra prediction mode extracted from the entropy decoding unit 410, and references around the current block according to the intra prediction mode. Predict the current block using pixels.
  • the inter prediction unit 444 determines a motion vector of the current block and a reference picture referenced by the motion vector using the syntax element for the inter prediction mode extracted from the entropy decoding unit 410, and determines the motion vector and the reference picture. Is used to predict the current block.
  • the adder 450 restores the current block by adding the residual block output from the inverse transform unit and the prediction block output from the inter prediction unit or the intra prediction unit.
  • the pixels in the reconstructed current block are used as reference pixels for intra prediction of a block to be decoded later.
  • the filter unit 460 may include a deblocking filter 462 and an SAO filter 464.
  • the deblocking filter 462 performs deblocking filtering on the boundary between reconstructed blocks in order to remove blocking artifacts caused by decoding in units of blocks.
  • the SAO filter 464 performs additional filtering on the reconstructed block after deblocking filtering in order to compensate for the difference between the reconstructed pixel and the original pixel caused by lossy coding.
  • the reconstructed block filtered through the deblocking filter 462 and the SAO filter 464 is stored in the memory 470. When all blocks in one picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later.
  • This embodiment discloses a new intra prediction technique that can be implemented by the video encoding and decoding apparatus described above.
  • an intra prediction apparatus and method for derivating an intra prediction mode of a current block with reference to an intra prediction mode of a previously reconstructed neighboring block and performing intra prediction using the estimated prediction mode are provided.
  • FIG. 5 is a block diagram of an intra prediction apparatus according to an embodiment of the present invention.
  • the intra prediction apparatus 500 estimates a prediction mode by referring to an intra prediction mode of a neighboring block previously restored without transmission of the prediction mode, and uses the estimated prediction mode. Intra prediction is performed on the current block.
  • the intra prediction apparatus 500 includes an entropy decoding unit 410 and an intra prediction unit 442 included in the decoding apparatus.
  • the intra prediction unit 122 included in the encoding apparatus operates similarly to the intra prediction unit 442 included in the decoding apparatus, the intra prediction unit 442 included in the decoding apparatus will be described below.
  • the intra prediction apparatus 100 uses a prediction estimation mode (hereinafter, “estimation mode”) to improve the efficiency of intra prediction.
  • estimate mode a prediction estimation mode
  • the entropy decoding unit 410 decodes information on whether or not the estimation mode is applied to the prediction mode block from the bitstream.
  • the prediction mode block means a block unit in which prediction information including an estimation mode is transmitted.
  • the current block represents a prediction mode block.
  • the encoding device may indicate and transmit mode information on whether the estimation mode is used in the bitstream, and the decoding device may determine whether to apply the estimation mode using the corresponding information.
  • the mode information may be information in the form of a flag indicating whether the prediction estimation mode is used. Alternatively, it may be information in the form of an index for indicating one of a plurality of intra prediction modes further including an estimation mode as a new intra prediction mode.
  • the intra prediction unit 442 estimates an intra prediction mode for a prediction mode block and a subdivision structure thereof by referring to an intra prediction mode of a previously reconstructed neighboring block.
  • the intra prediction unit 442 may include all or part of the reference position setting unit 502, the prediction mode estimation unit 504, and the prediction sample generation unit 506.
  • FIG. 6 is an exemplary diagram of a reference position used for estimation of a prediction mode according to an embodiment of the present invention.
  • the reference position setting unit 502 estimates a prediction mode block A (M ⁇ N, M and N are natural numbers) and a neighboring block (block B) in order to estimate a prediction mode for a subdivision structure. Pixels (pixels a to j) of ⁇ block G) can be used as reference positions.
  • the reference position setting unit 502 may adaptively set a reference position according to a partition structure of a previously reconstructed block around the prediction mode block. For example, when the top and the left of the prediction mode block A are divided into blocks B to G as shown in FIG. 6, pixels at a predefined position in each block B to G (e.g., at the bottom right of each block Positioned pixels) can be set as a reference position. That is, in the illustration of FIG. 6, the reference position setting unit 502 refers to a predefined position (eg, pixel a, d, g, or additionally, the pixel c in the center of the upper row and the pixel i or h in the center of the left column). Can be used as.
  • a predefined position eg, pixel a, d, g, or additionally, the pixel c in the center of the upper row and the pixel i or h in the center of the left column.
  • the reference position setting unit 502 uses a predefined position (eg, one of pixels a, b, j, one of pixels d, e, one of g, f, etc.) in the group of reference positions as a reference position.
  • a predefined position eg, one of pixels a, b, j, one of pixels d, e, one of g, f, etc.
  • I can.
  • the reference position group ⁇ a, b, j ⁇ it is determined whether it is a valid reference pixel in the order of a, b, and j, and the first valid position is set as the reference position.
  • the effective reference pixel refers to a pixel in which intra prediction is used, and a pixel in which an intra prediction mode corresponding thereto exists.
  • the reference positions can be set in the order of d and e or g and f, respectively.
  • the reference position setting unit 502 may adaptively set the reference position according to the dimensions of the prediction mode block (the number of horizontal pixels, the number of vertical pixels, the product of the number of horizontal and vertical pixels, etc.). For example, in the case of'number of horizontal pixels> number of vertical pixels', more reference positions may be set at the top, and in the opposite case, more reference positions may be set at the left. A preset number of reference positions may be determined from the predefined positions as described above, and the reference positions may be added at the center of the longer side.
  • the reference position setting unit 502 may set the number of reference positions according to the product of the number of horizontal and vertical pixels, and use as many as a set number of predefined positions as the reference positions.
  • the reference position setting unit 502 may set a reference position at a predetermined position according to an appointment between an encoding/decoding device.
  • the reference position setting unit 502 uses at least one of a predetermined position according to a dimension of a prediction mode block, an appointment between an encoding/decoding device, and a block division structure around the prediction mode block.
  • the reference position can be determined.
  • information on an available reference position may be transmitted from the encoding device to the decoding device.
  • the reference position setting unit 502 determines a reference position using the received information.
  • the intra prediction unit 442 may divide the prediction mode block into pixel group units including one or more pixels. Pixel groups including a plurality of pixels are collectively expressed as a divided block or subblock, but intra prediction may be performed in units of each divided block. Accordingly, the level of the prediction mode block in which the estimation mode is decoded and the block in which intra prediction is performed may not be the same.
  • the shape of the pixel group may be a block shape such as a square, a rectangle, or a triangle, or a block shape in units of lines such as M ⁇ 1 or 1 ⁇ N. Meanwhile, the divided pixel groups may have the same size and shape.
  • a pixel group may consist of only one pixel.
  • the pixel group may be a prediction mode block. That is, it may be composed of all pixels of the prediction mode block.
  • the decoding apparatus may estimate information on the division structure from the prediction mode block and neighboring blocks, or may be transmitted from the encoding apparatus.
  • the decoding apparatus may determine a split structure according to the dimensions of the prediction mode block (the number of horizontal pixels, the number of vertical pixels, a product of the number of horizontal and vertical pixels, etc.). For example, a horizontal division structure of'number of horizontal pixels> number of vertical pixels' may be used, and in the opposite case, a vertical division structure may be used. Also, the decoding apparatus may set the number of pixel groups according to a product of the number of horizontal and vertical pixels.
  • the decoding device may use pre-determined split information according to an agreement between the encoding/decoding device.
  • the prediction mode block may always be divided into a plurality of subblocks having the same size in a horizontal or vertical direction.
  • the number of subblocks may be determined according to the dimension of the prediction mode block.
  • it may always be divided into subblocks of a fixed size such as 4x4.
  • the decoding apparatus may use a block division structure around the prediction mode block. For example, when there is a block having a neighboring block having the same size as the prediction mode block, the partition structure of the neighboring block may be used or referred to as it is. As another example, when a plurality of blocks exist on the left side of the prediction mode block as shown in FIG. 7A, the prediction mode block may be divided in the horizontal direction by extending a horizontal boundary line between the blocks. . Likewise, if there are a plurality of blocks above the prediction mode block, the prediction mode block may be divided in the vertical direction by extending a vertical boundary line between the plurality of blocks.
  • the intra prediction unit 442 of the video decoding apparatus includes all or all of the division structure predetermined according to the dimension of the prediction mode block, the agreement between the encoding/decoding apparatus, and the block division structure around the prediction mode block, as described above.
  • the partition structure of the prediction mode block may be determined based on some combinations.
  • information on a split structure of a prediction mode block may be transmitted from an encoding device.
  • a partition structure may be selected from the list by creating a list of the partition structure of the prediction mode block.
  • FIG. 7 is an exemplary diagram for estimation of a prediction mode according to an embodiment of the present invention.
  • the prediction mode estimating unit 504 estimates a prediction mode for the current block in pixel group units by using reference positions of neighboring blocks.
  • FIG. 7A illustrates a case where a prediction mode block is horizontally divided into two
  • FIG. 7B illustrates a case where a prediction mode block is vertically divided into four equally.
  • the prediction mode estimating unit 504 may estimate a prediction mode of the prediction mode block using prediction modes indicated by at least two reference positions. In the example of FIG. 7, the prediction mode estimating unit 504 uses prediction modes of three neighboring reference positions to estimate a prediction mode of a prediction mode block.
  • a dotted arrow is a prediction mode of a neighboring block
  • a solid arrow is a prediction mode of each divided block estimated from the prediction mode of the neighboring block.
  • the prediction mode estimating unit 504 estimates an intra prediction mode of each divided block by using at least one or more of the reference positions based on the position of each divided block in the current block.
  • the intra prediction mode of the divided block is likely to be similar to the intra prediction mode of a nearby reference position. Accordingly, the prediction mode of the corresponding divided block is determined so as to be affected by the reference position at a close distance from the divided block. For example, a weight for each reference position may be determined according to the distance between each divided block and the reference position. The closer the distance is, the larger the weight can be assigned.
  • the position of the divided block may be the position of a center pixel of the divided block.
  • the prediction mode estimating unit 504 may estimate an intra prediction direction for each divided block by weighting the prediction directions of each reference location based on the weight for each reference location. Alternatively, a prediction mode closest to the weighted sum of all intra prediction modes may be estimated as the prediction mode of the corresponding divided block.
  • the intra prediction mode when a pixel group consists of one pixel, the intra prediction mode may be estimated for each pixel in the prediction mode block.
  • FIG. 8 is an exemplary diagram for estimation of a prediction mode according to another embodiment of the present invention.
  • squares indicated by thin lines indicate one pixel of a current block that performs intra prediction.
  • a dotted arrow is a prediction mode of each neighboring pixel
  • a neighboring pixel including three dotted arrows is a reference position set for reference.
  • the prediction mode estimating unit 504 may determine an intra prediction mode for each pixel in the current block as illustrated in FIG. 8B.
  • the prediction mode estimating unit 504 estimates an intra prediction mode of a corresponding pixel by using at least one or more of the reference positions based on the position of each pixel in the current block.
  • the prediction mode of the corresponding pixel is determined so as to be affected by the reference position at a distance from the divided block. For example, a weight for each reference position may be determined according to the distance between each pixel and the reference position.
  • the prediction mode estimating unit 504 may determine an intra prediction mode of a corresponding pixel by weighting the prediction directions of each reference location based on a weight for each reference location. Alternatively, a prediction mode closest to the weighted sum of all intra prediction modes may be estimated as the prediction mode of the corresponding pixel.
  • the prediction mode estimating unit 504 may replace the prediction mode block with a new position around the prediction mode block.
  • the prediction mode for the current block may be determined as one of prediction modes preset between the encoding/decoding apparatuses.
  • a plurality of division units for a prediction mode block such as one pixel, one line, and a division block may have different prediction modes. It is not required to individually signal information on the intra prediction mode for each division unit.
  • the prediction mode estimating unit 504 may estimate one intra prediction mode for the prediction mode block from the intra prediction modes of a plurality of reference positions when the pixel group is an entire prediction mode block.
  • an intra prediction mode for the entire current block may be estimated by averaging the intra prediction modes (prediction directions) of a plurality of reference positions.
  • the prediction sample generator 506 generates prediction samples by predicting a prediction mode block (current block) in pixel group units according to the intra prediction mode estimated by the prediction mode estimation unit 504.
  • FIG. 9 is an exemplary diagram of a location of a reconstructed reference sample used to generate an intra prediction sample according to an embodiment of the present invention.
  • portions indicated by circles represent reference samples included in previously reconstructed blocks referred to in the current block A.
  • the range of the reference sample may be extended according to the usefulness of the reference sample according to the range of the intra prediction mode and the decoding order.
  • the intra prediction unit 442 may determine prediction ranges M_r and N_r, respectively, according to the sizes M and N of the current block A and the range of the intra prediction mode.
  • the prediction sample generator 506 may generate a prediction sample from sample values of pre-restored reference samples around the prediction mode block as illustrated in FIG. 9 by using the intra prediction mode estimated for each pixel group. .
  • the prediction sample generator 506 selects a target pixel to be predicted within the divided block according to the estimated intra prediction mode for the corresponding divided block. Determine reference samples for Then, the target pixel is predicted using the sample values of the determined reference samples.
  • the prediction sample generator 506 determines reference samples previously reconstructed using the estimated intra prediction mode for the corresponding pixel, and the determined reference sample The corresponding pixel is predicted using the sample values of.
  • the prediction sample generator 506 uses the intra prediction mode of the prediction mode block to predict the target pixel in the prediction mode block. Determine the reconstructed reference samples. Then, the target pixel is predicted using the sample values of the determined reference samples.
  • FIG. 10 is an exemplary diagram of a location of a reconstructed reference sample used to generate an intra prediction sample according to another embodiment of the present invention.
  • the prediction sample generator 506 performs intra prediction by using sample values of reference samples as illustrated in FIG. 10. Can be done.
  • a rectangle indicated by a thick line is a position of a reference sample based on a boundary of a prediction mode block
  • a rectangle indicated by a thin line is a position of a reference sample based on the boundary of a divided block A.
  • the prediction sample generator 506 When performing intra prediction for the divided block A in the prediction mode block, the prediction sample generator 506 generates a prediction sample using sample values of reference samples of the boundary of the prediction mode block or based on the boundary of the divided block A. As a reference sample, the previously reconstructed divided block can be used. Which reference samples to use may be determined by an agreement between encoding/decoding devices. Alternatively, information indicating which reference samples are to be used may be signaled in units of blocks such as each partition block and prediction mode block.
  • the decoding apparatus predicts and restores the upper left partitioned block in a prediction mode estimated corresponding thereto (combining with the residual to generate a final reconstructed sample), and then, when restoring the upper left partitioned block. You can use the reconstructed sample within.
  • a prediction sample in a divided block predicted first may be used as a reference sample for predicting a next divided block. That is, the prediction sample generator 506 predicts any one of the divided blocks in the prediction mode block according to a predefined order such as a raster scan order. In addition, pixels in the next divided block are predicted using prediction samples (not reconstructed samples generated through addition of the prediction sample and the residual signal) in the predicted divided block.
  • the intra prediction mode estimation technique described above is It can be used for both luma blocks and chroma blocks.
  • the intra prediction mode for the chroma block may be determined from the intra prediction mode of the luma block using intra direct mode (DM).
  • DM intra direct mode
  • FIG. 11 is an exemplary diagram for intra prediction of a chroma block according to an embodiment of the present invention.
  • the intra prediction mode estimated for each pixel group in the luma block may be set as the intra prediction mode for the pixel group at the same location in the chroma block.
  • the intra prediction unit 442 performs intra prediction for each pixel group in a chroma block by using an intra prediction mode corresponding to the pixel group.
  • the intra prediction unit 442 may use the intra prediction mode of the luma block sampled according to a specific sampling method as the prediction mode of the chroma block.
  • FIG. 12 is a flowchart of an intra prediction method according to an embodiment of the present invention.
  • the intra prediction apparatus 500 decodes mode information indicating the use of the prediction estimation mode for the prediction mode block from the bitstream (S1200).
  • the prediction mode block refers to a block unit in which prediction information including a prediction mode (hereinafter referred to as “estimation mode”) is transmitted.
  • the current block represents a prediction mode block.
  • the encoding device may indicate and transmit mode information on whether the estimation mode is used in the bitstream, and the decoding device may determine whether to apply the estimation mode using the corresponding information.
  • the mode information may be information in the form of a flag indicating whether the prediction estimation mode is used. Alternatively, it may be information in the form of an index for indicating one of a plurality of intra prediction modes further including an estimation mode as a new intra prediction mode.
  • the intra prediction apparatus 500 may divide the prediction mode block into pixel group units including one or more pixels. Pixel groups including a plurality of pixels are collectively expressed as a divided block or subblock, but intra prediction may be performed in units of each divided block. Accordingly, the level of the prediction mode block in which the estimation mode is decoded and the block in which intra prediction is performed may not be the same.
  • the shape of the pixel group may be a block shape such as a square, a rectangle, or a triangle, or a block shape in units of lines such as M ⁇ 1 or 1 ⁇ N. Meanwhile, the divided pixel groups may have the same size and shape.
  • a pixel group may consist of only one pixel.
  • the pixel group may be a prediction mode block. That is, it may be composed of all pixels of the prediction mode block.
  • the intra prediction apparatus 500 sets a plurality of reference positions from a previously reconstructed block around the prediction mode block in a pixel group unit including one or more pixels in the prediction mode block (S1202).
  • the intra prediction apparatus 500 may determine a reference location using at least one of a predetermined location according to a dimension of a prediction mode block, an appointment between an encoding/decoding apparatus, and a block splitting structure around the prediction mode block.
  • information on an available reference position may be transmitted from the encoding device to the decoding device.
  • the intra prediction apparatus 500 determines a reference position using the received information.
  • the intra prediction apparatus 500 estimates an intra prediction mode of each pixel group from intra prediction modes of a plurality of reference positions (S1204).
  • the intra prediction apparatus 500 estimates an intra prediction mode of each divided block by using at least one or more of the reference positions based on the position of each divided block in the current block. That is, the prediction mode of the partitioned block is determined so as to be affected by the reference position at a close distance from the partitioned block. For example, a weight for each reference position may be determined according to the distance between each divided block and the reference position. The closer the distance is, the larger the weight can be assigned.
  • the intra prediction apparatus 500 may estimate an intra prediction direction for each divided block by weighting the prediction directions of each reference location based on a weight for each reference location. Alternatively, a prediction mode closest to the weighted sum of all intra prediction modes may be estimated as the prediction mode of the corresponding divided block.
  • the intra prediction apparatus 500 may replace the prediction mode block with a new position around the prediction mode block.
  • the prediction mode for the current block may be determined as one of prediction modes preset between the encoding/decoding apparatuses.
  • Setting of a neighboring reference position and estimation of a prediction mode may be performed in the same manner in an encoding/decoding apparatus.
  • the intra prediction apparatus 500 may estimate the intra prediction mode of the current block in the same manner as the neighboring blocks.
  • the intra prediction apparatus 500 first selects a plurality of directions from neighboring blocks and then selects one of the modes as the intra prediction mode of the current block, or calculates the intra prediction mode of the current block from the prediction modes of the plurality of neighboring blocks. I can.
  • the intra prediction apparatus 500 performs intra prediction on pixels in each pixel group, using intra prediction modes of each pixel group (S1206).
  • the intra prediction apparatus 500 may generate a prediction sample from sample values of previously reconstructed reference samples around the prediction mode block by using the intra prediction mode estimated for each pixel group.
  • the prediction sample generator 506 selects a target pixel to be predicted within the divided block according to the estimated intra prediction mode for the corresponding divided block. Determine reference samples for Then, the target pixel is predicted using the sample values of the determined reference samples.
  • the first partitioned block in the prediction mode block is predicted according to a predefined order such as a raster scan order
  • the first partitioned block is reconstructed by adding residual signals corresponding to the partitioned block.
  • Samples in the reconstructed divided block may be used as a reference sample for predicting a next divided block adjacent to the reconstructed divided block.
  • the intra prediction mode of the current block is estimated by referring to the intra prediction mode of the previously reconstructed neighboring block, and intra prediction is performed based on the estimated prediction mode.
  • the intra prediction mode can be similar.
  • MPM Most Probable Mode
  • the encoding apparatus first transmits an MPM flag indicating whether the prediction mode of the current block is generated from the MPM list.
  • the encoding apparatus transmits an MPM index indicating the intra prediction mode of the current block among intra prediction modes in the MPM list to the decoding apparatus.
  • the decoding apparatus may select a prediction mode from the MPM list and then perform intra prediction on the current block.
  • the encoding device may transmit residual mode information indicating the prediction mode of the current block among residual prediction modes excluding the prediction mode included in the MPM list to the decoding device. .
  • a method of determining an intra prediction mode of a prediction mode block using a Most Probable Mode is disclosed.
  • the intra prediction unit 442 generates an MPM list based on the prediction mode block. That is, an MPM list is generated using intra prediction modes of neighboring blocks (eg, left and upper neighboring blocks) of the prediction mode block.
  • the intra prediction unit 442 divides the prediction mode block into a plurality of subblocks.
  • the splitting method may be the same as described above in the prediction estimation mode.
  • the MPM list generated based on the prediction mode block is shared for all a plurality of subblocks in the prediction mode block. That is, the same MPM list is used for a plurality of subblocks.
  • the intra prediction mode of each subblock in the prediction mode block may be determined from the MPM list.
  • the MPM index for each subblock may be signaled from the encoding device to the decoding device.
  • the intra prediction unit 442 of the decoding apparatus may determine an intra prediction mode of a corresponding subblock from the shared MPM list through the received MPM index.
  • the intra prediction mode determined for the subblock that is first predicted may not be used as the intra prediction mode of the next subblock.
  • the intra prediction mode for the subblock predicted first may be deleted from the MPM list.
  • information about an intra prediction mode (MPM flag and MPM index or residual mode information according to the MPM flag) for each subblock in the prediction mode block may be signaled from the encoding device to the decoding device.
  • the intra prediction unit 442 of the decoding apparatus determines an intra prediction mode of each subblock using the received information.
  • the intra prediction mode determined for the subblock that is first predicted in the subblock prediction mode block predicted first may not be used as the intra prediction mode of the next subblock.
  • the intra prediction mode determined for the first predicted subblock may be deleted from the MPM list or the residual prediction mode list. Accordingly, it is possible to reduce the total amount of bits required to signal the MPM index and residual mode information for all subblocks in the prediction mode block.
  • Each flow chart according to the present embodiment describes that each process is sequentially executed, but is not limited thereto. In other words, since it is possible to change and execute the processes described in the flow chart or execute one or more processes in parallel, the flow chart is not limited to a time series order.
  • the non-transitory recording medium includes, for example, all kinds of recording devices in which data is stored in a form readable by a computer system.
  • the non-transitory recording medium includes a storage medium such as an erasable programmable read only memory (EPROM), a flash drive, an optical drive, a magnetic hard drive, and a solid state drive (SSD).
  • EPROM erasable programmable read only memory
  • SSD solid state drive

Abstract

본 실시예는, 인트라 예측장치가 이용하는 인트라 예측방법에 있어서, 예측모드블록에 대해 예측 추정 모드의 사용을 지시하는 모드 정보를 비트스트림으로부터 복호하는 단계; 상기 예측모드블록 내의 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위로, 상기 예측모드블록 주변의 기 복원된 복수 위치의 참조픽셀들의 인트라 예측모드들로부터 각 픽셀 그룹의 인트라 예측모드를 추정하는 단계; 및 상기 각 픽셀 그룹 내의 픽셀들을, 상기 각 픽셀 그룹의 인트라 예측모드들을 이용하여, 인트라 예측하는 단계를 포함하는 것을 특징으로 하는 인트라 예측방법을 제공한다.

Description

예측모드 추정에 기반하는 인트라 예측장치 및 방법
본 발명은 영상 부호화 및 복호화 장치에서 이용하는 인트라 예측방법에 관한 것이다. 더욱 상세하게는, 기 복원된 주변 블록의 인트라 예측모드를 참조하여 현재블록의 인트라 예측모드를 추정하는 인트라 예측방법에 대한 것이다.
이하에 기술되는 내용은 단순히 본 발명과 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.
동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터량을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다.
따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC에 비해 약 40% 정도의 부호화 효율을 향상시킨 HEVC(High Efficiency Video Coding)가 존재한다.
그러나, 영상의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다.
본 개시는, 기 복원된 주변 블록의 인트라 예측모드를 참조하여 현재블록의 인트라 예측모드를 추정(derivation)하고, 추정된 예측모드를 이용하여 인트라 예측을 수행하여 현재블록에 대한 예측샘플을 생성하는 인트라 예측장치 및 방법을 제공하는 데 주된 목적이 있다.
본 발명의 실시예에 따르면, 인트라 예측장치가 이용하는 인트라 예측방법에 있어서, 예측모드블록에 대해 예측 추정 모드의 사용을 지시하는 모드 정보를 비트스트림으로부터 복호하는 단계; 상기 예측모드블록 내의 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위로, 상기 예측모드블록 주변의 기 복원된 복수 위치의 참조픽셀들의 인트라 예측모드들로부터 각 픽셀 그룹의 인트라 예측모드를 추정하는 단계; 및 상기 각 픽셀 그룹 내의 픽셀들을, 상기 각 픽셀 그룹의 인트라 예측모드들을 이용하여, 인트라 예측하는 단계를 포함하는 것을 특징으로 하는 인트라 예측방법을 제공한다.
본 발명의 다른 실시예에 따르면, 예측모드블록에 대해 예측 추정 모드의 사용을 지시하는 모드 정보를 비트스트림으로부터 복호하는 엔트로피 복호화부; 상기 예측모드블록 내의 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위로, 상기 예측모드블록 주변의 기 복원된 복수 위치의 참조픽셀들의 인트라 예측모드들로부터 각 픽셀 그룹의 인트라 예측모드를 추정하는 예측모드 추정부; 및 상기 각 픽셀 그룹 내의 픽셀들을, 상기 각 픽셀 그룹의 인트라 예측모드들을 이용하여, 인트라 예측하는 예측샘플 생성부를 포함하는 것을 특징으로 하는 인트라 예측장치를 제공한다.
이상에서 설명한 바와 같이 본 실시예에 따르면, 기 복원된 주변 블록의 인트라 예측모드를 참조하여 현재블록의 인트라 예측모드를 추정(derivation)하고, 추정된 예측모드를 기반으로 인트라 예측을 수행하여 현재블록에 대한 예측샘플을 생성하는 인트라 예측장치 및 방법을 제공함으로써, 영상 부호화 및 복호화 장치의 압축 성능을 향상시키는 것이 가능해지는 효과가 있다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.
도 3은 광각 인트라 예측모드들을 포함한 복수의 인트라 예측모드들을 나타낸 도면이다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.
도 5는 본 발명의 일 실시예에 따른 인트라 예측장치의 블록도이다.
도 6은 본 발명의 일 실시예에 따른 예측모드의 추정에 이용되는 참조위치에 대한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 예측모드 추정에 대한 예시도이다.
도 8은 본 발명의 다른 실시예에 따른 예측모드 추정에 대한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 인트라 예측샘플을 생성하기 위해 사용되는 기 복원된 참조샘플의 위치에 대한 예시도이다.
도 10은 본 발명의 다른 실시예에 따른 인트라 예측샘플을 생성하기 위해 사용되는 기 복원된 참조샘플의 위치에 대한 예시도이다.
도 11은 본 발명의 일 실시예에 따른 크로마 블록의 인트라 예측에 대한 예시도이다.
도 12는 본 발명의 일 실시예에 따른 인트라 예측방법의 순서도이다.
이하, 본 발명의 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 실시예들의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1을 참조하여 영상 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
영상 부호화 장치는 픽처 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 재정렬부(150), 엔트로피 부호화부(155), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.
영상 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
하나의 영상(비디오)은 복수의 픽처들로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 타일(Tile) 또는/및 슬라이스(Slice)로 분할된다. 여기서, 하나 이상의 타일을 타일 그룹(Tile Group)으로 정의할 수 있다. 각 타일 또는/슬라이스는 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다. 각 CU에 적용되는 정보들은 CU의 신택스로서 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로서 부호화된다. 또한, 하나의 슬라이스 내의 모든 블록들에 공통적으로 적용되는 정보는 슬라이스 헤더의 신택스로서 부호화되며, 하나의 픽처들을 구성하는 모든 블록들에 적용되는 정보는 픽처 파라미터 셋(PPS, Picture Parameter Set) 혹은 픽처 헤더에 부호화된다. 나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화된다. 그리고, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다. 또한, 하나의 타일 또는 타일 그룹에 공통으로 적용되는 정보는 타일 또는 타일 그룹 헤더의 신택스로서 부호화될 수도 있다
픽처 분할부(110)는 CTU(Coding Tree Unit)의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로서 부호화되어 영상 복호화 장치로 전달된다.
픽처 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU(Coding Tree Unit)들로 분할한 이후에, 트리 구조(tree structure)를 이용하여 CTU를 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU(coding unit)가 된다.
트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT), 또는 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(TernaryTree, TT), 또는 이러한 QT 구조, BT 구조 및 TT 구조 중 둘 이상을 혼용한 구조일 수 있다. 예컨대, QTBT(QuadTree plus BinaryTree) 구조가 사용될 수 있고, 또는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조가 사용될 수 있다. 여기서, BTTT를 합쳐서 MTT(Multiple-Type Tree)라 지칭될 수 있다.
도 2는 QTBTTT 분할 트리 구조를 보인다. 도 2에서 보는 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다. QT 구조의 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 어느 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다. 예컨대, 해당 노드의 블록이 가로로 분할되는 방향과 세로로 분할되는 방향 두 가지가 존재할 수 있다. 도 2와 같이, MTT 분할이 시작되면, 노드들이 분할되었는지 여부를 지시하는 제2 플래그(mtt_split_flag)와, 분할이 되었다면 추가적으로 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다.
대안적으로, 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)를 부호화하기에 앞서, 그 노드가 분할되는지 여부를 지시하는 CU 분할 플래그(split_cu_flag) 부호화될 수도 있다. CU 분할 플래그(split_cu_flag) 값이 분할되지 않았음을 지시하는 경우, 해당 노드의 블록이 분할 트리 구조에서의 리프 노드(leaf node)가 되어 부호화의 기본 단위인 CU(coding unit)가 된다. CU 분할 플래그(split_cu_flag) 값이 분할됨을 지시하는 경우, 영상 부호화 장치는 전술한 방식으로 제1 플래그부터 부호화를 시작한다.
트리 구조의 다른 예시로서 QTBT가 사용되는 경우, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. BT 구조의 각 노드가 하위 레이어의 블록으로 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할되는 타입을 지시하는 분할 타입 정보가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다. 한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태가 포함될 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태가 포함될 수도 있다.
CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다. QTBTTT 분할의 채용에 따라, 현재블록의 모양은 정사각형뿐만 아니라 직사각형일 수도 있다.
예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다.
일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 일반적으로 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.
인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3a에서 보는 바와 같이, 복수의 인트라 예측모드는 planar 모드와 DC 모드를 포함하는 2개의 비방향성 모드와 65개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.
직사각형 모양의 현재블록에 대한 효율적인 방향성 예측을 위해, 도 3b에 점선 화살표로 도시된 방향성 모드들(67 ~ 80번, -1 ~ -14 번 인트라 예측모드들)이 추가로 사용될 수 있다. 이들은 "광각 인트라 예측모드들(wide angle intra-prediction modes)"로 지칭될 수 있다. 도 3b에서 화살표들은 예측에 사용되는 대응하는 참조샘플들을 가리키는 것이며, 예측 방향을 나타내는 것이 아니다. 예측 방향은 화살표가 가리키는 방향과 반대이다. 광각 인트라 예측모드들은 현재블록이 직사각형일 때 추가적인 비트 전송 없이 특정 방향성 모드를 반대방향으로 예측을 수행하는 모드이다. 이때 광각 인트라 예측모드들 중에서, 직사각형의 현재블록의 너비와 높이의 비율에 의해, 현재블록에 이용 가능한 일부 광각 인트라 예측모드들이 결정될 수 있다. 예컨대, 45도보다 작은 각도를 갖는 광각 인트라 예측모드들(67 ~ 80번 인트라 예측모드들)은 현재블록이 높이가 너비보다 작은 직사각형 형태일 때 이용 가능하고, -135도보다 큰 각도를 갖는 광각 인트라 예측모드들(-1 ~ -14 번 인트라 예측모드들)은 현재블록이 너비가 높이보다 큰 직사각형 형태일 때 이용 가능하다.
인트라 예측부(122)는 현재블록을 부호화하는데 사용할 인트라 예측모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측모드를 선택할 수도 있다.
인트라 예측부(122)는 복수의 인트라 예측모드 중에서 하나의 인트라 예측모드를 선택하고, 선택된 인트라 예측모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측모드에 대한 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.
인터 예측부(124)는 움직임 보상 과정을 통해 현재블록에 대한 예측블록을 생성한다. 인터 예측부(124)는 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.
감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차블록을 생성한다.
변환부(140)는 공간 영역의 픽셀 값들을 가지는 잔차블록 내의 잔차신호를 주파수 도메인의 변환 계수로 변환한다. 변환부(140)는 잔차블록의 전체 크기를 변환 단위로 사용하여 잔차블록 내의 잔차신호들을 변환할 수 있으며, 또는 잔차블록을 복수 개의 서브블록으로 분할하고 그 서브블록을 변환 단위로 사용하여 변환을 할 수도 있다. 또는, 변환 영역 및 비변환 영역인 두 개의 서브블록으로 구분하여, 변환 영역 서브블록만 변환 단위로 사용하여 잔차신호들을 변환할 수 있다. 여기서, 변환 영역 서브블록은 가로축 (혹은 세로축) 기준 1:1의 크기 비율을 가지는 두 개의 직사각형 블록 중 하나일 수 있다. 이런 경우, 서브블록 만을 변환하였음을 지시하는 플래그(cu_sbt_flag), 방향성(vertical/horizontal) 정보(cu_sbt_horizontal_flag) 및/또는 위치 정보(cu_sbt_pos_flag)가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. 또한, 변환 영역 서브블록의 크기는 가로축 (혹은 세로축) 기준 1:3의 크기 비율을 가질 수 있으며, 이런 경우 해당 분할을 구분하는 플래그(cu_sbt_quad_flag)가 추가적으로 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다.
한편, 변환부(140)는 잔차블록에 대해 가로 방향과 세로 방향으로 개별적으로 변환을 수행할 수 있다. 변환을 위해, 다양한 타입의 변환 함수 또는 변환 매트릭스가 사용될 수 있다. 예컨대, 가로 방향 변환과 세로 방향 변환을 위한 변환 함수의 쌍을 MTS(Multiple Transform Set)로 정의할 수 있다. 변환부(140)는 MTS 중 변환 효율이 가장 좋은 하나의 변환 함수 쌍을 선택하고 가로 및 세로 방향으로 각각 잔차블록을 변환할 수 있다. MTS 중에서 선택된 변환 함수 쌍에 대한 정보(mts_idx)는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. MTS가 적용되는 변환 블록의 크기는 32×32 이내로 제한될 수 있다.
양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 엔트로피 부호화부(155)로 출력한다.
재정렬부(150)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.
재정렬부(150)는 계수 스캐닝(coefficient scanning)을 통해 2차원의 계수 어레이를 1차원의 계수 시퀀스로 변경할 수 있다. 예를 들어, 재정렬부(150)에서는 지그-재그 스캔(zig-zag scan) 또는 대각선 스캔(diagonal scan)을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원의 계수 시퀀스를 출력할 수 있다. 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔 대신 2차원의 계수 어레이를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔, 대각선 스캔, 수직 방향 스캔 및 수평 방향 스캔 중에서 사용될 스캔 방법이 결정될 수도 있다.
엔트로피 부호화부(155)는, CABAC(Context-based Adaptive Binary Arithmetic Code), 지수 골롬(Exponential Golomb) 등의 다양한 부호화 방식을 사용하여, 재정렬부(150)로부터 출력된 1차원의 양자화된 변환 계수들의 시퀀스를 부호화함으로써 비트스트림을 생성한다.
또한, 엔트로피 부호화부(155)는 블록 분할과 관련된 CTU size, CU 분할 플래그, QT 분할 플래그, MTT 분할 타입, MTT 분할 방향 등의 정보를 부호화하여, 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다. 또한, 엔트로피 부호화부(155)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측모드에 대한 정보) 또는 인터 예측정보(참조픽처 및 움직임벡터에 대한 정보)를 부호화한다.
역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.
가산부(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.
필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 줄이기 위해 복원된 픽셀들에 대한 필터링을 수행한다. 필터부(180)는 디블록킹 필터(182)와 SAO(Sample Adaptive Offset) 필터(184)를 포함할 수 있다.
디블록킹 필터(180)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 필터링하고, SAO 필터(184)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다. SAO 필터(184)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해 사용되는 필터이다.
디블록킹 필터(182) 및 SAO 필터(184)를 통해 필터링된 복원블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용될 수 있다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 기능 블록도이다. 이하에서는 도 4를 참조하여 영상 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
영상 복호화 장치는 엔트로피 복호화부(410), 재정렬부(415), 역양자화부(420), 역변환부(430), 예측부(440), 가산기(450), 필터부(460) 및 메모리(470)를 포함하여 구성될 수 있다.
도 1의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
엔트로피 복호화부(410)는 영상 부호화 장치에 의해 생성된 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출함으로써 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측정보와 잔차신호에 대한 정보 등을 추출한다.
엔트로피 복호화부(410)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고, CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할정보를 추출함으로써 트리 구조를 이용하여 CTU를 분할한다.
예컨대, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 MTT의 분할과 관련된 제2 플래그(MTT_split_flag) 및 분할 방향(vertical / horizontal) 및/또는 분할 타입(binary / ternary) 정보를 추출하여 해당 리프 노드를 MTT 구조로 분할한다. 이를 통해 QT의 리프 노드 이하의 각 노드들을 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.
또 다른 예로서, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 CU의 분할 여부를 지시하는 CU 분할 플래그(split_cu_flag)를 추출하고, 해당 블록이 분할된 경우, 제1 플래그(QT_split_flag)를 추출할 수도 있다. 분할 과정에서 각 노드는 0번 이상의 반복적인 QT 분할 후에 0번 이상의 반복적인 MTT 분할이 발생할 수 있다. 예컨대, CTU는 바로 MTT 분할이 발생하거나, 반대로 다수 번의 QT 분할만 발생할 수도 있다.
다른 예로서, QTBT 구조를 사용하여 CTU를 분할하는 경우, QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT로 더 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할 방향 정보를 추출한다.
한편, 엔트로피 복호화부(410)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. 예측 타입 정보가 인트라 예측을 지시하는 경우, 엔트로피 복호화부(410)는 현재블록의 인트라 예측정보(인트라 예측모드)에 대한 신택스 요소를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 엔트로피 복호화부(410)는 인터 예측정보에 대한 신택스 요소, 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조픽처를 나타내는 정보를 추출한다.
한편, 엔트로피 복호화부(410)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.
재정렬부(415)는, 영상 부호화 장치에 의해 수행된 계수 스캐닝 순서의 역순으로, 엔트로피 복호화부(410)에서 엔트로피 복호화된 1차원의 양자화된 변환계수들의 시퀀스를 다시 2차원의 계수 어레이(즉, 블록)로 변경할 수 있다.
역양자화부(420)는 양자화된 변환계수들을 역양자화하고, 역변환부(430)는 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 잔차블록을 생성한다.
또한, 역변환부(430)는 변환블록의 일부 영역(서브블록)만 역변환하는 경우, 변환블록의 서브블록만을 변환하였음을 지시하는 플래그(cu_sbt_flag), 서브블록의 방향성(vertical/horizontal) 정보(cu_sbt_horizontal_flag) 및/또는 서브블록의 위치 정보(cu_sbt_pos_flag)를 추출하여, 해당 서브블록의 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환함으로써 잔차신호들을 복원하고, 역변환되지 않은 영역에 대해서는 잔차신호로 “0”값을 채움으로써 현재블록에 대한 최종 잔차블록을 생성한다.
또한, MTS가 적용된 경우, 역변환부(430)는 영상 부호화 장치로부터 시그널링된 MTS 정보(mts_idx)를 이용하여 가로 및 세로 방향으로 각각 적용할 변환 함수 또는 변환 매트릭스를 결정하고, 결정된 변환 함수를 이용하여 가로 및 세로 방향으로 변환블록 내의 변환계수들에 대해 역변환을 수행한다.
예측부(440)는 인트라 예측부(442) 및 인터 예측부(444)를 포함할 수 있다. 인트라 예측부(442)는 현재블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(444)는 현재블록의 예측 타입이 인터 예측일 때 활성화된다.
인트라 예측부(442)는 엔트로피 복호화부(410)로부터 추출된 인트라 예측모드에 대한 신택스 요소로부터 복수의 인트라 예측모드 중 현재블록의 인트라 예측모드를 결정하고, 인트라 예측모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다.
인터 예측부(444)는 엔트로피 복호화부(410)로부터 추출된 인터 예측모드에 대한 신택스 요소를 이용하여 현재블록의 움직임벡터와 그 움직임벡터가 참조하는 참조픽처를 결정하고, 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다.
가산기(450)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.
필터부(460)는 디블록킹 필터(462) 및 SAO 필터(464)를 포함할 수 있다. 디블록킹 필터(462)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해, 복원된 블록 간의 경계를 디블록킹 필터링한다. SAO 필터(464)는 손실 부호화(lossy coding)으로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다. 디블록킹 필터(462) 및 SAO 필터(464)를 통해 필터링된 복원블록은 메모리(470)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.
본 실시예는 이상에서 설명한 영상 부호화 및 복호화 장치에 의해 구현 가능한 새로운 인트라 예측 기법을 개시한다. 보다 자세하게는, 기 복원된 주변 블록의 인트라 예측모드를 참조하여 현재블록의 인트라 예측모드를 추정(derivation)하고, 추정된 예측모드를 이용하여 인트라 예측을 수행하는 인트라 예측장치 및 방법을 제공한다.
도 5는 본 발명의 일 실시예에 따른 인트라 예측장치의 블록도이다.
본 발명에 따른 실시예에 있어서 인트라 예측장치(500)는 예측모드에 대한 전송이 없이 기 복원된 주변 블록의 인트라 예측모드를 참조하여 예측모드를 추정(derivation)하고, 추정된 예측모드를 이용하여 현재블록에 대한 인트라 예측을 수행한다. 인트라 예측장치(500)는 복호화 장치에 포함된 엔트로피 복호화부(410) 및 인트라 예측부(442)를 포함한다.
부호화 장치에 포함된 인트라 예측부(122)는 복호화 장치에 포함된 인트라 예측부(442)와 유사하게 동작하므로, 이하 복호화 장치에 포함된 인트라 예측부(442)를 중심으로 설명한다.
본 실시예에 따른 인트라 예측장치(100)는, 인트라 예측의 효율을 향상시키기 위하여 예측 추정 모드(이하 '추정 모드')를 이용한다.
엔트로피 복호화부(410)는, 예측모드블록에 대하여, 추정 모드의 적용 여부에 대한 정보를 비트스트림으로부터 복호한다. 여기서, 예측모드블록은 추정 모드를 포함하는 예측정보가 전송되는 블록 단위를 의미한다. 이하, 설명의 편의를 위하여 현재블록은 예측모드블록을 나타낸다.
추정 모드의 사용을 위해 부호화 장치는 추정 모드의 사용 여부에 대한 모드 정보를 비트스트림에 지정(indication)하여 전송하고 복호화 장치는 해당 정보를 이용하여 추정 모드의 적용 여부를 판단할 수 있다. 모드 정보는 예측 추정 모드가 사용되는지 여부를 나타내는 플래그 형태의 정보일 수 있다. 또는, 추정 모드를 신규 인트라 예측모드로서 추가로 더 포함하는 복수의 인트라 예측모드들 중 하나를 지시하기 위한 인덱스 형태의 정보일 수도 있다.
본 실시예에 따른 인트라 예측부(442)는, 추정 모드가 적용되는 경우, 기 복원된 주변 블록의 인트라 예측모드를 참조하여 예측모드블록 및 그 하부의 분할구조에 대하여, 인트라 예측모드를 추정한다. 인트라 예측부(442)는 참조위치 설정부(502), 예측모드 추정부(504) 및 예측샘플 생성부(506)의 전부 또는 일부를 포함할 수 있다.
도 6은 본 발명의 일 실시예에 따른 예측모드의 추정에 이용되는 참조위치에 대한 예시도이다.
도 6에 도시된 바와 같이, 참조위치 설정부(502)는 예측모드블록 A(M×N, M과 N은 자연수) 및 그 하부의 분할구조에 대한 예측모드를 추정하기 위해 주변 블록(블록 B ~ 블록 G)의 픽셀(픽셀 a ~ 픽셀 j)을 참조위치로 이용할 수 있다.
참조위치 설정부(502)는 예측모드블록 주변의 기 복원된 블록의 분할구조에 따라 참조위치를 적응적으로 설정할 수 있다. 예컨대, 예측모드블록 A의 상단과 좌측이 도 6에서 보는 바와 같은 블록 B 내지 G로 분할되어 있는 경우, 각 블록들 B 내지 G 내의 기 정의된 위치의 픽셀들(예컨대, 각 블록 내의 우측하단에 위치한 픽셀들)을 참조 위치로 설정할 수 있다. 즉, 도 6의 도시에서, 참조위치 설정부(502)는 기 정의된 위치(예컨대, 픽셀 a, d, g 또는 추가적으로 상단 행 중앙의 픽셀 c 및 좌측 열 중앙의 픽셀 i 또는 h)를 참조위치로 이용할 수 있다.
또한, 참조위치 설정부(502)는 참조위치의 그룹에서 기 정의된 위치(예컨대, 픽셀 a, b, j 중의 하나, 픽셀 d, e 중의 하나, g, f 중의 하나 등)를 참조위치로 이용할 수 있다. 예컨대, 참조위치 그룹 {a, b, j}의 경우, a, b, j의 순서로 유효한 참조픽셀인지 여부를 판단하고, 최초의 유효한 위치를 참조위치로 설정한다. 여기서 유효한 참조픽셀이란 인트라 예측이 이용되는 픽셀로서 그에 대응하는 인트라 예측모드가 존재하는 픽셀을 의미할 수 있다. 참조위치 그룹 {d, e} 또는 {g, f}에 대해서도, 각각 d, e의 순서 또는 g, f의 순서로 참조위치를 설정할 수 있다.
참조위치 설정부(502)는 예측모드블록의 차원(가로픽셀 개수, 세로 픽셀 개수, 가로와 세로 픽셀 개수의 곱 등)에 따라 참조위치를 적응적으로 설정할 수 있다. 예를 들어, '가로 픽셀 개수 > 세로 픽셀 개수'인 경우 상단에 참조위치를 더 많이 설정되고, 반대인 경우 좌측에 참조위치를 더 많이 설정될 수 있다. 전술한 바와 같은 기 정의된 위치로부터 기 설정된 개수의 참조위치가 결정되고, 더 긴 변 측의 중앙에 참조 위치가 추가될 수 있다.
또한, 참조위치 설정부(502)는 가로와 세로 픽셀 개수의 곱에 따라 참조위치의 개수를 설정하고, 전술한 바와 같은 기 정의된 위치 중 설정된 개수만큼을 참조위치로 이용할 수 있다.
참조위치 설정부(502)는 부호화/복호화 장치 간의 약속에 따라 사전에 정해진 위치에 참조위치를 설정할 수 있다.
이상에서 설명한 바와 같이, 참조위치 설정부(502)는, 예측모드블록의 차원, 부호화/복호화 장치 간의 약속에 따라 사전에 정해진 위치, 및 예측모드블록 주변의 블록 분할구조 중 적어도 하나 이상을 사용하여 참조위치를 결정할 수 있다.
한편, 대안적으로, 이용 가능한 참조위치에 대한 정보가 부호화 장치에서 복호화 장치로 전송될 수도 있다. 이 경우, 참조위치 설정부(502)는 수신한 정보를 이용하여 참조위치를 결정한다.
본 실시예에 따른 추정 모드가 적용되는 경우, 인트라 예측부(442)는 예측모드블록을 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위들로 분할할 수 있다. 복수의 픽셀들을 포함하는 픽셀 그룹들을 통칭하여 분할블록 또는 서브블록으로 표현하되, 각 분할블록 단위로 인트라 예측이 수행될 수 있다. 따라서, 추정 모드가 복호되는 예측모드블록과 인트라 예측이 수행되는 블록의 레벨이 동일하지 않을 수 있다.
예측모드블록의 분할구조에 따라 픽셀 그룹의 형태는 정사각, 직사각, 삼각 등의 블록 형태 또는 M×1 또는 1×N과 같이 라인 단위의 블록 형태일 수 있다. 한편, 분할된 픽셀 그룹은 동일한 크기와 형태를 가질 수 있다.
본 발명의 다른 실시예에 있어서, 픽셀 그룹은 하나의 픽셀만으로 구성될 수 있다. 또 다른 실시예에서, 픽셀 그룹은 예측모드블록일 수도 있다. 즉, 예측모드블록의 전체 픽셀들로 구성될 수 있다.
예측모드블록으로부터 픽셀 그룹을 분할함에 있어서, 복호화 장치는 분할구조에 대한 정보를 예측모드블록 및 주변 블록으로부터 추정하거나 부호화 장치로부터 전달받을 수 있다.
복호화 장치는 예측모드블록의 차원(가로픽셀 개수, 세로 픽셀 개수, 가로와 세로 픽셀 개수의 곱 등)에 따라 분할구조를 결정할 수 있다. 예를 들어, '가로 픽셀 개수 > 세로 픽셀 개수'인 가로 방향의 분할구조를 이용하고, 반대인 경우 세로 방향의 분할구조를 이용할 수 있다. 또한 복호화 장치는 가로와 세로 픽셀 개수의 곱에 따라 픽셀 그룹의 개수를 설정할 수 있다.
복호화 장치는 부호화/복호화 장치 간의 약속에 따라 사전에 정해진 분할정보를 이용할 수 있다. 예컨대, 예측모드블록은 항상 가로 또는 세로 방향으로 동일 크기의 복수의 서브블록들로 분할될 수 있다. 서브블록의 개수는 예측모드블록의 차원에 따라 결정될 수도 있다. 또는, 항상 4x4와 같은 고정된 크기의 서브블록들로 분할될 수도 있다.
복호화 장치는 예측모드 블록 주변의 블록 분할구조를 이용할 수 있다. 예를 들어, 예측모드블록과 크기가 같은 주변 블록이 블록이 존재하는 경우, 주변 블록의 분할구조를 그대로 이용하거나 참조할 수 있다. 또 다른 예시로서, 도 7의 (a)에 도시된 바와 같이 예측모드블록 좌측에 복수의 블록들이 존재하는 경우, 그 블록들 간의 가로 방향 경계선을 연장하여 예측모드블록을 가로 방향으로 분할할 수 있다. 마찬가지로, 예측모드블록 상단에 복수의 블록들이 존재한다면, 그 복수의 블록들 간의 세로 방향 경계선을 연장하여 예측모드블록을 세로 방향으로 분할할 수도 있다.
영상 복호화 장치의 인트라 예측부(442)는, 이상에서 설명한 바와 같은, 예측모드블록의 차원, 부호화/복호화 장치 간의 약속에 따라 사전에 정해진 분할구조, 및 예측모드블록 주변의 블록 분할구조 중 전부 또는 일부의 조합을 기반으로 예측모드블록의 분할구조를 결정할 수 있다.
본 발명의 다른 실시예에 있어서, 예측모드블록의 분할구조에 대한 정보는 부호화 장치로부터 전달될 수 있다.
본 발명의 다른 실시예에 있어서, 예측모드블록의 분할구조에 대한 리스트를 생성하여 리스트로부터 분할구조가 선택될 수 있다.
도 7은 본 발명의 일 실시예에 따른 예측모드 추정에 대한 예시도이다.
예측모드 추정부(504)는 주변 블록의 참조위치를 이용하여 현재블록에 대한 예측모드를 픽셀 그룹 단위로 추정한다.
도 7의 예시에서, 굵은 실선으로 나타낸 사각형은 예측모드블록이고, 점선은 예측모드블록이 분할되어 인트라 예측이 수행되는 단위, 즉 분할블록(블록 형태의 픽셀 그룹)을 의미한다. 도 7의 (a)는 예측모드블록이 수평 균등 2분할되는 경우를, 도 7의 (b)는 예측모드블록이 수직 균등 4분할되는 경우를 예시한다.
예측모드 추정부(504)는 적어도 2 개의 참조위치가 나타내는 예측모드를 이용하여 예측모드블록의 예측모드를 추정할 수 있다. 도 7의 예시에서, 예측모드 추정부(504)는 예측모드블록의 예측모드 추정을 위해 3 개의 주변 참조위치의 예측모드를 사용한다.
도 7의 예시에서 점선 화살표는 주변 블록의 예측모드이고, 실선 화살표는 주변 블록의 예측모드로부터 추정된 각 분할블록의 예측모드이다. 주변 참조위치에 대한 설정 및 예측모드의 추정은 부호화/복호화 장치에서 동일한 방법으로 수행될 수 있다.
예측모드 추정부(504)는, 각 분할블록의 현재블록 내에서의 위치에 근거하여, 참조위치들 중 적어도 하나 이상을 사용하여 각 분할블록의 인트라 예측모드를 추정한다. 분할블록의 인트라 예측모드는 가까운 참조위치의 인트라 예측모드와 유사할 가능성이 높다. 따라서, 분할블록으로부터 가까운 거리의 참조 위치에 의해 영향을 받도록 해당 분할블록의 예측모드가 결정된다. 예컨대, 각 분할블록과 참조위치 간의 거리에 따라 각 참조위치에 대한 가중치를 결정할 수 있다. 거리가 가까울수록 더 큰 가중치가 할당될 수 있다. 여기서, 분할블록의 위치는 그 분할블록의 중심 픽셀(center pixel)의 위치일 수 있다.
예측모드 추정부(504)는 각 참조위치에 대한 가중치를 기반으로 각 참조위치의 예측방향을 가중합하여 각 분할블록에 대한 인트라 예측방향을 추정할 수 있다. 대안적으로, 전체 인트라 예측모드 중 가중합한 값과 가장 가까운 예측모드가 해당 분할블록의 예측모드로 추정될 수도 있다.
본 발명의 다른 실시예에 있어서, 픽셀 그룹이 하나의 픽셀로 구성된 경우, 인트라 예측모드는 예측모드블록 내의 각 픽셀 단위로 추정될 수 있다.
도 8은 본 발명의 다른 실시예에 따른 예측모드 추정에 대한 예시도이다.
도 8의 예시에서 가는 선으로 표시된 사각형들은 인트라 예측을 수행하는 현재블록의 하나의 픽셀을 의미한다.
도 8의 (a)의 예시에서 점선 화살표는 주변 픽셀 각각의 예측모드이고, 도 8의 (b)의 예시에서 3 개의 점선 화살표를 포함하는 주변 픽셀이 참조를 위하여 설정된 참조위치이다. 설정된 3 개 참조위치의 예측모드를 참조하여, 예측모드 추정부(504)는 도 8의 (b)에 예시된 바와 같이 현재블록 내부의 각 픽셀에 대한 인트라 예측모드를 결정할 수 있다.
예측모드 추정부(504)는, 각 픽셀의 현재블록 내에서의 위치에 근거하여, 참조위치들 중 적어도 하나 이상을 사용하여 해당 픽셀의 인트라 예측모드를 추정한다. 분할블록으로부터 가까운 거리의 참조 위치에 의해 영향을 받도록 해당 픽셀의 예측모드가 결정된다. 예컨대, 각 픽셀과 참조위치 간의 거리에 따라 각 참조위치에 대한 가중치가 결정될 수 있다.
예측모드 추정부(504)는 각 참조위치에 대한 가중치를 기반으로 각 참조위치의 예측방향을 가중합하여, 해당 픽셀의 인트라 예측모드를 결정할 수 있다. 대안적으로, 전체 인트라 예측모드 중 가중합한 값과 가장 가까운 예측모드가 해당 픽셀의 예측모드로 추정될 수 있다.
한편, 설정된 참조위치의 예측모드가 유용하지 않은 경우, 예측모드 추정부(504)는 예측모드블록 주변의 신규 위치로 대체할 수 있다. 또한 모든 참조위치의 예측모드가 유용하지 않은 경우, 현재블록에 대한 예측모드는 부호화/복호화 장치 간에 기 설정된 예측모드들 중 하나로 결정될 수 있다.
이상에서 설명한 본 발명의 실시예에 따르면, 하나의 픽셀, 하나의 라인, 분할블록 등과 같은 예측모드블록에 대한 다수의 분할 단위가 서로 상이한 예측모드를 가질 수 있다. 분할 단위마다 개별적으로 인트라 예측모드에 대한 정보를 시그널링하는 것은 요구되지 않는다.
한편, 또 다른 실시예에서, 예측모드 추정부(504)는, 픽셀 그룹이 예측모드블록 전체인 경우, 복수의 참조위치들의 인트라 예측모드로부터 예측모드블록에 대한 하나의 인트라 예측모드를 추정할 수 있다. 예컨대, 복수의 참조위치들의 인트라 예측모드(예측방향)을 평균하여 현재블록 전체에 대한 인트라 예측모드를 추정할 수도 있다.
본 실시예에 따른 예측샘플 생성부(506)는 예측모드 추정부(504)에서 추정한 인트라 예측모드에 따라 예측모드블록(현재블록)을 픽셀 그룹 단위로 예측함으로써 예측샘플들을 생성한다.
도 9는 본 발명의 일 실시예에 따른 인트라 예측샘플을 생성하기 위해 사용되는 기 복원된 참조샘플의 위치에 대한 예시도이다.
도 9의 예시에서, 원들로 표시된 부분은 현재블록(A)에서 참조하는 기 복원된 블록들에 포함된 참조샘플들을 나타낸다. 인트라 예측모드의 범위 및 복호화 순서에 따른 참조샘플의 유용성에 따라 참조샘플의 범위는 확장될 수 있다. 또한, 현재블록 A의 크기인 M과 N, 및 인트라 예측모드의 범위에 따라 인트라 예측부(442)는 예측 범위 M_r과 N_r을 각각 결정할 수 있다.
예측샘플 생성부(506)는, 픽셀 그룹 단위로 추정된 인트라 예측모드를 사용하여, 도 9에 예시된 바와 같은 예측모드블록 주변의 기 복원된 참조샘플들의 샘플값으로부터 예측샘플을 생성할 수 있다.
예측모드블록으로부터 분할된 분할블록 별로 인트라 예측모드가 추정되는 실시예의 경우, 예측샘플 생성부(506)는 해당 분할블록에 대해 추정된 인트라 예측모드에 따라 그 분할블록 내에서 예측하고자 하는 대상픽셀을 위한 참조샘플들을 결정한다. 그리고, 결정된 참조샘플들의 샘플값을 이용하여 그 대상픽셀을 예측한다.
예측모드블록 내의 픽셀 단위로 인트라 예측모드가 추정되는 다른 실시예의 경우, 예측샘플 생성부(506)는 해당 픽셀에 대해 추정된 인트라 예측모드를 이용하여 기 복원된 참조샘플들을 결정하고, 결정된 참조샘플들의 샘플값을 이용하여 해당 픽셀을 예측한다.
예측모드블록 전체 단위로 하나의 인트라 예측모드가 추정되는 또 다른 실시예의 경우, 예측샘플 생성부(506)는 예측모드블록의 인트라 예측모드를 이용하여 예측모드블록 내에서 예측하고자 하는 대상픽셀을 위한 기 복원된 참조샘플들을 결정한다. 그리고, 결정된 참조샘플들의 샘플값을 이용하여 그 대상픽셀을 예측한다.
도 10은 본 발명의 다른 실시예에 따른 인트라 예측샘플을 생성하기 위해 사용되는 기 복원된 참조샘플의 위치에 대한 예시도이다.
예측모드블록이 K(K는 자연수) 개의 분할블록(점선 사각형들)으로 분할되는 실시예의 경우, 예측샘플 생성부(506)는 도 10에 예시된 바와 같은 참조샘플들의 샘플값을 이용하여 인트라 예측을 수행할 수 있다.
도 10의 예시에서, 두꺼운 선으로 나타낸 사각형은 예측모드블록의 경계를 기준으로 하는 참조샘플의 위치이고, 가는 선으로 나타낸 사각형은 분할블록 A의 경계를 기준으로 하는 참조샘플의 위치이다.
예측모드블록 내의 분할블록 A에 대한 인트라 예측의 수행 시, 예측샘플 생성부(506)는 예측모드블록의 경계의 참조샘플들의 샘플값을 이용하여 예측샘플을 생성하거나, 분할블록 A의 경계를 기준으로 기 복원된 분할블록을 참조샘플로 이용할 수 있다. 어느 참조샘플들을 사용할지 여부는 부호화/복호화 장치 간의 약속에 의해 결정될 수 있다. 또는 어느 참조샘플들을 사용할지 여부를 나타내는 정보가 각 분할블록, 예측모드블록 등과 같은 블록 단위로 시그널링될 수도 있다.
예측모드블록 내의 기 복원된 분할블록이 참조샘플로 이용되기 위해서는, 예측모드블록 내의 분할블록들이 순차적으로 복원되는 것이 필요하다. 즉, 래스터 스캔 순서와 같은 기 정의된 순서에 따라 예측모드블록 내의 제1 분할블록이 예측된 후 그 분할블록에 대응하는 잔차신호들과 가산됨으로써, 제1 분할블록이 복원된다. 복원된 분할블록 내의 샘플들은 그 복원된 분할블록에 인접한 다음 번 분할블록을 예측하기 위한 참조샘플로 이용된다. 예컨대, 도 10의 예시에서, 복호화 장치는 좌상단 분할블록을 그에 대응하여 추정한 예측모드로 예측 및 복원(잔차와 결합하여 최종 복원샘플을 생성)한 후, 우상단 분할블록의 복원 시에 좌상단 분할블록 내의 복원된 샘플을 이용할 수 있다.
또 다른 실시예에서는, 먼저 예측된 분할블록 내의 예측샘플이 다음 번 분할블록을 예측하기 위한 참조샘플로 사용될 수도 있다. 즉, 예측샘플 생성부(506)는 래스터 스캔 순서와 같은 기 정의된 순서에 따라 예측모드블록 내의 어느 하나의 분할블록을 예측한다. 그리고, 예측된 분할블록 내의 예측샘플들(예측샘플과 잔차신호의 가산을 통해 생성된 복원 샘플들이 아님)을 이용하여 다음 번 분할블록 내의 픽셀들을 예측한다.
이상에서 설명한 바와 같은 인트라 예측모드 추정 기법은 루마 블록과 크로마 블록 모두에 사용될 수 있다. 대안적으로, 인트라 DM(direct mode)를 이용하여 크로마 블록에 대한 인트라 예측모드가 루마 블록의 인트라 예측모드로부터 결정될 수도 있다.
도 11은 본 발명의 일 실시예에 따른 크로마 블록의 인트라 예측에 대한 예시도이다.
도 11에 예시된 바와 같이, 루마 블록 내의 각 픽셀 그룹에 대해 추정된 인트라 예측모드가 크로마 블록 내의 동일 위치의 픽셀 그룹에 대한 인트라 예측모드로 설정될 수 있다. 인트라 예측부(442)는 크로마 블록 내의 픽셀 그룹 각각에 대해 그 픽셀 그룹에 대응하는 인트라 예측모드를 이용하여 인트라 예측을 수행한다.
한편, 색상 성분 간 해상도가 상이한 경우, 인트라 예측부(442)는 특정 샘플링 방법에 따라 샘플링된 루마 블록의 인트라 예측모드를 크로마 블록의 예측모드로 사용할 수 있다.
도 12는 본 발명의 일 실시예에 따른 인트라 예측방법의 순서도이다.
본 실시예에 따른 인트라 예측장치(500)는 예측모드블록에 대해 예측 추정 모드의 사용을 지시하는 모드 정보를 비트스트림으로부터 복호한다(S1200). 여기서, 예측모드블록은 예측 추정 모드(이하 '추정 모드')를 포함하는 예측정보가 전송되는 블록 단위를 의미한다. 이하, 설명의 편의를 위하여 현재블록은 예측모드블록을 나타낸다.
추정 모드의 사용을 위해 부호화 장치는 추정 모드의 사용 여부에 대한 모드 정보를 비트스트림에 지정(indication)하여 전송하고 복호화 장치는 해당 정보를 이용하여 추정 모드의 적용 여부를 판단할 수 있다. 모드 정보는 예측 추정 모드가 사용되는지 여부를 나타내는 플래그 형태의 정보일 수 있다. 또는, 추정 모드를 신규 인트라 예측모드로서 추가로 더 포함하는 복수의 인트라 예측모드들 중 하나를 지시하기 위한 인덱스 형태의 정보일 수도 있다.
본 실시예에 따른 추정 모드가 적용되는 경우, 인트라 예측장치(500)는 예측모드블록을 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위들로 분할할 수 있다. 복수의 픽셀들을 포함하는 픽셀 그룹들을 통칭하여 분할블록 또는 서브블록으로 표현하되, 각 분할블록 단위로 인트라 예측이 수행될 수 있다. 따라서, 추정 모드가 복호되는 예측모드블록과 인트라 예측이 수행되는 블록의 레벨이 동일하지 않을 수 있다.
예측모드블록의 분할구조에 따라 픽셀 그룹의 형태는 정사각, 직사각, 삼각 등의 블록 형태 또는 M×1 또는 1×N과 같이 라인 단위의 블록 형태일 수 있다. 한편, 분할된 픽셀 그룹은 동일한 크기와 형태를 가질 수 있다.
본 발명의 다른 실시예에 있어서, 픽셀 그룹은 하나의 픽셀만으로 구성될 수 있다. 또 다른 실시예에서, 픽셀 그룹은 예측모드블록일 수도 있다. 즉, 예측모드블록의 전체 픽셀들로 구성될 수 있다.
인트라 예측장치(500)는 예측모드블록 내의 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위로, 예측모드블록 주변의 기 복원된 블록으로부터 복수의 참조위치를 설정한다(S1202).
인트라 예측장치(500)는, 예측모드블록의 차원, 부호화/복호화 장치 간의 약속에 따라 사전에 정해진 위치, 및 예측모드블록 주변의 블록 분할구조 중 적어도 하나 이상을 사용하여 참조위치를 결정할 수 있다
한편, 대안적으로, 이용 가능한 참조위치에 대한 정보가 부호화 장치에서 복호화 장치로 전송될 수도 있다. 이 경우, 인트라 예측장치(500)는 수신한 정보를 이용하여 참조위치를 결정한다.
인트라 예측장치(500)는 복수의 참조위치들의 인트라 예측모드들로부터 각 픽셀 그룹의 인트라 예측모드를 추정한다(S1204).
인트라 예측장치(500)는, 각 분할블록의 현재블록 내에서의 위치에 근거하여, 참조위치들 중 적어도 하나 이상을 사용하여 각 분할블록의 인트라 예측모드를 추정한다. 즉, 분할블록으로부터 가까운 거리의 참조 위치에 의해 영향을 받도록 해당 분할블록의 예측모드가 결정된다. 예컨대, 각 분할블록과 참조위치 간의 거리에 따라 각 참조위치에 대한 가중치를 결정할 수 있다. 거리가 가까울수록 더 큰 가중치가 할당될 수 있다.
인트라 예측장치(500)는 각 참조위치에 대한 가중치를 기반으로 각 참조위치의 예측방향을 가중합하여 각 분할블록에 대한 인트라 예측방향을 추정할 수 있다. 대안적으로, 전체 인트라 예측모드 중 가중합한 값과 가장 가까운 예측모드가 해당 분할블록의 예측모드로 추정될 수도 있다.
한편, 참조위치의 예측모드가 유용하지 않은 경우, 인트라 예측장치(500)는 예측모드블록 주변의 신규 위치로 대체할 수 있다. 또한 모든 참조위치의 예측모드가 유용하지 않은 경우, 현재블록에 대한 예측모드는 부호화/복호화 장치 간에 기 설정된 예측모드들 중 하나로 결정될 수 있다.
주변 참조위치에 대한 설정 및 예측모드의 추정은 부호화/복호화 장치에서 동일한 방법으로 수행될 수 있다.
인트라 예측장치(500)는 현재블록의 인트라 예측모드를 주변 블록들과 동일하게 추정할 수 있다. 인트라 예측장치(500)는 주변 블록들로부터 복수의 방향을 먼저 선택한 후 그 중 하나의 모드를 현재블록의 인트라 예측모드로 선택하거나, 복수의 주변 블록의 예측모드로부터 현재블록의 인트라 예측모드를 계산할 수 있다.
인트라 예측장치(500)는 각 픽셀 그룹 내의 픽셀들을, 각 픽셀 그룹의 인트라 예측모드들을 이용하여, 인트라 예측을 수행한다(S1206).
인트라 예측장치(500)는 픽셀 그룹 단위로 추정된 인트라 예측모드를 사용하여, 예측모드블록 주변의 기 복원된 참조샘플들의 샘플값으로부터 예측샘플을 생성할 수 있다.
예측모드블록으로부터 분할된 분할블록 별로 인트라 예측모드가 추정되는 실시예의 경우, 예측샘플 생성부(506)는 해당 분할블록에 대해 추정된 인트라 예측모드에 따라 그 분할블록 내에서 예측하고자 하는 대상픽셀을 위한 참조샘플들을 결정한다. 그리고, 결정된 참조샘플들의 샘플값을 이용하여 그 대상픽셀을 예측한다.
예측모드블록 내의 기 복원된 분할블록이 참조샘플로 이용되기 위해서는, 예측모드블록 내의 분할블록들이 순차적으로 복원되는 것이 필요하다. 즉, 래스터 스캔 순서와 같은 기 정의된 순서에 따라 예측모드블록 내의 제1 분할블록이 예측된 후 그 분할블록에 대응하는 잔차신호들과 가산됨으로써, 제1 분할블록이 복원된다. 복원된 분할블록 내의 샘플들은 그 복원된 분할블록에 인접한 다음 번 분할블록을 예측하기 위한 참조샘플로 이용될 수 있다.
이상에서 설명한 바와 같이 본 실시예에 따르면, 기 복원된 주변 블록의 인트라 예측모드를 참조하여 현재블록의 인트라 예측모드를 추정(derivation)하고, 추정된 예측모드를 기반으로 인트라 예측을 수행하여 현재블록에 대한 예측샘플을 생성하는 인트라 예측장치 및 방법을 제공함으로써, 영상 부호화 및 복호화 장치의 압축 성능을 향상시키는 것이 가능해지는 효과가 있다.
일반적으로 자연 영상을 인트라 예측을 위한 블록으로 분할하는 경우, 하나의 블록과 그 주변 블록은 비슷한 영상 특성을 갖는다. 따라서 인트라 예측 모드도 유사하게 될 수 있다. 이러한 특성을 고려하여, 현재블록을 기준으로 좌측 및 상단 인접 블록의 예측모드를 기반으로 생성된 MPM(Most Probable Mode) 리스트를 이용하는 인트라 예측방법이 존재한다.
부호화 장치는 먼저 현재블록의 예측모드가 MPM 리스트로부터 생성되는지 여부를 지시하는 MPM 플래그를 전송한다. 현재블록의 예측모드가 MPM 리스트에 포함되는 경우, 부호화 장치는 MPM 리스트 내의 인트라 예측모드들 중 현재블록의 인트라 예측모드를 지시하는 MPM 인덱스를 복호화 장치로 전송한다. 전송받은 인덱스를 이용하여 복호화 장치는 MPM 리스트로부터 예측모드를 선택한 후, 현재블록에 대한 인트라 예측을 수행할 수 있다. 한편, 현재블록의 예측모드가 MPM 리스트에 포함되지 않는 경우, 부호화 장치는 MPM 리스트에 포함된 예측모드를 제외한 잔여예측모드들 중에서 현재블록의 예측모드를 나타내는 잔여모드정보를 복호화 장치로 전송할 수 있다.
본 발명의 다른 실시예에 있어서는, MPM(Most Probable Mode)을 이용하여 예측모드블록의 인트라 예측모드를 결정하는 방법이 개시된다. 인트라 예측부(442)는 예측모드블록을 기준으로 MPM 리스트를 생성한다. 즉, 예측모드블록의 주변 블록(예: 좌측 및 상단 인접 블록)의 인트라 예측모드들을 이용하여 MPM 리스트를 생성한다.
한편, 인트라 예측부(442)는 예측모드블록을 복수의 서브블록으로 분할한다. 분할하는 방법은 앞서 예측 추정 모드에서 설명한 바와 동일할 수 있다. 그리고, 예측모드블록을 기준으로 생성된 MPM 리스트는 예측모드블록 내의 모든 복수의 서브블록들에 대해 공유된다. 즉, 복수의 서브블록들에 대해 동일한 MPM 리스트가 사용된다.
하나의 예시로서, 예측모드블록 내의 각 서브블록들의 인트라 예측모드는 MPM 리스트로부터 결정될 수 있다. 이 경우, 각 서브블록들에 대한 MPM 인덱스가 부호화 장치로부터 복호화 장치로 시그널링될 수 있다. 복호화 장치의 인트라 예측부(442)는 수신한 MPM 인덱스를 통해 공유된 MPM 리스트로부터 해당 서브블록의 인트라 예측모드를 결정할 수 있다. 예측모드블록 내에서 먼저 예측되는 서브블록에 대해 결정된 인트라 예측모드는 다음 번 서브블록의 인트라 예측모드로 사용되지 않을 수 있다. 이를 위해, 먼저 예측되는 서브블록에 대해 인트라 예측모드는 MPM 리스트에서 삭제될 수 있다. 이러한 방식을 통해, 예측모드블록 내의 모든 서브블록들에 대해 MPM 인덱스를 시그널링하기 위해 소요되는 총 비트량을 감소시킬 수 있다.
또 다른 예시로서, 예측모드블록 내의 각 서브블록에 대해 인트라 예측모드에 대한 정보(MPM 플래그 및 그 MPM 플래그에 따라 MPM 인덱스 또는 잔여모드정보)가 부호화 장치로부터 복호화 장치로 시그널링될 수 있다. 복호화 장치의 인트라 예측부(442)는 수신한 정보를 이용하여 각 서브블록의 인트라 예측모드를 결정한다. 이 때, 먼저 예측되는 서브블록 예측모드블록 내에서 먼저 예측되는 서브블록에 대해 결정된 인트라 예측모드는 다음 번 서브블록의 인트라 예측모드로 사용되지 않을 수 있다. 이를 위해, 먼저 예측되는 서브블록에 대해 결정된 인트라 예측모드는 MPM 리스트에서 삭제되거나 잔여예측모드 리스트에서 삭제될 수 있다. 이에 따라, 예측모드블록 내의 모든 서브블록들에 대한 MPM 인덱스 및 잔여모드정보를 시그널링하기 위해 소요되는 총 비트량을 감소시킬 수 있다.
본 실시예에 따른 각 순서도에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 순서도에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것이 적용 가능할 것이므로, 순서도는 시계열적인 순서로 한정되는 것은 아니다.
한편, 본 개시에서 설명된 다양한 기능들 혹은 방법들은 하나 이상의 프로세서에 의해 판독되고 실행될 수 있는 비일시적 기록매체에 저장된 명령어들로 구현될 수도 있다. 비일시적 기록매체는, 예를 들어, 컴퓨터 시스템에 의하여 판독가능한 형태로 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 예를 들어, 비일시적 기록매체는 EPROM(erasable programmable read only memory), 플래시 드라이브, 광학 드라이브, 자기 하드 드라이브, 솔리드 스테이트 드라이브(SSD)와 같은 저장매체를 포함한다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
(부호의 설명)
120, 440: 예측부 130: 감산기
170, 450: 가산기 180, 460: 필터부
442: 인트라 예측부
500: 인트라 예측장치
502: 참조위치 설정부 504: 예측모드 추정부
506: 예측샘플 생성부
CROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2019년 3월 20일 한국에 출원한 특허출원번호 제10-2019-0031727 호, 및 2020년 3월 20일에 한국에 출원한 특허출원번호 제10-2020-0034277 호에 대해 미국 특허법 119(a)조(35 U.S.C § 119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하며 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.

Claims (17)

  1. 인트라 예측장치가 이용하는 인트라 예측방법에 있어서,
    예측모드블록에 대해 예측 추정 모드의 사용을 지시하는 모드 정보를 비트스트림으로부터 복호하는 단계;
    상기 예측모드블록 내의 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위로, 상기 예측모드블록 주변의 기 복원된 복수 위치의 참조픽셀들의 인트라 예측모드들로부터 각 픽셀 그룹의 인트라 예측모드를 추정하는 단계; 및
    상기 각 픽셀 그룹 내의 픽셀들을, 상기 각 픽셀 그룹의 인트라 예측모드들을 이용하여, 인트라 예측하는 단계
    를 포함하는 것을 특징으로 하는 인트라 예측방법.
  2. 제1항에 있어서,
    상기 예측모드블록 주변의 기 복원된 블록으로부터 상기 픽셀 그룹에 대한 참조픽셀들의 위치를 설정하는 단계를 더 포함하는 것을 특징으로 하는 인트라 예측장치.
  3. 제2항에 있어서,
    상기 참조픽셀들의 위치는,
    상기 예측모드블록의 차원을 이용하여 결정하는 방법, 사전 약속에 따라 정해진 위치에 설정하는 방법, 및 상기 예측모드블록의 주변의 블록 분할구조를 이용하여 결정하는 방법의 전부 또는 일부를 기반으로 결정되는 것을 특징으로 하는 인트라 예측방법.
  4. 제1항에 있어서,
    상기 모드 정보는 상기 예측 추정 모드가 사용되는지 여부를 나타내는 플래그이거나, 또는 상기 예측 추정 모드를 포함하는 복수의 인트라 예측모드들 중에서 상기 예측 추정 모드를 지시하는 인덱스인 것을 특징으로 하는 인트라 예측방법.
  5. 제1항에 있어서,
    상기 각 픽셀 그룹의 인트라 예측모드는, 상기 예측모드블록 내에서 상기 각 픽셀 그룹의 위치에 근거하여, 상기 참조픽셀들 중 하나 이상의 인트라 예측모드들로부터 추정되는 것을 특징으로 하는 인트라 예측방법.
  6. 제5항에 있어서,
    상기 각 픽셀 그룹에 대해, 상기 참조픽셀들과의 거리에 따라 상기 참조픽셀들의 인트라 예측모드들에 가중치를 할당하고, 상기 참조픽셀들의 인트라 예측모드들을 가중합(weighted sum)하여, 상기 각 픽셀 그룹의 인트라 예측모드를 추정하는 것을 특징으로 하는 인트라 예측방법.
  7. 제1항에 있어서,
    상기 각 픽셀 그룹은 하나의 픽셀로 구성된 것을 특징으로 하는 인트라 예측방법.
  8. 제1항에 있어서,
    상기 각 픽셀 그룹은,
    상기 예측모드블록으로부터 가로 또는 세로 방향 중 적어도 하나의 방향으로 분할되고 복수의 픽셀들을 포함하는 서브블록들인 것을 특징으로 하는 인트라 예측방법.
  9. 제8항에 있어서,
    상기 복수의 서브블록은 서로 동일한 형태와 크기로 분할되는 것을 특징으로 하는 인트라 예측방법.
  10. 제8항에 있어서,
    상기 예측모드블록은,
    상기 예측모드블록의 차원, 사전에 약속된 기 정의된 방식, 및 상기 예측모드블록 주변의 블록 분할 형태 중 적어도 하나에 기반하여 상기 서브블록들로 분할되는 것을 특징으로 하는 인트라 예측방법.
  11. 제1항에 있어서,
    상기 예측모드블록의 분할구조에 대한 정보를 상기 비트스트림으로부터 복호하고, 상기 분할구조에 대한 정보를 이용하여 상기 픽셀 그룹들을 생성하는 단계를 더 포함하는 것을 특징으로 하는 인트라 예측방법.
  12. 제1항에 있어서,
    상기 인트라 예측하는 단계는,
    상기 예측모드블록에 인접한 기 복원된 픽셀들을 이용하여 상기 각 픽셀 그룹의 픽셀들에 대한 예측샘플을 생성하는 것을 특징으로 하는 인트라 예측방법.
  13. 제1항에 있어서,
    상기 인트라 예측하는 단계는,
    상기 예측모드블록에 포함된 상기 픽셀 그룹들을 순차적으로 복원하는 단계를 포함하되,
    상기 예측모드블록 내에서 먼저 복원된 픽셀 그룹 내의 기 복원된 픽셀들은 상기 먼저 복원된 픽셀 그룹에 인접한 픽셀 그룹을 인트라 예측하기 위해 사용되는 것을 특징으로 하는 인트라 예측방법.
  14. 제1항에 있어서,
    상기 인트라 예측하는 단계는,
    상기 예측모드블록에 포함된 상기 픽셀 그룹들을 순차적으로 인트라 예측하되,
    상기 예측모드블록 내에서 먼저 예측된 픽셀 그룹 내의 예측픽셀들은 상기 먼저 복원된 픽셀 그룹에 인접한 픽셀 그룹을 인트라 예측하기 위해 사용되는 것을 특징으로 하는 인트라 예측방법.
  15. 예측모드블록에 대해 예측 추정 모드의 사용을 지시하는 모드 정보를 비트스트림으로부터 복호하는 엔트로피 복호화부;
    상기 예측모드블록 내의 하나 이상의 픽셀을 포함하는 픽셀 그룹 단위로, 상기 예측모드블록 주변의 기 복원된 복수 위치의 참조픽셀들의 인트라 예측모드들로부터 각 픽셀 그룹의 인트라 예측모드를 추정하는 예측모드 추정부; 및
    상기 각 픽셀 그룹 내의 픽셀들을, 상기 각 픽셀 그룹의 인트라 예측모드들을 이용하여, 인트라 예측하는 예측샘플 생성부
    를 포함하는 것을 특징으로 하는 인트라 예측장치.
  16. 제15항에 있어서,
    상기 예측모드블록 주변의 기 복원된 블록으로부터 상기 픽셀 그룹에 대한 참조픽셀들의 위치를 설정하는 참조위치 설정부를 더 포함하는 것을 특징으로 하는 인트라 예측장치.
  17. 제15항에 있어서,
    상기 예측모드블록을 상기 픽셀 그룹으로 분할하기 위한 분할구조는,
    상기 예측모드블록의 차원, 사전에 약속된 기 정의된 방식, 및 상기 예측모드블록 주변의 블록 분할구조 중 적어도 하나를 기반으로 결정되거나, 또는
    상기 엔트로피 복호화부에 의해 상기 비트스트림으로부터 복호된 정보를 기반으로 결정되는 것을 특징으로 하는 인트라 예측장치.
PCT/KR2020/003836 2019-03-20 2020-03-20 예측모드 추정에 기반하는 인트라 예측장치 및 방법 WO2020190077A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080037443.1A CN113892268A (zh) 2019-03-20 2020-03-20 基于预测模式估计的帧内预测装置和方法
US17/440,567 US20220150470A1 (en) 2019-03-20 2020-03-20 Method and apparatus for intra predictionbased on deriving prediction mode

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20190031727 2019-03-20
KR10-2019-0031727 2019-03-20
KR1020200034277A KR20200113173A (ko) 2019-03-20 2020-03-20 예측모드 추정에 기반하는 인트라 예측장치 및 방법
KR10-2020-0034277 2020-03-20

Publications (1)

Publication Number Publication Date
WO2020190077A1 true WO2020190077A1 (ko) 2020-09-24

Family

ID=72521095

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003836 WO2020190077A1 (ko) 2019-03-20 2020-03-20 예측모드 추정에 기반하는 인트라 예측장치 및 방법

Country Status (2)

Country Link
US (1) US20220150470A1 (ko)
WO (1) WO2020190077A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018054269A1 (en) * 2016-09-22 2018-03-29 Mediatek Inc. Method and apparatus for video coding using decoder side intra prediction derivation
KR20180040824A (ko) * 2016-10-13 2018-04-23 디지털인사이트 주식회사 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
KR20180041577A (ko) * 2016-10-14 2018-04-24 세종대학교산학협력단 영상의 부호화/복호화 방법 및 장치
KR20180085526A (ko) * 2017-01-19 2018-07-27 가온미디어 주식회사 효율적 변환을 처리하는 영상 복호화 및 부호화 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135885A1 (ko) * 2017-01-19 2018-07-26 가온미디어 주식회사 변환 처리를 제공하는 영상 복호화 및 부호화 방법
KR102595689B1 (ko) * 2017-09-29 2023-10-30 인텔렉추얼디스커버리 주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018054269A1 (en) * 2016-09-22 2018-03-29 Mediatek Inc. Method and apparatus for video coding using decoder side intra prediction derivation
KR20180040824A (ko) * 2016-10-13 2018-04-23 디지털인사이트 주식회사 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
KR20180041577A (ko) * 2016-10-14 2018-04-24 세종대학교산학협력단 영상의 부호화/복호화 방법 및 장치
KR20180085526A (ko) * 2017-01-19 2018-07-27 가온미디어 주식회사 효율적 변환을 처리하는 영상 복호화 및 부호화 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MORA, ELIE ET AL.: "CE3-related: Decoder-side Intra Mode Derivation", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. JVET-L0164-V2. 12TH MEETING, 12 October 2018 (2018-10-12), Macao, CN, pages 1 - 8, Retrieved from the Internet <URL:http://phenix.int-evry.fr/jvet> [retrieved on 20200608] *

Also Published As

Publication number Publication date
US20220150470A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
WO2020185004A1 (ko) 예측 유닛을 서브 유닛들로 분할하여 예측하는 인트라 예측 방법 및 장치
WO2020231228A1 (ko) 영상 복호화 장치에서 이용하는 역양자화장치 및 방법
WO2021025478A1 (ko) 동영상 데이터의 인트라 예측 코딩을 위한 방법 및 장치
WO2020185009A1 (ko) 잔차블록을 효율적으로 코딩하는 방법 및 장치
WO2020185050A1 (ko) 인트라 블록 복사를 이용하는 영상 부호화 및 복호화
WO2020184999A1 (ko) 영상 부호화 및 복호화 방법 및 장치
WO2023038447A1 (ko) 비디오 부호화/복호화 방법 및 장치
WO2022114742A1 (ko) 비디오 부호화 및 복호화를 위한 장치 및 방법
WO2022045738A1 (ko) 딥러닝 기반 인루프 필터를 이용하는 영상 부호화 및 복호화
WO2020185027A1 (ko) 데이터 블록에 변환 생략 모드를 효율적으로 적용하기 위한 방법 및 장치
WO2020190077A1 (ko) 예측모드 추정에 기반하는 인트라 예측장치 및 방법
WO2020009460A1 (ko) 잔차신호 재배열 방법 및 영상 복호화 장치
WO2020122573A1 (ko) 필터링 방법 및 영상 복호화 장치
WO2020076049A1 (ko) 양자화된 변환 계수들의 부호화 및 복호화를 위한 방법 및 장치
WO2020185058A1 (ko) 차등 부호화를 이용하는 영상 복호화 장치
WO2021112544A1 (ko) 차분 변조를 이용하는 비디오 부호화 및 복호화
WO2021040430A1 (ko) 차등 부호화를 이용하는 비디오 부호화 및 복호화
WO2022211463A1 (ko) 적응적 인트라 예측 정밀도를 이용하는 비디오 코딩방법 및 장치
WO2022177375A1 (ko) 인트라 예측 신호와 인터 예측 신호의 가중 합을 이용하여 예측 블록을 생성하는 방법 및 이를 이용한 장치
WO2023219301A1 (ko) 인트라 예측 블록에 대한 움직임벡터 저장을 위한 방법 및 장치
WO2022191554A1 (ko) 임의 블록 분할을 이용하는 비디오 코딩방법 및 장치
WO2022031003A1 (ko) 영상 부/복호화 장치에서 이용하는 양자화 파라미터 예측 방법
WO2023182673A1 (ko) 컨텍스트 모델 초기화를 사용하는 비디오 코딩을 위한 방법 및 장치
WO2022114768A1 (ko) 성분 간 참조를 이용하는 잔차신호 생성방법과 장치
WO2022191525A1 (ko) 나선스캔 순서를 이용하는 비디오 코딩방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20773602

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20773602

Country of ref document: EP

Kind code of ref document: A1