WO2013109066A1 - 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치 - Google Patents

화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치 Download PDF

Info

Publication number
WO2013109066A1
WO2013109066A1 PCT/KR2013/000370 KR2013000370W WO2013109066A1 WO 2013109066 A1 WO2013109066 A1 WO 2013109066A1 KR 2013000370 W KR2013000370 W KR 2013000370W WO 2013109066 A1 WO2013109066 A1 WO 2013109066A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction mode
intra prediction
intra
current block
information
Prior art date
Application number
PCT/KR2013/000370
Other languages
English (en)
French (fr)
Inventor
이선영
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201811037425.4A priority Critical patent/CN109413423B/zh
Priority to CN201811036710.4A priority patent/CN109413428B/zh
Priority to US14/368,224 priority patent/US9554130B2/en
Priority to CN201811036708.7A priority patent/CN108777795B/zh
Priority to EP13738183.6A priority patent/EP2806642B1/en
Priority to JP2014553250A priority patent/JP6013513B2/ja
Priority to EP20178263.8A priority patent/EP3723369A1/en
Priority to PL19158903T priority patent/PL3512197T3/pl
Priority to CN201811037422.0A priority patent/CN109194961B/zh
Priority to EP19158903.5A priority patent/EP3512197B8/en
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Priority to CN201380006073.5A priority patent/CN104081770B/zh
Priority to CN201811037057.3A priority patent/CN109413429B/zh
Publication of WO2013109066A1 publication Critical patent/WO2013109066A1/ko
Priority to US15/399,077 priority patent/US9854239B2/en
Priority to US15/812,567 priority patent/US9986238B2/en
Priority to US15/958,452 priority patent/US10158852B2/en
Priority to US16/171,834 priority patent/US10616575B2/en
Priority to US16/796,543 priority patent/US10863173B2/en
Priority to CY20201100824T priority patent/CY1123375T1/el
Priority to US17/074,234 priority patent/US11412216B2/en
Priority to US17/857,772 priority patent/US11750803B2/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05BLOCKS; ACCESSORIES THEREFOR; HANDCUFFS
    • E05B75/00Handcuffs ; Finger cuffs; Leg irons; Handcuff holsters; Means for locking prisoners in automobiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to an intra prediction mode mapping method and an apparatus using the method, and more particularly, to an encoding / decoding method and an apparatus.
  • High efficiency image compression techniques can be used to solve these problems caused by high resolution and high quality image data.
  • An inter-screen prediction technique for predicting pixel values included in the current picture from a picture before or after the current picture using an image compression technique an intra prediction technique for predicting pixel values included in a current picture using pixel information in the current picture
  • a first object of the present invention is to provide an intra prediction mode mapping method for increasing image encoding efficiency.
  • the prediction mode of one of the plurality of candidate intra prediction modes for the current block and the intra prediction of the current block Decoding flag information indicating information on whether the modes are the same; when one intra prediction mode of one of the plurality of candidate intra prediction modes for the current block and the intra prediction mode of the current block are not the same; Decoding a syntax element including information about an intra prediction mode of a current block to derive an intra prediction mode of the current block, wherein the syntax element includes information about an intra prediction mode of the current block Deriving the intra prediction mode of the current block by decoding the block includes intra prediction mode information; Is performed based on a table, and the table is a table that maps index information of the intra prediction mode and the intra prediction mode, and if the intra prediction mode is the planar mode in the table, index 0 and the intra prediction mode are DC.
  • the index 1 may be mapped to the indexes 2 to 34 according to the directionality of the intra prediction mode.
  • the syntax element including information on the intra prediction mode of the current block is a value encoded using fixed 5 bits, and the 5-bit information is stored in the remaining screens except for the prediction modes in the plurality of candidate scenes for the current block.
  • One of the prediction mode information may be information indicating an intra prediction mode.
  • the plurality of candidate intra picture prediction modes for the current block may be three different intra picture prediction modes derived based on an intra picture prediction mode derived based on a neighboring block of the current block and a further intra picture prediction mode. have.
  • the flag information indicates that the prediction mode of one candidate screen among the prediction modes of the candidate screen of the current block and the intra prediction mode of the current block are the same based on the flag information.
  • the flag information is 0, it may be indicated based on the flag information that the plurality of candidate intra prediction modes for the current block and the intra prediction modes of the current block are not the same.
  • Deriving an intra prediction mode of the current block by decoding a syntax element including information about an intra prediction mode of the current block includes three screens that are prediction modes of a plurality of candidate images for the current block in the table.
  • Deriving the remaining 32 intra prediction modes except for the prediction mode mapping syntax elements including the remaining 32 intra prediction modes and information on the intra prediction modes of the current block; and And setting one intra prediction mode mapped to the syntax element among the remaining 32 intra prediction modes information as the intra prediction mode of the current block.
  • an apparatus for decoding an image includes one candidate intra prediction mode and an intra prediction mode of a current block among a plurality of candidate intra prediction modes for a current block.
  • Flag information indicating whether information is the same and prediction mode of one of the plurality of candidate intra prediction modes for the current block and intra prediction mode of the current block are not the same.
  • An entropy decoder configured to decode a syntax element including information about a prediction mode, wherein one of the prediction modes of the candidate screen among the plurality of candidate intra prediction modes for the current block and the intra prediction mode of the current block are not the same. In the case of deriving an intra prediction mode of the current block based on the decoded syntax element.
  • the table is a table for mapping the index information of the intra prediction mode and the intra prediction mode, in the table is index 0 if the intra prediction mode is planar mode, index if the intra prediction mode is DC mode 1, the directional intra prediction mode may be mapped to indexes 2 to 34 according to the directionality of the intra prediction mode.
  • the syntax element is a value encoded using fixed 5 bits, wherein the information of the 5 bits indicates an intra prediction mode of one of the intra prediction modes except for a plurality of candidate intra prediction modes for the current block. May be information.
  • the plurality of candidate intra picture prediction modes for the current block may be three different intra picture prediction modes derived based on an intra picture prediction mode derived based on a neighboring block of the current block and a further intra picture prediction mode. have.
  • the flag information indicates that the prediction mode of one candidate screen among the prediction modes of the candidate screen of the current block and the intra prediction mode of the current block are the same based on the flag information.
  • the flag information is 0, it may be indicated based on the flag information that the plurality of candidate intra prediction modes for the current block and the intra prediction modes of the current block are not the same.
  • the prediction unit derives the remaining 32 intra prediction modes information except for the three intra prediction modes of the plurality of candidate prediction modes for the current block in the table, and the remaining 32 intra prediction modes information and the other 32 intra prediction modes. Maps syntax elements including information on intra prediction modes of the current block, and converts one intra prediction mode mapped to the syntax elements among the remaining 32 intra prediction modes information into the intra prediction modes of the current block. It can be implemented to set to.
  • the intra prediction mode mapping method and the apparatus using the method according to the embodiment of the present invention can increase the image encoding efficiency by encoding / decoding the intra prediction mode information using a short number of bits.
  • FIG. 1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a decoder according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of decoding an intra prediction mode of a current prediction unit according to an embodiment of the present invention.
  • FIG. 4 is a conceptual diagram illustrating a method of encoding an intra prediction mode according to an embodiment of the present invention.
  • FIG. 5 is a conceptual diagram illustrating a method of decoding an intra prediction mode according to an embodiment of the present invention.
  • FIG. 6 is a conceptual diagram illustrating a case in which a codenum mapping table according to an embodiment of the present invention is not used.
  • FIG. 7 illustrates a non-directional intra prediction mode and an directional intra prediction mode when using 35 intra prediction modes according to an exemplary embodiment of the present invention.
  • FIG. 8 illustrates a non-directional intra prediction mode and a directional intra prediction mode when 19 intra prediction modes are used according to an embodiment of the present invention.
  • FIG 9 illustrates a non-directional intra prediction mode and a directional intra prediction mode when 11 intra prediction modes are used according to an embodiment of the present invention.
  • FIG. 10 is a conceptual diagram illustrating a codenum mapping and a codeword mapping method except for an MPM according to an embodiment of the present invention.
  • FIG. 11 is a conceptual diagram illustrating a portion of an image encoding apparatus and an image decoding apparatus that perform encoding and decoding of an intra prediction mode according to an embodiment of the present invention.
  • FIG. 12 is a conceptual diagram illustrating a portion of an image encoding apparatus and an image decoding apparatus that perform encoding and decoding of an intra prediction mode according to an embodiment of the present invention.
  • each of the components disclosed in the embodiments and the drawings of the present invention are disclosed in an independent configuration to represent different characteristic functions of the image encoding apparatus. This does not mean that each component is necessarily made up of separate hardware or one software component. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of the components are also included in the scope of the present invention, without departing from the spirit of the invention.
  • some of the components disclosed in the present invention may not be essential components for performing essential functions in the present invention but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included within the scope of the present invention.
  • FIG. 1 is a block diagram illustrating an encoding apparatus according to an embodiment of the present invention.
  • the encoding apparatus includes a splitter 100, a predictor 110, an intra prediction unit 103, an inter prediction unit 106, a transform unit 115, a quantization unit 120, and a rearrangement.
  • the unit 125 may include an entropy encoding unit 130, an inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150.
  • the encoding apparatus may be implemented by the image encoding method described in the following embodiments of the present invention, but operations in some components may not be performed to reduce the complexity of the encoder or for fast real time encoding.
  • some limited number of methods are used without selecting the optimal intra intra coding method using all intra prediction modes in order to perform encoding in real time.
  • a method of selecting one intra prediction mode among them as a final intra prediction mode using the intra prediction mode of the image may be used.
  • the unit of a block processed by the encoding apparatus may be a coding unit that performs encoding, a prediction unit that performs prediction, or a transformation unit that performs transformation.
  • a coding unit may be represented by a term such as a coding unit (CU), a prediction unit is a prediction unit (PU), and a transformation unit is a transform unit (TU).
  • the dividing unit 100 divides one picture into a combination of a plurality of coding blocks, a prediction block, and a transform block, and divides a picture of one of the coding blocks, the prediction block, and the transform block according to a predetermined criterion (for example, a cost function).
  • the picture can be divided by selecting a combination.
  • a recursive tree structure such as a quad tree structure may be used.
  • the meaning of the coding block may be used not only as a block for encoding but also as a block for decoding.
  • the prediction block may be a unit for performing intra prediction or inter prediction.
  • the block for performing intra prediction may have a square block form, such as 2N ⁇ 2N or N ⁇ N, or a rectangular block using Short Distance Intra Prediction (SDIP).
  • Predictive block partitioning is performed by using 2NxN, Nx2N, or asymmetric symmetric motion partitioning (AMP), which divides a square or square prediction block into the same form. There is a way.
  • the transform unit 115 may change a method of performing the transform.
  • the prediction unit 110 may include an intra prediction unit 103 that performs intra prediction and an inter prediction unit 106 which performs inter prediction. Whether to use inter-prediction or intra-prediction may be determined for the prediction block.
  • the processing unit in which the prediction is performed and the processing block in which the prediction method is determined may be different. For example, in performing intra prediction, a prediction mode is determined based on a prediction block, and a process of performing prediction may be performed based on a transform block.
  • the residual value (residual block) between the generated prediction block and the original block may be input to the transformer 115.
  • prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 130 along with the residual value and transmitted to the decoder.
  • the original block may be encoded as it is and transmitted to the decoder without performing prediction through the prediction unit 110.
  • PCM Pulse Coded Modulation
  • the intra prediction unit 103 may generate an intra prediction block based on reference pixels present around the current block (the block to be predicted).
  • an intra prediction prediction block for the current block is generated using a plurality of intra prediction modes, and one of the prediction blocks is selected to be the prediction block of the current block.
  • the intra prediction mode may have a directional prediction mode using reference pixel information according to a prediction direction and a non-directional mode using no directional information when performing prediction.
  • the mode for predicting the luminance information and the mode for predicting the color difference information may be different.
  • the intra prediction mode information or the predicted luminance signal information predicting the luminance information may be used.
  • the current block determined to perform intra-prediction using one intra-prediction mode is obtained by predicting the intra-prediction mode of the current block from the intra-prediction mode information used by the neighboring blocks of the current block when performing the intra-prediction.
  • Intra prediction mode information of a block may be encoded. That is, the intra prediction mode of the current block may be predicted from the intra prediction mode of the prediction block existing around the current block.
  • the following method may be used as a method of predicting an intra prediction mode of a current block by using mode information predicted from neighboring blocks.
  • predetermined flag information is encoded to transmit information that the intra prediction mode of the current block is the same as the intra prediction mode of the neighboring block. Can be.
  • the prediction mode information of the current block may be encoded by entropy encoding the intra prediction mode information of the current block.
  • the intra prediction mode of the neighboring block used to encode the intra prediction mode of the current block may be defined and used as a term of the candidate intra prediction mode.
  • a specific intra prediction mode value may be set as a candidate intra prediction mode value to predict the intra prediction mode of the current block.
  • the intra prediction unit 103 may generate the intra prediction block based on the reference pixel information around the current block which is the pixel information in the current picture. Since the neighboring block of the current block is the block that performs the inter prediction, the reference pixel may be a pixel that reconstructs the predicted pixel by performing the inter prediction. In this case, the current block may be predicted in the screen by using the pixel of the block in which the intra-prediction is performed as a reference pixel without using the pixel. That is, when the reference pixel is not available, the reference pixel that is not available may be replaced with another pixel.
  • the prediction block may include a plurality of transform blocks. If the prediction block has the same size as the transform block when the intra prediction is performed, pixels present on the left side of the prediction block, pixels present on the upper left side, and top Intra-prediction of the prediction block may be performed based on the pixels present in the. However, when the prediction block is different from the size of the transform block when the intra prediction is included, and a plurality of transform blocks are included in the prediction block, the intra prediction is performed using a reference pixel determined based on the transform block. can do.
  • one coding block may be divided into a plurality of prediction blocks, and NxN partitioning is performed in which one coding block is divided into four square prediction blocks only for a minimum coding block corresponding to a case where the size of the coding block is the smallest. Can be used for on-screen prediction.
  • the intra prediction method may generate a prediction block after applying a mode dependent intra smoothing (MDIS) filter to a reference pixel according to the intra prediction mode.
  • MDIS mode dependent intra smoothing
  • the type of MDIS filter applied to the reference pixel may be different.
  • the MDIS filter is an additional filter applied to the predicted block in the picture by performing the intra prediction, and may be used to reduce the step present in the predicted block in the picture generated after the prediction with the reference pixel.
  • filtering on a reference pixel and some columns included in the predicted block in the screen may perform different filtering according to the direction of the intra prediction mode.
  • the number of available intra prediction modes may vary in performing intra prediction according to the size of a current block that performs intra prediction when performing intra prediction.
  • the number of intra prediction modes that can be used may vary depending on the size of the current block that is the target of intra prediction. Therefore, when performing the intra prediction on the current block, the intra block prediction may be performed by judging the size of the current block to determine the available intra prediction modes differently.
  • the inter prediction unit 106 may perform prediction by referring to information of blocks included in at least one of a previous picture or a subsequent picture of the current picture.
  • the inter prediction unit 106 may include a reference picture interpolator, a motion predictor, and a motion compensator.
  • the reference picture interpolator may receive reference picture information from the memory 150 and generate pixel information of an integer pixel or less in the reference picture.
  • a DCT based 8-tap interpolation filter having different filter coefficients may be used to generate pixel information of integer pixels or less in units of 1/4 pixels.
  • a DCT-based interpolation filter having different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.
  • the inter prediction unit 106 may perform motion prediction based on the reference picture interpolated by the reference picture interpolation unit.
  • various methods such as a full search-based block matching algorithm (FBMA), a three step search (TSS), and a new three-step search algorithm (NTS) may be used.
  • the motion vector may have a motion vector value of 1/2 or 1/4 pixel units based on the interpolated pixels.
  • the inter prediction unit 106 may apply the inter prediction method of one of various inter prediction methods to perform prediction on the current block. For example, various methods, such as a skip method, a merge method, and an advanced motion vector prediction (AMVP) method, may be used as the inter prediction method.
  • AMVP advanced motion vector prediction
  • a residual block including a predicted block (predicted block in a screen or a predicted block between screens) generated by the prediction unit 110 and residual information that is a difference value from an original block of the predicted block may be generated.
  • the residual block may be input to the converter 115.
  • the transform unit 115 may transform the residual block including residual information of the original block and the predicted block using a transform method such as a discrete cosine transform (DCT) or a discrete sine transform (DST). Whether DCT or DST is applied to transform the residual block may be determined based on intra prediction mode information of the prediction block used to generate the residual block and size information of the prediction block. That is, the transformation unit may apply the transformation method differently according to the size of the prediction block and the prediction method.
  • a transform method such as a discrete cosine transform (DCT) or a discrete sine transform (DST).
  • the quantization unit 120 may quantize the values converted by the transformer 115 into the frequency domain.
  • the quantization coefficient may change depending on the block or the importance of the image.
  • the value calculated by the quantization unit 120 may be provided to the inverse quantization unit 135 and the reordering unit 125.
  • the reordering unit 125 may reorder coefficient values with respect to the quantized residual value.
  • the reordering unit 125 may change the two-dimensional block shape coefficients into a one-dimensional vector form through a coefficient scanning method.
  • the reordering unit 125 may scan from a DC coefficient to a coefficient of a high frequency region by using a Zig-Zag Scan method and change it into a one-dimensional vector.
  • a vertical scan method for scanning two-dimensional block shape coefficients in a column direction, not a zig-zag scan method, and a horizontal scan method for scanning two-dimensional block shape coefficients in a row direction Can be used. That is, according to the size of the transform block and the intra prediction mode, it is possible to determine which scan method among zigzag-scan, vertical scan and horizontal scan is used.
  • the entropy encoder 130 may perform entropy encoding based on the values calculated by the reordering unit 125. Entropy encoding may use various encoding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • Entropy encoding may use various encoding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • the entropy encoding unit 130 receives residual coefficient coefficient information, block type information, prediction mode information, partition unit information, prediction block information, transmission unit information, and motion vector information of the coding block from the reordering unit 125 and the prediction unit 110. By receiving various information such as reference frame information, interpolation information of a block, and filtering information, entropy encoding may be performed based on a predetermined encoding method. In addition, the entropy encoder 130 may entropy encode a coefficient value of a coding unit input from the reordering unit 125.
  • the entropy encoder 130 may perform entropy coding through a high efficiency binarization (HEB) method using CABAC or a high throughput binarization (HTB) method using a CAVLC coefficient binarization method for bypass coding of CABAC.
  • HEB high efficiency binarization
  • HTB high throughput binarization
  • the entropy encoder 130 may encode the intra prediction mode information of the current block by performing binarization on the intra prediction mode information.
  • the entropy encoder 130 may include a codeword mapping unit for performing such a binarization operation, and may perform binarization differently according to the size of a prediction block for performing intra prediction.
  • the codeword mapping unit may be adaptively generated or stored in advance through a binarization operation.
  • the entropy encoder 130 may express prediction mode information in the current screen by using a codenum mapping unit for performing codenum mapping and a codeword mapping unit for performing codeword mapping. In the codenum mapping unit and the codeword mapping unit, a codenum mapping table and a codeword mapping table may be generated or stored.
  • the inverse quantizer 135 and the inverse transformer 140 inverse quantize the quantized values in the quantizer 120 and inversely transform the transformed values in the transformer 115.
  • the residual value generated by the inverse quantizer 135 and the inverse transformer 140 is combined with the prediction block predicted by the motion estimator, the motion compensator, and the intra predictor included in the predictor 110 to restore the block. Create a Reconstructed Block).
  • the filter unit 145 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
  • ALF adaptive loop filter
  • the deblocking filter may remove block distortion caused by boundaries between blocks in the reconstructed picture.
  • it may be determined whether to apply a deblocking filter to the current block based on the pixels included in several columns or rows included in the block.
  • a strong filter or a weak filter may be applied according to the required deblocking filtering strength.
  • horizontal filtering and vertical filtering may be performed in parallel when vertical filtering and horizontal filtering are performed.
  • the offset correction unit may correct the offset with respect to the original image on a pixel-by-pixel basis for the deblocking image.
  • the pixels included in the image are divided into a predetermined number of areas, and then, an area to be offset is determined, an offset is applied to the corresponding area, or offset considering the edge information of each pixel. You can use this method.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the filtered reconstructed image with the original image. After dividing the pixels included in the image into at least one group, one filter to be applied to the group may be determined and filtering may be performed for each group. For information on whether to apply the ALF, the luminance signal may be transmitted for each coding unit (CU), and the size and coefficient of the ALF to be applied may vary according to each block.
  • the ALF may have various forms, and the number of coefficients included in the filter may also vary.
  • Such filtering related information (filter coefficient information, ALF On / Off information, filter type information) of the ALF may be included in the parameter set in the form of a bitstream and transmitted.
  • the memory 150 may store the reconstructed block or picture calculated by the filter unit 145, and the stored reconstructed block or picture may be provided to the predictor 110 when performing inter prediction.
  • FIG. 2 is a block diagram illustrating a decoder according to an embodiment of the present invention.
  • the decoder includes an entropy decoder 210, a reordering unit 215, an inverse quantizer 220, an inverse transform unit 225, a predictor 230, a filter unit 235, and a memory 240. May be included.
  • the input bitstream may be decoded by a procedure opposite to that of the encoder.
  • the entropy decoder 210 may perform entropy decoding by a procedure opposite to that of the entropy encoder in the encoder.
  • Information for generating the prediction block among the information decoded by the entropy decoder 210 may be provided to the predictor 230, and a residual value obtained by entropy decoding by the entropy decoder may be input to the reordering unit 215.
  • the entropy decoder 210 may perform inverse transform using at least one of an HTB method using a coefficient coding method of HEB or CAVLC using CABAC.
  • the entropy decoder 210 may decode information related to intra prediction and inter prediction performed by the encoder.
  • the entropy decoding unit may include a codeword mapping unit and include a codeword mapping table for generating a received codeword as an intra prediction mode number.
  • the codeword mapping table may be stored in advance or generated adaptively.
  • a codenum mapping unit for performing codenum mapping may be additionally provided.
  • the reordering unit 215 may reorder the entropy decoded bitstream by the entropy decoding unit 210 based on a method of rearranging the bitstream. Coefficients expressed in the form of a one-dimensional vector can be rearranged by restoring the coefficients in a two-dimensional block form.
  • the reordering unit may be realigned by receiving information related to coefficient scanning performed by the encoder and performing reverse scanning based on the scanning order performed by the encoder.
  • the inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoder and the coefficient values of the rearranged block.
  • the inverse transformer 225 may perform inverse DCT and inverse DST on the DCT and DST performed by the transformer with respect to the quantization result performed by the encoder.
  • the inverse transform may be performed based on a transmission unit determined by the encoder.
  • the DCT and the DST may be selectively performed according to a plurality of pieces of information such as a prediction method, a size and a prediction direction of the current block, and the inverse transformer 225 of the decoder may perform transform information performed by the encoder of the encoder. Inverse transformation may be performed based on.
  • the transform may be performed based on the coding block rather than the transform block.
  • the prediction unit 230 may generate the prediction block based on the prediction block generation related information provided by the entropy decoder 210 and previously decoded block or picture information provided by the memory 240.
  • the pixels present on the left side of the prediction block, the pixels present on the upper left side, and present on the upper side are performed.
  • Intra-prediction of the prediction block is performed on the basis of the pixel.
  • the transform block is included in the prediction block when performing the intra-prediction, the intra-prediction may be performed using reference pixels based on the transform block. have.
  • intra prediction using NxN division may be used only for a coding block having a minimum size.
  • the prediction unit 230 may include a prediction unit determiner, an inter prediction unit, and an intra prediction unit.
  • the prediction unit discriminator receives various information such as prediction unit information input from the entropy decoder, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and distinguishes the prediction block from the current coding block. It is possible to determine whether to perform this inter prediction or intra prediction.
  • the inter picture prediction unit uses information necessary for inter picture prediction of the current prediction block provided by the encoder and based on information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction block, for the current prediction block. Inter prediction can be performed.
  • Whether the motion prediction method of the prediction block included in the coding block is skip mode, merge mode, or AMVP mode to perform inter prediction. Can be determined.
  • the intra prediction unit may generate a prediction block based on pixel information in the current picture.
  • the intra prediction may be performed based on intra prediction mode information of the prediction block provided by the encoder.
  • the intra prediction unit may include an MDIS filter, a reference pixel interpolator, and a DC filter.
  • the MDIS filter is a part of filtering the reference pixel of the current block, and may determine and apply the filter according to the intra prediction mode of the current prediction block.
  • MDIS filtering may be performed on reference pixels of the current block by using the prediction mode and the MDIS filter information of the prediction block provided by the encoder. If the prediction mode of the current block is a mode that does not perform MDIS filtering, the MDIS filter may not be applied.
  • the encoder may similarly perform filtering along with the reference pixel after generating the prediction block.
  • the reference pixel interpolator may generate reference pixels having an integer value or less by interpolating the reference pixels. If the prediction mode of the current prediction block is the prediction mode for generating the prediction block without interpolating the reference pixel, the reference pixel may not be interpolated.
  • the DC filter may generate the prediction block through filtering when the prediction mode of the current block is the DC mode.
  • the reconstructed block or picture may be provided to the filter unit 235.
  • the filter unit 235 may include a deblocking filter, an offset correction unit, and an ALF.
  • the deblocking filter of the decoder may receive the deblocking filter related information provided by the encoder and perform the deblocking filtering on the corresponding block in the decoder. As in the encoder, first, vertical deblocking filtering and horizontal deblocking filtering are performed, but in the overlapping portion, at least one of vertical deblocking and horizontal deblocking may be performed. Vertical deblocking filtering or horizontal deblocking filtering, which has not been previously performed, may be performed at a portion where vertical deblocking filtering and horizontal deblocking filtering overlap. Through this deblocking filtering process, parallel processing of deblocking filtering is possible.
  • the offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the restored image with the original image after performing the filtering.
  • the ALF may be applied to the coding unit based on the ALF application information, the ALF coefficient information, etc. provided from the encoder. Such ALF information may be provided included in a specific parameter set.
  • the memory 240 may store the reconstructed picture or block to use as a reference picture or reference block, and may provide the reconstructed picture to the output unit.
  • a coding unit is used as a coding block for convenience of description, but may be a block for performing decoding as well as encoding.
  • the intra prediction method described in FIGS. 3 to 12 according to an embodiment of the present invention may be implemented in the functions of the respective modules described above with reference to FIGS. 1 and 2, and such an encoder and a decoder are within the scope of the present invention. Included in
  • the intra prediction mode of the current prediction block may be predicted from the intra prediction mode of the neighboring block.
  • the prediction method of the intra prediction mode is called MPM (Most Probable Mode).
  • the first MPM and the second MPM are based on the intra prediction mode or the frequently used intra prediction mode of the block existing on the left and top of the current block. If it is set and the intra prediction mode of the current block is the same as at least one of the intra prediction modes of the first MPM and the second MPM, information indicating that the intra prediction mode of the current block is the same as the intra prediction mode of the MPM is displayed.
  • prev_intra_pred_flag it is possible to indicate which intra prediction mode among the first MPM and the second MPM and the intra prediction mode of the current prediction block are the same through the mpm_idx information. If the intra prediction mode of the current block and the intra prediction mode of the MPM are not the same, information about the intra prediction mode of the current block may be encoded by rem_intra_luma_pred_mode information.
  • FIG. 3 is a flowchart illustrating a method of decoding an intra prediction mode of a current block according to an embodiment of the present invention.
  • prev_intra_pred_flag information may be decoded to decode intra prediction picture information of the current block (step S300).
  • step S310 It is determined whether the decoded prev_intra_pred_flag information is 1 or 0 (step S310).
  • the prev_intra_pred_flag information when the prev_intra_pred_flag information is 1, it is determined that the intra prediction mode of the MPM and the current block are the same, and when the prev_intra_pred_flag information is 0, it is determined that the intra prediction mode information of the MPM and the current block is different, but the prev_intra_pred_flag information is It is also possible to use other binarization methods or other information display methods.
  • the intra prediction mode of the current block is decoded by mpm_idx so that the intra prediction mode of the current block is either the first MPM or the second MPM. Information as to whether or not the mode is the same can be obtained (step S320). If prev_intra_pred_flag determines that the intra prediction mode of the current block and the intra prediction mode of the MPM are not the same, the intra prediction mode of the current block decodes the remaining mode information rem_intra_luma_pred_mode to decode the intra block prediction information of the current block. It can be obtained (step S330).
  • code word information mapped to an intra prediction mode may be used.
  • Table 1 below shows an exponential golem coding method, which is one of methods for binarizing intra prediction mode information.
  • the smaller the code number on the codeword mapping table may be mapped to a shorter codeword. That is, when a short codeword is mapped to frequently occurring information, the same information can be represented by a shorter bitstream, so that the encoding / decoding efficiency increases.
  • Table 2 below lists the order of the intra prediction mode according to an embodiment of the present invention. Table 2 may be written as Table 3.
  • Table 4 below is a table mapping the intra prediction modes and the codewords according to an embodiment of the present invention. Codewords in Table 4 are arbitrarily set, and other codewords may be used to map information on the current intra prediction mode, unless the nature of the present invention is lost.
  • the shorter length of the intra prediction mode is generated by mapping a shorter codeword to a frequently occurring intra prediction mode. It can have a codeword of.
  • the shortest or earliest mapped codewords are defined as first codewords based on the order generated in the embodiment of the present invention, and the second codeword, third codeword, fourth codeword, n codeword or the like. That is, the length of the nth codeword may be shorter or the same as the length of the nth + 1 codeword, but the length of the nth codeword cannot be longer than the length of the nth + 1 codeword (where n is an integer). ).
  • the planar mode and the DC mode which are non-directional intra prediction modes, are frequently used among the intra prediction modes, whereas the intra intra prediction mode occurs relatively little. Accordingly, in an embodiment of the present invention, a short codeword is mapped to a prediction mode in a non-directional picture, and a codeword longer than a codeword mapped to a prediction mode in a non-directional picture is mapped to a prediction mode in a directional picture. Encoding and decoding efficiency can be improved.
  • Tables 5 and 6 are tables showing different binary coding methods according to intra prediction modes in the embodiments of the present invention.
  • Table 5 shows the case where 19 modes are used as the intra prediction mode
  • Table 6 shows the binarization method for representing the intra prediction mode when the 35 modes are used as the intra prediction mode.
  • an unary code and a fixed length may be used as a binary encoding method for representing the intra prediction mode of the current block.
  • the intra prediction mode when the intra prediction mode is 0 or 1, the prefix using the unary code may be fixed to 0 and the fixed length for distinguishing the intra prediction mode 0 and 1 from 0 or 1 may be expressed as 1 bit. have.
  • the intra prediction mode when the intra prediction mode is 2 to 5, the prefix using the unary code may be fixed to 10 and the fixed length may be represented by 2 bits to distinguish the intra prediction modes 2 to 5. In this way, codewords and intra prediction modes can be mapped using unary code and fixed length. Table 6 can also binarize the prediction mode information in the screen in this manner.
  • FIG. 4 is a conceptual diagram illustrating a method of encoding an intra prediction mode according to an embodiment of the present invention.
  • a codeNum mapping table may be used when encoding an intra prediction mode.
  • the determined intra prediction mode which is t th in the codenum mapping table, and ( t-1)
  • the first intra prediction mode By swapping the first intra prediction mode by increasing the rank in the code-numeration mapping table of the frequently occurring intra prediction modes, the smaller number of times when the next intra prediction mode becomes the frequently occurring intra prediction mode. Codenum can be assigned. As a result, a short codeword is mapped for that codenum.
  • the rearranged Codenum mapping table by increasing the codenum ranking for the t-th intra prediction mode can be used when performing the intra prediction on the next prediction block. Referring to FIG.
  • the determined intra prediction mode is 2, and codewords 2 mapped to the intra prediction modes 2 are read from the codenum mapping table, and codewords mapped to codeword 2 in the codeword mapping table. (“1000”) is output as the result value of the prediction mode in screen 2.
  • the codenum mapping table swaps the prediction mode in the second screen with the prediction mode in the first screen immediately above so that the codenum for the prediction mode in the second screen is 1, and the codenum for the prediction mode in the first screen is Will be modified to 2.
  • the rearranged Codenum mapping table is used to encode an intra prediction mode of the next prediction block.
  • the t th based on the occurrence frequency of the prediction modes in the t th and (t-1) th pictures is used.
  • (t-1) it is determined whether to swap the prediction mode in the second screen. That is, if the frequency of occurrence of the prediction mode in the t th screen is greater than the frequency of occurrence of the prediction mode in the (t-1) th screen, swapping the prediction modes in the t th and (t-1) th screens is performed and rearranged.
  • the codenum mapping table can be used to perform intra prediction on the next prediction block. On the contrary, if the frequency of occurrence of the prediction mode in the t th screen is smaller than the frequency of occurrence of the prediction mode in the t th screen, the current codenum mapping table is not changed without swapping the prediction modes in the two images. Can be used to perform intra prediction on the next prediction block.
  • the occurrence frequency for all intra prediction modes may be periodically reduced to the same ratio.
  • Processes other than the swapping process for the intra prediction mode based on the frequency of the present embodiment may be the same as the above embodiment (swapping directly without using a frequency number).
  • the intra prediction mode number and the code number mapping table of the code number mapping table are the same.
  • the initial code number mapping table for mapping the intra prediction mode number and the code number is determined in advance. Codenum, which is a different number than my prediction mode number, can be mapped.
  • the intra prediction mode when an intra prediction mode is determined, the intra prediction mode may be mapped to a code over value of a code over mapping table.
  • the mapped codenum value may be mapped to a codeword value through a codeword mapping table.
  • FIG. 5 is a conceptual diagram illustrating a method of decoding an intra prediction mode according to an embodiment of the present invention.
  • the decoder has the same initial codeword mapping table and initial codenum mapping table as the encoder.
  • the decoder reads a codeword from a bitstream, obtains a codenum value mapped from a codeword mapping table based on the codeword, and obtains an intra prediction mode mapped to the codenum from a codenum mapping table. Finally, the intra prediction mode of the current block may be determined. In the decoding operation, if an intra prediction mode is determined in the same manner as the encoder, swapping of the intra prediction mode may be performed in the codenum mapping table.
  • the value of the initial codenum mapping table is important to prevent unnecessary swapping. Because such a table can be re-initialized in any unit such as a slice or a frame, a swapping table must be performed after initialization to generate a codenum mapping table reflecting the characteristics of the current slice or frame. Therefore, it is important to map the smaller codenum values to the intra-prediction mode values that frequently occur when setting up the codenum mapping table that maps the intra prediction modes and the codenum values. According to an embodiment of the present invention, the more frequently generated intra prediction mode numbers are mapped to smaller codenum numbers, and consequently, the coding efficiency can be expected by making the codeword length shorter for the intra prediction modes. have.
  • FIG. 6 is a conceptual diagram illustrating a case in which the codenum mapping table according to the embodiment of the present invention is used differently.
  • binary encoding may be performed without using an MPM. That is, a method of rearranging the codenum mapping table may be used based on intra prediction mode information of blocks existing on the left and top of a specific prediction block without generating separate flag information for the MPM. For example, if the intra-prediction modes of the blocks on the left and the top are 2 and 3, 2 and 3 are placed at the top of the codenum mapping table, and the remaining intra-picture prediction modes are deferred to construct the codenum mapping table. Method can be used.
  • the intra-prediction mode of the blocks existing on the left and the top are positioned at the top of the codenum mapping table, and the intra-prediction modes except the intra-prediction modes of the blocks existing on the left and the top are then changed to the codenum mapping table.
  • the codeword corresponding to the intra prediction mode may be generated by using a method arranged on the screen.
  • the intra prediction mode of a specific prediction block is likely to be the same as at least one of the intra prediction modes of a block existing on the left and / or top of the specific prediction block. Shall be. Therefore, in the intra prediction mode, which occurs frequently, the rearrangement of the codenum mapping table should be minimized by placing it on the top of the codenum mapping table.
  • the frequently occurring intra prediction mode may be an intra prediction mode of a block existing on the left side and / or the upper side of a specific prediction block, or may not be the case.
  • the rearrangement may be relatively low, thereby preventing unnecessary rearrangement.
  • the frequently occurring intra picture prediction mode is not the intra picture prediction mode of the block existing on the left and / or the top of the particular prediction block
  • the intra picture prediction mode of the block existing on the left and / or the top of the specific prediction block is used.
  • binary encoding may be performed using MPM in binary encoding the intra prediction mode.
  • the codeword for the MPM is generated by rearranging the codenum mapping table based on the intra prediction mode information of the first and second MPMs of the specific prediction block without generating separate flag information for the MPM. Can be assigned. For example, if the intra prediction modes of the first MPM and the second MPM are 2 and 3, 2 and 3 are positioned at the top of the codenum mapping table, and the remaining intra prediction modes are deferred to configure the codenum mapping table. Method can be used. The other process may be the same as the above embodiment in which the intra prediction mode of the block existing on the left and the top of the specific prediction block is placed on the top of the codenum mapping table.
  • the above-described intra prediction modes may use different numbers of intra prediction modes according to the size of the prediction block.
  • Table 5 below shows the number of intra prediction modes that can be used according to the size of the prediction block.
  • the number of intra prediction modes may be 11, 18, or 19.
  • the number of intra prediction modes may be 35.
  • the 35 intra prediction modes may have intra prediction mode numbers and their names, as shown in Table 6 below.
  • FIG. 7 illustrates a non-directional intra prediction mode and an directional intra prediction mode when using 35 intra prediction modes according to an exemplary embodiment of the present invention.
  • FIG. 8 illustrates a non-directional intra prediction mode and a directional intra prediction mode when 19 intra prediction modes are used according to an embodiment of the present invention.
  • the 19 intra-picture prediction modes may use a method of selecting only the intra-prediction mode for the angular motion by a multiple of 2 from the vertical and horizontal directions. .
  • Using 18 intra prediction modes may be a method of performing intra prediction using intra prediction modes 0 to 17 except for 18 prediction modes.
  • FIG 9 illustrates a non-directional intra prediction mode and a directional intra prediction mode when 11 intra prediction modes are used according to an embodiment of the present invention.
  • the 11 intra-picture prediction modes may use a method of selecting only the intra-prediction mode for the angular motion by a multiple of 4 from the vertical and horizontal directions. .
  • the eleven intra prediction modes are divided into four equal spaces based on VER (mode 2) and HOR (mode 3) to generate nine modes from modes 4 to 10 as shown in FIG.
  • a total of 11 modes can be configured by adding Planar (mode 0) and DC (mode 1) to the nine modes.
  • 11 or 19 intra prediction modes may be used in a 64x64 block or a 4x4 block.
  • the size of the prediction block is 64x64, it means that the block does not need to be divided smaller (eg, 32x32, 16x16, etc.), which can be determined that there is no significant change in the pixel value of the block. Therefore, when all 35 modes are evaluated for such a flat block, the predicted values for most in-picture prediction modes are similar, and there is no significant difference in performance between modes having similar directionality. Therefore, considering the complexity, it may be advantageous in terms of complexity to perform the intra prediction based on only some intra prediction modes rather than evaluating all 35 modes. Therefore, in the present invention, as shown in FIGS. 8 and 9, an intra prediction using any one of 11 intra prediction modes, 18 intra prediction modes, and 19 intra prediction modes for a 64x64 prediction block. Can be performed.
  • the prediction block size is small, and thus the prediction value of each mode generated by the 35 intra-screen prediction modes may be similar, as in the 64x64 prediction block rather than using all 35 intra-screen prediction modes.
  • Intra prediction may be performed using one of 18, or 19 intra prediction modes.
  • encoding efficiency may be increased when a codenum mapping table for the remaining mode is generated except for the MPM.
  • the MPM used in the embodiment of the present invention is used as a general concept of the candidate intra prediction mode for predicting the intra prediction mode value of the current block, and a similar concept such as the most probable remaining mode (MPRM) may be used. Although included in the scope of the present invention, only the MPM is disclosed for the convenience of description.
  • FIG. 10 is a conceptual diagram illustrating a codenum mapping method for a prediction mode in a (remaining) screen except for an MPM according to an embodiment of the present invention.
  • codem mapping may be performed on the remaining intra prediction modes except for 2, 4, and 5 in the codenum mapping table. That is, since the intra prediction mode corresponding to the MPM is not selected when the remaining mode is encoded, the code number value may be assigned only to the remaining mode except the MPM. Codeword values can be mapped to codewords using a codeword mapping table. In this way, codewords are mapped only in the intra prediction mode corresponding to the remaining mode, thereby preventing unnecessary codeword waste. Can raise.
  • codemnum may be generated based on the input codeword, and the intra prediction mode information may be decoded using the mapped codenum mapping table except for the intra prediction mode corresponding to the MPM.
  • FIG. 10 illustrates a case where 11 intra prediction modes are used.
  • 8 remining prediction modes are used. Codewords may be mapped for each other.
  • the prediction mode in the remaining picture is expressed with a fixed length, codewords for the remaining eight intra prediction modes can be mapped with a codeword length of 3 bits.
  • Table 9 below is a fixed length representation of the prediction mode in the remaining screen according to an embodiment of the present invention.
  • a code number may be mapped to a codeword using fixed length coding.
  • the number of remaining modes is 8, 16, and 32, so the total number of remaining modes is an exponential power of 2.
  • the remaining mode is represented by the fixed length of each exponent bit.
  • the following table shows the length of the codeword for indicating the remaining mode when expressed by the fixed length of the exponent bit according to the number of remaining.
  • the codeword for indicating the remaining mode may use 3 bits.
  • the number of intra prediction modes is 19 and the number of MPMs is 3, 4 bits may be used as a codeword for indicating a remaining mode.
  • the number of intra prediction modes is 35 and the number of MPMs is 3, 5 bits may be used as a codeword for indicating a remaining mode. That is, according to an embodiment of the present invention, the number of intra prediction modes of the current block is generated by the exponential power of 2, that is, the remaining mode is represented by the fixed length of each exponent bit. You can decide to. In the above embodiment, it is assumed that the number of MPMs is 3, and when the number of MPMs is changed, the number of intra prediction modes used for intra prediction of the prediction block may vary.
  • FIG. 11 is a conceptual diagram illustrating a portion of an image encoding apparatus and an image decoding apparatus that perform encoding and decoding of an intra prediction mode according to an embodiment of the present invention.
  • the codeword mapping unit 1100 of the image encoding apparatus may receive an intra prediction mode number and generate a codeword.
  • the codeword mapping table 1100 may store a codeword mapping table or perform a binarization operation for generating a codeword mapping table.
  • the codeword mapping unit may be included as a part of the entropy coding unit to operate.
  • a small number of intra prediction modes can be assigned to a non-directional intra prediction mode, such as a DC mode or a planar mode, in which the occurrence rate of the intra prediction mode is high.
  • a codeword mapping table may be generated to allow codewords to be mapped.
  • the codeword mapping unit 1110 of the image decoding apparatus receives a codeword and converts the input codeword into an intra prediction mode number based on the codeword mapping table included in the codeword mapping unit. Can be generated.
  • FIG. 12 is a conceptual diagram illustrating a portion of an image encoding apparatus and an image decoding apparatus that perform encoding and decoding of an intra prediction mode according to an embodiment of the present invention.
  • a part of the image encoding apparatus may include a codenum mapping unit 1200 and a codeword mapping unit 1220.
  • the code number mapping unit 1200 of the image encoding apparatus may receive an intra prediction mode number and output a code number.
  • the codeword may be input and the codeword may be output.
  • Codenum mapping and codeword mapping according to the above-described embodiments may be performed, and a more frequently occurring intra prediction mode number may be mapped to a smaller number of codenums.
  • the codenum mapping unit may perform codenum mapping on the remaining intra prediction modes except the intra prediction mode corresponding to the MPM.
  • the image decoding apparatus may include a codeword mapping unit 1240 and a codenum mapping unit 1260.
  • the codeword mapping unit 1240 may calculate codenum based on the input codeword, and the codeword mapping unit 1260 may receive the codenum and calculate an intra prediction mode number.
  • the codeword mapping unit 1240 may include a codeword mapping table for performing codeword mapping, and the codenum mapping unit 1260 may calculate codenum mapping for calculating an intra prediction mode number based on the input codenum. Tables can be included.
  • the codeword mapping table and the codenum mapping unit may be stored in advance or generated adaptively.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치가 개시되어 있다. 화면 내 예측 방법은 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한지에 대한 정보를 알리는 플래그 정보를 복호하는 단계와 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 현재 블록의 화면 내 예측 모드를 유도하는 단계를 포함할 수 있다. 따라서, 영상 부호화 효율을 높일 수 있다.

Description

화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치
본 발명은 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치에 관한 것으로 더욱 상세하게는 부/복호화 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 고효율의 영상 압축 기술들이 활용될 수 있다.
영상 압축 기술로 현재 픽쳐의 이전 또는 이후 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 화면 내 예측 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.
본 발명의 제1 목적은 영상 부호화 효율을 증가시키기 위한 화면 내 예측 모드 매핑 방법을 제공하는 것이다.
본 발명의 제2 목적은 영상 부호화 효율을 증가시키기 위한 화면 내 예측 모드 매핑 방법을 수행하는 장치를 제공하는 것이다.
상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 측면에 따른 화면 내 예측 방법은 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한지에 대한 정보를 알리는 플래그 정보를 복호하는 단계, 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 상기 현재 블록의 화면 내 예측 모드를 유도하는 단계를 포함할 수 있되, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 상기 현재 블록의 화면 내 예측 모드를 유도하는 단계는 화면 내 예측 모드 정보를 포함하는 테이블을 기초로 수행되고, 상기 테이블은 화면 내 예측 모드와 상기 화면 내 예측 모드의 인덱스 정보를 매핑하는 테이블이고, 상기 테이블에서 화면 내 예측 모드가 planar 모드이면 인덱스 0, 화면 내 예측 모드가 DC 모드이면 인덱스 1, 방향성 화면 내 예측 모드이면 화면 내 예측 모드의 방향성에 따라 인덱스 2 내지 34에 매핑될 수 있다. 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소는 고정된 5 비트를 사용하여 부호화된 값으로서 상기 5 비트의 정보는 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드 정보 중 하나의 화면 내 예측 모드를 지시하는 정보일 수 있다. 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드는 상기 현재 블록의 주변 블록을 기초로 유도된 화면 내 예측 모드 및 추가의 화면 내 예측 모드를 기초로 유도된 3개의 서로 다른 화면 내 예측 모드일 수 있다. 상기 플래그 정보는 상기 플래그 정보가 1인 경우, 상기 플래그 정보를 기초로 상기 현재 블록의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한 것을 지시하고, 상기 플래그 정보가 0인 경우, 상기 플래그 정보를 기초로 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 것으로 지시할 수 있다. 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 상기 현재 블록의 화면 내 예측 모드를 유도하는 단계는 상기 테이블에서 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드인 3개의 화면 내 예측 모드를 제외한 상기 나머지 32개의 화면 내 예측 모드 정보를 유도하는 단계, 상기 나머지 32개의 화면 내 예측 모드 정보와 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 매핑하는 단계와 상기 나머지 32개의 화면 내 예측 모드 정보 중 상기 구문 요소와 매핑된 하나의 화면 내 예측 모드를 상기 현재 블록의 화면 내 예측 모드로 설정하는 단계를 포함할 수 있다.
상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 복호화 장치는 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한지에 대한 정보를 알리는 플래그 정보 및 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호하도록 구현되는 엔트로피 복호화부, 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 상기 복호화된 구문 요소를 기초로 상기 현재 블록의 화면 내 예측 모드를 유도하는 예측부를 포함하되, 상기 테이블은 화면 내 예측 모드와 상기 화면 내 예측 모드의 인덱스 정보를 매핑하는 테이블이고, 상기 테이블에서 화면 내 예측 모드가 planar 모드이면 인덱스 0, 화면 내 예측 모드가 DC 모드이면 인덱스 1, 방향성 화면 내 예측 모드이면 화면 내 예측 모드의 방향성에 따라 인덱스 2 내지 34 에 매핑될 수 있다. 상기 구문 요소는 고정된 5 비트를 사용하여 부호화된 값으로서 상기 5 비트의 정보는 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드 정보 중 하나의 화면 내 예측 모드를 지시하는 정보일 수 있다. 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드는 상기 현재 블록의 주변 블록을 기초로 유도된 화면 내 예측 모드 및 추가의 화면 내 예측 모드를 기초로 유도된 3개의 서로 다른 화면 내 예측 모드일 수 있다. 상기 플래그 정보는 상기 플래그 정보가 1인 경우, 상기 플래그 정보를 기초로 상기 현재 블록의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한 것을 지시하고, 상기 플래그 정보가 0인 경우, 상기 플래그 정보를 기초로 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 것으로 지시할 수 있다. 상기 예측부는 상기 테이블에서 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드인 3개의 화면 내 예측 모드를 제외한 상기 나머지 32개의 화면 내 예측 모드 정보를 유도하고, 상기 나머지 32개의 화면 내 예측 모드 정보와 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 매핑하고, 상기 나머지 32개의 화면 내 예측 모드 정보 중 상기 구문 요소와 매핑된 하나의 화면 내 예측 모드를 상기 현재 블록의 화면 내 예측 모드로 설정하도록 구현될 수 있다.
상술한 바와 같이 본 발명의 실시예에 따른 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치에 따르면 화면 내 예측 모드 정보를 짧은 비트수를 이용하여 부호화/복호화함으로서 영상 부호화 효율을 높일 수 있다.
도 1은 본 발명의 실시예에 따른 부호화 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 복호화기를 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 현재 예측 단위의 화면 내 예측 모드를 복호화하는 방법을 나타낸 순서도이다.
도 4는 본 발명의 실시예에 따른 화면 내 예측 모드를 부호화하는 방법을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 화면 내 예측 모드를 복호화하는 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 코드넘 매핑 테이블을 사용하지 않는 경우를 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 35개의 화면 내 예측 모드를 사용하는 경우, 비방향성 화면 내 예측 모드와 방향성 화면 내 예측 모드를 나타낸 것이다.
도 8은 본 발명의 실시예에 따른 19개의 화면 내 예측 모드를 사용하는 경우, 비방향성 화면 내 예측 모드와 방향성 화면 내 예측 모드를 나타낸 것이다.
도 9는 본 발명의 실시예에 따른 11개의 화면 내 예측 모드를 사용하는 경우, 비방향성 화면 내 예측 모드와 방향성 화면 내 예측 모드를 나타낸 것이다.
도 10은 본 발명의 실시예에 따른 MPM을 제외한 코드넘 매핑과 코드워드 매핑 방법을 나타낸 개념도이다.
도 11은 본 발명의 실시예에 따른 화면 내 예측 모드의 부호화 및 복호화를 수행하는 영상 부호화 장치 및 영상 복호화 장치의 일부를 나타낸 개념도이다.
도 12는 본 발명의 실시예에 따른 화면 내 예측 모드의 부호화 및 복호화를 수행하는 영상 부호화 장치 및 영상 복호화 장치의 일부를 나타낸 개념도이다.
본 발명의 실시예 및 도면에 개시된 각 구성부들은 영상 부호화 장치의 서로 다른 특징적인 기능들을 나타내기 위해 독립적인 구성으로 개시한 것이다. 각 구성부들이 반드시 분리된 하드웨어나 하나의 소프트웨어 구성 단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벋어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 본 발명에서 개시된 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리 범위에 포함된다.

도 1은 본 발명의 실시예에 따른 부호화 장치를 나타낸 블록도이다.
도 1을 참조하면, 부호화 장치는 분할부(100), 예측부(110), 화면 내 예측부(103), 화면 간 예측부(106), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 부호화부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 포함할 수 있다.
부호화 장치는 이하의 본 발명의 실시예에서 설명하는 영상 부호화 방법에 의해 구현될 수 있으나, 일부의 구성부에서의 동작은 부호화기의 복잡도를 낮추기 위해 또는 빠른 실시간 부호화를 위해 수행되지 않을 수 있다. 예를 들어, 예측부에서 화면 내 예측을 수행함에 있어서, 실시간으로 부호화를 수행하기 위해 모든 화면 내 예측 모드 방법을 사용하여 최적의 화면 내 부호화 방법을 선택하는 방법을 사용하지 않고 일부의 제한적인 개수의 화면 내 예측 모드를 사용하여 그 중에서 하나의 화면 내 예측 모드를 최종 화면 내 예측 모드로 선택하는 방법이 사용될 수 있다. 또 다른 예로 화면 내 예측 또는 화면 간 예측을 수행함에 있어 사용되는 예측 블록의 형태를 제한적으로 사용하도록 하는 것도 가능하다.
부호화 장치에서 처리되는 블록의 단위는 부호화를 수행하는 부호화 단위, 예측을 수행하는 예측 단위, 변환을 수행하는 변환 단위가 될 수 있다. 부호화 단위는 CU(Coding Unit), 예측 단위는 PU(Prediction Unit), 변환 단위는 TU(Transform Unit)라는 용어로 표현될 수 있다.
분할부(100)에서는 하나의 픽쳐를 복수의 부호화 블록, 예측 블록 및 변환 블록의 조합으로 분할하고 소정의 기준(예를 들어, 비용 함수)으로 그 중 하나의 부호화 블록, 예측 블록 및 변환 블록의 조합을 선택하여 픽쳐를 분할할 수 있다. 예를 들어, 픽쳐에서 부호화 단위를 분할하기 위해서는 쿼드 트리 구조(QuadTree Structure)와 같은 재귀적인 트리 구조를 사용할 수 있다. 이하, 본 발명의 실시예에서는 부호화 블록의 의미를 부호화를 하는 블록이라는 의미뿐만 아니라 복호화를 수행하는 블록이라는 의미로도 사용할 수 있다.
예측 블록은 화면 내 예측 또는 화면 간 예측을 수행하는 단위가 될 수 있다. 화면 내 예측을 수행하는 블록은 2Nx2N, NxN과 같은 정사각형 형태의 블록이거나 SDIP(Short Distance Intra Prediction)를 사용하는 직사각형의 형태의 블록의 형태를 가질 수 있다. 화면 간 예측을 수행하는 블록으로는 2Nx2N, NxN과 같은 정사각형의 형태 또는 정사각형 형태의 예측 블록을 동일한 형태로 이분할한 형태인 2NxN, Nx2N 또는 비대칭 형태인 AMP (Asymetric Motion Partitioning)를 사용한 예측 블록 분할 방법이 있다. 예측 블록의 형태에 따라 변환부(115)에서는 변환을 수행하는 방법이 달라질 수 있다.
예측부(110)는 화면 내 예측을 수행하는 화면 내 예측부(103)와 화면 간 예측을 수행하는 화면 간 예측부(106)를 포함할 수 있다. 예측 블록에 대해 화면 간 예측을 사용할 것인지 또는 화면 내 예측을 수행할 것인지를 결정할 수 있다. 예측이 수행되는 처리 단위와 예측 방법이 정해지는 처리 블록의 단위는 다를 수 있다. 예를 들어, 화면 내 예측을 수행함에 있어서 예측 모드는 예측 블록을 기준으로 결정되고, 예측을 수행하는 과정은 변환 블록을 기준으로 수행될 수도 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(115)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(130)에서 부호화되어 복호화기에 전달될 수 있다.
PCM(Pulse Coded Modulation) 부호화 모드를 사용할 경우, 예측부(110)를 통해 예측을 수행하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.
화면 내 예측부(103)에서는 현재 블록(예측 대상이 되는 블록)의 주변에 존재하는 참조 픽셀을 기초로 화면 내 예측된 블록을 생성할 수 있다. 현재 블록에 대한 최적의 화면 내 예측 모드를 산출하기 위해서 현재 블록에 대한 화면 내 예측된 블록을 복수의 화면 내 예측 모드를 사용하여 생성하여 보고 그 중 하나 예측 블록을 선택하여 현재 블록의 예측 블록으로 사용할 수 있다. 화면 내 예측 방법에서 화면 내 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드는 종류가 상이할 수 있다. 색차 정보를 예측하기 위해 휘도 정보를 예측한 화면 내 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.
하나의 화면 내 예측 모드를 사용하여 화면 내 예측을 수행하는 것으로 결정된 현재 블록은 현재 블록의 주변 블록이 화면 내 예측을 수행시 사용한 화면 내 예측 모드 정보로부터 현재 블록의 화면 내 예측 모드를 예측하여 현재 블록의 화면 내 예측 모드 정보를 부호화할 수 있다. 즉, 현재 블록의 화면 내 예측 모드는 현재 블록의 주변에 존재하는 예측 블록의 화면 내 예측 모드로부터 예측할 수 있다. 주변 블록으로부터 예측된 모드 정보를 이용하여 현재 블록의 화면 내 예측 모드를 예측하는 방법으로 아래와 같은 방법을 사용할 수 있다.
1)현재 블록의 화면 내 예측 모드와 주변 블록의 화면 내 예측 모드가 동일할 경우, 소정의 플래그 정보를 부호화하여 현재 블록의 화면 내 예측 모드와 주변 블록의 화면 내 예측 모드가 동일하다는 정보를 전송할 수 있다.
2) 만약, 현재 블록의 화면 내 예측 모드와 주변 블록의 화면 내 예측 모드가 상이할 경우, 현재 블록의 화면 내 예측 모드 정보를 엔트로피 부호화하여 현재 블록의 예측 모드 정보를 부호화할 수 있다.
1) 및 2)에서 현재 블록의 화면 내 예측 모드를 부호화하기 위해 사용하는 주변 블록의 화면 내 예측 모드를 후보 화면 내 예측 모드라는 용어로 정의하여 사용할 수 있다.
위의 1) 및 2)의 방법을 수행함에 있어 주변 블록의 화면 내 예측 모드가 가용하지 않은 경우(예를 들어, 주변 블록이 존재하지 않거나 주변 블록이 화면 간 예측을 수행한 경우), 미리 설정된 특정한 화면 내 예측 모드 값을 후보 화면 내 예측 모드값으로 설정하여 현재 블록의 화면 내 예측 모드를 예측할 수 있다.
화면 내 예측부(103)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 화면 내 예측된 블록을 생성할 수 있다. 현재 블록의 주변 블록이 화면 간 예측을 수행한 블록이어서, 참조 픽셀이 화면 간 예측을 수행하여 예측된 픽셀을 복원한 픽셀일 수 있다. 이러한 경우, 해당 픽셀을 사용하지 않고 주변의 화면 내 예측을 수행한 블록의 픽셀을 참조 픽셀로 사용하여 현재 블록을 화면 내 예측할 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀을 다른 픽셀로 대체하여 사용할 수 있다.
예측 블록은 복수개의 변환 블록을 포함할 수 있는데, 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 동일할 경우, 예측 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 블록에 대한 화면 내 예측을 수행할 수 있다. 하지만, 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 상이하여 예측 블록의 내부에 복수의 변환 블록이 포함되는 경우, 변환 블록을 기준으로 결정된 참조 픽셀을 이용하여 화면 내 예측을 수행할 수 있다.
또한, 하나의 부호화 블록은 복수의 예측 블록으로 분할 될 수 있는데 부호화 블록의 크기가 최소인 경우에 해당하는 최소 부호화 블록에 대해서만 하나의 부호화 블록이 4개의 정사각형 형태의 예측 블록으로 분할되는 NxN 분할을 사용하여 화면 내 예측을 수행할 수 있다.
화면 내 예측 방법은 화면 내 예측 모드에 따라 참조 화소에 MDIS(Mode Dependent Intra Smoothing) 필터를 적용한 후 예측 블록을 생성할 수 있다. 참조 픽셀에 적용되는 MDIS 필터의 종류는 상이할 수 있다. MDIS 필터는 화면 내 예측이 수행되어 화면 내 예측된 블록에 적용되는 추가의 필터로서 참조 픽셀과 예측을 수행 후 생성된 화면 내 예측된 블록에 존재하는 단차를 줄이는데 사용될 수 있다. MDIS 필터링을 수행함에 있어 참조 픽셀과 화면 내 예측된 블록에 포함된 일부 열에 대한 필터링은 화면 내 예측 모드의 방향성에 따라 다른 필터링을 수행할 수 있다.
본 발명의 실시예에 따르면 화면 내 예측을 수행 시 화면 내 예측을 수행하는 현재 블록의 크기에 따라 화면 내 예측을 수행함에 있어 가용한 화면 내 예측 모드의 개수가 달라질 수 있다. 예를 들어, 화면 내 예측의 대상이 되는 현재 블록의 크기에 따라 사용될 수 있는 화면 내 예측 모드의 수가 달라질 수 있다. 따라서 현재 블록에 대한 화면 내 예측을 수행 시 현재 블록의 크기를 판단하여 가용한 화면 내 예측 모드를 다르게 판단하여 화면 내 예측을 수행할 수 있다.
화면 간 예측부(106)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 블록의 정보를 참조하여 예측을 수행할 수 있다. 화면 간 예측부(106)에는 참조 픽쳐 보간부, 움직임 예측부, 움직임 보상부가 포함될 수 있다.
참조 픽쳐 보간부에서는 메모리(150)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.
화면 간 예측부(106)는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 움직임 예측을 수행할 수 있다. 움직임 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 움직임 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 움직임 벡터 값을 가질 수 있다. 화면 간 예측부(106)에서는 여러가지 화면 간 예측 방법 중 하나의 화면 간 예측 방법을 적용하여 현재 블록에 대한 예측을 수행할 수 있다. 화면 간 예측 방법으로는 예를 들어, 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.
예측부(110)에서 생성된 예측된 블록(화면 내 예측 된 블록 또는 화면 간 예측된 블록)과 예측된 블록의 원본 블록과 차이 값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다.
잔차 블록은 변환부(115)로 입력될 수 있다. 변환부(115)에서는 원본 블록과 예측된 블록의 잔차값(residual)정보를 포함한 잔차 블록을 DCT(Discrete Cosine Transform) 또는 DST(Discrete Sine Transform)와 같은 변환 방법을 사용하여 변환시킬 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지 DST를 적용할지는 잔차 블록을 생성하기 위해 사용된 예측 블록의 화면 내 예측 모드 정보 및 예측 블록의 크기 정보를 기초로 결정할 수 있다. 즉, 변환부에서는 예측 블록의 크기 및 예측 방법에 따라 변환 방법을 다르게 적용할 수 있다.
양자화부(120)는 변환부(115)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공될 수 있다.
재정렬부(125)는 양자화된 잔차 값에 대해 계수 값의 재정렬을 수행할 수 있다. 재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(125)에서는 지그-재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 블록의 크기 및 화면 내 예측 모드에 따라 지그-재그 스캔 방법이 아닌 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔 방법, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔 방법이 사용될 수 있다. 즉, 변환 블록의 크기 및 화면 내 예측 모드에 따라 지그-재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.
엔트로피 부호화부(130)는 재정렬부(125)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.
엔트로피 부호화부(130)는 재정렬부(125) 및 예측부(110)로부터 부호화 블록의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 블록 정보 및 전송 단위 정보, 움직임 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 제공받아 소정의 부호화 방법을 기초로 엔트로피 부호화를 수행할 수 있다. 또한, 엔트로피 부호화부(130)에서는 재정렬부(125)에서 입력된 부호화 단위의 계수값을 엔트로피 부호화할 수 있다.
엔트로피 부호화부(130)에서는 CABAC을 이용한 HEB(High Efficiency Binarization) 방법 또는 CABAC의 bypass 코딩을 CAVLC 계수 이진화 방법을 활용하는 HTB(High Throughput Binarization) 방법을 통해 엔트로피 코딩을 수행할 수 있다.
엔트로피 부호화부(130)에서는 화면 내 예측 모드 정보에 대한 이진화를 수행하여 현재 블록의 화면 내 예측 모드 정보를 부호화할 수 있다. 엔트로피 부호화부(130)에는 이러한 이진화 동작을 수행하기 위한 코드워드 매핑부가 포함될 수 있고, 화면 내 예측을 수행하는 예측 블록의 크기에 따라 이진화를 다르게 수행할 수 있다. 코드워드 매핑부에서는 코드워드 매핑 테이블이 이진화 동작을 통해 적응적으로 생성되거나 미리 저장되어 있을 수 있다. 또 다른 실시예로 엔트로피 부호화부(130)에서 코드넘 매핑을 수행하는 코드넘 매핑부와 코드워드 매핑을 수행하는 코드워드 매핑부를 이용하여 현재 화면 내 예측 모드 정보를 표현할 수 있다. 코드넘 매핑부와 코드워드 매핑부에서는 코드넘 매핑 테이블과 코드워드 매핑 테이블이 생성되거나 저장되어 있을 수 있다.
역양자화부(135) 및 역변환부(140)에서는 양자화부(120)에서 양자화된 값들을 역양자화하고 변환부(115)에서 변환된 값들을 역변환한다. 역양자화부(135) 및 역변환부(140)에서 생성된 잔차값(Residual)은 예측부(110)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 예측 블록과 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.
필터부(145)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.
디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링을 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행처리가 되도록 할 수 있다.
오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.
ALF (Adaptive Loop Filter)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 영상에 포함된 픽셀을 적어도 하나 이상의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF의 크기 및 계수는 달라질 수 있다. ALF는 다양한 형태를 가질 수 있으며, 필터에 그에 따라 포함되는 계수의 개수도 달라질 수 있다. 이러한 ALF의 필터링 관련 정보(필터 계수 정보, ALF On/Off 정보, 필터 형태 정보)는 비트스트림 형태로 파라메터 셋에 포함되어 전송될 수 있다.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 화면 간 예측을 수행 시 예측부(110)에 제공될 수 있다.
도 2는 본 발명의 실시예에 따른 복호화기를 나타낸 블록도이다.
도 2를 참조하면, 복호화기는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235), 메모리(240)가 포함될 수 있다.
부호화기에서 비트스트림이 입력된 경우, 입력된 비트스트림은 부호화기와 반대의 절차로 복호화될 수 있다.
엔트로피 복호화부(210)는 부호화기의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 엔트로피 복호화부(210)에서 복호화된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(230)로 제공되고 엔트로피 복호화부에서 엔트로피 복호화를 수행한 잔차값은 재정렬부(215)로 입력될 수 있다.
엔트로피 복호화부(210)에서도 엔트로피 부호화부와 마찬가지로 CABAC을 이용한 HEB 또는 CAVLC의 계수 코딩 방법을 활용하는 HTB 방법 중 적어도 하나의 방법을 사용하여 역 변환을 수행할 수 있다.
엔트로피 복호화부(210)에서는 부호화기에서 수행된 화면 내 예측 및 화면 간 예측에 관련된 정보를 복호화할 수 있다. 엔트로피 복호화부에는 코드워드 매핑부가 포함되어 수신된 코드워드를 화면 내 예측 모드 번호로 생성하기 위한 코드워드 매핑 테이블을 포함될 수 있다. 코드워드 매핑 테이블은 미리 저장되어 있거나 적응적으로 생성될 수 있다. 코드넘 매핑 테이블을 사용할 경우, 코드넘 매핑을 수행하기 위한 코드넘 매핑부가 추가적으로 구비될 수 있다.
재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1 차원 벡터 형태로 표현된 계수들을 다시 2 차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부에서는 부호화부에서 수행된 계수 스캐닝에 관련된 정보를 제공받고 해당 부호화부에서 수행된 스캐닝 순서에 기초하여 역으로 스캐닝하는 방법을 통해 재정렬을 수행할 수 있다.
역양자화부(220)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수 값을 기초로 역양자화를 수행할 수 있다.
역변환부(225)는 부호화기에서 수행한 양자화 결과에 대해 변환부에서 수행한 DCT 및 DST에 대해 역 DCT 및 역 DST를 수행할 수 있다. 역변환은 부호화기에서 결정된 전송 단위를 기초로 수행될 수 있다. 부호화기의 변환부에서는 DCT와 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 복호화기의 역변환부(225)에서는 부호화기의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.
변환을 수행 시 변환 블록이 아닌 부호화 블록을 기준으로 변환을 수행할 수 있다.
예측부(230)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(240)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다.
전술한 바와 같이 부호화기에서의 동작과 동일하게 화면 내 예측을 수행 시 예측 블록의 크기와 변환 블록의 크기가 동일할 경우, 예측 블록의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 블록에 대한 화면 내 예측을 수행하지만, 화면 내 예측을 수행시 변환 블록이 예측 블록에 포함되는 경우, 변환 블록을 기준으로 한 참조 픽셀을 이용하여 화면 내 예측을 수행할 수 있다. 또한, 전술한 바와 같이 최소 크기의 부호화 블록에 대해서만 NxN 분할을 사용하는 화면 내 예측을 사용할 수 있다.
예측부(230)는 예측 단위 판별부, 화면 간 예측부 및 화면 내 예측부를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부에서 입력되는 예측 단위 정보, 화면 내 예측 방법의 예측 모드 정보, 화면 간 예측 방법의 움직임 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 블록에서 예측 블록을 구분하고, 예측 블록이 화면 간 예측을 수행하는지 아니면 화면 내 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부는 부호화기에서 제공된 현재 예측 블록의 화면 간 예측에 필요한 정보를 이용해 현재 예측 블록이 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 블록에 대한 화면 간 예측을 수행할 수 있다.
화면 간 예측을 수행하기 위해 부호화 블록을 기준으로 해당 부호화 블록에 포함된 예측 블록의 움직임 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다.
화면 내 예측부는 현재 픽쳐 내의 화소 정보를 기초로 예측 블록을 생성할 수 있다. 예측 블록이 화면 내 예측을 수행한 예측 블록인 경우, 부호화기에서 제공된 예측 블록의 화면 내 예측 모드 정보를 기초로 화면 내 예측을 수행할 수 있다. 화면 내 예측부에는 MDIS 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. MDIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로서 현재 예측 블록의 화면 내 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 부호화기에서 제공된 예측 블록의 예측 모드 및 MDIS 필터 정보를 이용하여 현재 블록의 참조 화소에 MDIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 MDIS 필터링을 수행하지 않는 모드일 경우, MDIS 필터는 적용되지 않을 수 있다. 또한, 부호화기에서 마찬가지로 예측 블록을 생성 후 참조 픽셀과 함께 추가적으로 필터링을 수행할 수 있다.
참조 화소 보간부는 예측 블록의 예측 모드가 참조 화소를 보간한 화소값을 기초로 화면 내 예측을 수행하는 예측 블록일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 예측 블록의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
복원된 블록 또는 픽쳐는 필터부(235)로 제공될 수 있다. 필터부(235)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.
부호화기로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 복호화기의 디블록킹 필터에서는 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다. 부호화기에서와 마찬가지로 우선 수직 디블록킹 필터링 및 수평 디블록킹 필터링을 수행하되, 겹치는 부분에 있어서는 수직 디블록킹 및 수평 디블록킹 중 적어도 하나를 수행할 수 있다. 수직 디블록킹 필터링 및 수평 디블록킹 필터링이 겹치는 부분에서 이전에 수행되지 못한 수직 디블록킹 필터링 또는 수평 디블록킹 필터링이 수행될 수 있다. 이러한 디블록킹 필터링 과정을 통해서 디블록킹 필터링의 병행 처리(Parallel Processing)이 가능하다.
오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.
ALF(adaptive loop filter)는 필터링을 수행 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 ALF를 적용할 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.
메모리(240)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.
전술한 바와 같이 이하, 본 발명의 실시예에서는 설명의 편의상 코딩 유닛(Coding Unit)을 부호화 블록이라는 용어로 사용하지만, 부호화 뿐만 아니라 복호화를 수행하는 블록이 될 수도 있다. 이하, 본 발명의 실시예에 따른 도 3내지 도 12에서 설명하는 화면 내 예측 방법은 도 1 및 도 2에서 전술한 각 모듈의 기능에서 맞게 구현될 수 있고 이러한 부호화기 및 복호화기는 본 발명의 권리 범위에 포함된다.

현재 예측 블록의 화면 내 예측 모드는 주변 블록의 화면 내 예측 모드로부터 예측될 수 있다. 이러한 화면 내 예측 모드의 예측 방법을 MPM(Most Probable Mode)이라고 하는데 현재 블록의 좌측 및 상단에 존재하는 블록의 화면 내 예측 모드 또는 자주 사용되는 화면 내 예측 모드를 기초로 제 1 MPM 및 제 2 MPM을 설정하고 현재 블록의 화면 내 예측 모드가 제 1 MPM 및 제 2 MPM의 화면 내 예측 모드 중 적어도 하나와 같다면 현재 블록의 화면 내 예측 모드가 MPM의 화면 내 예측 모드와 같다라는 정보를 표시하는 정보인 prev_intra_pred_flag를 사용하며, mpm_idx 정보를 통해 제 1 MPM, 제 2 MPM 중 어떠한 화면 내 예측 모드와 현재 예측 블록의 화면 내 예측 모드가 동일한지를 표시할 수 있다. 만약 현재 블록의 화면 내 예측 모드와 MPM의 화면 내 예측 모드가 동일하지 않은 경우, 현재 블록의 화면 내 예측 모드에 대한 정보는 rem_intra_luma_pred_mode 정보로 부호화할 수 있다.

도 3은 본 발명의 실시예에 따른 현재 블록의 화면 내 예측 모드를 복호화하는 방법을 나타낸 순서도이다.
도 3을 참조하면, 현재 블록의 화면 내 예측 모드 정보를 복호화하기 위해 전술한 prev_intra_pred_flag 정보를 복호화할 수 있다(단계 S300).
복호화된 prev_intra_pred_flag 정보가 1인지 0인지 여부를 판단한다(단계 S310).
본 발명의 실시예에서는 prev_intra_pred_flag 정보가 1인 경우 MPM과 현재 블록의 화면 내 예측 모드가 동일하다고 판단하고 prev_intra_pred_flag 정보가 0인 경우, MPM과 현재 블록의 화면 내 예측 모드 정보가 다르다고 판단하지만, prev_intra_pred_flag 정보에 대한 다른 이진화 방법 또는 다른 정보 표시 방법을 사용하는 것도 가능하다.
만약, prev_intra_pred_flag를 통해 현재 블록의 화면 내 예측 모드와 MPM의 화면 내 예측 모드가 동일하다고 판단되는 경우, mpm_idx를 복호화하여 현재 블록의 화면 내 예측 모드가 제 1 MPM 또는 제 2 MPM 중 어떠한 화면 내 예측 모드와 동일한지 여부에 대한 정보를 얻을 수 있다(단계 S320). 만약 prev_intra_pred_flag가 현재 블록의 화면 내 예측 모드와 MPM의 화면 내 예측 모드가 동일하지 않다고 판단되는 경우, 현재 블록의 화면 내 예측 모드는 나머지 모드 정보인 rem_intra_luma_pred_mode 정보를 복호화하여 현재 블록의 화면 내 예측 모드 정보를 얻을 수 있다(단계 S330).
rem_intra_luma_pred_mode 정보를 부화화/복호화하기 위해서는 화면 내 예측 모드에 매핑된 코드 워드 정보를 이용할 수 있다. 아래의 표 1은 화면 내 예측 모드 정보를 이진화 하는 방법 중 하나인 지수 골룸 부호화 방법을 나타낸 것이다.
<표 1>
Figure PCTKR2013000370-appb-I000001

표 1을 참조하면, 코드워드 매핑 테이블 상에서 코드 번호가 작을수록 짧은 코드워드로 매핑될 수 있다. 즉, 자주 발생하는 정보에 짧은 코드워드를 매핑하는 경우, 동일한 정보를 더 짧은 비트스트림으로 표현할 수 있으므로 부호화/복호화 효율이 증가한다는 것을 알 수 있다.
아래의 표 2는 본 발명의 실시예에 따른 화면 내 예측 모드에 대한 순서를 나열한 것이다. 표 2는 표 3 와 같이 표기할 수도 있다.
<표 2>
Figure PCTKR2013000370-appb-I000002
<표 3>
Figure PCTKR2013000370-appb-I000003


아래의 표 4는 본 발명의 실시예에 따른 화면 내 예측 모드와 코드워드를 매핑해놓은 표이다. 표 4에서의 코드워드는 임의로 설정해놓은 것으로서 본 발명의 본질에 벋어나지 않는 한 다른 코드워드를 사용하여 현재 화면 내 예측 모드에 대한 정보를 매핑할 수 있다.
<표 4>
Figure PCTKR2013000370-appb-I000004

표 4를 참조하면, 본 발명의 실시예에 따른 화면 내 예측 모드와 코드워드의 매핑 방법에서는 자주 발생하는 화면 내 예측 모드에 짧은 길이의 코드워드를 매핑하여 자주 발생하는 화면 내 예측 모드일수록 짧은 길이의 코드워드를 가지도록 할 수 있다.
이하 본 발명의 실시예에서 생성되는 순서에 기초하여 가장 짧거나 가장 먼저 매핑되는 코드워드를 제1 코드워드라고 정의하고 그 다음 순서로 제2 코드워드, 제3 코드워드, 제4 코드워드, 제n 코드워드 등으로 표현할 수 있다. 즉, 제n 코드워드의 길이는 제n+1 코드워드의 길이보다 짧거나 동일할 수는 있으나 제n 코드워드의 길이는 제n+1 코드워드의 길이보다 길 수는 없다(여기서 n은 정수).
화면 내 예측 방법으로 부호화되는 경우, 화면 내 예측 모드 중 비방향성 화면 내 예측 모드인 플레이너 모드와 DC 모드가 자주 사용되고, 그에 반해 방향성 화면 내 예측 모드는 상대적으로 조금 발생한다. 따라서, 본 발명의 실시예에서는 비방향성 화면 내 예측 모드에 짧은 코드워드가 매핑되도록 하고, 방향성 화면 내 예측 모드를 비방향성 화면 내 예측 모드에 매핑된 코드워드보다 긴 코드워드가 매핑되도록 함으로서 영상의 부호화 및 복호화 효율을 높힐 수 있다.

표 5 및 표 6는 본 발명의 실시예에 화면 내 예측 모드에 따라 다른 이진 부호화 하는 방법을 나타낸 표이다.
<표 5>
Figure PCTKR2013000370-appb-I000005
<표 6>
Figure PCTKR2013000370-appb-I000006

표 5은 화면 내 예측 모드로 19 가지의 모드를 사용할 경우를 나타낸 것이고 표 6는 화면 내 예측 모드로 35 가지의 모드를 사용할 경우에 화면 내 예측 모드를 표현하기 위한 이진화 방법을 나타낸 것이다.
표 5 및 표 6를 참조하면, 현재 블록의 화면 내 예측 모드를 표현하기 위한 이진 부호화 방법으로 unary 코드와 fixed length를 사용할 수 있다. 표 5을 참조하면, 화면 내 예측 모드가 0 또는 1일 경우, unary code를 이용한 prefix는 0으로 고정하고 화면 내 예측 모드인 0과 1을 구분해주기 위한 fixed length를 0 또는 1로 1비트로 표현할 수 있다. 또, 화면 내 예측 모드가 2 내지 5인 경우, unary code를 이용한 prefix는 10으로 고정하고 화면 내 예측 모드 2 내지 5를 구분하기 위해 fixed length를 2비트로 표현할 수 있다. 이러한 방식으로 unary code 와 fixed length를 이용하여 코드워드와 화면 내 예측 모드를 매핑시킬 수 있다. 표 6도 이러한 방식으로 화면 내 예측 모드 정보를 이진화하여 표현할 수 있다.
표 5 및 표 6의 경우도 표 2와 마찬가지로 화면 내 예측 모드 번호가 작을수록 이진화 시 짧은 코드워드로 생성되는 방법을 사용할 수 있다. 따라서 본 발명의 실시예에 따르면 작은 번호의 화면 내 예측 모드에 자주 발생되는 화면 내 예측 모드를 배치함으로서 적은 비트로 해당 정보를 표현할 수 있어 부호화 효율을 높일 수 있다.

도 4는 본 발명의 실시예에 따른 화면 내 예측 모드를 부호화하는 방법을 나타낸 개념도이다.
도 4를 참조하면, 본 발명의 실시예에 따르면, 화면 내 예측 모드를 부호화함에 있어서 코드넘 매핑 테이블(codeNum mapping table)을 사용할 수 있다.
전술한 표 5 또는 표 6의 실시예와 달리 코드넘 매핑 테이블(codeNum mapping table)을 사용할 경우, 임의의 화면 내 예측 모드가 결정되면, 코드넘 매핑 테이블에서 t 번째인 결정된 화면 내 예측 모드와 (t-1) 번째 화면 내 예측 모드를 스와핑함으로서 자주 발생한 화면 내 예측 모드의 코드넘 매핑 테이블 내 순위를 올려 줌으로서 다음 번 화면 내 예측 모드가 상기 자주 발생한 화면 내 예측 모드가 되는 경우 더 작은 수의 코드넘을 할당 받을 수 있다. 결과적으로 해당 코드넘에 대해 짧은 코드워드가 매핑되도록 한다. 즉, t 번째 화면 내 예측 모드에 대한 코드넘 순위를 높여 재배열된 코드넘 매핑 테이블은 다음 예측 블록에 대한 화면 내 예측 수행 시 사용할 수 있다. 도 4를 보면, 결정된 화면 내 예측 모드는 2가 되고, 2번 화면 내 예측 모드에 매핑되는 코드넘 2를 코드넘 매핑 테이블에서 읽어와서, 코드워드 매핑 테이블에서 2번 코드넘에 매핑되는 코드워드(“1000”)를 2번 화면 내 예측 모드의 결과 값으로 출력하게 된다. 또한, 코드넘 매핑 테이블은 2번 화면 내 예측 모드와 바로 상위에 위치한 1번 화면 내 예측 모드를 스와핑 하여 2번 화면 내 예측 모드를 위한 코드넘은 1로, 1번 화면 내 예측 모드를 위한 코드넘은 2로 수정되게 된다. 그리고 이렇게 재배열된 코드넘 매핑 테이블은 다음 예측 블록의 화면 내 예측 모드 부호화 시 이용하게 된다.또 다른 실시예에서는 t 번째 및 (t-1) 번째 화면 내 예측 모드의 발생 빈도수를 기반으로 t 번째 및 (t-1) 번째 화면 내 예측 모드의 스와핑 여부를 결정한다. 즉, t 번째 화면 내 예측 모드의 발생 빈도수가 (t-1) 번째 화면 내 예측 모드의 발생 빈도수 보다 크면, t 번째 및 (t-1) 번째 화면 내 예측 모드의 스와핑을 실행하고, 재배열된 코드넘 매핑 테이블은 다음 예측 블록에 대한 화면 내 예측 수행 시 사용할 수 있다. 반대로, t 번째 화면 내 예측 모드의 발생 빈도수가 (t-1) 번째 화면 내 예측 모드의 발생 빈도수 보다 작으면, 상기 두 화면 내 예측 모드에 대한 스와핑을 실시하지 않고, 현재의 코드넘 매핑 테이블을 다음 예측 블록에 대한 화면 내 예측 수행 시 사용할 수 있다. 이때, 모든 화면 내 예측 모드에 대한 발생 빈도수가 무한히 증가하는 것을 방지하기 위해 주기적으로 모든 화면 내 예측모드에 대한 발생 빈도수를 동일한 비율로 줄일 수 있다. 본 실시예의 빈도수를 기반한 화면 내 예측 모드에 대한 스와핑 과정 이외의 다른 과정(예를 들어, 코드워드를 결정하는)은 상기 실시예(빈도수를 이용하지 않고 바로 스와핑하는)와 동일할 수 있다.
도 4에서는 설명의 편의상 화면 내 예측 모드 번호와 코드넘 매핑 테이블의 코드넘 번호가 동일하다고 가정하나 또 다른 실시예에서는 화면 내 예측 모드 번호와 코드넘을 매핑하는 초기 코드넘 매핑 테이블이 미리 결정되어 화면 내 예측 모드 번호와 상이한 번호인 코드넘을 매핑할 수 있다.
도 4를 참조하면, 임의의 화면 내 예측 모드가 결정되는 경우, 화면 내 예측 모드는 코드넘 매핑 테이블의 코드넘값으로 매핑될 수 있다. 매핑된 코드넘값은 코드워드 매핑 테이블을 통하여 코드워드값으로 매핑될 수 있다.

도 5는 본 발명의 실시예에 따른 화면 내 예측 모드를 복호화하는 방법을 나타낸 개념도이다.
도 5를 참조하면, 복호화기는 부호화기와 동일한 초기 코드워드 매핑 테이블과 초기 코드넘 매핑 테이블을 가진다. 복호화기는 비트스트림부터 코드워드를 읽어와, 해당 코드워드를 기초로 코드워드 매핑 테이블로부터 매핑되는 코드넘 값을 얻어오고, 상기 코드넘에 매핑되는 화면 내 예측 모드를 코드넘 매핑 테이블로부터 얻어오면, 최종적으로 현재 블록의 화면 내 예측 모드를 결정할 수 있다. 복호화 동작에서도 부호화기와 동일하게 임의의 화면 내 예측 모드가 결정되면, 코드넘 매핑 테이블에서 상기 화면 내 예측 모드에 대한 스와핑을 수행할 수 있다.
위와 같은 방법을 수행하는 경우, 불필요한 스와핑을 방지하기 위해서 초기 코드넘 매핑 테이블의 값이 중요하다. 왜냐하면, 이러한 테이블은 슬라이스 또는 프레임과 같은 임의의 단위에서 다시 초기화될 수 있기 때문에 초기화 후 다시 스와핑을 수행하여야만 현재 슬라이스 또는 프레임의 성격을 반영한 코드넘 매핑 테이블이 생성될 수 있다. 따라서 화면 내 예측 모드와 코드넘값을 매핑시키는 코드넘 매핑 테이블을 설정 시 자주 발생하는 화면 내 예측 모드값에 대하여 더 작은 코드넘값을 매핑하는 것이 중요하다. 본 발명의 실시예에 따르면, 더 자주 발생하는 화면 내 예측 모드 번호일수록 더 작은 코드넘 번호를 매핑시키고, 결과적으로 상기 화면 내 예측 모드에 대한 코드워드의 길이를 더 짧게 하여 부호화 효율을 기대 할 수 있다.

도 6은 본 발명의 실시예에 따른 코드넘 매핑 테이블을 다르게 사용하는 경우를 나타낸 개념도이다.
도 6을 참조하면, 화면 내 예측 모드를 이진 부호화함에 있어서 MPM을 사용하지 않고, 이진 부호화를 수행할 수 있다. 즉, MPM을 위한 별도의 플래그 정보를 생성하지 않고 특정한 예측 블록의 좌측 및 상단에 존재하는 블록의 화면 내 예측 모드 정보를 기초로 코드넘 매핑 테이블을 재배열하는 방법을 사용할 수 있다. 예를 들어, 좌측 및 상단에 존재하는 블록의 화면 내 예측 모드가 2 및 3일 경우, 2와 3을 코드넘 매핑 테이블 상단에 위치시키고 나머지 화면 내 예측 모드를 뒤로 미뤄서 코드넘 매핑 테이블을 구성하는 방법을 사용할 수 있다. 즉, 좌측 및 상단에 존재하는 블록의 화면 내 예측 모드를 코드넘 매핑 테이블 상의 상단에 위치시키고 그 이후 좌측 및 상단에 존재하는 블록의 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드를 코드넘 매핑 테이블 상에 배치하는 방법을 사용하여 화면 내 예측 모드에 해당하는 코드워드를 생성할 수 있다.
전술한 코드넘 매핑 테이블 재배열 방법에서는 특정한 예측 블록의 화면 내 예측 모드가 특정한 예측 블록의 좌측 및/또는 상단에 존재하는 블록의 화면 내 예측 모드 중 적어도 하나의 모드와 동일 할 가능성이 크다는 것을 전제로 한다. 따라서 전반적으로 자주 발생하는 화면 내 예측 모드일수록 상기 코드넘 매핑 테이블의 상단에 배치하여야 전술한 코드넘 매핑 테이블의 재배열을 최소화 할 수 있다. 여기서, 자주 발생하는 화면 내 예측 모드가 특정한 예측 블록의 좌측 및/또는 상단에 존재하는 블록의 화면 내 예측 모드이거나, 그렇지 않는 경우가 발생할 수 있다. 만약, 자주 발생하는 화면 내 예측 모드가 특정한 예측 블록의 좌측 및/또는 상단에 존재하는 블록의 화면 내 예측 모드이면, 상대적으로 재배열이 발생할 확률도 낮아지므로 불필요한 재배열을 막을 수 있다. 반대로, 자주 발생하는 화면 내 예측 모드가 특정한 예측 블록의 좌측 및/또는 상단에 존재하는 블록의 화면 내 예측 모드가 아니라면, 특정한 예측 블록의 좌측 및/또는 상단에 존재하는 블록의 화면 내 예측 모드를 코드넘 매핑 테이블의 상단에 위치시키고 나머지 화면 내 예측 모드를 뒤로 미뤄서 코드넘 매핑 테이블을 재배열 할 때, 나머지 화면 내 예측 모드 중에서도 자주 발생하는 화면 내 예측 모드가 상대적으로 작은 코드넘과 매핑되어야만, 더 짧은 코드워드를 할당 받을 수 있다. 결과적으로 자주 발생하는 화면 내 예측모드가 특정한 예측 블록의 좌측 및/또는 상단에 존재하는 블록의 화면 내 예측 모드와 동일하든 아니든 간에 작은 코드넘 번호를 할당 받게 되면, 결과적으로 압축성능 및/또는 복잡도 측면에서 유리할 수 있다.
또 다른 실시 예에서는, 화면 내 예측 모드를 이진 부호화함에 있어서 MPM을 사용하여 이진 부호화를 수행할 수 있다. 그러나, MPM을 위한 별도의 플래그 정보를 생성하지 않고 특정한 예측 블록의 제1 MPM 및 제2 MPM의 화면 내 예측 모드 정보를 기초로 코드넘 매핑 테이블을 재배열하는 방법을 사용하여 MPM에 대한 코드워드를 할당할 수 있다. 예를 들어, 제1 MPM 및 제2 MPM 의 화면 내 예측 모드가 2 및 3일 경우, 2와 3을 코드넘 매핑 테이블 상단에 위치시키고 나머지 화면 내 예측 모드를 뒤로 미뤄서 코드넘 매핑 테이블을 구성하는 방법을 사용할 수 있다. 그 이외의 과정은 특정한 예측 블록의 좌측 및 상단에 존재하는 블록의 화면 내 예측 모드를 코드넘 매핑 테이블 상의 상단에 위치시키는 상기 실시예와 동일할 수 있다

본 발명의 실시예에 따르면 전술한 이러한 화면 내 예측 모드들은 예측 블록의 사이즈에 따라 서로 다른 개수의 화면 내 예측 모드를 사용할 수 있다.
아래의 표 5는 예측 블록의 크기에 따라 사용될 수 있는 화면 내 예측 모드의 수를 나타낸 표이다.
<표 7>
Figure PCTKR2013000370-appb-I000007

표 7을 참조하면, 예측 블록의 크기가 4x4이거나 64x64의 크기인 경우, 화면 내 예측 모드의 수는 11, 18 또는 19개가 사용될 수 있다. 또한, 예측 블록의 크기가 16x16, 32x32, 64x64인 경우, 화면 내 예측 모드의 수는 35개를 사용할 수 있다.
35개의 화면 내 예측 모드는 아래의 표 6과 같이 화면 내 예측 모드 번호와 그에 따른 명칭을 가질 수 있다.
<표 8>

Figure PCTKR2013000370-appb-I000008

도 7은 본 발명의 실시예에 따른 35개의 화면 내 예측 모드를 사용하는 경우, 비방향성 화면 내 예측 모드와 방향성 화면 내 예측 모드를 나타낸 것이다.
예측 블록에 대한 화면 내 예측을 수행하기 위해 35개의 화면 내 예측 모드를 가질 경우, 플레이너, DC, Ver+x(x는 -8에서 8사이의 정수), Hor+x(x는 -7에서 8사이의 정수)일 수 있다.

도 8은 본 발명의 실시예에 따른 19개의 화면 내 예측 모드를 사용하는 경우, 비방향성 화면 내 예측 모드와 방향성 화면 내 예측 모드를 나타낸 것이다.
예측 블록에 대한 화면 내 예측을 수행하기 위해 19개의 화면 내 예측 모드를 가질 경우, planar, DC, Ver+2x(x는 -4에서 4사이의 정수), Hor+2x(x는 -3에서 4사이의 정수)일 수 있다. 즉, 19개의 화면 내 예측 모드는 도 7에서 35개의 화면 내 예측 모드를 사용할 경우와 달리 수직 및 수평 방향으로부터 2의 배수만큼씩의 각도 움직임에 대한 화면 내 예측 모드만을 선택하는 방법을 사용할 수 있다.
18개의 화면 내 예측 모드를 사용하는 것은 18번 화면 내 예측 모드를 제외한 0에서 17번까지의 화면 내 예측 모드를 사용하여 화면 내 예측을 수행하는 방법이 될 수 있다.

도 9는 본 발명의 실시예에 따른 11개의 화면 내 예측 모드를 사용하는 경우, 비방향성 화면 내 예측 모드와 방향성 화면 내 예측 모드를 나타낸 것이다.
11개의 화면 내 예측 모드를 가질 경우, planar, DC, Ver+4x(x는 -2에서 2사이의 정수), Hor+4x(x는 -1에서 2사이의 정수)일 수 있다. 즉, 11개의 화면 내 예측 모드는 도 7에서 35개의 화면 내 예측 모드를 사용할 경우와 달리 수직 및 수평 방향으로부터 4의 배수 만큼씩의 각도 움직임에 대한 화면 내 예측 모드만을 선택하는 방법을 사용할 수 있다. 11개의 화면 내 예측 모드는 VER (2번 모드) 및 HOR (3번 모드)을 기준으로 해당 공간을 4등분하여 도 9와 같이 4번 모드부터 10번 모드까지 9개의 모드가 생성된다. 해당 9개의 모드에 Planar (0번 모드) 및 DC (1번 모드)를 더하면 총 11개의 모드가 구성될 수 있다.

도 8과 도 9와 같이 화면 내 예측 모드가 11개 또는 19개는 64x64 블록 또는 4x4 블록에서 사용할 수 있다.
예측 블록의 사이즈가 64x64인 경우 해당 블록이 더 작게 분할(예를 들어, 32x32, 16x16 등) 할 필요가 없다는 것이고, 이는 해당 블록의 화소 값에 큰 변화가 없다고 판단할 수 있다. 따라서 이런 평탄한 블록에 대해 35 가지의 전체 모드를 다 평가하게 되면, 대부분의 화면 내 예측 모드에 대한 예측 값이 비슷하게 나와, 유사 방향성을 가진 모드 별 성능의 큰 차이는 보이지 않는다. 그러므로 복잡도를 고려한다면, 35가지 모드를 다 평가 하는 것 보다는 일부 화면 내 예측 모드만을 기초로 화면 내 예측을 수행하는 것이 복잡도 측면에서 유리 할 수 있다. 그래서, 본 발명에서는 도 8 및 도 9에서와 같이 64x64 예측 블록에 대해 11가지의 화면 내 예측 모드, 18 가지의 화면 내 예측 모드, 19 가지의 화면 내 예측 모드중 어느 하나를 사용하여 화면 내 예측을 수행할 수 있다.
4x4 사이즈의 예측 블록의 경우에도 예측 블록의 크기가 작기 때문에 35개의 화면 내 예측 모드로 만들어진 모드 별 예측 값이 유사 할 수 있어 35개의 모든 화면 내 예측 모드를 사용하기 보다는 64x64 크기의 예측 블록에서처럼 11, 18 또는 19 개의 화면 내 예측 모드 중 하나를 사용하여서 화면 내 예측을 수행할 수 있다.
화면 내 예측 모드가 전술한 바와 같이 11, 19 또는 35개가 사용되고 MPM 모드의 수가 3개인 경우, 만약 MPM을 제외하고 리메이닝 모드에 대한 코드넘 매핑 테이블을 생성할 경우, 부호화 효율을 높힐 수 있다.
이하, 본 발명의 실시예에서 사용되는 MPM은 현재 블록의 화면 내 예측 모드값을 예측하는 후보 화면 내 예측 모드의 일반적인 개념으로 사용하는 것으로서 이와 유사한 개념인 MPRM (Most Probable Remaining Mode)도 사용될 수 있고 본 발명의 권리 범위에 포함되지만 설명의 편의상 MPM에 대해서만 개시한다.

도 10은 본 발명의 실시예에 따른 MPM을 제외한 나머지 (리메이닝) 화면 내 예측 모드에 대하여 코드넘 매핑 방법을 나타낸 개념도이다.
도 10을 참조하면, MPM이 화면 내 예측 모드 번호로 2, 4, 5인 경우, 코드넘 매핑 테이블에서 2, 4, 5를 제외한 나머지 화면 내 예측 모드에 대하여 코드넘 매핑을 수행할 수 있다. 즉, 리메이닝 모드 부호화 시 MPM에 해당하는 화면 내 예측 모드가 선택되지는 않으므로 MPM을 제외한 리메이닝 모드에 대해서만 코드넘값을 부여할 수 있다. 코드넘값은 코드워드 매핑 테이블을 사용하여 코드워드에 매핑될 수 있는데, 이러한 방법을 통해 리메이닝 모드에 해당하는 화면 내 예측 모드에 대해서만 코드워드가 매핑되므로 불필요한 코드워드의 낭비를 막을 수 있어서 부호화 효율을 높힐 수 있다.
복호화 동작을 수행시도 마찬가지로 입력된 코드워드를 기초로 코드넘을 생성하고 MPM에 해당하는 화면 내 예측 모드를 제외하고 매핑된 코드넘 매핑 테이블을 이용하여 화면 내 예측 모드 정보를 복호할 수 있다.
도 10에서는 화면 내 예측 모드가 11개 사용될 경우를 나타낸 것으로 11개의 화면 내 예측 모드를 사용하여 예측 블록에 대한 화면 내 예측을 수행하고 MPM이 3개 사용될 경우, 8개의 리메이닝 화면 내 예측 모드에 대하여 코드워드가 매핑될 수 있다. 리메이닝 화면 내 예측 모드를 고정길이로 표현하게 되면, 3비트의 코드워드 길이로 나머지 8개의 화면 내 예측 모드에 대한 코드워드를 매핑할 수 있다.
아래의 표 9는 본 발명의 실시예에 따른 리메이닝 화면 내 예측 모드를 고정길이로 표현한 것이다.
<표 9>
Figure PCTKR2013000370-appb-I000009
표 9와 같이 코드 넘버는 고정길이 부호화를 사용한 코드워드와 매핑될 수도 있다.
이와 같은 방법으로 화면 내 예측 모드가 11개, 19개, 35개이고 MPM이 3개인 경우, 리메이닝 모드가 8개, 16개, 32개가 되므로 전체 리메이닝 모드의 개수가 2의 지수승이며, 상기 리메이닝 모드를 각 지수비트의 고정길이로 표현된다. 아래의 표는 각 리메이닝의 개수에 따른 지수비트의 고정길이로 표현될 경우, 리메이닝 모드를 나타내기 위한 코드워드의 길이를 나타낸 것이다.
<표 10>
Figure PCTKR2013000370-appb-I000010
표 9를 참조하면, 화면 내 예측 모드의 수가 11개이고 MPM의 개수가 3일 경우는 리메이닝 모드를 나타내기 위한 코드워드는 3비트를 사용할수 있다. 화면 내 예측 모드의 수가 19개이고 MPM의 개수가 3일 경우는 리메이닝 모드를 나타내기 위한 코드워드는 4비트를 사용할 수 있다. 화면 내 예측 모드의 수가 35개이고 MPM의 개수가 3일 경우는 리메이닝 모드를 나타내기 위한 코드워드는 5비트를 사용할 수 있다. 즉, 본 발명의 실시예에 따르면, 현재 블록의 화면 내 예측 모드의 개수를 해당 리메이닝 화면 내 모드의 개수를 2의 지수승으로 생성, 즉 상기 리메이닝 모드를 각 지수비트의 고정길이로 표현하도록 결정할 수 있다. 위의 실시예에서는 MPM의 개수를 3으로 가정한 것으로 MPM의 개수가 달라질 경우, 예측 블록의 화면 내 예측에 사용되는 화면 내 예측 모드의 개수는 달라질 수 있다.

도 11은 본 발명의 실시예에 따른 화면 내 예측 모드의 부호화 및 복호화를 수행하는 영상 부호화 장치 및 영상 복호화 장치의 일부를 나타낸 개념도이다.
도 11의 상단을 참조하면, 영상 부호화 장치의 코드워드 매핑부(1100)에서 화면 내 예측 모드 번호를 입력받고 코드워드를 생성할 수 있다. 전술한 바와 같은 코드워드 매핑을 수행하기 위해서는 코드워드 매핑부(1100)에는 코드워드 매핑 테이블이 저장되어 있거나, 코드워드 매핑 테이블을 생성하기 위한 이진화 동작을 수행할 수 있다. 코드워드 매핑부는 엔트로피 코딩부의 일부로 포함되어 동작할 수 있다. 전술한 바와 같이 화면 내 예측 모드 중 발생 비율이 높은 DC 모드 또는 플레이너 모드와 같은 비방향성 화면 내 예측 모드에 작은 수의 화면 내 예측 모드 번호를 부여할 수 있고 화면 내 예측 모드 번호가 작을수록 짧은 코드워드가 매핑되도록 하는 코드워드 매핑 테이블을 생성할 수 있다.
도 11의 하단을 참조하면, 영상 복호화 장치의 코드워드 매핑부(1110)에서 코드워드를 입력받고 입력된 코드워드를 코드워드 매핑부에 포함된 코드워드 매핑 테이블을 기초로 화면 내 예측 모드 번호로 생성할 수 있다.

도 12는 본 발명의 실시예에 따른 화면 내 예측 모드의 부호화 및 복호화를 수행하는 영상 부호화 장치 및 영상 복호화 장치의 일부를 나타낸 개념도이다.
도 12의 상단을 참조하면, 영상 부호화 장치의 일부에는 코드넘 매핑부(1200)와 코드워드 매핑부(1220)을 포함할 수 있다. 영상 부호화 장치의 코드넘 매핑부(1200)에서는 화면 내 예측 모드 번호를 입력받고 코드넘을 출력할 수 있다. 코드워드 매핑부(1220)의 경우, 코드넘을 입력받고 코드워드를 출력할 수 있다. 전술한 실시예들에 따른 코드넘 매핑 및 코드워드 매핑이 수행될 수 있고, 많이 발생하는 화면 내 예측 모드 번호일수록 작은 수의 코드넘에 매핑될 수 있다. 전술한 바와 같이 MPM을 제외하고 코드넘 매핑을 하는 방법을 사용하는 경우, 코드넘 매핑부에서는 MPM에 해당하는 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드에 대하여 코드넘 매핑을 수행할 수 있다.
도 12의 하단을 참조하면, 영상 복호화 장치는 코드워드 매핑부(1240)과 코드넘 매핑부(1260)을 포함할 수 있다. 코드워드 매핑부(1240)에서는 입력되는 코드워드를 기초로 코드넘을 산출할 수 있고, 코드넘 매핑부(1260)에서는 코드넘을 입력받고 화면 내 예측 모드 번호를 산출할 수 있다. 코드워드 매핑부(1240)에는 코드워드 매핑을 수행하기 위한 코드워드 매핑 테이블이 포함될 수 있고, 코드넘 매핑부(1260)에는 입력받은 코드넘을 기초로 화면 내 예측 모드 번호를 산출하기 위한 코드넘 매핑 테이블이 포함될 수 있다. 코드워드 매핑 테이블과 코드넘 매핑부는 미리 저장되어 있거나 적응적으로 생성될 수 있다.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (10)

  1. 화면 내 예측 방법에 있어서,
    현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한지에 대한 정보를 알리는 플래그 정보를 복호하는 단계; 및
    상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 상기 현재 블록의 화면 내 예측 모드를 유도하는 단계를 포함하되,
    상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 상기 현재 블록의 화면 내 예측 모드를 유도하는 단계는 화면 내 예측 모드 정보를 포함하는 테이블을 기초로 수행되고, 상기 테이블은 화면 내 예측 모드와 상기 화면 내 예측 모드의 인덱스 정보를 매핑하는 테이블이고, 상기 테이블에서 화면 내 예측 모드가 planar 모드이면 인덱스 0, 화면 내 예측 모드가 DC 모드이면 인덱스 1, 방향성 화면 내 예측 모드이면 화면 내 예측 모드의 방향성에 따라 인덱스 2 내지 34에 매핑되는 화면 내 예측 방법.
  2. 제1항에 있어서, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소는,
    고정된 5 비트를 사용하여 부호화된 값으로서 상기 5 비트의 정보는 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드 정보 중 하나의 화면 내 예측 모드를 지시하는 정보인 화면 내 예측 방법.
  3. 제2항에 있어서, 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드는,
    상기 현재 블록의 주변 블록을 기초로 유도된 화면 내 예측 모드 및 추가의 화면 내 예측 모드를 기초로 유도된 3개의 서로 다른 화면 내 예측 모드인 화면 내 예측 방법.
  4. 제1항에 있어서, 상기 플래그 정보는,
    상기 플래그 정보가 1인 경우, 상기 플래그 정보를 기초로 상기 현재 블록의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한 것을 지시하고, 상기 플래그 정보가 0인 경우, 상기 플래그 정보를 기초로 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 것으로 지시하는 화면 내 예측 방법.
  5. 제1항에 있어서, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호화하여 상기 현재 블록의 화면 내 예측 모드를 유도하는 단계는,
    상기 테이블에서 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드인 3개의 화면 내 예측 모드를 제외한 상기 나머지 32개의 화면 내 예측 모드 정보를 유도하는 단계;
    상기 나머지 32개의 화면 내 예측 모드 정보와 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 매핑하는 단계; 및
    상기 나머지 32개의 화면 내 예측 모드 정보 중 상기 구문 요소와 매핑된 하나의 화면 내 예측 모드를 상기 현재 블록의 화면 내 예측 모드로 설정하는 단계를 포함하는 화면 내 예측 방법.
  6. 영상 복호화 장치에 있어서,
    현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한지에 대한 정보를 알리는 플래그 정보 및 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 복호하도록 구현되는 엔트로피 복호화부; 및
    상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 경우, 상기 복호화된 구문 요소를 기초로 상기 현재 블록의 화면 내 예측 모드를 유도하는 예측부를 포함하되,
    상기 테이블은 화면 내 예측 모드와 상기 화면 내 예측 모드의 인덱스 정보를 매핑하는 테이블이고, 상기 테이블에서 화면 내 예측 모드가 planar 모드이면 인덱스 0, 화면 내 예측 모드가 DC 모드이면 인덱스 1, 방향성 화면 내 예측 모드이면 화면 내 예측 모드의 방향성에 따라 인덱스 2 내지 34 에 매핑되는 영상 복호화 장치.
  7. 제6항에 있어서, 상기 구문 요소는,
    고정된 5 비트를 사용하여 부호화된 값으로서 상기 5 비트의 정보는 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드를 제외한 나머지 화면 내 예측 모드 정보 중 하나의 화면 내 예측 모드를 지시하는 정보인 영상 복호화 장치.
  8. 제7항에 있어서, 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드는,
    상기 현재 블록의 주변 블록을 기초로 유도된 화면 내 예측 모드 및 추가의 화면 내 예측 모드를 기초로 유도된 3개의 서로 다른 화면 내 예측 모드인 영상 복호화 장치.
  9. 제6항에 있어서, 상기 플래그 정보는,
    상기 플래그 정보가 1인 경우, 상기 플래그 정보를 기초로 상기 현재 블록의 후보 화면 내 예측 모드 중 하나의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일한 것을 지시하고, 상기 플래그 정보가 0인 경우, 상기 플래그 정보를 기초로 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드와 현재 블록의 화면 내 예측 모드가 동일하지 않은 것으로 지시하는 영상 복호화 장치.
  10. 제6항에 있어서, 상기 예측부는,
    상기 테이블에서 상기 현재 블록에 대한 복수의 후보 화면 내 예측 모드인 3개의 화면 내 예측 모드를 제외한 상기 나머지 32개의 화면 내 예측 모드 정보를 유도하고, 상기 나머지 32개의 화면 내 예측 모드 정보와 상기 현재 블록의 화면 내 예측 모드에 대한 정보를 포함한 구문 요소를 매핑하고, 상기 나머지 32개의 화면 내 예측 모드 정보 중 상기 구문 요소와 매핑된 하나의 화면 내 예측 모드를 상기 현재 블록의 화면 내 예측 모드로 설정하도록 구현되는 화면 내 예측 장치.
PCT/KR2013/000370 2012-01-20 2013-01-17 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치 WO2013109066A1 (ko)

Priority Applications (20)

Application Number Priority Date Filing Date Title
CN201380006073.5A CN104081770B (zh) 2012-01-20 2013-01-17 帧内预测模式映射方法和使用该方法的装置
CN201811036710.4A CN109413428B (zh) 2012-01-20 2013-01-17 编码方法
CN201811036708.7A CN108777795B (zh) 2012-01-20 2013-01-17 解码方法、视频解码设备及编码方法
EP13738183.6A EP2806642B1 (en) 2012-01-20 2013-01-17 Intra prediction mode mapping method and device using the method
JP2014553250A JP6013513B2 (ja) 2012-01-20 2013-01-17 画面内予測方法及び画像復号化装置
EP20178263.8A EP3723369A1 (en) 2012-01-20 2013-01-17 Intra prediction mode mapping device
PL19158903T PL3512197T3 (pl) 2012-01-20 2013-01-17 Sposób odwzorowywania trybu predykcji wewnątrzramkowej
CN201811037057.3A CN109413429B (zh) 2012-01-20 2013-01-17 解码方法、视频解码设备及编码方法
EP19158903.5A EP3512197B8 (en) 2012-01-20 2013-01-17 Intra prediction mode mapping method
CN201811037425.4A CN109413423B (zh) 2012-01-20 2013-01-17 解码方法、视频解码设备及编码方法
US14/368,224 US9554130B2 (en) 2012-01-20 2013-01-17 Intra prediction mode mapping method and device using the method
CN201811037422.0A CN109194961B (zh) 2012-01-20 2013-01-17 解码方法、视频解码设备及编码方法
US15/399,077 US9854239B2 (en) 2012-01-20 2017-01-05 Intra prediction mode mapping method and device using the method
US15/812,567 US9986238B2 (en) 2012-01-20 2017-11-14 Intra prediction mode mapping method and device using the method
US15/958,452 US10158852B2 (en) 2012-01-20 2018-04-20 Intra prediction mode mapping method and device using the method
US16/171,834 US10616575B2 (en) 2012-01-20 2018-10-26 Intra prediction mode mapping method and device using the method
US16/796,543 US10863173B2 (en) 2012-01-20 2020-02-20 Intra prediction mode mapping method and device using the method
CY20201100824T CY1123375T1 (el) 2012-01-20 2020-09-02 Μεθοδος αντιστοιχισης λειτουργιας ενδοπροβλεψης
US17/074,234 US11412216B2 (en) 2012-01-20 2020-10-19 Intra prediction mode mapping method and device using the method
US17/857,772 US11750803B2 (en) 2012-01-20 2022-07-05 Intra prediction mode mapping method and device using the method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20120006841 2012-01-20
KR10-2012-0006841 2012-01-20
KR10-2013-0005333 2013-01-17
KR1020130005333A KR101569086B1 (ko) 2012-01-20 2013-01-17 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US14/368,224 A-371-Of-International US9554130B2 (en) 2012-01-20 2013-01-17 Intra prediction mode mapping method and device using the method
US201414368224A Continuation 2012-01-20 2014-06-23
US15/399,077 Continuation US9854239B2 (en) 2012-01-20 2017-01-05 Intra prediction mode mapping method and device using the method

Publications (1)

Publication Number Publication Date
WO2013109066A1 true WO2013109066A1 (ko) 2013-07-25

Family

ID=48995986

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/000370 WO2013109066A1 (ko) 2012-01-20 2013-01-17 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치

Country Status (16)

Country Link
US (9) US9554130B2 (ko)
EP (3) EP2806642B1 (ko)
JP (7) JP6013513B2 (ko)
KR (1) KR101569086B1 (ko)
CN (6) CN109413429B (ko)
CY (1) CY1123375T1 (ko)
DK (1) DK3512197T5 (ko)
ES (1) ES2820297T3 (ko)
HR (1) HRP20201449T1 (ko)
HU (1) HUE050473T2 (ko)
LT (1) LT3512197T (ko)
PL (1) PL3512197T3 (ko)
PT (1) PT3512197T (ko)
RS (1) RS60786B1 (ko)
SI (1) SI3512197T1 (ko)
WO (1) WO2013109066A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099911A (ja) * 2012-01-20 2014-05-29 Sony Corp Hevcビデオ符号化における論理的イントラモードネーミング
CN109792521A (zh) * 2016-10-04 2019-05-21 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备以及存储比特流的记录介质
CN109792515A (zh) * 2016-08-01 2019-05-21 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
JP2021503215A (ja) * 2018-10-05 2021-02-04 エルジー エレクトロニクス インコーポレイティド Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
CN113453014A (zh) * 2019-06-21 2021-09-28 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
RU2784004C2 (ru) * 2018-09-21 2022-11-23 Хуавей Текнолоджиз Ко., Лтд. Деривация режима внутреннего предсказания на основе соседних блоков

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
CN108259920B (zh) * 2011-03-06 2021-01-08 Lg 电子株式会社 使用亮度采样的色度块的内部预测方法以及使用其的装置
LT3512197T (lt) 2012-01-20 2020-10-12 Dolby Laboratories Licensing Corporation Vidinio prognozavimo režimo žymėjimo būdas
WO2015005750A1 (ko) * 2013-07-12 2015-01-15 삼성전자 주식회사 변이 벡터 유도를 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
CN105100814B (zh) 2014-05-06 2020-07-14 同济大学 图像编码、解码方法及装置
CN111800632B (zh) * 2015-01-15 2024-03-29 株式会社Kt 对编码视频信号解码的方法和对视频信号编码的方法
CN107251558B (zh) * 2015-02-27 2019-12-31 Kddi株式会社 编码装置以及解码装置
EP3654646A1 (en) * 2015-06-05 2020-05-20 Intellectual Discovery Co., Ltd. Methods for encoding and decoding intra-frame prediction based on block shape
ES2719132B1 (es) * 2015-08-28 2020-05-05 Kt Corp Procedimiento y dispositivo para procesar señales de vídeo
WO2017069590A1 (ko) * 2015-10-22 2017-04-27 엘지전자 주식회사 영상 코딩 시스템에서 모델링 기반 영상 디코딩 방법 및 장치
CN117221585A (zh) * 2016-06-22 2023-12-12 Lx 半导体科技有限公司 图像编码/解码方法以及图像数据的传输方法
US11095892B2 (en) 2016-09-20 2021-08-17 Kt Corporation Method and apparatus for processing video signal
CN115733973A (zh) * 2016-12-23 2023-03-03 华为技术有限公司 一种用于矩形视频编码块的编码方法、装置及计算机可读存储介质
WO2018117892A1 (en) * 2016-12-23 2018-06-28 Huawei Technologies Co., Ltd. An intra-prediction apparatus for extending a set of predetermined directional intra-prediction modes
EP3349451A1 (en) * 2017-01-11 2018-07-18 Thomson Licensing Method and apparatus for selecting a coding mode used for encoding/decoding a residual block
US10630978B2 (en) * 2017-05-12 2020-04-21 Blackberry Limited Methods and devices for intra-coding in video compression
US10630974B2 (en) * 2017-05-30 2020-04-21 Google Llc Coding of intra-prediction modes
CN107623848B (zh) * 2017-09-04 2019-11-19 浙江大华技术股份有限公司 一种视频编码方法及装置
WO2019189903A1 (ja) * 2018-03-30 2019-10-03 日本放送協会 画像符号化装置、画像復号装置、及びプログラム
US11303929B2 (en) * 2018-04-02 2022-04-12 Lg Electronics Inc. Image coding method using lookup table for intra prediction mode and apparatus therefor
US10999604B2 (en) * 2018-04-13 2021-05-04 Mediatek Inc. Adaptive implicit transform setting
US11477474B2 (en) * 2018-06-08 2022-10-18 Mediatek Inc. Methods and apparatus for multi-hypothesis mode reference and constraints
SG11202012293RA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Update of look up table: fifo, constrained fifo
TWI719523B (zh) 2018-06-29 2021-02-21 大陸商北京字節跳動網絡技術有限公司 哪個查找表需要更新或不更新
EP3791585A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
JP7328330B2 (ja) 2018-06-29 2023-08-16 北京字節跳動網絡技術有限公司 Lutにおける動き候補のチェック順序
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110677669B (zh) 2018-07-02 2021-12-07 北京字节跳动网络技术有限公司 具有lic的lut
US10382772B1 (en) * 2018-07-02 2019-08-13 Tencent America LLC Method and apparatus for video coding
WO2020013497A1 (ko) * 2018-07-13 2020-01-16 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측 정보를 사용하는 영상 디코딩 방법 및 그 장치
JP7098761B2 (ja) * 2018-07-14 2022-07-11 エルジー エレクトロニクス インコーポレイティド 映像コーディングシステムにおけるイントラ予測関連情報を使用する映像デコード方法およびその装置
WO2020053800A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. How many hmvp candidates to be checked
EP3850840A1 (en) * 2018-09-13 2021-07-21 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Affine linear weighted intra predictions
WO2020055291A1 (en) * 2018-09-13 2020-03-19 Huawei Technologies Co., Ltd. Method and apparatus for wide-angle intra-prediction
US11109023B2 (en) * 2018-11-27 2021-08-31 Tencent America LLC Intra mode selection in intra prediction
CN111010578B (zh) * 2018-12-28 2022-06-24 北京达佳互联信息技术有限公司 一种帧内帧间联合预测的方法、装置以及存储介质
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
WO2020182167A1 (en) * 2019-03-12 2020-09-17 Zhejiang Dahua Technology Co., Ltd. Systems and methods for image coding
WO2020197038A1 (ko) 2019-03-22 2020-10-01 엘지전자 주식회사 영상 코딩 시스템에서 인트라 서브 파티션 기반의 인트라 예측 방법 및 장치
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113767625A (zh) * 2019-03-26 2021-12-07 Lg 电子株式会社 基于mpm列表的帧内预测方法及其设备
CN113748675A (zh) * 2019-04-10 2021-12-03 北京达佳互联信息技术有限公司 使用改进的基于矩阵的帧内预测编解码模式的视频编解码方法和装置
WO2020228671A1 (en) 2019-05-10 2020-11-19 Beijing Bytedance Network Technology Co., Ltd. Multiple secondary transform matrices for video processing
WO2020235960A1 (ko) * 2019-05-22 2020-11-26 엘지전자 주식회사 Bdpcm 에 대한 영상 디코딩 방법 및 그 장치
EP3967032A4 (en) 2019-06-07 2022-07-27 Beijing Bytedance Network Technology Co., Ltd. CONDITIONAL SIGNALING OF A REDUCED SECONDARY TRANSFORM FOR VIDEO BIANARY FLOWS
KR20220138876A (ko) * 2019-06-25 2022-10-13 닛폰 호소 교카이 인트라 예측 장치, 화상 복호 장치, 및 프로그램
JP7422858B2 (ja) 2019-08-03 2024-01-26 北京字節跳動網絡技術有限公司 ビデオ処理方法、装置、記憶媒体及び記憶方法
CN114223208B (zh) 2019-08-17 2023-12-29 北京字节跳动网络技术有限公司 为视频中的缩减二次变换的边信息的上下文建模
US11310511B2 (en) * 2019-10-09 2022-04-19 Tencent America LLC Method and apparatus for video coding
FI4044599T3 (fi) * 2019-11-05 2024-03-25 Lg Electronics Inc Kuva/videokoodausmenetelmä ja -laite
KR20220074953A (ko) * 2019-11-05 2022-06-03 엘지전자 주식회사 영상/비디오 코딩을 위한 영상 정보 처리 방법 및 장치
US11671589B2 (en) * 2020-12-22 2023-06-06 Qualcomm Incorporated Decoder side intra mode derivation for most probable mode list construction in video coding
US20230049154A1 (en) * 2021-08-02 2023-02-16 Tencent America LLC Method and apparatus for improved intra prediction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003105070A1 (en) * 2002-06-01 2003-12-18 Nokia Corporation Spatial prediction based intra coding
KR20090103675A (ko) * 2008-03-28 2009-10-01 삼성전자주식회사 영상의 인트라 예측 모드 부호화/복호화 방법 및 장치
KR20100081148A (ko) * 2009-01-05 2010-07-14 에스케이 텔레콤주식회사 블록 모드 부호화/복호화 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
KR20110019855A (ko) * 2009-08-21 2011-03-02 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
KR20110057794A (ko) * 2009-11-25 2011-06-01 한양대학교 산학협력단 부호화기 및 부호화기의 후보 모드 결정 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4515886B2 (ja) * 2003-10-28 2010-08-04 パナソニック株式会社 面内予測符号化方法
US7369707B2 (en) * 2003-10-28 2008-05-06 Matsushita Electric Industrial Co., Ltd. Intra-picture prediction coding method
EP3410706B1 (en) * 2007-06-29 2021-12-01 Velos Media International Limited Image encoding device and image decoding device
JP5166339B2 (ja) 2008-03-28 2013-03-21 三星電子株式会社 画像のイントラ予測モード情報の符号化及び/又は復号化方法及び装置
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
CN101494792A (zh) * 2009-01-15 2009-07-29 北京航空航天大学 一种基于边缘特征的h.264/avc帧内预测方法
KR100991138B1 (ko) * 2009-04-16 2010-11-01 한양대학교 산학협력단 부호화기 및 부호화기의 후보 모드 결정 방법
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
WO2011031332A1 (en) * 2009-09-14 2011-03-17 Thomson Licensing Methods and apparatus for efficient video encoding and decoding of intra prediction mode
CN102045560B (zh) * 2009-10-23 2013-08-07 华为技术有限公司 一种视频编解码方法及设备
US9100649B2 (en) * 2010-02-10 2015-08-04 Lg Electronics Inc. Method and apparatus for processing a video signal
CN105681811B (zh) * 2010-07-15 2018-11-30 夏普株式会社 解码装置、编码装置和解码方法
RS57166B1 (sr) * 2010-08-17 2018-07-31 M&K Holdings Inc Postupak za kodiranje intra prediktivnog moda
KR20120070479A (ko) * 2010-12-21 2012-06-29 한국전자통신연구원 화면 내 예측 방향 정보 부호화/복호화 방법 및 그 장치
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
GB2494468B (en) * 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
US9363511B2 (en) * 2011-09-13 2016-06-07 Mediatek Singapore Pte. Ltd. Method and apparatus for Intra mode coding in HEVC
CN107181956B (zh) 2011-10-07 2020-02-21 英迪股份有限公司 对视频信号进行解码的方法
EP2770739B8 (en) * 2011-10-18 2021-06-30 LG Electronics Inc. Method and device for coding and decoding of an image and computer readable medium
HUE051689T2 (hu) 2011-10-24 2021-03-29 Innotive Ltd Képdekódoló készülék
CN104935943B (zh) * 2011-10-24 2018-05-25 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
US9154796B2 (en) 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
JPWO2013105622A1 (ja) * 2012-01-13 2015-05-11 シャープ株式会社 画像復号装置、画像符号化装置、および符号化データのデータ構造
CN103220506B (zh) * 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
LT3512197T (lt) 2012-01-20 2020-10-12 Dolby Laboratories Licensing Corporation Vidinio prognozavimo režimo žymėjimo būdas
US9210438B2 (en) * 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003105070A1 (en) * 2002-06-01 2003-12-18 Nokia Corporation Spatial prediction based intra coding
KR20090103675A (ko) * 2008-03-28 2009-10-01 삼성전자주식회사 영상의 인트라 예측 모드 부호화/복호화 방법 및 장치
KR20100081148A (ko) * 2009-01-05 2010-07-14 에스케이 텔레콤주식회사 블록 모드 부호화/복호화 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
KR20110019855A (ko) * 2009-08-21 2011-03-02 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
KR20110057794A (ko) * 2009-11-25 2011-06-01 한양대학교 산학협력단 부호화기 및 부호화기의 후보 모드 결정 방법

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099911A (ja) * 2012-01-20 2014-05-29 Sony Corp Hevcビデオ符号化における論理的イントラモードネーミング
JP2016027765A (ja) * 2012-01-20 2016-02-18 ソニー株式会社 Hevcビデオ符号化における論理的イントラモードネーミング
CN109792515A (zh) * 2016-08-01 2019-05-21 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
CN109792515B (zh) * 2016-08-01 2023-10-24 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
CN109792521A (zh) * 2016-10-04 2019-05-21 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备以及存储比特流的记录介质
RU2784004C2 (ru) * 2018-09-21 2022-11-23 Хуавей Текнолоджиз Ко., Лтд. Деривация режима внутреннего предсказания на основе соседних блоков
JP7005755B2 (ja) 2018-10-05 2022-01-24 エルジー エレクトロニクス インコーポレイティド Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
JP2022033106A (ja) * 2018-10-05 2022-02-28 エルジー エレクトロニクス インコーポレイティド Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
US11470305B2 (en) 2018-10-05 2022-10-11 Lg Electronics Inc. Intra prediction-based image coding method and apparatus using MPM list
JP7171875B2 (ja) 2018-10-05 2022-11-15 エルジー エレクトロニクス インコーポレイティド Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
US11695925B2 (en) 2018-10-05 2023-07-04 Lg Electronics Inc. Intra prediction-based image coding method and apparatus using MPM list
JP2021503215A (ja) * 2018-10-05 2021-02-04 エルジー エレクトロニクス インコーポレイティド Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
JP7422841B2 (ja) 2018-10-05 2024-01-26 エルジー エレクトロニクス インコーポレイティド Mpmリストを使用するイントラ予測基盤画像コーディング方法及びその装置
CN113453014B (zh) * 2019-06-21 2022-03-25 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
CN113453014A (zh) * 2019-06-21 2021-09-28 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置

Also Published As

Publication number Publication date
US20200195922A1 (en) 2020-06-18
CN109194961A (zh) 2019-01-11
US11750803B2 (en) 2023-09-05
PT3512197T (pt) 2020-09-16
US20170118467A1 (en) 2017-04-27
US11412216B2 (en) 2022-08-09
KR101569086B1 (ko) 2015-11-27
US10158852B2 (en) 2018-12-18
CN109413423A (zh) 2019-03-01
US9554130B2 (en) 2017-01-24
JP2015507903A (ja) 2015-03-12
JP6334634B2 (ja) 2018-05-30
SI3512197T1 (sl) 2020-12-31
CN108777795B (zh) 2022-05-17
LT3512197T (lt) 2020-10-12
JP2018152863A (ja) 2018-09-27
JP2020110009A (ja) 2020-07-16
JP2023096035A (ja) 2023-07-06
CN109194961B (zh) 2022-05-17
JP2017038382A (ja) 2017-02-16
JP6895555B2 (ja) 2021-06-30
JP7094425B2 (ja) 2022-07-01
US20220337821A1 (en) 2022-10-20
US20190068966A1 (en) 2019-02-28
JP2022123090A (ja) 2022-08-23
EP2806642A1 (en) 2014-11-26
CN109413428A (zh) 2019-03-01
JP2021145374A (ja) 2021-09-24
US20180070079A1 (en) 2018-03-08
ES2820297T3 (es) 2021-04-20
US20210037241A1 (en) 2021-02-04
DK3512197T5 (da) 2020-09-14
CY1123375T1 (el) 2021-12-31
CN109413428B (zh) 2022-05-17
CN109413429A (zh) 2019-03-01
JP6681937B2 (ja) 2020-04-15
EP3512197B1 (en) 2020-07-29
CN108777795A (zh) 2018-11-09
US20230362361A1 (en) 2023-11-09
EP3723369A1 (en) 2020-10-14
EP2806642B1 (en) 2019-04-10
EP3512197A1 (en) 2019-07-17
US20140376626A1 (en) 2014-12-25
JP7282239B2 (ja) 2023-05-26
US10616575B2 (en) 2020-04-07
CN109413423B (zh) 2022-11-01
CN109413429B (zh) 2022-05-17
US9854239B2 (en) 2017-12-26
EP2806642A4 (en) 2015-08-19
JP6013513B2 (ja) 2016-10-25
RS60786B1 (sr) 2020-10-30
US9986238B2 (en) 2018-05-29
PL3512197T3 (pl) 2020-12-28
HRP20201449T1 (hr) 2021-03-05
DK3512197T3 (da) 2020-08-31
HUE050473T2 (hu) 2020-12-28
KR20130085979A (ko) 2013-07-30
CN104081770A (zh) 2014-10-01
EP3512197B8 (en) 2020-10-21
US20180255298A1 (en) 2018-09-06
US10863173B2 (en) 2020-12-08
CN104081770B (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
JP7094425B2 (ja) 復号化方法及び符号化方法
US11375233B2 (en) Method for partitioning block and decoding device
WO2013066026A1 (ko) 양자화 계수 부/복호화 방법 및 이러한 방법을 사용하는 장치
WO2013051794A1 (ko) 두 개의 후보 인트라 예측 모드를 이용한 화면 내 예측 모드의 부/복호화 방법 및 이러한 방법을 사용하는 장치
KR20230118538A (ko) 영상의 부호화/복호화 방법 및 장치
KR20130085603A (ko) 색차 블록의 화면 내 예측 모드 방법 및 이러한 방법을 사용하는 장치
KR102516137B1 (ko) 두 개의 후보 인트라 예측 모드를 이용한 화면 내 예측 모드의 부/복호화 방법 및 이러한 방법을 사용하는 장치
KR102069784B1 (ko) 두 개의 후보 인트라 예측 모드를 이용한 화면 내 예측 모드의 부/복호화 방법 및 이러한 방법을 사용하는 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13738183

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14368224

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013738183

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014553250

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: IDP00201505103

Country of ref document: ID