WO2017155334A1 - 비디오 코딩 방법 및 장치 - Google Patents

비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
WO2017155334A1
WO2017155334A1 PCT/KR2017/002578 KR2017002578W WO2017155334A1 WO 2017155334 A1 WO2017155334 A1 WO 2017155334A1 KR 2017002578 W KR2017002578 W KR 2017002578W WO 2017155334 A1 WO2017155334 A1 WO 2017155334A1
Authority
WO
WIPO (PCT)
Prior art keywords
coefficient group
quantization coefficient
information
quantization
prediction
Prior art date
Application number
PCT/KR2017/002578
Other languages
English (en)
French (fr)
Inventor
안용조
심동규
류호찬
박시내
임웅
Original Assignee
디지털인사이트 주식회사
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160029699A external-priority patent/KR102669632B1/ko
Priority claimed from KR1020160031800A external-priority patent/KR20170109095A/ko
Priority claimed from KR1020160038075A external-priority patent/KR20170113947A/ko
Priority claimed from KR1020160048883A external-priority patent/KR102443958B1/ko
Priority claimed from KR1020160054609A external-priority patent/KR20170125154A/ko
Priority to CN202310522559.XA priority Critical patent/CN116506601A/zh
Priority to US16/084,105 priority patent/US10694184B2/en
Priority to CN202310522560.2A priority patent/CN116506602A/zh
Priority to CN202310522554.7A priority patent/CN116506600A/zh
Application filed by 디지털인사이트 주식회사, 광운대학교 산학협력단 filed Critical 디지털인사이트 주식회사
Priority to CN202310522570.6A priority patent/CN116506603A/zh
Priority to CN202310522574.4A priority patent/CN116506604A/zh
Priority to CN201780028323.3A priority patent/CN109155857B/zh
Publication of WO2017155334A1 publication Critical patent/WO2017155334A1/ko
Priority to US16/881,786 priority patent/US11438591B2/en
Priority to US17/872,577 priority patent/US11838509B2/en
Priority to US18/381,715 priority patent/US20240048704A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Definitions

  • the present invention relates to an image processing technology.
  • quantization coefficient encoding and decoding technique is a technique for generating a bitstream of a signal obtained by transforming and quantizing a difference signal between an original signal and a prediction signal through an entropy encoding technique or an entropy decoding technique. Through the means means to recover the differential signal.
  • the present invention derives the information of the motion vector from the decoder to effectively transmit the motion information in the video encoder / decoder for high resolution video such as Full High Definition (FHD) and Ultra High Definition (UHD).
  • FHD Full High Definition
  • UHD Ultra High Definition
  • a video decoding apparatus and method provide a quantization coefficient group information acquisition unit for acquiring information of a quantization coefficient group for inverse quantization, and a quantization coefficient through entropy decoding for the quantization coefficient group.
  • An quantization coefficient group entropy decoder, an inverse quantizer for obtaining transform coefficients through inverse quantization of the obtained quantization coefficients, and an inverse transform unit for obtaining a differential signal through an inverse transform process on the obtained transform coefficients do.
  • variable size quantization coefficient group using information extraction unit for extracting the information on the use of the variable size quantization coefficient group in the bitstream
  • a quantization coefficient group partition information decoder that obtains partition information of a quantization coefficient group for inverse quantization in a current decoding unit when the extracted variable size quantization coefficient group use information indicates use of a variable size quantization coefficient group
  • a quantization coefficient entropy decoding unit for performing quantization coefficient entropy decoding.
  • a video decoding apparatus and method includes a quantization coefficient group division flag extraction unit for extracting a quantization coefficient group division flag for division in a bitstream based on the size of a current decoding unit, A quantization coefficient group size determiner for determining a size of a quantization coefficient group in the current decoding unit, when the extracted quantization coefficient group division flag indicates division, A lower quantization coefficient group divider for dividing the current decoding unit into a plurality of lower quantization coefficient groups, and a quantization coefficient group entropy decoder for performing quantization coefficient group entropy decoding.
  • the variable size quantization coefficient group using information extraction unit for extracting the information on the use of the variable size quantization coefficient group in the bitstream
  • a quantization coefficient group division method determination unit determining a division method of the quantization coefficient group of the variable size when the extracted information about whether the quantization coefficient group of the variable size is used refers to the use of the variable size quantization coefficient group, and the determined
  • a quantization coefficient group size information acquisition unit for acquiring size information of the quantization coefficient group for inverse quantization in a current decoding unit according to a division method of a variable size quantization coefficient group.
  • a quantization coefficient group partition number information extraction unit for extracting quantization coefficient group partition number information for partitioning from a bitstream based on the size of a current decoding unit
  • a quantization coefficient group dividing unit for dividing a quantization coefficient group by using the variable size quantization coefficient group dividing method, the size of a current decoding unit, and the partitioning information defined based on the quantization coefficient group dividing number information.
  • a video decoding apparatus and method extracts whether to use variable size quantization coefficient group information for extracting information about whether to use a variable size quantization coefficient group from a bitstream.
  • the extracted variable size quantization coefficient group use information indicates using a variable size quantization coefficient group
  • obtaining quantization coefficient group partition information for obtaining partition information of the quantization coefficient group for inverse quantization in a current decoding unit
  • an entropy decoding scan order obtaining unit for obtaining an entropy decoding scan order of the quantization coefficient group based on the split information of the quantization coefficient group for inverse quantization.
  • a video decoding apparatus and method may include a motion information deriving device or step, and may derive motion information from a decoder without information of a motion vector directly received from an encoder. .
  • the image decoding apparatus and method to obtain information for the global motion compensation from the bitstream, global by using the information for the determined global motion compensation Determining a motion compensation region; and performing global motion compensation on the determined global motion compensation region.
  • the image decoding apparatus and method according to an embodiment of the present invention comprises the steps of extracting a flag indicating whether to use the global motion compensation from the bitstream, the extracted flag of the global motion compensation
  • the method may include determining a global motion compensation region from the bitstream and extracting information for performing the motion compensation for each determined global motion region.
  • the image decoding apparatus and method extracts a flag indicating whether to use the global motion compensation from the bitstream, the extracted flag to the global motion compensation If it means not to use, performing the coding block-by-block motion compensation.
  • the image decoding apparatus and method determines the area to perform the global motion compensation using the motion compensation region determination information obtained from the bitstream, And performing region-specific motion compensation to perform the determined motion compensation.
  • the image decoding apparatus and method according to an embodiment of the present invention is a global for performing global motion compensation for each global motion compensation region using the performance information for each motion compensation region obtained from the bitstream Performing global motion compensation on the motion compensation region.
  • an image decoding method and apparatus may not be reconstructed by using a peripheral reconstruction signal referenced for intra prediction in performing intra prediction.
  • An efficient intra prediction may be performed by generating a signal for a region that is not.
  • the intra-prediction performance may be improved by referring to more reconstructed pixels by extending the range of the reconstructed signal referred to for intra prediction.
  • the image decoding apparatus and method extracts information for generating a prediction signal from a bitstream, performing reference sample padding by using the extracted information
  • the method may include generating a prediction sample by performing prediction in a curved screen using the extracted information, and filtering the generated prediction sample.
  • the image decoding apparatus and method according to an embodiment of the present invention is to obtain information for generating a prediction signal from a bitstream, the extracted intra prediction mode information in the curve screen
  • the method includes extracting information on the prediction in the curved picture from the bitstream.
  • the image decoding apparatus and method according to an embodiment of the present invention is the reference sample padding by using the information on the prediction in the curved picture obtained from the bitstream and the presence or absence of the reference sample of the neighboring block Determining whether to perform and performing reference sample padding.
  • an image decoding apparatus and method includes generating a prediction sample by using the information on the prediction in the curve picture obtained from the bitstream.
  • the method may include filtering using a variation amount of the surrounding reference samples.
  • An object of the present invention is to provide a method and apparatus for using a variable size according to a characteristic of a signal and using an encoding and decoding order corresponding thereto in order to improve quantization coefficient coding efficiency.
  • the performance of quantized coefficient coding may be improved by increasing the number of coefficients excluded from encoding by using a size of a variable sized quantized coefficient group, selective coefficient encoding, and a decoding order.
  • the coefficient coding performance according to the energy concentration effect due to the transformation and quantization and the high frequency component removal effect may be improved.
  • motion compensation for a wide range of regions may be performed at once, and information on the global motion compensation region may be efficiently transmitted to a decoder to improve encoding performance.
  • An object of the present invention is to provide a method and apparatus for performing intra-curve prediction in an intra-prediction process used in a conventional video compression technique to improve encoding / decoding efficiency.
  • the video compression performance can be improved by improving the efficiency of intra prediction in the encoder / decoder through the intra intra curve prediction.
  • FIG. 1 is a block diagram showing a configuration of a video decoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a sequence of variable size quantization group decoding according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a procedure of determining whether to decode a variable size quantization coefficient group and obtaining quantization coefficient group partitioning information according to an embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a decoding order using a variable size quantization group division flag according to an embodiment of the present invention.
  • 5 and 6 illustrate conceptual diagrams illustrating an example of a 4x4 fixed-size quantization coefficient group and an example of a scanning order of 8x8 decoding blocks and 16x16 decoding blocks using the same.
  • FIG. 7 is a conceptual diagram illustrating an example of the use of a quad-tree configuration and multiple scan order for a variable sized group of quantization coefficients according to an embodiment of the present invention.
  • FIG. 8 is a conceptual diagram illustrating an example of quad-tree partitioning of a 16x16 decoding block and a 32x32 decoding block for a variable sized quantization coefficient group according to an embodiment of the present invention.
  • FIG. 9 is a conceptual diagram illustrating an example other than square according to an input signal characteristic in dividing a variable sized quantization coefficient group according to an embodiment of the present invention.
  • FIG. 10 is a conceptual diagram illustrating a group of quantized coefficients of non-square variable size in accordance with an embodiment of the present invention.
  • FIG. 11 is a block diagram of a decoding apparatus according to an embodiment of the present invention.
  • FIG. 12 is a flowchart for motion derivation and motion compensation in a decoding unit that performs motion derivation.
  • FIG. 13 illustrates an example of partitioning of a sub-block when a decoding unit is split in an embodiment of the present invention.
  • FIG. 14 is a diagram of shapes of neighboring pixels for performing motion prediction in an example in which motion is derived using neighboring pixel information of a decoding unit.
  • FIG. 15 illustrates an embodiment in which the method of FIG. 14 uses two reference images.
  • FIG. 16 illustrates a method of deriving a motion of a current decoding unit through motion estimation of a corresponding block using motion derivation of two reference images.
  • FIG. 17 shows a decoding apparatus for performing global motion compensation according to an embodiment of the present invention.
  • FIG. 18 is a diagram illustrating a method of performing global motion compensation of an image according to an embodiment of the present invention.
  • 19 is a block diagram illustrating a sequence of a method of performing global motion compensation according to an embodiment of the present invention.
  • FIG. 20 is a view illustrating when the global motion compensation region is executed, the global motion compensation region is finally determined by using information indicating whether the global motion compensation region is inside or outside the determined region, from among information transmitted to the decoder. It is a figure which shows the method to determine.
  • 21 illustrates various types of global motion compensation regions when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 22 illustrates a method of determining a global motion compensation region according to a boundary of a coding unit unit when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 23 is a diagram illustrating a method of determining a location of a global motion compensation region when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 24 is a diagram illustrating a method of determining a global motion compensation region by merging regions separated by a grid when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 25 illustrates a method of determining a global motion compensation region by repeatedly dividing an image in a vertical or horizontal direction when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 26 illustrates a method of determining a global motion compensation region by using a warping parameter among additional information transmitted to a decoder when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 27 is a diagram illustrating a method of rotating or scaling a global motion compensation region when performing global motion compensation according to an embodiment of the present invention.
  • FIG. 28 illustrates a case in which a frame rate conversion (FRUC) method is used to increase the frame rate when performing global motion compensation according to an embodiment of the present invention. .
  • FRUC frame rate conversion
  • FIG. 29 is a video decoding apparatus capable of generating an intra prediction signal through intra prediction information of an encoded bitstream and outputting a reconstructed image using the generated intra prediction signal.
  • FIG. Shows.
  • FIG. 30 illustrates a referenceable region for an intra prediction block according to an embodiment of the present invention.
  • 31 illustrates a method of performing directional intra prediction according to a length of a reference pixel column according to an intra prediction method according to an embodiment of the present invention.
  • 32 illustrates a method of performing directional intra prediction according to a length of a left pixel column according to an intra prediction method according to an embodiment of the present invention.
  • 33 illustrates a range of directional prediction applicable in an intra prediction method according to an embodiment of the present invention.
  • FIG. 34 illustrates an intra prediction signal by changing a brightness of a pixel at a same slope as that of a reconstructed pixel area according to a pixel coordinate of an unrestored pixel area from a signal of a neighboring reconstructed pixel area according to an embodiment of the present invention. It shows how to create.
  • FIG. 35 is a view illustrating an example of an intra prediction method in which a brightness of a pixel is changed from a signal of a neighboring reconstructed pixel area to a negative slope having the same size as that of a reconstructed pixel area according to pixel coordinates of an unrestored pixel area. A method of generating an intra prediction signal is shown.
  • FIG. 36 illustrates an intra prediction signal by changing a brightness of a pixel at a same slope as that of a reconstructed pixel area according to a pixel coordinate of an unrestored pixel area from a signal of a neighboring reconstructed pixel area in an intra prediction method according to an embodiment of the present invention Another way to create is shown.
  • FIG. 37 illustrates a method for signaling whether to perform intra prediction based on a sequence parameter set among high-level syntaxes for an intra prediction method according to an embodiment of the present invention.
  • 38 illustrates a method of signaling whether to perform intra prediction based on a picture parameter set among high-level syntaxes for an intra prediction method according to an embodiment of the present invention.
  • FIG. 39 illustrates a method for signaling whether to perform intra prediction based on a slice segment header among high-level syntaxes for an intra prediction method according to an embodiment of the present invention.
  • 40 is a diagram illustrating a decoder including an intra prediction unit, according to an embodiment of the present invention.
  • FIG. 41 illustrates a peripheral reference region when performing intra prediction according to an embodiment of the present invention.
  • FIG. 42 illustrates a method of referring to pixels of a neighboring block when performing intra prediction according to an embodiment of the present invention.
  • 43 illustrates a method of referring to several pixels of a neighboring block when performing intra prediction according to an embodiment of the present invention.
  • 44 is a diagram illustrating a method of generating a reference sample that does not exist in a neighboring block when performing intra prediction according to an embodiment of the present invention.
  • 45 illustrates a method of performing prediction by using reference samples in different directions in each region of a prediction block when performing intra prediction according to an embodiment of the present invention.
  • 46 illustrates another method of performing prediction using reference samples of different directions in each region of a prediction block when performing intra prediction according to an embodiment of the present invention.
  • FIG. 47 is a diagram illustrating a method of filtering the leftmost prediction sample string of a prediction block to remove discontinuities with neighboring blocks when performing intra prediction according to an embodiment of the present invention.
  • FIG. 48 is a diagram illustrating a method of filtering the highest prediction sample sequence of a prediction block to remove discontinuities with neighboring blocks when performing intra prediction according to an embodiment of the present invention.
  • 49 is a flowchart illustrating a procedure of performing intra prediction according to an embodiment of the present invention.
  • a video decoding apparatus and method provide a quantization coefficient group information acquisition unit for acquiring information of a quantization coefficient group for inverse quantization, and a quantization coefficient through entropy decoding for the quantization coefficient group.
  • An quantization coefficient group entropy decoder, an inverse quantizer for obtaining transform coefficients through inverse quantization of the obtained quantization coefficients, and an inverse transform unit for obtaining a differential signal through an inverse transform process on the obtained transform coefficients do.
  • variable size quantization coefficient group using information extraction unit for extracting the information on the use of the variable size quantization coefficient group in the bitstream
  • a quantization coefficient group partition information decoder that obtains partition information of a quantization coefficient group for inverse quantization in a current decoding unit when the extracted variable size quantization coefficient group use information indicates use of a variable size quantization coefficient group
  • a quantization coefficient entropy decoding unit for performing quantization coefficient entropy decoding.
  • a video decoding apparatus and method includes a quantization coefficient group division flag extraction unit for extracting a quantization coefficient group division flag for division in a bitstream based on the size of a current decoding unit, A quantization coefficient group size determiner for determining a size of a quantization coefficient group in the current decoding unit, when the extracted quantization coefficient group division flag indicates division, A lower quantization coefficient group divider for dividing the current decoding unit into a plurality of lower quantization coefficient groups, and a quantization coefficient group entropy decoder for performing quantization coefficient group entropy decoding.
  • the variable size quantization coefficient group using information extraction unit for extracting the information on the use of the variable size quantization coefficient group in the bitstream
  • a quantization coefficient group division method determination unit determining a division method of the quantization coefficient group of the variable size when the extracted information about whether the quantization coefficient group of the variable size is used refers to the use of the variable size quantization coefficient group, and the determined
  • a quantization coefficient group size information acquisition unit for acquiring size information of the quantization coefficient group for inverse quantization in a current decoding unit according to a division method of a variable size quantization coefficient group.
  • a quantization coefficient group partition number information extraction unit for extracting quantization coefficient group partition number information for partitioning from a bitstream based on the size of a current decoding unit
  • a quantization coefficient group dividing unit for dividing a quantization coefficient group by using the variable size quantization coefficient group dividing method, the size of a current decoding unit, and the partitioning information defined based on the quantization coefficient group dividing number information.
  • a video decoding apparatus and method extracts whether to use variable size quantization coefficient group information for extracting information about whether to use a variable size quantization coefficient group from a bitstream.
  • the extracted variable size quantization coefficient group use information indicates using a variable size quantization coefficient group
  • obtaining quantization coefficient group partition information for obtaining partition information of the quantization coefficient group for inverse quantization in a current decoding unit
  • an entropy decoding scan order obtaining unit for obtaining an entropy decoding scan order of the quantization coefficient group based on the split information of the quantization coefficient group for inverse quantization.
  • a video decoding apparatus and method may include a motion information deriving device or step, and may derive motion information from a decoder without information of a motion vector directly received from an encoder. .
  • the image decoding apparatus and method to obtain information for the global motion compensation from the bitstream, global by using the information for the determined global motion compensation Determining a motion compensation region; and performing global motion compensation on the determined global motion compensation region.
  • the image decoding apparatus and method according to an embodiment of the present invention comprises the steps of extracting a flag indicating whether to use the global motion compensation from the bitstream, the extracted flag of the global motion compensation
  • the method may include determining a global motion compensation region from the bitstream and extracting information for performing the motion compensation for each determined global motion region.
  • the image decoding apparatus and method extracts a flag indicating whether to use the global motion compensation from the bitstream, the extracted flag to the global motion compensation If it means not to use, performing the coding block-by-block motion compensation.
  • the image decoding apparatus and method determines the area to perform the global motion compensation using the motion compensation region determination information obtained from the bitstream, And performing region-specific motion compensation to perform the determined motion compensation.
  • the image decoding apparatus and method according to an embodiment of the present invention is a global for performing global motion compensation for each global motion compensation region using the performance information for each motion compensation region obtained from the bitstream Performing global motion compensation on the motion compensation region.
  • an image decoding method and apparatus may not be reconstructed by using a peripheral reconstruction signal referenced for intra prediction in performing intra prediction.
  • An efficient intra prediction may be performed by generating a signal for a region that is not.
  • the intra-prediction performance may be improved by referring to more reconstructed pixels by extending the range of the reconstructed signal referred to for intra prediction.
  • the image decoding apparatus and method extracts information for generating a prediction signal from a bitstream, performing reference sample padding by using the extracted information
  • the method may include generating a prediction sample by performing prediction in a curved screen using the extracted information, and filtering the generated prediction sample.
  • the image decoding apparatus and method according to an embodiment of the present invention is to obtain information for generating a prediction signal from a bitstream, the extracted intra prediction mode information in the curve screen
  • the method includes extracting information on the prediction in the curved picture from the bitstream.
  • the image decoding apparatus and method according to an embodiment of the present invention is the reference sample padding by using the information on the prediction in the curved picture obtained from the bitstream and the presence or absence of the reference sample of the neighboring block Determining whether to perform and performing reference sample padding.
  • an image decoding apparatus and method includes generating a prediction sample by using the information on the prediction in the curve picture obtained from the bitstream.
  • the method may include filtering using a variation amount of the surrounding reference samples.
  • ⁇ to '' or ⁇ of '' does not mean a step for.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • the block used in the present invention may be a basic block unit, a prediction block unit, or a transform block unit of decoding.
  • the block boundary may be a boundary of a decoding block, a boundary of a prediction block, and a boundary of a transform block.
  • the video decoding apparatus (Video Decoding Apparatus) to be described below is a personal computer (PC), a notebook computer, a portable multimedia player (PMP), a wireless communication terminal (Wireless Communication Terminal), a smart phone (Smart Phone) , A device included in a server terminal such as a TV application server and a service server, and a user terminal such as various devices, a communication device such as a communication modem for performing communication with a wired / wireless communication network, or between screens for decoding or decoding an image.
  • Various devices may include various programs for predicting the screen and a memory for storing data, a microprocessor for executing and controlling a program, and the like.
  • the image encoded in the bitstream by the encoder is real-time or non-real-time through the wired or wireless communication network, such as the Internet, local area wireless communication network, wireless LAN network, WiBro network, mobile communication network or the like, cable, universal serial bus (USB, It may be transmitted to a video decoding apparatus through various communication interfaces such as a universal serial bus), decoded, reconstructed, and played back.
  • wired or wireless communication network such as the Internet, local area wireless communication network, wireless LAN network, WiBro network, mobile communication network or the like, cable, universal serial bus (USB, It may be transmitted to a video decoding apparatus through various communication interfaces such as a universal serial bus), decoded, reconstructed, and played back.
  • a video may be composed of a series of pictures, and each picture may be divided into a coding unit such as a block.
  • a coding unit such as a block.
  • Global motion compensation refers to a method of performing motion compensation for a wide range of areas at once, and a method of performing global motion compensation is referred to as a global motion compensation method and a region in which global motion compensation is performed.
  • 'quantization coefficient group' refers to a processing unit of quantized transform coefficients that have undergone transform and quantization processes, and a group of transform signals in which only transform is performed, only a quantization process It can be referred to generically, including both the group of quantized signals performed and the group of signals that have not undergone both transformation and quantization.
  • FIG. 1 is a block diagram showing the configuration of a video decoding apparatus and method according to an embodiment of the present invention.
  • the video decoding apparatus and method may include an entropy decoder 110, an inverse quantizer 120, an inverse transform unit 130, an intra prediction unit 140, an inter prediction unit 150, and an adder unit. 160, at least one of the in-loop filter unit 170 and the reconstructed picture buffer 180.
  • the entropy decoder 110 decodes the input bitstream 100 and outputs decoding information such as syntax elements and quantized coefficients.
  • the inverse quantization unit 120 and the inverse transform unit 130 receive quantization coefficients, perform inverse quantization and inverse transformation in order, and output a residual signal.
  • the intra prediction unit 140 generates a prediction signal by performing spatial prediction using pixel values of the pre-decoded neighboring block adjacent to the current block to be decoded.
  • the inter prediction unit 150 generates a prediction signal by performing motion compensation using the motion vector extracted from the bitstream and the reconstructed image stored in the reconstructed picture buffer 180.
  • the prediction signals output from the intra prediction unit 140 and the intra prediction unit 150 are combined with the residual signal through the adder 160, and thus the reconstruction signal generated in units of blocks includes a reconstructed image. .
  • the reconstructed image is transmitted to the in-loop filter unit 170.
  • the reconstructed picture to which the filtering is applied is stored in the reconstructed picture buffer 180 and may be used as a reference picture in the inter prediction unit 150.
  • FIG. 2 is a block diagram illustrating a sequence of variable size quantization group decoding according to an embodiment of the present invention.
  • a video decoding apparatus and method includes a quantization coefficient group information decoder 210, a quantization coefficient entropy decoder 220, an inverse quantizer 230, an inverse transformer 250, and a difference signal obtainer 260. ) At least one.
  • the quantization coefficient group information decoder 210 extracts information about the quantization coefficient group from the bitstream.
  • the information on the quantization coefficient group includes whether the variable size quantization group is used and the size of the quantization coefficient group, or whether the variable size quantization group is used, the size of the quantization coefficient group, and the division form of the quantization coefficient group.
  • the quantization coefficient group information according to an embodiment may be included in a sequence parameter set, a picture parameter set, a slice header, or a decoding unit, and includes transmission through one or more units described above.
  • the quantization coefficient group information according to an embodiment may be expressed in the form of a flag, the minimum or maximum size of the quantization coefficient group, and the depth of the usable size. In this case, the minimum or maximum size includes a logarithmic form.
  • the quantization coefficient group information extracted from the bitstream through the quantization coefficient group information decoder 210 is transferred to the quantization coefficient entropy decoder 220.
  • the quantization coefficient entropy decoder 220 is performed in a decoding unit and performs a function of decoding the quantized coefficients encoded from the bitstream.
  • Entropy decoding of the quantization coefficients extracts quantization coefficients corresponding to the quantization coefficient group currently decoded from the bitstream using the quantization coefficient group information extracted by the quantization coefficient group information decoder 210. it means.
  • the entropy decoding scan order may use a predefined scan order according to the current quantization coefficient group information, or an entropy decoding scan order for the quantization coefficient group is added. Includes information sent.
  • the inverse quantization unit 230 performs inverse quantization on the quantization coefficients extracted by the quantization coefficient entropy decoder 220.
  • the inverse quantization unit performs inverse quantization on the quantization coefficients extracted by the quantization coefficient entropy decoder 220, but does not perform inverse quantization when there is no extracted quantization coefficient and when quantization is false. That does not include.
  • the signal extracted by the inverse quantization unit 230 determines whether to perform the conversion 240, and if the conversion is true, the difference signal is obtained through the inverse transform unit 250. On the other hand, if it is determined whether the conversion is performed 240 is false, the signal extracted from the inverse quantization 230 is used directly as a differential signal without passing through the inverse transformer 250.
  • FIG. 3 is a block diagram illustrating a procedure of determining whether to decode a variable size quantization coefficient group and obtaining quantization coefficient group partitioning information according to an embodiment of the present invention.
  • a video decoding apparatus and method may include whether to use a variable size quantization coefficient group extractor 310, a variable size quantization coefficient group use determiner 320, a quantization coefficient group split information decoder 330, and a quantization coefficient. It includes at least one of the entropy decoder 340.
  • variable size quantization coefficient group is used or not is extracted by the extractor 310.
  • whether to use a variable size quantization coefficient group or not according to an embodiment is used to determine whether to use a variable size quantization coefficient group proposed by the present invention. It includes representing the division form of the group in a specific value form.
  • whether to use a variable size quantization coefficient group according to an embodiment may be included in a sequence parameter set, a picture parameter set, a slice header, a decoding unit, or a quantization coefficient group, and may be transmitted through one or more units described above. It includes.
  • variable size quantization coefficient group use determining unit 320 determines whether to use the variable size quantization coefficient group extracted by the variable size quantization coefficient group extraction unit 310.
  • the quantization coefficient group partition information decoder 330 plays a role of acquiring quantization coefficient group partition information.
  • the information about the variable size quantization coefficient group is extracted from the bitstream through the quantization coefficient group partition information decoder 330.
  • the information on the quantization coefficient group includes the size of the quantization coefficient group, or the size of the quantization coefficient group and the divided form of the quantization coefficient group.
  • the quantization coefficient group information according to an embodiment may be included in a sequence parameter set, a picture parameter set, a slice header, a decoding unit, or a quantization coefficient group, and includes transmission through one or more units described above.
  • the quantization coefficient group information according to an embodiment may be expressed in the form of a flag, the minimum or maximum size of the quantization coefficient group, and the depth of the usable size. In this case, the minimum or maximum size includes a log form.
  • the quantization coefficient group information extracted from the bitstream through the quantization coefficient group division information decoder 330 is transferred to the quantization coefficient entropy decoder 340.
  • the quantization coefficient entropy decoder 340 is performed in a decoding unit and performs a function of decoding the quantized coefficients encoded from the bitstream.
  • Entropy decoding of a quantization coefficient uses a quantization coefficient group information extracted by the quantization coefficient group partition information decoder 330 to extract a quantization coefficient corresponding to a quantization coefficient group to be decoded from the bitstream. Means.
  • the entropy decoding scan order may use a predefined scan order according to the current quantization coefficient group information, or an entropy decoding scan order for the quantization coefficient group is added. Includes information sent.
  • FIG. 4 is a block diagram illustrating a decoding order using a variable size quantization group division flag according to an embodiment of the present invention.
  • a video decoding apparatus and method includes a quantization coefficient group division flag extractor 410, a partition determination unit 420, a lower quantization coefficient group divider 430, a quantization coefficient group size determiner 440, And a quantization coefficient group entropy decoder 450.
  • the quantization coefficient group division flag extractor 410 extracts a flag for whether a current quantization coefficient group is split from the bitstream in using a quad-tree variable size quantization coefficient.
  • the quantization coefficient group according to an embodiment may be divided into quad-tree shapes, and the quantization coefficient group of the quad-tree division structure includes quantization coefficient groups not being divided or divided into recursive partition structures at one or more depths. do.
  • the splitter determination unit 420 determines whether to split the current quantization coefficient group based on a flag for splitting the quantization coefficient group extracted by the quantization coefficient group split flag extractor 410.
  • the lower quantization coefficient group division unit 430 is performed.
  • the aforementioned quantization coefficient group division flag extraction unit 410 and the division determination unit 420 recursively. Is done by
  • the quantization coefficient group size determiner 440 determines the current block size as the size of the quantization coefficient group, and performs quantization coefficient group entropy decoder 450 to perform quantization. Perform entropy decoding on coefficient groups.
  • 5 and 6 are conceptual diagrams illustrating an example of a 4x4 fixed-size quantization coefficient group used in a conventional video decoding apparatus and method, and an example of a scanning order of 8x8 decoding blocks and 16x16 decoding blocks using the same.
  • the scan order used for the 4x4 fixed-size quantization coefficient group used in the existing video decoding apparatus and method includes at least one of a zigzag scan order 500, 600, a horizontal scan order 510, and a vertical scan order 520.
  • FIG. 7 is a conceptual diagram illustrating an example of the use of a quad-tree configuration and multiple scan order for a variable sized group of quantization coefficients according to an embodiment of the present invention.
  • the entropy decoding process of a variable sized quantization coefficient group includes a scan order used in the conventional video decoding apparatus and method described above with reference to FIGS. 5 and 6 and is the same in different quantization coefficient groups in the same decoding block. Using a scan order (710), or using a different scan order (720).
  • the entropy decoding scan order may use a predefined scan order according to the current quantization coefficient group information, or the entropy decoding scan order for the quantization coefficient group is added as additional information. It includes what is sent.
  • FIG. 8 is a conceptual diagram illustrating an example of quad-tree partitioning of a 16x16 decoding block and a 32x32 decoding block for a variable sized quantization coefficient group according to an embodiment of the present invention.
  • An apparatus and method for decoding a video includes quantization coefficient entropy decoding using decoding blocks 810 and 820 having a quantization coefficient group divided into quad-trees.
  • An apparatus and method for video decoding recursively divide a quantization coefficient group according to quad-tree segmentation depth information and an apparatus and method using the decoding blocks 810 and 820 having a quantization coefficient group divided into quad-trees.
  • the 16x16 decoding block 810 is an embodiment using 4x4 quantization coefficient group 811 and 8x8 quantization coefficient group 812 according to quad-tree partitioning
  • the 32x32 decoding block 820 is 4x4 according to quad-tree partitioning.
  • One embodiment uses a quantization coefficient group 821, an 8x8 quantization coefficient group 822, and a 16x16 quantization coefficient group 823.
  • FIG. 9 is a conceptual diagram illustrating an example other than square according to an input signal characteristic in dividing a variable sized quantization coefficient group according to an embodiment of the present invention.
  • An apparatus and method for decoding a video includes quantization coefficient group division 910 and L-shaped quantization coefficient group division 920 using diagonal lines.
  • the quantization coefficient group division 910 using the diagonal line of FIG. 9 is divided into the low frequency quantization coefficient group 1 911, the low frequency quantization coefficient group 2 912, the high frequency quantization coefficient group 1 913, and the high frequency quantization coefficient group 2 914. It is an embodiment to be divided.
  • the quantization coefficient group division 910 using the diagonal may be divided into the quantization coefficient group division using the diagonal 916 from the low frequency region to the high frequency region according to the characteristics of the input signal.
  • the number of divisions of the quantization coefficient group division 910 using the diagonal includes using a fixed number or variably extracting the number of divisions from the bitstream.
  • the L-shaped quantization coefficient group division 920 of FIG. 9 is divided into a low frequency quantization coefficient group 1 921, a low frequency quantization coefficient group 2 922, a high frequency quantization coefficient group 1 923, and a high frequency quantization coefficient group 2 924.
  • One embodiment is that.
  • the L-shaped quantization coefficient group division 920 may divide the quantization coefficient group using the L-ray 925 from the low frequency region to the high frequency region according to the characteristics of the input signal.
  • the number of divisions of the L-shaped quantization coefficient group division 920 includes using a fixed number or variably extracting the number of divisions from the bitstream.
  • FIG. 10 is a conceptual diagram illustrating a group of quantized coefficients of non-square variable size in accordance with an embodiment of the present invention.
  • the non-square variable size quantization coefficient group 1010 includes at least one of non-square horizontal length information 1010 and vertical length information 1020.
  • the non-square horizontal length information and vertical length information include deriving using split information from the upper square quantization coefficient group and extracting and using the non-square horizontal length information and vertical length information from the bitstream.
  • FIG. 11 is a block diagram of a decoder according to an embodiment of the present invention.
  • the decoder that receives the bitstream from the encoder performs decoding through the inter prediction (136-2) and the intra prediction (137-2).
  • inter prediction may be performed through motion information received from an encoder according to an embodiment of the present invention, or inter prediction may be performed through motion information derived from a decoder.
  • the motion predictor 131 calculates the motion vector of the actual corresponding block by using the prediction motion vector (PMV) and the received motion vector difference value. To perform motion compensation.
  • inter prediction prediction decoding When inter prediction prediction decoding is performed using motion information derived by deriving a motion vector from a decoder, a motion vector is obtained from a motion derivation unit and motion compensation is performed using the motion vector.
  • a method of receiving a motion vector from an encoder or deriving from a decoder may be selectively applied in inter prediction prediction decoding, and selection information and related information may be received through syntax information in an encoder.
  • FIG. 12 is a decoding flowchart when the decoder of the embodiment selectively applies a method of deriving motion information or a method of receiving from a encoder.
  • the decoder derives the motion derivation flag (MV_deriv_Flag i, j ) information from the received bitstream 201-2.
  • the motion derivation flag 202-2 is selection information on a motion derivation method, and the decoder can confirm whether to decode using the motion derivation method.
  • the motion information derivation flag basically means selection information on the current decoding unit, but according to an embodiment, the motion derivation flag is derived at various levels such as a sequence, a frame, a frame group, a slice, a slice group, a decoding unit, a decoding unit group, and a sub decoding unit. The choice of method can be indicated.
  • the motion derivation information for the current decoding unit includes depth information of the decoding unit that will use the motion derivation method, information on how to derive motion information in the motion derivation method, and the shape / size / number of units or subunits that will use the motion derivation. It may include at least one of information on, information about the number of iterations. One or more combinations of such information define the size, shape, etc.
  • Depth information of the decoding unit is information that can determine the size information of the block to perform the motion derivation (204-2) through the actual motion derivation method, the size of the block to which the motion derivation method is applied is 128 ⁇ 128, depth information is 2 If the shape of the unit is square, it may be divided into sub-unit blocks in the form as shown in FIG. This method may be determined by the promise of the encoder and the decoder, and may be divided into blocks having a predetermined size as shown in FIG. 13 (b) by the decoder through the information received from the encoder. When the motion information of the current decoding unit is derived through the motion derivation 204-2, the motion compensation 205-2 is performed using this information.
  • FIG. 14 illustrates a method of predicting motion information of a current unit by using neighboring pixel information of a unit or sub-unit currently decoded.
  • motion prediction is performed using neighboring pixel information of a unit or subunit, and the result is used as a motion vector value of the current unit or subunit.
  • the current decoding unit may utilize regions previously decoded as shown in FIG. 14B as regions for performing motion prediction for the current decoding unit.
  • motion information on the current decoding unit may be derived using the motion prediction, and decoding may be performed using the motion prediction.
  • motion prediction may be performed using both the decoded region 402-2 and the region 401-2 previously used for motion prediction for more accurate motion prediction.
  • the motion derivation step performed repeatedly may be determined based on the number of repeated executions promised between the encoder / decoder or the number of repeated operations transmitted from the encoder to the decoder. If the current decoding unit is divided into sub units through depth information of the decoding unit, the motion of each sub unit may be derived using the gray shaded information of FIG.
  • the decoder may vary in size and shape of gray shades that perform motion prediction through an appointment with an encoder. Information about this may use a value and a shape fixed by the promise of the encoder / decoder, and there may be a method of transmitting the information from the decoder to the encoder.
  • a method of deriving motion information of the current block using neighboring pixel information can be applied to one or more reference images as shown in FIG. 15.
  • the motion vector value is used in video decoding. Can be calculated by the method.
  • the conventional method may be a method of calculating a motion value in proportion to a time difference value according to a time order of reference pictures and a currently decoded picture.
  • FIG. 16 illustrates a method of deriving motion information of a currently decoded unit using a value of a co-located block of a currently decoded unit or a subunit.
  • a motion vector may be calculated by a method of minimizing an error between corresponding blocks in two or more reference pictures based on a current decoding unit.
  • This method is also a method of predicting motion information on the current unit using the surrounding pixel information.
  • the method may be implemented in various ways through a combination of information on a method of deriving motion information, a shape of a unit or subunit that will use motion derivation, and the number of repetitions.
  • FIG. 17 shows a decoding apparatus for performing global motion compensation according to an embodiment of the present invention.
  • the decoding apparatus for performing global motion compensation includes an entropy decoder 110-3, an inverse quantizer 120-3, an inverse transform unit 130-3, an inter prediction unit 140-3, and an intra prediction unit ( 150-3), at least one of the in-loop filter unit 160-3 and the reconstructed image storage unit 170-3.
  • the entropy decoder 110-3 decodes the input bitstream 100-3 and outputs decoding information such as syntax elements and quantized coefficients.
  • the output information may include information for global motion compensation.
  • the inverse quantization unit 120-3 and the inverse transform unit 130-3 receive the quantization coefficients, perform inverse quantization and inverse transformation in order, and output a residual signal.
  • the inter prediction unit 140-3 generates a prediction signal by performing motion compensation using the motion vector extracted from the bitstream and the reconstructed image stored in the reconstructed image storage unit 170-3.
  • the inter prediction unit 140-3 includes performing global motion compensation on the global motion compensation region by using the information 190 for global motion compensation.
  • the intra prediction unit 150-3 generates a prediction signal by performing spatial prediction using pixel values of the pre-decoded neighboring block adjacent to the current block to be decoded.
  • the prediction signals output from the inter prediction unit 140-3 and the intra prediction unit 150-3 are summed with the residual signal, and the reconstructed image generated through the sum is passed to the in-loop filter unit 160-3. Delivered.
  • the reconstructed picture to which the filtering is applied by the in-loop filter unit 160-3 is stored in the reconstructed image storage unit 170-3, and may be used as a reference picture in the inter prediction unit 140-3.
  • the restored image 180-3 may be output from the restored image storage unit 170-3.
  • FIG. 18 is a diagram illustrating a method of performing global motion compensation of an image according to an embodiment of the present invention.
  • global motion compensation for the wide area 210-3 may be performed at a time.
  • the global motion compensation region 210-3 is determined, and motion compensation for the determined global motion compensation region 210-3 is performed at once.
  • the global motion compensation region 210-3 may be determined by additional information transmitted to the decoder.
  • 19 is a block diagram illustrating a sequence of a method of performing global motion compensation according to an embodiment of the present invention.
  • global motion compensation information is extracted 310-3 from the bitstream.
  • a global motion compensation region is determined using the extracted information. If the region performs global motion compensation in the image using the determined motion compensation region information, global motion compensation is performed (330-3) to generate a reconstructed image (350-3). If it is not an area for performing global motion compensation, block-based decoding is performed (340-3) to generate a reconstructed image (350-3).
  • FIG. 20 is a view illustrating when the global motion compensation region is executed, the global motion compensation region is finally determined by using information indicating whether the global motion compensation region is inside or outside the determined region, from among information transmitted to the decoder. It is a figure which shows the method to determine.
  • the global motion compensation region may be determined from the image using the global motion compensation region determination information included in the information transmitted to the decoder, and the global motion compensation region may be finally determined by the information representing the inside or the outside of the determined global motion compensation region. Can be. Information representing the inside or the outside of the global motion compensation region may be transmitted in the form of a flag.
  • the final global motion compensation region determination flag in the image becomes the interior 420-3 of the motion compensation region determined as 410-3.
  • the final global motion compensation region of the image may be outside 440-3 of the motion compensation region determined as 430-3.
  • 21 illustrates various types of global motion compensation regions when performing global motion compensation according to an embodiment of the present invention.
  • the global motion compensation regions may be used in any shapes, such as 510-3, 520-3, 530-3, and the like. Can be used.
  • the motion compensation region may be determined using independent information transmitted for each motion compensation region, or may be determined by referring to information of another motion compensation region.
  • FIG. 22 illustrates a method for determining a global motion compensation region according to a boundary of a coding unit unit when performing global motion compensation according to an embodiment of the present invention.
  • the global motion compensation region may be determined as shown in 610-3 and 620-3 according to the boundaries of the decoding block unit.
  • the global motion compensation region may be formed in units of hierarchically divided decoding blocks such as the divided blocks of 610-3 and 620-3.
  • Each decoding block unit may include information of the global motion compensation region, or may include information of each decoding block in units of the global motion compensation region.
  • FIG. 23 is a diagram illustrating a method of determining a location of a global motion compensation region when performing global motion compensation according to an embodiment of the present invention.
  • a method of determining the position of the global motion compensation region a method of determining the position using the coordinates of the starting point (x, y) and the ending point (x ⁇ , y ⁇ ) of the region (710-3) and the starting point (x, y) of the region There may be a method 720-3 to determine by using the coordinates (Width) and width and height of the ().
  • FIG. 24 is a diagram illustrating a method of determining a global motion compensation region by merging regions separated by a grid when performing global motion compensation according to an embodiment of the present invention.
  • the global motion compensation region may be determined by dividing an image into a grid of several zones and then merging the separated regions with other regions to determine the global motion compensation region.
  • Block 810-3, block 820-3, block 830-3, block 840-3, and block 850-3 are merged with the block in the direction indicated by the arrow to become a global motion compensation region.
  • Block 850-3 is merged with reference to block 840-3
  • block 840-3 is merged with reference to block 830-3
  • block 830-3 is merged with reference to block 820-3
  • block 820-3 is block 810 Merged with reference to -3 to form a global motion compensation region.
  • FIG. 25 illustrates a method of determining a global motion compensation region by repeatedly dividing an image in a vertical or horizontal direction when performing global motion compensation according to an embodiment of the present invention.
  • the global motion compensation region may be determined by repeatedly dividing an image in a vertical or horizontal direction.
  • an image may be first divided into a horizontal boundary 910-3 and then divided into a vertical boundary 920-3.
  • the area 910-2-3 divided into horizontal boundaries 910-3 is an area that is no longer divided
  • the area 920-1-3 divided into vertical boundaries 920-3 is an area that is no longer divided.
  • Repeatedly divided into horizontal boundary 950-3, vertical boundary 970-3, vertical boundary 990-3, the area 950-1-3 divided into the horizontal boundary 950-3 and the area 970 divided into the vertical boundary 970-3 -1-3 is an area that is no longer divided.
  • the encoder can transmit the divided boundary information, and the decoder can determine the global motion compensation region using the received boundary information.
  • FIG. 26 illustrates a method of determining a global motion compensation region by using a warping parameter among additional information transmitted to a decoder when performing global motion compensation according to an embodiment of the present invention.
  • the encoder may transmit a warping parameter to the decoder, and the decoder may transmit the warping parameter to the decoder.
  • the motion compensation region may be determined by using.
  • FIG. 27 is a diagram illustrating a method of rotating or scaling a global motion compensation region when performing global motion compensation according to an embodiment of the present invention.
  • the encoder can transmit scaling information or information about the rotated region to the decoder, and decoded.
  • the device may determine the motion compensation region by using the transmitted information.
  • FIG. 28 illustrates a case in which a frame rate conversion (FRUC) method is used to increase the frame rate when performing global motion compensation according to an embodiment of the present invention. .
  • FRUC frame rate conversion
  • FRUC frame rate conversion
  • the block 1210-3 of the previous image and the block 1230-3 of the subsequent image are generated.
  • the synthesized block 1220-3 or synthesize the global motion region 1250-3 of the previous image and the global motion region 1260-3 of the subsequent image. Can be created.
  • FIG. 29 is a video decoding apparatus capable of generating an intra prediction signal through intra prediction information of an encoded bitstream and outputting a reconstructed image using the generated intra prediction signal.
  • FIG. Shows.
  • the input encoded bitstream 101-4 is decoded by the entropy decoding unit 102-4, and the residual signal is restored through the inverse quantization unit 103-4 and the inverse transform unit 104-4.
  • the intra prediction unit 106-4 may perform the intra prediction using the reconstruction signal for the intra prediction generated by the prediction signal generator 105-4.
  • the prediction signal generator 105-4 may perform a procedure of removing a part of the high frequency components by applying a low-pass filter to the reconstruction signal for intra prediction.
  • the motion compensator 107-4 may perform inter prediction using the reconstructed signal of a previous time stored in the reconstructed image storage 109-4.
  • a reconstruction signal is generated by using the prediction signal generated through the intra prediction or the inter prediction and the residual signal, and the generated reconstruction signal is applied to the filter through the in-loop filter unit 108-4.
  • the image may be stored in the reconstructed image storage unit 109-4 to be referred to in the picture, and may be output as the reconstructed image 110-4 according to the output order of each image.
  • FIG. 30 illustrates a referenceable region for an intra prediction block according to an embodiment of the present invention.
  • the upper reference pixel column 203-4 may be larger than the horizontal length N of the intra prediction block, and may have a length of (n * N) for n greater than 1.
  • the left reference pixel column 204-4 may be greater than the vertical length M of the intra prediction block, and may have a length of (m * M) for m greater than one.
  • 31 illustrates a method of performing directional intra prediction according to a length of an upper reference pixel column according to an intra prediction method according to an embodiment of the present invention.
  • intra-prediction may be performed using the intra-directional prediction 304-4 having an angle 303-4 of which the magnitude of the prediction angle in the directional screen is smaller than 45 degrees.
  • FIG. 32 is a diagram illustrating a method of performing directional intra prediction according to a length of a left reference pixel column according to an intra prediction method according to an embodiment of the present invention.
  • intra-prediction may be performed using the intra-directional prediction 404-4 having an angle 403-4 of which the magnitude of the predictive angle in the directional screen is greater than 315 degrees.
  • 33 illustrates a range of directional prediction applicable in an intra prediction method according to an embodiment of the present invention.
  • Directional prediction that can be applied in the proposed intra prediction mode includes directional prediction ranging from 45 degrees to 315 degrees including prediction range 1 (501-4), prediction range 2 (502-4), and prediction range 3 (503-4). Based on the range of the direction, if the length of the upper reference pixel column is greater than 2N with respect to the horizontal length N of the prediction block in the current screen, the prediction range 1 (501-4), the prediction range 3 (503-4), Intra-prediction may be performed through one directional prediction mode within a range corresponding to prediction range 5 505-4.
  • Intra-prediction may be performed through one directional prediction mode within a range corresponding to.
  • the prediction range according to the length of the reference pixel sequence may be adaptively determined according to whether or not the reference pixel sequence is decoded.
  • a prediction range to be used for intra prediction of the prediction block within the current screen may be signaled through a syntax element.
  • FIG. 34 illustrates an intra prediction signal by changing a brightness of a pixel at a same slope as that of a reconstructed pixel area according to a pixel coordinate of an unrestored pixel area from a signal of a neighboring reconstructed pixel area according to an embodiment of the present invention. It shows how to create.
  • the reconstructed pixel region So that the amount of change in the pixel value at a position spaced apart by a certain offset 603-4 from the start position of the pixel is equal to the amount of change in the pixel value at a position spaced apart by the same offset 604-4 as the offset from the start position of the non-restored pixel region.
  • a prediction signal can be generated. Thereafter, the restored pixel region 601-4 and the newly generated unrestored pixel region 602-4 may be referenced for intra prediction.
  • FIG. 35 is a view illustrating an example of an intra prediction method in which a brightness of a pixel is changed from a signal of a neighboring reconstructed pixel area to a negative slope having the same size as that of a reconstructed pixel area according to pixel coordinates of an unrestored pixel area. A method of generating an intra prediction signal is shown.
  • the reconstructed pixel region 702-4 If there is a non-restored pixel region 702-4 adjacent to the reconstructed pixel region for the reconstructed pixel region 701-4 included in the reconstructed neighboring block adjacent to the prediction block in the current screen, the reconstructed pixel region The amount of change in the pixel value at a position separated by a certain offset 703-4 from the end position of the same as the amount of change in the pixel value at a position separated by the same offset 704-4 as the offset from the start position of the unrestored pixel area And a prediction signal having an opposite sign of the slope. Thereafter, the signals of the restored pixel region 701-4 and the newly generated unrestored pixel region 702-4 may be referred to for intra prediction.
  • FIG. 36 illustrates an intra prediction signal by changing a brightness of a pixel at a same slope as that of a reconstructed pixel area according to a pixel coordinate of an unrestored pixel area from a signal of a neighboring reconstructed pixel area in an intra prediction method according to an exemplary embodiment of the present invention. Another way to create is shown.
  • the reconstructed pixel area 802-4 If there is a non-restored pixel area 802-4 adjacent to the reconstructed pixel area with respect to the reconstructed pixel area 801-4 included in the reconstructed neighboring block adjacent to the prediction block in the current screen, the reconstructed pixel area
  • the same amount of change in the pixel value at the position spaced apart by a certain offset (803-4) from the end position of the prediction is equal to the amount of change in the pixel value at the position spaced apart by the offset (804-4) equal to the offset from the start position of the non-restored pixel region.
  • FIG. 37 illustrates a method for signaling whether to perform intra prediction based on a sequence parameter set among high-level syntaxes for an intra prediction method according to an embodiment of the present invention.
  • the proposed intra picture prediction method is a 1-bit flag 902 of 'seq_model_intra_enabled_flag' whether or not the proposed intra picture prediction method is applicable within a sequence parameter set 901 among NAL units included in a compressed bitstream. -4), and if the value of the corresponding flag is true, pictures referring to the sequence parameter set can be decoded using the proposed intra prediction method.
  • 38 illustrates a method of signaling whether to perform intra prediction based on a picture parameter set among high-level syntaxes for an intra prediction method according to an embodiment of the present invention.
  • the proposed intra picture prediction method is a 1-bit flag of 'pic_model_intra_enabled_flag' indicating whether the proposed intra picture prediction method is applicable within a picture parameter set (1001-4) among NAL (Network Abstract Layer) units present in a compressed bitstream. If the value of the corresponding flag is true, slices referring to the picture parameter set may be decoded using the proposed intra prediction method.
  • 1 bit of 'pic_model_intra_all_blk_sizes_flag' indicates whether the proposed intra prediction method can be applied to the intra prediction blocks of all sizes allowed in the picture. It may be included in the form of the flag (1003-4).
  • the pic_model_intra_enabled_flag is true and the pic_model_intra_all_blk_sizes_flag is false, the minimum size and the maximum size of a block to which the proposed intra picture prediction method can be applied among the intra prediction pictures included in the current picture are 2 or less.
  • the log values min_log2_model_intra_blk_size (1004-4) and max_log2_model_intra_blk_size (1005-4) may be transmitted in the form of an exponential Golomb code.
  • FIG. 39 illustrates a method for signaling whether to perform intra prediction based on a slice segment header among high-level syntaxes for an intra prediction method according to an embodiment of the present invention.
  • the proposed intra picture prediction method is a 1-bit flag 1102 of slice_model_intra_enabled_flag whether or not the proposed intra picture prediction method is applicable within a slice segment header 1101-4 among NAL units within a compressed bitstream. -4), and if the value of the corresponding flag is true, blocks referring to the slice segment header can be decoded using the proposed intra prediction method.
  • FIG. 40 is a diagram of a decoding apparatus including an intra prediction unit, according to an embodiment of the present invention.
  • a decoding apparatus including an intra prediction unit includes an entropy decoding unit 110-5, an inverse quantization unit 120-5, an inverse transform unit 130-5, an intra prediction unit 140-5, and an inter prediction unit ( 150-5), at least one of the in-loop filter unit 160-5 and the reconstructed image storage unit 170-5.
  • the entropy decoder 110-5 decodes the input bitstream 100-5 and outputs decoding information such as syntax elements and quantized coefficients.
  • the output information may include information for global motion compensation.
  • the inverse quantization unit 120-5 and the inverse transform unit 130-5 receive quantization coefficients to sequentially perform inverse quantization and inverse transformation, and output a residual signal.
  • the intra prediction unit 140-5 generates a prediction signal by performing spatial prediction using pixel values of the pre-decoded neighboring block adjacent to the current block to be decoded.
  • the neighboring pixel values in the curve direction may be used for generating the prediction signal.
  • the inter prediction unit 150-5 generates a prediction signal by performing motion compensation using the motion vector extracted from the bitstream and the reconstructed image stored in the reconstructed image storage unit 170-5.
  • the prediction signals output from the intra prediction unit 140-5 and the inter prediction unit 150-5 are summed with the residual signal, and the reconstructed image generated through the sum is sent to the in-loop filter unit 160-5. Delivered.
  • the reconstructed picture to which the filtering is applied in the in-loop filter unit 160-5 is stored in the reconstructed image storage unit 170-5, and used as a reference picture in the inter prediction unit 150-5.
  • 41 illustrates a peripheral reference area when performing intra prediction according to an embodiment of the present invention.
  • the upper reference sample 220-5, the left reference sample 230-5, and the upper left reference sample 240-5 may be used to generate a prediction sample of the prediction block 210-5 having an M ⁇ N size. have.
  • the length of the upper reference sample column 220-5 may be longer than the horizontal length M of the prediction block 210-5 in the current screen.
  • the length of the left reference sample 230-5 may be longer than the vertical length N of the current prediction block 210.
  • a prediction signal When generating a prediction sample of the prediction block 310-5 in the current picture having the MxN size, a prediction signal may be generated using a reference sample in the direction of the curve 320-5, and the curve is represented by an N-order equation. Depending on the coefficient, it can be a straight line.
  • Information of the curve may be included in the bitstream and transmitted, and the information may include the order or coefficient of the curve equation.
  • FIG. 43 illustrates a method of referring to a plurality of reference samples of a neighboring block when performing intra prediction according to an embodiment of the present invention.
  • the prediction sample 420-5 may be generated using a weighted average value of the reference samples 440-5 and 450-5.
  • 44 illustrates a method of generating a reference sample that does not exist in a neighboring block when performing intra prediction according to an embodiment of the present invention.
  • a reference sample that does not exist may be generated using the available reference samples 540-5 and 550-5. have.
  • the length of the reference samples to be generated may vary depending on the curve 560 used in the current prediction block.
  • 45 illustrates a method of performing prediction by using reference samples in different directions in each region of a prediction block when performing intra prediction according to an embodiment of the present invention.
  • the zones A and B may generate prediction samples using reference samples in different directions.
  • 46 illustrates another method of performing prediction using reference samples of different directions in each region of a prediction block when performing intra prediction according to an embodiment of the present invention.
  • Zone A, B, C when the prediction block in the current picture with MxN size is divided into zones A, B, C, D by curve 710-5 and a straight line 720-5 connecting the edges of the block.
  • D may generate prediction samples using reference samples in different directions.
  • One or more reference samples may be used to generate the prediction samples in each of the zones A, B, C, and D, and one or more reference samples may be located in different directions.
  • FIG. 47 is a diagram illustrating a method of filtering the leftmost prediction sample sequence of a prediction block to remove discontinuities with neighboring blocks when performing intra prediction according to an embodiment of the present invention.
  • the area in which the prediction is performed in the vertical direction is located on the left side of the prediction block.
  • the left reference sample variation may be used.
  • the prediction block is divided into two regions A and B by the curve 810-5 as shown in FIG. 47, and the region A uses vertical prediction, the prediction samples of the leftmost column 820-5 are shown. Filtering may be performed by using the change amount 830-5 of the left reference samples.
  • FIG. 48 is a diagram illustrating a method of filtering the highest prediction sample sequence of a prediction block to remove discontinuities with neighboring blocks when performing intra prediction according to an embodiment of the present invention.
  • the area in which the horizontal prediction is located at the top of the prediction block can be filtered on the prediction sample in the top column of the prediction block.
  • the upper reference sample variation may be used.
  • the prediction block is divided into two regions A and B by the curve 910-5 as shown in FIG. 48, and the region A uses horizontal prediction, the prediction samples of the uppermost column 920-5 are shown.
  • the filtering may be performed using the variation amount 930-5 of the upper reference samples.
  • 49 is a flowchart illustrating a procedure of performing intra prediction according to an embodiment of the present invention.
  • the prediction information in the curve picture is extracted 1010-5 from the bitstream.
  • the extracted information may include the order or coefficient of the equation of the curve to represent the curve.
  • prediction sample filtering is performed using the variation amount of the neighboring reference samples (1060-5). . Filtering on the prediction sample may be performed on the leftmost sample column and the topmost sample row of the prediction block.
  • the invention can be used to encode / decode a video signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 비디오 압축 기술 중 양자화 계수 그룹 부호화 및 복호화에 있어 가변 크기의 양자화 계수 그룹을 이용하여 부호화 및 복호화를 수행하는 방법에 관한 것이다. 본 발명에 따른 비디오 복호화 방법은 현재 역양자화를 위한 양자화 계수 그룹의 정보를 획득하고, 현재 양자화 계수 그룹에 대하여 엔트로피 복호화를 통해 양자화 계수를 획득하며, 획득한 양자화 계수들에 대하여 역양자화 과정을 거쳐 변환 계수를 획득하여, 획득한 변환 계수에 대하여 역변환 과정을 거쳐 차분 신호를 획득하는 과정을 포함한다.

Description

비디오 코딩 방법 및 장치
본 발명은 영상 처리기술에 관한 것이다.
최근 고해상도, 고화질 비디오에 대한 요구가 증가함에 따라 차세대 비디오 서비스를 위한 고효율 비디오 압축 기술에 대한 필요성이 대두되었다.
비디오 압축 기술에서 양자화 계수 부호화 및 복호화 기술은 원본 신호와 예측 신호 간의 차분 신호에 대하여 변환 및 양자화를 수행한 신호를 엔트로피 부호화 기술을 통해 비트스트림으로 생성하는 기술 혹은 그렇게 생성된 비트스트림을 엔트로피 복호화 기술을 통해 차분 신호로 복원하는 기술을 의미한다.
본 발명은 비디오 압축 기술 대비 부호화 효율을 향상시키는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명은 FHD (Full High Definition) 및 UHD (Ultra High Definition)오 같은 고해상도의 영상을 위한 비디오 부/복호화기에서 움직임 정보의 전송을 효과적으로 하기 위해 복호화기에서 움직임 벡터의 정보를 복호화기에서 도출하고 이를 통해 효과적으로 비디오 부/복호화가 가능한 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 일부 실시예는 영상의 광범위한 영역에 대한 글로벌 움직임 보상을 수행하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 일부 실시예는 효과적으로 화면 내 예측을 수행하기 위한 참조 신호의 생성 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 일부 실시예는 비디오 압축 기술에서 곡선화면 내 예측 기술을 사용하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기 언급된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 양자화 계수 그룹 정보 획득부, 양자화 계수 그룹에 대한 엔트로피 복호화를 통해 양자화 계수를 획득하는 양자화 계수 그룹 엔트로피 복호화부, 상기 획득한 양자화 계수들에 대하여 역양자화를 통해 변환 계수를 획득하는 역양자화부, 및 상기 획득한 변환 계수에 대하여 역변환 과정을 거쳐 차분 신호를 획득하는 역변환부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 가변 크기 양자화 계수 그룹 사용 여부 추출부, 상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 양자화 계수 그룹 분할 정보 복호화부, 및 양자화 계수 엔트로피 복호화를 수행하는 양자화 계수 엔트로피 복호화부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 플래그를 비트스트림에서 추출하는 양자화 계수 그룹 분할 플래그 추출부, 상기 추출된 양자화 계수 그룹 분할 플래그가 분할하지 않음을 나타내는 경우, 상기 현재 복호화 단위에서 양자화 계수 그룹의 크기를 결정하는 양자화 계수 그룹 크기 결정부, 상기 추출된 양자화 계수 그룹 분할 플래그가 분할을 나타내는 경우, 상기 현재 복호화 단위를 복수의 하위 양자화 계수 그룹들로 분할하는 하위 양자화 계수 그룹 분할부, 및 양자화 계수 그룹 엔트로피 복호화를 수행하는 양자화 계수 그룹 엔트로피 복호화부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 가변 크기 양자화 계수 그룹 사용 여부 추출부,상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 상기 가변 크기의 양자화 계수 그룹의 분할 방법을 결정하는 양자화 계수 그룹 분할 방법 결정부, 및 상기 결정된 가변 크기의 양자화 계수 그룹의 분할 방법에 따라 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 크기 정보를 획득하는 양자화 계수 그룹 크기 정보 획득부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 갯수 정보를 비트스트림에서 추출하는 양자화 계수 그룹 분할 갯수 정보 추출부, 상기 가변 크기의 양자화 계수 그룹 분할 방법과 현재 복호화 단위의 크기, 상기 양자화 계수 그룹 분할 갯수 정보에 기초하여 정의된 분할 정보를 이용하여 양자화 계수 그룹을 분할하는 양자화 계수 그룹 분할부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 가변 크기 양자화 계수 그룹 사용 여부 정보 추출부, 상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 양자화 계수 그룹 분할 정보 획득부, 및 상기 역양자화를 위한 양자화 계수 그룹의 분할 정보에 기초하여 양자화 계수 그룹의 엔트로피 복호화 스캔 순서를 획득하는 엔트로피 복호화 스캔 순서 획득부를 포함한다.
상기 과제를 해결하기 위한 본 발명의 일 실시 예에서 비디오 복호화 장치 및 방법은 움직임 정보 도출 장치 혹은 단계를 가지게 되며, 부호화기부터 직접적으로 전송받은 움직임 벡터의 정보 없이 복호화기에서 움직임 정보를 도출할 수 있다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 글로벌 움직임 보상을 위한 정보를 획득하는 단계, 상기 결정된 글로벌 움직임 보상을 위한 정보를 이용하여 글로벌 움직임 보상 영역을 결정하는 단계, 상기 결정된 글로벌 움직임 보상 영역에 대하여 글로벌 움직임 보상을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 글로벌 움직임 보상의 사용 여부를 나타내는 플래그를 추출하는 단계, 상기 추출된 플래그가 글로벌 움직임 보상의 사용을 의미하는 경우, 비트스트림으로부터 글로벌 움직임 보상 영역 결정 및 결정된 글로벌 움직임 영역별 움직임 보상 수행을 위한 정보를 추출하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 글로벌 움직임 보상 사용의 여부를 나타내는 플래그를 추출하는 단계, 상기 추출된 플래그가 글로벌 움직임 보상을 사용하지 않음을 의미하는 경우, 코딩 블록 단위 움직임 보상을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득된 움직임 보상 영역 결정 정보를 이용하여 글로벌 움직임 보상을 수행할 영역을 결정하는 단계, 상기 결정된 움직임 보상을 수행할 영역별 움직임 보상을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득된 움직임 보상 영역별 수행 정보를 이용하여 글로벌 움직임 보상 영역별로 글로벌 움직임 보상을 수행하는 글로벌 움직임 보상 영역에 대하여 글로벌 움직임 보상을 수행하는 단계를 포함한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 방법 및 장치는, 화면 내 예측을 수행함에 있어, 화면 내 예측을 위하여 참조되는 주변 복원신호를 이용하여 복원되지 않은 영역에 대한 신호를 생성하여 효율적인 화면 내 예측을 수행할 수 있다. 또한, 복원된 신호 중 화면 내 예측을 위하여 참조되는 범위를 기존에 비해 확장하여 더 많은 복원 화소들을 참조함으로써, 화면 내 예측 성능을 향상시킬 수 있다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 예측 신호 생성을 위한 정보를 추출하는 단계, 상기 추출한 정보를 이용하여 참조 샘플 패딩을 수행하는 단계, 상기 추출한 정보를 이용하여 곡선 화면 내 예측을 수행하여 예측 샘플을 생성하는 단계, 상기 생성된 예측 샘플을 필터링하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 예측 신호 생성을 위한 정보를 획득하는 단계, 상기 추출된 화면 내 예측 모드 정보가 곡선 화면 내 예측을 의미하는 경우, 비트스트림으로부터 곡선 화면 내 예측에 대한 정보를 추출하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득된 곡선 화면 내 예측에 대한 정보 및 주변 블록의 참조 샘플 존재 유무를 이용하여 참조 샘플 패딩 수행 여부를 결정하고 참조 샘플 패딩을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득한 곡선 화면 내 예측에 대한 정보를 이용하여 예측 샘플을 생성하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 생성된 예측 블록의 좌측 예측 샘플열 및 상단 예측 샘플행에 대하여 상기 샘플열을 포함하는 영역이 수평 방향 예측 또는 수직 방향 예측을 사용할 경우, 주변 참조 샘플의 변화량을 이용하여 필터링하는 단계를 포함한다.
본 발명은 양자화 계수 부호화 효율을 향상시키기 위하여, 양자화 계수 그룹의 크기를 신호의 특성에 따라 가변 크기를 사용하고 이에 부합되는 부호화 및 복호화 순서를 사용하는 방법 및 장치 제공하는 것을 그 목적으로 한다.
본 발명의 일 실시 예에 따르면, 가변 크기의 양자화 계수 그룹의 크기, 선택적 계수 부호화 및 복호화 순서를 사용하여 부호화에서 제외되는 계수의 갯수를 증가시킴으로써 양자화 계수 부호화의 성능을 향상시킬 수 있다.
또한, 본 발명의 일 실시 예에 따르면, 양자화 계수 그룹의 크기 및 형태를 가변적으로 사용함으로써 변환 및 양자화에 따른 에너지 집중 효과 및 고주파 성분 제거 효과에 따른 계수 부호화 성능을 향상시킬 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 복호화기에서 움직임 정보 도출 장치 혹은 단계를 통해 움직임 벡터에 대한 직접적인 전송 없이 비디오 복호화가 가능하도록 하고 비디오 부/복호화 효율을 향상시킬 수 있다.
본 발명은 부호화 효율 향상을 위하여 기존의 비디오 압축 기술에서 사용하는 움직임 보상 과정에서 광범위한 영역에 대한 글로벌 움직임 보상을 수행하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 일실시예에 따르면, 광범위한 영역에 대한 움직임 보상을 한번에 수행하고, 글로벌 움직임 보상 영역에 대한 정보를 효율적으로 복호화기로 전달하여 부호화 성능을 향상시킬 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 복호화기에서 화면 내 예측 신호의 생성과 참조 범위를 확장함으로써 화면 내 예측 성능을 향상시키고, 전체 비디오의 압축 성능을 높일 수 있다.
본 발명은 부호화/복호화 효율 향상을 위하여 기존의 비디오 압축 기술에서 사용하는 화면 내 예측 과정에서 곡선 화면 내 예측을 수행하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
전술한 본 발명의 해결 수단에 의하면, 곡선 화면 내 예측을 통해 부호화기/복호화기에서 화면 내 예측의 효율을 향상시켜 비디오의 압축 성능을 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 비디오복호화 장치의 구성을 나타내는 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 가변 크기 양자화 그룹 복호화의 순서를 나타내는 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 가변 크기 양자화 계수 그룹 복호화 여부를 판단하고 양자화 계수 그룹 분할 정보를 획득하는 순서를 나타내는 블록도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 가변 크기 양자화 그룹 분할 플래그를 이용한 복호화 순서를 나타내는 블록도를 도시한다.
도 5 및 도 6은 4x4 고정 크기의 양자화 계수 그룹 및 이를 이용한 8x8 복호화 블록 및 16x16 복호화 블록의 스캔 순서의 일 예를 나타내는 개념도를 도시한다.
도 7은 본 발명의 일 실시예에 따른 가변 크기의 양자화 계수 그룹에 대한 쿼드-트리 구성 및 다중 스캔 순서의 사용의 일 예를 나타내는 개념도를 도시한다.
도 8은 본 발명의 일 실시예에 따른 가변 크기의 양자화 계수 그룹에 대한 16x16 복호화 블록 및 32x32 복호화 블록의 쿼드-트리 분할의 일 예를 나타내는 개념도를 도시한다.
도 9은 본 발명의 일 실시예에 따른 가변 크기의 양자화 계수 그룹을 분할함에 있어 입력 신호 특성에 따른 정방형 이외의 일 예를 나타내는 개념도를 도시한다.
도 10은 본 발명의 일 실시예에 따른 비정방형 가변 크기의 양자화 계수 그룹을 나타내는 개념도를 도시한다.
도 11은 본 발명의 실시 예에 따른 복호화 장치의 블록도이다.
도 12는 움직임 도출을 수행하는 복호화 유닛에서의 움직임 도출 및 움직임 보상에 대한 순서도 이다.
도 13은 본 발명의 실시 예에서 복호화 유닛이 분할되는 경우 서브 블록의 분할의 예에 대한 것이다.
도 14는 복호화 유닛의 주변 픽셀 정보를 이용하여 움직임 도출을 하는 예에서 움직임 예측을 수행하는 주변 픽셀의 모양에 대한 것이다.
도 15는 도 14의 방법을 두 장의 참조 영상을 사용하는 실시예에 대한 것이다.
도 16은 움직임 도출을 두 장의 참조 영상을 사용하여 대응 블록의 움직임 예측을 통해 현재 복호화 유닛의 움직임을 도출하는 방법에 대한 것이다.
도 17은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행하는 복호화 장치를 도시한다.
도 18은 본 발명의 일 실시예에 따른 영상의 글로벌 움직임 보상을 수행하는 방법을 도시한 도면이다.
도 19는 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행하는 방법의 순서를 나타내는 블록도를 도시한다.
도 20은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 복호화기로 전달되는 정보 중, 글로벌 움직임 보상 영역이 결정된 영역의 내부 또는 외부인지를 나타내는 정보를 이용하여 글로벌 움직임 보상 영역을 최종적으로 결정하는 방법을 도시한 도면이다.
도 21은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 다양한 형태의 글로벌 움직임 보상 영역을 도시한 도면이다.
도 22는 본 발명의 일 실시예에 글로벌 움직임 보상을 수행할 때, 코딩 유닛 단위의 경계에 맞추어 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
도 23은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 글로벌 움직임 보상 영역의 위치를 결정하는 방법을 도시한 도면이다.
도 24는 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 격자로 분리된 구역을 병합하여 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
도 25는 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 영상을 수직 또는 수평방향으로 반복적으로 분할하여 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
도 26은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 복호화기로 전달되는 부가정보 중 와핑 파라미터 (Warping parameter)를 이용하여 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
도 27은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 글로벌 움직임 보상 영역을 회전(rotation) 또는 스케일링(scaling)하는 방법을 도시한 도면이다.
도 28은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 프레임율 (Frame rate)을 증가시키기 위해 프레임율 변환(Frame Rate Up Conversion, FRUC) 방법을 사용하는 경우를 도시한 도면이다.
도 29는 본 발명의 일 실시예에 따른 부호화된 비트스트림의 화면 내 예측 정보를 통하여 화면 내 예측 신호를 생성하고, 상기 생성된 화면 내 예측 신호를 이용하여 복원 영상을 출력할 수 있는 비디오 복호화 장치를 도시한다.
도 30은 본 발명의 실시예에 따른 화면 내 예측 블록을 위한 참조 가능한 영역을 도시한다.
도 31은 본 발명의 실시예에 따른 화면 내 예측 방법에 따라 참조 화소열의 길이에 따른 방향성 화면 내 예측을 수행하는 방법을 도시한다.
도 32는 본 발명의 실시예에 따른 화면 내 예측 방법에 따라 좌측 화소열의 길이에 따른 방향성 화면 내 예측을 수행하는 방법을 도시한다.
도 33은 본 발명의 실시예에 따른 화면 내 예측 방법 중 적용 가능한 방향성 예측의 범위를 도시한다.
도 34는 본 발명의 실시예에 따른 화면 내 예측 방법 중 이웃한 복원화소 영역의 신호로부터 미복원 화소영역의 화소 좌표에 따라 복원화소 영역과 동일한 기울기로 화소의 밝기를 변화시킴으로써 화면 내 예측신호를 생성하는 방법을 도시한다.
도 35는 본 발명의 실시예에 따른 화면 내 예측 방법 중 이웃한 복원화소 영역의 신호로부터 미복원 화소영역의 화소 좌표에 따라 복원화소 영역과 동일한 크기를 갖는 음의 기울기로 화소의 밝기를 변화시킴으로써 화면 내 예측신호를 생성하는 방법을 도시한다.
도 36은 본 발명의 실시예에 따른 화면 내 예측 방법 중 이웃한 복원화소 영역의 신호로부터 미복원 화소영역의 화소 좌표에 따라 복원화소 영역과 동일한 기울기로 화소의 밝기를 변화시킴으로써 화면 내 예측신호를 생성하는 또 다른 방법을 도시한다.
도 37은 본 발명의 실시예에 따른 화면 내 예측 방법을 위한 상위 수준 신택스 (High-level syntax) 중 시퀀스 파라미터 셋에 의하여 제안하는 화면 내 예측 수행 여부를 시그널링하는 방법을 도시한다.
도 38은 본 발명의 실시예에 따른 화면 내 예측 방법을 위한 상위 수준 신택스 (High-level syntax) 중 픽쳐 파라미터 셋에 의하여 제안하는 화면 내 예측 수행 여부를 시그널링하는 방법을 도시한다.
도 39는 본 발명의 실시예에 따른 화면 내 예측 방법을 위한 상위 수준 신택스 (High-level syntax) 중 슬라이스 세그먼트 헤더에 의하여 제안하는 화면 내 예측 수행 여부를 시그널링하는 방법을 도시한다.
도 40은 본 발명의 일 실시예에 따른 화면 내 예측부를 포함하는 복호화장치를 도시한다.
도 41은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 참조영역을 도시한다.
도 42는 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록의 화소를 참조하는 방법을 도시한다.
도 43은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록의 화소를 여러 개 참조하는 방법을 도시한다.
도 44는 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록의 존재하지 않는 참조 샘플을 생성하는 방법을 도시한다.
도 45는 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 예측 블록의 각 영역에서 서로 다른 방향의 참조 샘플을 이용하여 예측을 수행하는 방법을 도시한다.
도 46은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 예측 블록의 각 영역에서 서로 다른 방향의 참조 샘플을 이용하여 예측을 수행하는 또 다른 방법을 도시한다.
도 47은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록과의 불연속성을 제거하기 위해 예측 블록의 가장 왼쪽 예측 샘플열에 대한 필터링을 하는 방법을 도시한다.
도 48은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록과의 불연속성을 제거하기 위해 예측 블록의 가장 위쪽 예측 샘플열에 대한 필터링을 하는 방법을 도시한다.
도 49는 본 발명의 일 실시예에 따른 화면 내 예측을 수행하는 순서를 나타낸 순서도이다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 양자화 계수 그룹 정보 획득부, 양자화 계수 그룹에 대한 엔트로피 복호화를 통해 양자화 계수를 획득하는 양자화 계수 그룹 엔트로피 복호화부, 상기 획득한 양자화 계수들에 대하여 역양자화를 통해 변환 계수를 획득하는 역양자화부, 및 상기 획득한 변환 계수에 대하여 역변환 과정을 거쳐 차분 신호를 획득하는 역변환부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 가변 크기 양자화 계수 그룹 사용 여부 추출부, 상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 양자화 계수 그룹 분할 정보 복호화부, 및 양자화 계수 엔트로피 복호화를 수행하는 양자화 계수 엔트로피 복호화부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 플래그를 비트스트림에서 추출하는 양자화 계수 그룹 분할 플래그 추출부, 상기 추출된 양자화 계수 그룹 분할 플래그가 분할하지 않음을 나타내는 경우, 상기 현재 복호화 단위에서 양자화 계수 그룹의 크기를 결정하는 양자화 계수 그룹 크기 결정부, 상기 추출된 양자화 계수 그룹 분할 플래그가 분할을 나타내는 경우, 상기 현재 복호화 단위를 복수의 하위 양자화 계수 그룹들로 분할하는 하위 양자화 계수 그룹 분할부, 및 양자화 계수 그룹 엔트로피 복호화를 수행하는 양자화 계수 그룹 엔트로피 복호화부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 가변 크기 양자화 계수 그룹 사용 여부 추출부,상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 상기 가변 크기의 양자화 계수 그룹의 분할 방법을 결정하는 양자화 계수 그룹 분할 방법 결정부, 및 상기 결정된 가변 크기의 양자화 계수 그룹의 분할 방법에 따라 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 크기 정보를 획득하는 양자화 계수 그룹 크기 정보 획득부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 갯수 정보를 비트스트림에서 추출하는 양자화 계수 그룹 분할 갯수 정보 추출부, 상기 가변 크기의 양자화 계수 그룹 분할 방법과 현재 복호화 단위의 크기, 상기 양자화 계수 그룹 분할 갯수 정보에 기초하여 정의된 분할 정보를 이용하여 양자화 계수 그룹을 분할하는 양자화 계수 그룹 분할부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 복호화 장치 및 방법은 현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 가변 크기 양자화 계수 그룹 사용 여부 정보 추출부, 상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 양자화 계수 그룹 분할 정보 획득부, 및 상기 역양자화를 위한 양자화 계수 그룹의 분할 정보에 기초하여 양자화 계수 그룹의 엔트로피 복호화 스캔 순서를 획득하는 엔트로피 복호화 스캔 순서 획득부를 포함한다.
상기 과제를 해결하기 위한 본 발명의 일 실시 예에서 비디오 복호화 장치 및 방법은 움직임 정보 도출 장치 혹은 단계를 가지게 되며, 부호화기부터 직접적으로 전송받은 움직임 벡터의 정보 없이 복호화기에서 움직임 정보를 도출할 수 있다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 글로벌 움직임 보상을 위한 정보를 획득하는 단계, 상기 결정된 글로벌 움직임 보상을 위한 정보를 이용하여 글로벌 움직임 보상 영역을 결정하는 단계, 상기 결정된 글로벌 움직임 보상 영역에 대하여 글로벌 움직임 보상을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 글로벌 움직임 보상의 사용 여부를 나타내는 플래그를 추출하는 단계, 상기 추출된 플래그가 글로벌 움직임 보상의 사용을 의미하는 경우, 비트스트림으로부터 글로벌 움직임 보상 영역 결정 및 결정된 글로벌 움직임 영역별 움직임 보상 수행을 위한 정보를 추출하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 글로벌 움직임 보상 사용의 여부를 나타내는 플래그를 추출하는 단계, 상기 추출된 플래그가 글로벌 움직임 보상을 사용하지 않음을 의미하는 경우, 코딩 블록 단위 움직임 보상을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득된 움직임 보상 영역 결정 정보를 이용하여 글로벌 움직임 보상을 수행할 영역을 결정하는 단계, 상기 결정된 움직임 보상을 수행할 영역별 움직임 보상을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득된 움직임 보상 영역별 수행 정보를 이용하여 글로벌 움직임 보상 영역별로 글로벌 움직임 보상을 수행하는 글로벌 움직임 보상 영역에 대하여 글로벌 움직임 보상을 수행하는 단계를 포함한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 방법 및 장치는, 화면 내 예측을 수행함에 있어, 화면 내 예측을 위하여 참조되는 주변 복원신호를 이용하여 복원되지 않은 영역에 대한 신호를 생성하여 효율적인 화면 내 예측을 수행할 수 있다. 또한, 복원된 신호 중 화면 내 예측을 위하여 참조되는 범위를 기존에 비해 확장하여 더 많은 복원 화소들을 참조함으로써, 화면 내 예측 성능을 향상시킬 수 있다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 예측 신호 생성을 위한 정보를 추출하는 단계, 상기 추출한 정보를 이용하여 참조 샘플 패딩을 수행하는 단계, 상기 추출한 정보를 이용하여 곡선 화면 내 예측을 수행하여 예측 샘플을 생성하는 단계, 상기 생성된 예측 샘플을 필터링하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 예측 신호 생성을 위한 정보를 획득하는 단계, 상기 추출된 화면 내 예측 모드 정보가 곡선 화면 내 예측을 의미하는 경우, 비트스트림으로부터 곡선 화면 내 예측에 대한 정보를 추출하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득된 곡선 화면 내 예측에 대한 정보 및 주변 블록의 참조 샘플 존재 유무를 이용하여 참조 샘플 패딩 수행 여부를 결정하고 참조 샘플 패딩을 수행하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 비트스트림으로부터 획득한 곡선 화면 내 예측에 대한 정보를 이용하여 예측 샘플을 생성하는 단계를 포함한다.
상기 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 복호화 장치 및 방법은 생성된 예측 블록의 좌측 예측 샘플열 및 상단 예측 샘플행에 대하여 상기 샘플열을 포함하는 영역이 수평 방향 예측 또는 수직 방향 예측을 사용할 경우, 주변 참조 샘플의 변화량을 이용하여 필터링하는 단계를 포함한다.
하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.
또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다.
또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
발명에 사용되는 블록은 복호화의 기본 블록 단위, 예측 블록 단위, 변환 블록 단위가 될 수 있다. 또한, 블록 경계는 복호화 블록의 경계, 예측 블록의 경계, 변환 블록의 경계가 될 수 있다.
먼저, 본 출원에서 사용되는 용어를 간략히 설명하면 다음과 같다.
이하에서 후술할 복호화 장치(Video Decoding Apparatus)는 개인용 컴퓨터(PC, Personal Computer), 노트북 컴퓨터, 휴대형 멀티미디어 플레이어(PMP, Portable Multimedia Player), 무선 통신 단말기(Wireless Communication Terminal), 스마트 폰(Smart Phone), TV 응용 서버와 서비스 서버 등 서버 단말기에 포함된 장치일 수 있으며, 각종 기기 등과 같은 사용자 단말기, 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 복호화하거나 복호화를 위해 화면 간 또는 화면 내 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다.
또한, 부호화기에 의해 비트스트림(bitstream)으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB, Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 복호화되어 영상으로 복원되고 재생될 수 있다.
통상적으로 동영상은 일련의 픽쳐(Picture)들로 구성될 수 있으며, 각 픽쳐들은 블록(Block)과 같은 코딩 유닛(coding unit)으로 분할될 수 있다. 또한, 이하에 기재된 픽쳐라는 용어는 영상(Image), 프레임(Frame) 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있을 것이다.
글로벌 움직임 보상이란 광범위한 영역에 대한 움직임 보상을 한번에 수행하는 방법을 의미하며, 글로벌 움직임 보상을 수행하는 방법을 글로벌 움직임 보상 방법, 글로벌 움직임 보상이 수행되는 영역을 글로벌 움직임 보상 영역이라 일컫는다.
이하 본 명세서에 기재된 본 발명의 다양한 실시예들에서, '양자화 계수 그룹'은 변환 및 양자화 과정을 거친 양자화 변환 계수의 처리 단위를 지칭하며, 변환만이 수행된 변환 신호의 그룹, 양자화 과정만이 수행된 양자화 신호의 그룹, 및 변환 및 양자화 모두 거치지 않은 신호의 그룹을 모두 포함하여 포괄적으로 지칭할 수 있다.
이하 본 발명의 일 실시예에 따라 제안하는 가변 크기의 양자화 계수 그룹을 포함하는 비디오 복호화 장치 및 방법에 대하여 구체적으로 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 비디오 복호화 장치 및 방법의 구성을 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 엔트로피 복호화부(110), 역양자화부(120), 역변환부(130), 화면 내 예측부(140), 화면 간 예측부(150), 합산부(160), 인루프 필터부(170), 복원 픽쳐 버퍼(180) 중 적어도 하나를 포함할 수 있다.
엔트로피 복호화부(110)는 입력된 비트스트림(100)을 복호화하여 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 복호화 정보를 출력한다.
역양자화부(120) 및 역변환부 (130)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 잔차 신호(residual signal)를 출력한다.
화면 내 예측부(140)는 복호화되는 현재 블록과 인접하는 기 복호화된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.
화면 간 예측부(150)는 비트스트림으로부터 추출된 움직임 벡터와 복원 픽쳐 버퍼(180)에 저장되어 있는 복원 영상을 이용하여 움직임 보상을 수행하여 예측 신호를 생성한다.
화면 내 예측부(140)와 화면 내 예측부(150)로부터 출력된 예측 신호는 합산부(160)를 통해 잔차 신호와 합해지고, 그에 따라 블록 단위로 생성된 복원 신호는 복원된 영상을 포함한다.
복원된 영상은 인루프 필터부(170)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(180)에 저장되며, 화면 간 예측부(150)에서 참조 픽쳐로 사용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 가변 크기 양자화 그룹 복호화의 순서를 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 양자화 계수 그룹 정보 복호화부(210), 양자화 계수 엔트로피 복호화부(220), 역양자화부(230), 역변환부(250), 및 차분 신호 획득부(260) 중 적어도 하나를 포함한다.
양자화 계수 그룹 정보 복호화부(210)는 양자화 계수 그룹에 대한 정보를 비트스트림에서 추출하는 역할을 수행한다.
일 실시예에 따른 양자화 계수 그룹에 대한 정보는 가변 크기 양자화 그룹의사용 여부 및 양자화 계수 그룹의 크기,또는 가변 크기 양자화 그룹의 사용 여부, 양자화 계수 그룹의 크기 및 양자화 계수 그룹의 분할 형태를 포함한다. 또한, 일 실시예에 따른 양자화 계수 그룹 정보는 시퀀스 파라미터셋,혹은 픽쳐 파라미터셋,혹은 슬라이스 헤더, 혹은 복호화 단위에 포함될 수 있으며, 전술한 하나 이상의 단위를 통하여 전송되는 것을 포함한다. 이와 더불어, 일 실시예에 따른 양자화 계수 그룹 정보는 플래그 형태, 양자화 계수 그룹의 최소 혹은 최대 크기와 그에 따른 사용 가능한 크기의 깊이 형태 등으로 표현되는 것을 포함한다. 이때, 최소 혹은 최대 크기는 로그 형태로 표현되는 것을 포함한다.양자화 계수 그룹 정보 복호화부(210)를 통해 비트스트림에서 추출된 양자화 계수 그룹 정보는 양자화 계수 엔트로피 복호화부(220)으로 전달된다.
양자화 계수 엔트로피 복호화부(220)은 복호화 단위로 수행되어지며, 비트스트림으로부터 부호화된 양자화 계수를 복호화하는 역할을 수행한다.
일 실시예에 따른 양자화 계수의 엔트로피 복호화는 양자화 계수 그룹 정보 복호화부(210)에서 추출된 양자화 계수 그룹 정보를 이용하여, 현재 복호화하는 양자화 계수 그룹에 해당하는 양자화 계수를 비트스트림으로부터 추출하는 역할을 의미한다. 또한, 일 실시예에 따라 비트스트림으로부터 양자화 계수가 추출될 때 엔트로피 복호화 스캔 오더는 현재 양자화 계수 그룹 정보에따라 미리 정의된 스캔 오더를 사용할 수 있으며, 혹은 양자화 계수 그룹에 대한 엔트로피 복호화 스캔 오더가 부가 정보로 전송되는 것을 포함한다.
역양자화부(230)는 양자화 계수 엔트로피 복호화부(220)에서 추출된 양자화 계수에 대한 역양자화하는 역할을 수행한다.
일 실시예에 따른 역양자화부는 양자화 계수 엔트로피 복호화부(220)에서 추출된 양자화 계수에 대한 역양자화를 수행하지만, 추출된 양자화 계수가 없는 경우 및 양자화 수행 여부가 거짓인 경우에는 역양자화를 수행하지 않는 것을 포함한다.
일 실시예에 따라, 역양자화부(230)에서 추출된 신호는 변환 수행 여부(240)를 판별하여 변환 수행 여부가 참인 경우, 역변환부(250)을 통해 차분 신호를 획득하게 된다. 반면, 변환 수행 여부(240)를 판별하여 변환 수행 여부가 거짓인 경우, 역변환부(250)을 거치지 않고 역양자화(230)에서 추출된 신호를 차분 신호로 바로 사용한다.
도 3은 본 발명의 일 실시예에 따른 가변 크기 양자화 계수 그룹 복호화 여부를 판단하고 양자화 계수 그룹 분할 정보를 획득하는 순서를 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 가변 크기 양자화 계수 그룹 사용 여부 추출부(310), 가변 크기 양자화 계수 그룹 사용 판단부(320), 양자화 계수 그룹 분할 정보 복호화부(330), 및 양자화 계수 엔트로피 복호화부(340) 중 적어도 하나를 포함한다.
가변 크기 양자화 계수 그룹 사용 여부 추출부(310)는 가변 크기 양자화 계수 그룹의 사용 여부를 추출하는 역할을 수행한다.
일 실시예에 따른 가변 크기 양자화 계수 그룹의 사용 여부는 양자화 계수 그룹을 복호화함에 있어, 본 발명에서 제안하는 가변 크기 양자화 계수 그룹의 사용 여부를 판단하는 정보로써 플래그 형태, 혹은 사용되는 가변 크기 양자화 계수 그룹의 분할 형태를 특정한 값 형태로 나타내는 것을 포함한다. 또한, 일 실시예에 따른 가변 크기 양자화 계수 그룹의 사용 여부는 시퀀스 파라미터셋, 혹은 픽쳐 파라미터셋, 혹은 슬라이스 헤더, 복호화 단위,혹은 양자화 계수 그룹에 포함될 수 있으며, 전술한 하나 이상의 단위를 통하여 전송되는 것을 포함한다.
가변 크기 양자화 계수 그룹 사용 판단부(320)에서는 가변 크기 양자화 계수 그룹 사용 여부 추출부(310)을 통해 추출된 가변 크기 양자화 계수 그룹 사용 여부를 판단하는 역할을 수행한다.
양자화 계수 그룹 분할 정보 복호화부(330)에서는 양자화 계수 그룹 분할 정보를 획득하는 역할을 수행한다.
일 실시예에 따라, 가변 크기 양자화 계수 그룹 사용 여부가 참인 경우, 양자화 계수 그룹 분할 정보 복호화부(330)를 통해 가변 크기 양자화 계수 그룹에 대한 정보를 비트스트림으로부터 추출한다.
일 실시예에 따른 양자화 계수 그룹에 대한 정보는 양자화 계수 그룹의 크기, 또는 양자화 계수 그룹의 크기 및 양자화 계수 그룹의 분할 형태를 포함한다. 또한, 일 실시예에 따른 양자화 계수 그룹 정보는 시퀀스 파라미터셋, 혹은 픽쳐 파라미터셋, 혹은 슬라이스 헤더, 복호화 단위, 혹은 양자화 계수 그룹에 포함될 수 있으며, 전술한 하나 이상의 단위를 통하여 전송되는 것을 포함한다. 이와 더불어, 일 실시예에 따른 양자화 계수 그룹 정보는 플래그 형태, 양자화 계수 그룹의 최소 혹은 최대 크기와 그에 따른 사용 가능한 크기의 깊이 형태 등으로 표현되는 것을 포함한다. 이때, 최소 혹은 최대 크기는 로그 형태로 표현되는 것을 포함한다. 양자화 계수 그룹 분할 정보 복호화부(330)를 통해 비트스트림에서 추출된 양자화 계수 그룹 정보는 양자화 계수 엔트로피 복호화부(340)으로 전달된다.
양자화 계수 엔트로피 복호화부(340)은 복호화 단위로 수행되어지며, 비트스트림으로부터 부호화된 양자화 계수를 복호화하는 역할을 수행한다.
일 실시예에 따른 양자화 계수의 엔트로피 복호화는 양자화 계수 그룹 분할 정보 복호화부(330)에서 추출된 양자화 계수 그룹 정보를 이용하여, 현재 복호화하는 양자화 계수 그룹에 해당하는 양자화 계수를 비트스트림으로부터 추출하는 역할을 의미한다. 또한, 일 실시예에 따라 비트스트림으로부터 양자화 계수가 추출될 때 엔트로피 복호화 스캔 오더는 현재 양자화 계수 그룹 정보에 따라 미리 정의된 스캔 오더를 사용할 수 있으며, 혹은 양자화 계수 그룹에 대한 엔트로피 복호화 스캔 오더가 부가 정보로 전송되는 것을 포함한다.
도 4는 본 발명의 일 실시예에 따른 가변 크기 양자화 그룹 분할 플래그를 이용한 복호화 순서를 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 양자화 계수 그룹 분할 플래그 추출부(410), 분할 여부 판단부(420), 하위 양자화 계수 그룹 분할부(430), 양자화 계수 그룹 크기 결정부(440), 및 양자화 계수 그룹 엔트로피 복호화부(450)중 적어도 하나를 포함한다.
양자화 계수 그룹 분할 플래그 추출부(410)는 쿼드-트리 형태의 가변 크기 양자화 계수를 사용함에 있어, 현재 양자화 계수 그룹의 분할 여부에 대한 플래그를 비트스트림으로부터 추출하는 역할을 수행한다.
일 실시예에 따른 양자화 계수 그룹은 쿼드-트리 형태로 분할될 수 있으며, 쿼드-트리 분할 구조의 양자화 계수 그룹은 양자화 계수 그룹이 분할되지 않거나, 하나 이상의 깊이로 재귀적 분할 구조로 분할되는 것을 포함한다.
분할 여부 판단부(420)는 양자화 계수 그룹 분할 플래그 추출부(410)에서 추출된 양자화 계수 그룹의 분할 여부에 대한 플래그를 바탕으로 현재 양자화 계수 그룹의 분할 여부에 대한 판단하는 역할을 수행한다.
일 실시예에 따른 양자화 계수 그룹이 분할되는 경우는 하위 양자화 계수 그룹 분할부(430)을 수행하며, 이때, 전술한 양자화 계수 그룹 분할 플래그 추출부(410) 및 분할 여부 판단부(420)가 재귀적으로 수행한다.
일 실시예에 따른 양자화 계수 그룹이 분할되지 않는 경우는 양자화 계수 그룹 크기 결정부(440)에서 현재 블록 크기를 양자화 계수 그룹의 크기로 결정하고, 양자화 계수 그룹 엔트로피 복호화부(450)를 수행하여 양자화 계수 그룹에 대한 엔트로피 복호화를 수행한다.
도 5 및 도 6은 기존의 비디오 복호화 장치 및 방법에서 사용되는 4x4 고정 크기의 양자화 계수 그룹 및 이를 이용한 8x8 복호화 블록 및 16x16 복호화 블록의 스캔 순서의 일 예를 나타내는 개념도를 도시한다.
기존의 비디오 복호화 장치 및 방법에서 사용되는 4x4 고정 크기의 양자화 계수 그룹은 이용한 스캔 순서는 지그재그 스캔 순서(500,600), 수평 스캔 순서(510), 및 수직 스캔 순서(520) 중 적어도 하나를 포함한다.
도 7은 본 발명의 일 실시예에 따른 가변 크기의 양자화 계수 그룹에 대한 쿼드-트리 구성 및 다중 스캔 순서의 사용의 일 예를 나타내는 개념도를 도시한다.
일 실시예에 따른 가변 크기의 양자화 계수 그룹의 엔트로피 복호화과정에서는 도 5 및 도 6에서 전술한 기존의 비디오 복호화 장치 및 방법에서 사용되는 스캔 순서를 포함하며 동일한 복호화 블록 내의 서로 다른 양자화 계수 그룹에서 같은 스캔 순서를 이용하거나(710), 혹은 서로 다른 스캔 순서를 이용하는 것(720)을 포함한다.
일 실시예에 따라 비트스트림으로부터 양자화 계수가 추출될 때 엔트로피 복호화 스캔 오더는 현재 양자화 계수 그룹 정보에 따라 미리 정의된 스캔 오더를 사용할 수 있으며, 혹은 양자화 계수 그룹에 대한 엔트로피 복호화 스캔 오더가 부가 정보로 전송되는 것을 포함한다.
도 8은 본 발명의 일 실시예에 따른 가변 크기의 양자화 계수 그룹에 대한 16x16 복호화 블록 및 32x32 복호화 블록의 쿼드-트리 분할의 일 예를 나타내는 개념도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 쿼드-트리로 분할된 양자화 계수 그룹을 갖는 복호화 블록(810, 820)을 이용한 양자화 계수 엔트로피 복호화를 포함한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 쿼드-트리로 분할된 양자화 계수 그룹을 갖는 복호화 블록(810,820)을 이용하는 장치 및 방법과 쿼드-트리 분할 깊이 정보에 따라 양자화 계수 그룹을 재귀적으로 분할하는 장치 및 방법을 포함한다. 16x16 복호화 블록(810)은 쿼드-트리 분할에 따라 4x4 양자화 계수 그룹(811)과 8x8 양자화 계수 그룹(812)을 사용하는 일 실시예이며, 32x32 복호화 블록(820)은 쿼드-트리 분할에 따라 4x4양자화 계수 그룹(821), 8x8 양자화 계수 그룹(822), 그리고 16x16 양자화 계수 그룹(823)을 사용하는 일 실시예이다.
도 9는 본 발명의 일 실시예에 따른 가변 크기의 양자화 계수 그룹을 분할함에 있어 입력 신호 특성에 따른 정방형 이외의 일 예를 나타내는 개념도를 도시한다.
일 실시예 따른 비디오 복호화 장치 및 방법은 대각선을 이용한 양자화 계수 그룹 분할(910) 및 L자형 양자화 계수 그룹 분할(920)을 포함한다.
도 9의 대각선을 이용한 양자화 계수 그룹 분할(910)은 저주파 양자화 계수 그룹 1(911),저주파 양자화 계수 그룹 2(912),고주파 양자화 계수 그룹 1(913),고주파 양자화 계수 그룹 2(914)로 분할되는 일 실시예이다.
일 실시예에 따른 대각선을 이용한 양자화 계수 그룹 분할(910)은 입력 신호의 특성에 따라 저주파 영역부터 고주파 영역에 대하여 대각선(916)을 이용한 양자화 계수 그룹 분할이 가능하다. 일 실시예에 따른 대각선을 이용한 양자화 계수 그룹 분할(910)의 분할 갯수는 고정된 갯수를 사용하거나, 분할 갯수를 비트스트림으로부터 추출하여 가변적으로 사용하는 것을 포함한다.
도 9의 L자형 양자화 계수 그룹 분할(920)은 저주파 양자화 계수 그룹 1(921), 저주파 양자화 계수 그룹 2(922), 고주파 양자화 계수 그룹 1(923), 고주파 양자화 계수 그룹 2(924)로 분할되는 일 실시예이다.
일 실시예에 따른 L자형 양자화 계수 그룹 분할(920)은 입력 신호의 특성에 따라 저주파 영역부터 고주파 영역에 대하여 L자선(925)을 이용한 양자화 계수 그룹 분할이 가능하다. 일 실시예에 따른 L자형 양자화 계수 그룹 분할(920)의 분할 갯수는 고정된 갯수를 사용하거나, 분할 갯수를 비트스트림으로부터 추출하여 가변적으로 사용하는 것을 포함한다.
도 10은 본 발명의 일 실시예에 따른 비정방형 가변 크기의 양자화 계수 그룹을 나타내는 개념도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 비정방형 가변 크기의 양자화 계수 그룹(1010)은 비정방형의 가로 길이 정보(1010)과 세로 길이 정보(1020) 중 적어도 하나를 포함한다. 비정방형의 가로 길이 정보와 세로 길이 정보는 상위 정방형 양자화 계수 그룹에서 분할 정보를 이용하여 유도하는 것과 비정방형의 가로 길이 정보와 세로 길이 정보를 비트스트림으로부터 추출하여 사용하는 것을 포함한다. 일 실시예에 따라 비정방형의 가로 길이 정보와 세로 길이 정보를 비트스트림으로부터 추출하여 사용하는 경우, 비정방형의 가로 길이 정보와 세로 길이 정보에 해당하는 값 혹은 그에 대응되는 인덱스 정보, 주변 양자화 계수와의 관계를 통한 유도를 포함한다.
도 11은 본 발명의 실시 예에 따른 복호화기의 블록도 이다.
부호화기로부터 비트스트림을 전송받은 복호화기는 크게 화면간 예측(136-2) 및 화면내 예측(137-2)을 통해 복호화를 수행하게 된다. 복호화 시 화면 간 예측을 수행할 때 본 발명의 실시 예에 따라 부호화기로부터 전송 받은 움직임 정보를 통해 화면 간 예측을 수행할 수도 있고, 복호화기에서 도출한 움직임 정보를 통해 화면 간 예측을 수행할 수도 있다. 부호화기로부터 전송받은 움직임 정보를 이용하여 화면간 예측 복호화를 하는 경우 움직임 예측부(131)에서 예측움직임벡터(PMV)와 전송 받은 움직임 벡터 차분값을 이용하여 실제 해당 블록의 움직임 벡터를 계산하고 이를 이용하여 움직임 보상을 수행한다. 복호화기에서 움직임 벡터를 도출하여 도출된 움직임 정보를 이용하여 화면간 예측 복호화를 수행하는 경우, 움직임 벡터는 움직임 도출부에서 구해지고 이를 이용하여 움직임 보상을 수행한다. 움직임 벡터를 부호화기로부터 전송받거나 혹은 복호화기에서 도출하는 방법은 화면간 예측 복호화에서 선택적으로 적용할 수 있으며, 선택 정보 및 관련 정보는 부호화기에서 구문 정보(syntax)를 통해 전송받을 수 있다.
도 12는 본 발명의 실시 예의 복호화기가 움직임 정보를 도출하는 방법 혹은부호화기로부터 전송받는 방법을 선택적으로 적용할 경우 복호화 순서도이다.
본 순서도에서 움직임 보상 이후의 단계는 생략하였다. 복호화기는 입력받은 비트스트림(201-2)으로부터 움직임 도출 플래그(MV_deriv_Flagi,j) 정보를 도출한다. 움직임 도출 플래그(202-2)는 움직임 도출 방법에 대한 선택 정보이고, 복호화기는 이를 통해 움직임 도출 방법을 사용하여 복호화할 것인지에 대해서 확인할 수 있다. 움직임 정보 도출 플래그는 기본적으로 현재 복호화 유닛에 대한 선택 정보를 의미하지만, 실시 예에 따라 시퀀스, 프레임, 프레임 그룹, 슬라이스,슬라이스 그룹, 복호화 유닛, 복호화 유닛 그룹, 서브 복호화 유닛 등 다양한 레벨에서 움직임 도출 방법의 선택을 표시할 수 있다. 움직임 도출 플래그가 1인 경우, 즉 움직임 도출 방법을 사용하여 부호화가 진행된 복호화 유닛은 움직임 도출 방법을 통해 복호화를 수행하게 되는데, 이때 복호화기는 추가적으로 현재 복호화 유닛에 대한 움직임 도출 정보를 복호화(203-2)하게 된다. 현재 복호화 유닛에 대한 움직임 도출 정보는 움직임 도출 방법을 사용할 복호화 유닛의 깊이정보, 움직임 도출 방법에서 움직임 정보를 도출하는 방법에 대한 정보, 움직임 도출을 사용하게 될 유닛 혹은 서브유닛의 모양/크기/개수에 관한 정보, 반복 수행 횟수에 관한 정보 중 적어도 하나를 포함할 수 있다. 이러한 정보의 하나 또는 그 이상의 조합을 통해 현재 복호화 할 유닛의 크기, 모양 등을 정의하고 움직임 도출(204-2)을 수행한다. 복호화 유닛의 깊이 정보는 실제 움직임 도출 방법을 통해 움직임 도출(204-2)을 수행할 블록의 크기 정보를 알아낼 수 있는 정보로 움직임 도출 방법이 적용된 블록의 크기가 128×128이고, 깊이 정보가 2라고 하고 유닛의 모양이 정사각형이라고 하면 도 13의 (a)와 같은 형태로 서브 유닛 블록으로 분할될 수 있다. 이 방법은 부호화기와 복호화기의 약속에 의해 정해질 수 있고, 부호화기로부터 전송받은 정보를 통해 복호화기에서 도 13의 (b)와 같이 소정의 크기를 가진 블록으로 분할될 수도 있다. 움직임 도출(204-2)을 통해 현재 복호화 유닛의 움직임 정보를 도출하게 되면 이 정보를 이용하여 움직임 보상(205-2)을 수행한다.
도 14는 본 발명의 실시 예로 현재 복호화하는 유닛 혹은 서브 유닛의 주변 픽셀 정보를 이용하여 현재 유닛에 대한 움직임 정보를 예측하는 방법이다.
이 방법은 유닛 혹은 서브 유닛의 주변 픽셀 정보를 이용하여 움직임 예측을 수행하고 그 결과를 현재 유닛 혹은 서브 유닛의 움직임 벡터 값으로 사용하는 방법이다. 이때, 현재 복호화 유닛은 도 14(b)와 같이 이전에 복호화가 된 영역들을 현재 복호화 유닛을 위해 움직임 예측을 수행할 수 있는 영역으로 활용할 수 있다. 이때, 현재 복호화 유닛이 (c-1)의 영역을 이용하여 움직임 예측을 수행하면 그 움직임 예측을 이용하여 현재 복호화 유닛에 대한 움직임 정보를 도출할 수 있고 이를 이용한 복호화가 가능하다. 이렇게 복호화 단계가 완료될 수 있지만 좀 더 정밀한 움직임 예측을 위해 복호화된 영역(402-2)과 기존에 움직임 예측을 위해 이용한 영역(401-2)을 모두 이용하여 움직임 예측을 수행할 수 있다. 이때 이렇게 반복적으로 수행하는 움직임 도출 단계는 부/복호화기 사이에 약속된 반복 수행 횟수 혹은 부호화기로부터 복호화기로 전송된 반복수행 횟수 정보를 통해 결정될 수 있다. 그리고 복호화 유닛의 깊이 정보를 통해 현재 복호화 유닛이 서브 유닛으로 분할된다면 도 14(d)의 회색음영 정보들을 이용하여 각 서브 유닛의 움직임 도출을 할 수 있다. 이는 하나의 실시 예로서 복호화기는 부호화기와의 약속을 통해 움직임 예측을 수행하는 회색 음영의 크기, 모양은 다양해 질 수 있다. 이에 대한 정보는 부/복호화기의 약속에 의해 고정된 값과 모양을 사용할 수도 있고, 부호화기에서 복호화기에서 그 정보를 전송하는 방법이 있을 수 있겠다. 그리고 주변의 픽셀 정보를 이용하여 현재 블록의 움직임 정보를 도출하는 방법은 도 15와 같이 한 장 이상의 참조 영상에 대해서도 적용 가능하며 여러 장의 참조 영상을 사용할 경우 움직임 벡터 값은 비디오 복호화에서 사용하는 통상적인 방법에 의해 계산될 수 있다. 여기서 통상적인 방법이란 참조 영상들과 현재 복호화하는 영상의 시간 순서에 따른 시간 차이 값에 비례하여 움직임 값을 계산하는 방법이 있을 수 있을 수 있다.
도 16은 본 발명의 실시 예로 현재 복호화하는 유닛 혹은 서브 유닛의 대응 블록(co-located block)의 값을 이용하여 현재 복호화하는 유닛의 움직임 정보를 도출하는 방법이다. 통상적으로 현재 복호화하는 유닛을 기준으로 두 장 이상의 참조 영상들에서 대응 블록들 사이의 에러를 최소화하는 방법을 통해 움직임 벡터를 계산할 수 있다. 이 방법 역시 주변 픽셀 정보를 이용하여 현재 유닛에 대한 움직임 정보를 예측하는 방법이다. 움직임 정보를 도출하는 방법에 대한 정보, 움직임 도출을 사용하게 될 유닛 혹은 서브 유닛의 모양, 반복 수행 횟수 등의 조합을 통해 다양한 방법으로 실시 가능하다.
도 17은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행하는 복호화 장치를 도시한다.
글로벌 움직임 보상을 수행하는 복호화 장치는 엔트로피 복호화부(110-3), 역양자화부(120-3), 역변환부(130-3), 화면 간 예측부(140-3), 화면 내 예측부(150-3), 인루프 필터부(160-3), 복원 영상 저장부(170-3) 중 적어도 하나를 포함할 수 있다.
엔트로피 복호화부(110-3)는 입력된 비트스트림(100-3)을 복호화하여 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 복호화 정보를 출력한다. 출력되는 정보에는 글로벌 움직임 보상을 위한 정보가 포함될 수 있다.
역양자화부(120-3) 및 역변환부(130-3)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 잔차 신호(residual signal)를 출력한다.
화면 간 예측부(140-3)는 비트스트림으로부터 추출된 움직임 벡터와 복원 영상 저장부(170-3)에 저장되어 있는 복원 영상을 이용하여 움직임 보상을 수행하여 예측 신호를 생성한다. 화면 간 예측부(140-3)는 글로벌 움직임 보상을 위한 정보(190)를 이용하여 글로벌 움직임 보상 영역에 대하여 글로벌 움직임 보상을 수행하는 단계를 포함한다.
화면 내 예측부(150-3)는 복호화되는 현재 블록과 인접하는 기 복호화된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.
화면 간 예측부(140-3)와 화면 내 예측부(150-3)로부터 출력된 예측 신호는 잔차 신호와 합산되며, 합산을 통해 생성된 복원된 영상은 인루프 필터부(160-3)로 전달된다.
인루프 필터부(160-3)에서 필터링이 적용된 복원 픽쳐는 복원 영상 저장부(170-3)에 저장되며, 화면 간 예측부(140-3)에서 참조 픽쳐로 사용될 수 있다. 복원 영상 저장부(170-3)으로부터 복원 영상(180-3)이 출력될 수 있다.
도 18은 본 발명의 일 실시예에 따른 영상의 글로벌 움직임 보상을 수행하는 방법을 도시한 도면이다.
영상(200-3)에서 광범위한 영역(210-3)에 대한 글로벌 움직임 보상을 한번에 수행할 수 있다. 영상을 복원하는 과정에서 글로벌 움직임 보상 영역(210-3)을 결정하고, 결정된 글로벌 움직임 보상 영역(210-3)에 대한 움직임 보상을 한 번에 수행한다. 글로벌 움직임 보상 영역(210-3)은 복호화기로 전달되는 부가 정보에 의해 결정될 수 있다.
도 19는 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행하는 방법의 순서를 나타내는 블록도를 도시한다.
먼저, 비트스트림으로부터 글로벌 움직임 보상 정보를 추출(310-3)한다. 그리고 추출된 정보를 이용하여 글로벌 움직임 보상 영역을 결정(320-3)한다. 결정된 움직임 보상 영역 정보를 이용하여, 영상에서 글로벌 움직임 보상을 수행하는 영역이면 글로벌 움직임 보상을 수행(330-3)하여 복원 영상을 생성(350-3)한다. 글로벌 움직임 보상을 수행하는 영역이 아니면 블록단위 복호화를 수행(340-3)하여 복원 영상을 생성(350-3)한다.
도 20은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 복호화기로 전달되는 정보 중, 글로벌 움직임 보상 영역이 결정된 영역의 내부 또는 외부인지를 나타내는 정보를 이용하여 글로벌 움직임 보상 영역을 최종적으로 결정하는 방법을 도시한 도면이다.
복호화기로 전달되는 정보에 포함된 글로벌 움직임 보상 영역 결정 정보를 이용하여 영상에서 글로벌 움직임 보상 영역을 결정할 수 있으며, 결정된 글로벌 움직임 보상 영역의 내부 또는 외부를 나타내는 정보에 의해 글로벌 움직임 보상 영역이 최종적으로 결정될 수 있다. 글로벌 움직임 보상 영역의 내부 또는 외부를 나타내는 정보는 플래그 형태로 전송될 수 있다.
도 20에서 최종 글로벌 움직임 보상 영역 결정 플래그가 0인 경우, 영상에서 최종 글로벌 움직임 보상 영역은 410-3과 같이 결정된 움직임 보상 영역의 내부(420-3)가 되며, 최종 글로벌 움직임 보상 영역 결정 플래그가 1인 경우, 영상의 최종 글로벌 움직임 보상 영역은 430-3과 같이 결정된 움직임 보상 영역의 외부(440-3)가 될 수 있다.
도 21은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 다양한 형태의 글로벌 움직임 보상 영역을 도시한 도면이다.
글로벌 움직임 보상 영역은 510-3, 520-3, 530-3 등과 같이 임의의 모양으로 사용할 수 있으며, 한 영상 내에서 다수의 글로벌 움직임 보상 영역(510-3, 520-3, 530-3)을 사용할 수 있다.
한 영상 내에서 다수의 글로벌 움직임 보상 영역을 사용하는 경우, 움직임 보상 영역은 움직임 보상 영역별로 전송된 독립적인 정보를 이용하여 결정되거나, 다른 움직임 보상 영역의 정보를 참조하여 결정될 수 있다.
도 22는 본 발명의 일 실시예에 글로벌 움직임 보상을 수행할 때, 코딩 유닛단위의 경계에 맞추어 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
글로벌 움직임 보상 영역은 복호화 블록 단위의 경계에 맞추어 610-3, 620-3의 표시된 영역과 같이 결정될 수 있다.
또한,글로벌 움직임 보상 영역은 610-3, 620-3의 분할된 블록과 같이 계층적으로 분할된 복호화 블록 단위로 이루어질 수 있다.
각 복호화 블록 단위마다 글로벌 움직임 보상 영역의 정보를 포함하거나, 글로벌 움직임 보상 영역 단위로 각 복호화 블록의 정보를 포함할 수 있다.
도 23은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 글로벌 움직임 보상 영역의 위치를 결정하는 방법을 도시한 도면이다.
글로벌 움직임 보상 영역의 위치를 결정하는 방법으로는 영역의 시작점(x, y)과 끝점(x`, y`)의 좌표를 이용하여 결정하는 방법(710-3)과 영역의 시작점(x, y)의 좌표와 가로(Width)와 세로(Height) 길이를 이용하여 결정하는 방법(720-3)이 있을 수 있다.
도 24는 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 격자로 분리된 구역을 병합하여 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
글로벌 움직임 보상 영역을 결정하는 방법으로는 영상을 여러 개의 구역의 격자로 분리한 후, 분리된 각 영역을 다른 영역과 병합하여 글로벌 움직임 보상 영역으로 결정하는 방법이 있을 수 있다. 블록 810-3, 블록 820-3, 블록 830-3, 블록 840-3, 블록 850-3들은 화살표가 가리키는 방향의 블록과 병합되어 글로벌 움직임 보상 영역이 된다. 블록 850-3은 블록 840-3을 참조하여 병합되고, 블록 840-3은 블록 830-3을 참조하여 병합, 블록 830-3은 블록 820-3을 참조하여 병합, 블록 820-3은 블록 810-3을 참조하여 병합되어 글로벌 움직임 보상 영역을 구성한다.
도 25는 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 영상을 수직 또는 수평 방향으로 반복적으로 분할하여 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
글로벌 움직임 보상 영역은 영상을 수직 또는 수평 방향으로 반복적으로 분할하여 결정할 수 있다.
도 25와 같이 영상은 수평경계 910-3으로 먼저 분할된 후, 수직경계 920-3으로 분할될 수 있다. 수평경계 910-3으로 분할된 영역 910-2-3는 더 이상 분할되지 않는 영역이며, 수직경계 920-3으로 분할된 영역 920-1-3도 더 이상 분할되지 않는 영역이다. 반복하여 수평경계 950-3, 수직경계 970-3, 수직경계 990-3으로 분할될 수 있으며, 수평경계 950-3으로 분할된 영역 950-1-3과 수직경계 970-3으로 분할된 영역 970-1-3은 더 이상 분할되지 않는 영역이다.
부호화기에서는 분할되는 경계의 정보를 전송할 수 있으며, 복호화기는 전송받은 경계들의 정보를 이용하여 글로벌 움직임 보상 영역을 결정할 수 있다.
도 26은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 복호화기로 전달되는 부가 정보 중 와핑 파라미터 (Warping parameter)를 이용하여 글로벌 움직임 보상 영역을 결정하는 방법을 도시한 도면이다.
시간적으로 다른 시점의 두 영상에서 물체(1010-3)가 와핑(Warping)된 경우(1020-3), 부호화기는 복호화기로 와핑 파라미터(Warping parameter)를 전송할 수 있으며, 복호화기에서는 전송된 와핑 파라미터를 이용하여 움직임 보상 영역을 결정할 수 있다.
도 27은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때,글로벌 움직임 보상 영역을 회전(rotation) 또는 스케일링(scaling)하는 방법을 도시한 도면이다.
시간적으로 다른 시점의 두 영상에서 물체(1110-3)가 스케일링되거나(1120-3) 회전된 경우(1130-3), 부호화기는 복호화기로 스케일링 정보 또는 회전된 영역에 대한 정보를 전달할 수 있으며, 복호화기는 전송된 정보를 이용하여 움직임 보상 영역을 결정할 수 있다.
도 28은 본 발명의 일 실시예에 따른 글로벌 움직임 보상을 수행할 때, 프레임율 (Frame rate)을 증가시키기 위해 프레임율 변환(Frame Rate Up Conversion, FRUC) 방법을 사용하는 경우를 도시한 도면이다.
글로벌 움직임 보상을 수행하는 영상에서 프레임율 변환(FRUC)방법을 수행할 때, 블록 단위의 움직임 추정을 통해 두 프레임 사이의 새로운 프레임을 합성할 뿐만 아니라, 글로벌 움직임 보상 영역 단위의 움직임 추정을 통해 새로운 프레임을 합성할 수 있다.
도 28에서 이전 영상(T-1)과 이후 영상(T) 사이의 영상(T - 1/2)을 생성할 때, 이전 영상의 블록(1210-3)과 이후 영상의 블록(1230-3)을 이용하여 합성된 블록(1220-3)을 생성하거나, 이전 영상의 글로벌 움직임 영역(1240-3)과 이후 영상의 글로벌 움직임 영역(1260-3)을 이용하여 합성된 글로벌 움직임 영역(1250-3)을 생성할 수 있다.
도 29는 본 발명의 일 실시예에 따른 부호화된 비트스트림의 화면 내 예측 정보를 통하여 화면 내 예측 신호를 생성하고, 상기 생성된 화면 내 예측 신호를 이용하여 복원 영상을 출력할 수 있는 비디오 복호화 장치를 도시한다.
입력되는 부호화 비트스트림 (101-4)은 엔트로피 복호화부 (102-4)에서 복호화 되며, 역양자화부 (103-4), 역변환부 (104-4)를 통하여 잔차신호가 복원된다. 화면 내 예측부 (106-4)는 예측신호 생성부 (105-4)에서 생성된 화면 내 예측을 위한 복원 신호를 이용하여 화면 내 예측을 수행할 수 있다. 상기 예측신호 생성부 (105-4)는 화면 내 예측을 위한 복원 신호에 저역통과 필터 (Low-pass filter)가 적용되어 고주파 성분의 일부를 제거하는 절차를 수행할 수 있다. 움직임 보상부 (107-4)는 복원 영상 저장부 (109-4)에 저장된 이전 시간의 복원 신호를 이용하여 화면 간 예측을 수행할 수 있다. 이러한 화면 내 예측 또는 화면 간 예측을 통하여 생성된 예측신호와 상기 잔차신호를 이용하여 복원신호를 생성하고, 생성된 복원신호는 인루프 필터부 (108-4)를 통하여 필터가 적용되며, 이후의 픽쳐에서 참조되기 위해 복원 영상 저장부 (109-4)에 저장될 수 있고, 각 영상들의 출력 순서에 따라 복원 영상 (110-4)으로 출력될 수 있다.
도 30은 본 발명의 실시예에 따른 화면 내 예측 블록을 위한 참조 가능한 영역을 도시한다.
M×N 크기를 갖는 현재 화면 내 예측 블록 (201-4)의 화면 내 예측을 위하여, 좌상단 참조화소 (202-4), 상단 참조화소열 (203-4) 및 좌측 참조화소열 (204-4)이 사용될 수 있다. 상기 상단 참조화소열 (203-4)은 화면 내 예측 블록의 가로길이 N보다 클 수 있으며, 1보다 큰 n에 대하여 (n*N)의 길이를 가질 수 있다. 상기 좌측 참조화소열 (204-4)은 화면 내 예측 블록의 세로길이 M보다 클 수 있으며, 1보다 큰 m에 대하여 (m*M)의 길이를 가질 수 있다.
도 31은 본 발명의 실시예에 따른 화면 내 예측 방법에 따라 상단 참조 화소열의 길이에 따른 방향성 화면 내 예측을 수행하는 방법을 도시한다.
M×N 크기를 갖는 현재 화면 내 예측 블록 (301-4)의 화면 내 예측을 위하여, 참조 가능한 상단 참조화소열 (302-4)의 길이가 2N보다 클 경우, 상기 화면 내 예측 블록 (301-4)에 대한 방향성 화면 내 예측은 상기 방향성 화면 내 예측 각도의 크기가 45도 보다 작은 각도 (303-4)인 방향성 화면 내 예측 (304-4)을 사용하여 화면 내 예측이 수행될 수 있다.
도 32는 본 발명의 실시예에 따른 화면 내 예측 방법에 따라 좌측 참조 화소열의 길이에 따른 방향성 화면 내 예측을 수행하는 방법을 도시한다.
M×N 크기를 갖는 현재 화면 내 예측 블록 (401-4)의 화면 내 예측을 위하여, 참조 가능한 좌측 참조화소열 (402-4)의 길이가 2M보다 클 경우, 상기 화면 내 예측 블록 (401-4)에 대한 방향성 화면 내 예측은 상기 방향성 화면 내 예측 각도의 크기가 315도 보다 큰 각도 (403-4)인 방향성 화면 내 예측 (404-4)을 사용하여 화면 내 예측이 수행될 수 있다.
도 33은 본 발명의 실시예에 따른 화면 내 예측 방법 중 적용 가능한 방향성 예측의 범위를 도시한다.
제안하는 화면 내 예측 방법에서 적용 가능한 방향성 예측은 예측 범위 1 (501-4), 예측 범위2 (502-4), 예측 범위 3 (503-4)을 포함하는 45도로부터 315도 범위의 방향성 예측 방향의 범위를 기준으로 하여, 만일, 현재 화면 내 예측 블록의 가로 길이 N에 대하여 상단 참조화소열의 길이가 2N 보다 클 경우, 예측 범위 1 (501-4), 예측 범위 3 (503-4), 예측 범위 5(505-4)에 해당하는 범위 내 하나의 방향성 예측 모드를 통하여 화면 내 예측을 수행할 수 있다. 만일, 현재 화면 내 예측 블록의 세로 길이 M에 대하여 좌측 참조화소열의 길이가 2M보다 클 경우, 예측 범위 1 (501-4), 예측 범위 2 (502-4), 예측 범위 4 (504-4)에 해당하는 범위 내 하나의 방향성 예측 모드를 통하여 화면 내 예측을 수행할 수 있다. 상기 참조화소열의 길이에 따른 예측 범위는 참조화소열의 복호화 여부에 따라 적응적으로 결정될 수 있다. 또는, 신택스 요소를 통하여 현재 화면 내 예측 블록의 화면 내 예측을 위하여 사용될 예측 범위를 시그널링할 수 있다.
도 34는 본 발명의 실시예에 따른 화면 내 예측 방법 중 이웃한 복원화소 영역의 신호로부터 미복원 화소영역의 화소 좌표에 따라 복원화소 영역과 동일한 기울기로 화소의 밝기를 변화시킴으로써 화면 내 예측신호를 생성하는 방법을 도시한다.
현재 화면 내 예측 블록과 인접한 복원된 주변 블록에 포함되는 복원화소 영역 (601-4)에 대하여 상기 복원화소 영역과 인접하여 연속되는 미복원화소 영역 (602-4)이 존재한다면, 상기 복원화소 영역의 시작위치로부터 일정 오프셋 (603-4)만큼 떨어진 위치의 화소값의 변화량과 상기 미복원화소 영역의 시작 위치로부터 상기 오프셋과 동일한 오프셋 (604-4)만큼 떨어진 위치의 화소값의 변화량이 동일하도록 예측 신호를 생성할 수 있다. 이후, 상기 복원화소 영역 (601-4)과 새롭게 생성된 상기 미복원화소 영역 (602-4)의 신호가 화면 내 예측을 위해 참조될 수 있다.
도 35는 본 발명의 실시예에 따른 화면 내 예측 방법 중 이웃한 복원화소 영역의 신호로부터 미복원 화소영역의 화소 좌표에 따라 복원화소 영역과 동일한 크기를 갖는 음의 기울기로 화소의 밝기를 변화시킴으로써 화면 내 예측신호를 생성하는 방법을 도시한다.
현재 화면 내 예측 블록과 인접한 복원된 주변 블록에 포함되는 복원화소 영역 (701-4)에 대하여 상기 복원화소 영역과 인접하여 연속되는 미복원화소 영역 (702-4)이 존재한다면, 상기 복원화소 영역의 끝 위치로부터 일정 오프셋 (703-4)만큼 떨어진 위치의 화소값의 변화량과 상기 미복원화소 영역의 시작 위치로부터 상기 오프셋과 동일한 오프셋 (704-4)만큼 떨어진 위치의 화소값의 변화량 크기가 동일하며 기울기의 부호가 반대인 예측 신호를 생성할 수 있다. 이후, 상기 복원화소 영역 (701-4)과 새롭게 생성된 상기 미복원화소 영역 (702-4)의 신호가 화면 내 예측을 위해 참조될 수 있다.
도 36은 본 발명의 실시예에 따른 화면 내 예측 방법 중 이웃한 복원화소 영역의 신호로부터 미복원 화소영역의 화소 좌표에 따라 복원화소 영역과 동일한 기울기로 화소의 밝기를 변화시킴으로써 화면 내 예측신호를 생성하는 또다른 방법을 도시한다.
현재 화면 내 예측 블록과 인접한 복원된 주변 블록에 포함되는 복원화소 영역 (801-4)에 대하여 상기 복원화소 영역과 인접하여 연속되는 미복원화소 영역 (802-4)이 존재한다면, 상기 복원화소 영역의 끝 위치로부터 일정 오프셋 (803-4)만큼 떨어진 위치의 화소값의 변화량과 상기 미복원화소 영역의 시작 위치로부터 상기 오프셋과 동일한 오프셋 (804-4)만큼 떨어진 위치의 화소값의 변화량이 동일한 예측 신호를 생성할 수 있다. 이후, 상기 복원화소 영역 (801-4)과 새롭게 생성된 상기 미복원화소 영역 (802-4)의 신호가 화면 내 예측을 위해 참조될 수 있다.
도 37은 본 발명의 실시예에 따른 화면 내 예측 방법을 위한 상위 수준 신택스 (High-level syntax) 중 시퀀스 파라미터 셋에 의하여 제안하는 화면 내 예측 수행 여부를 시그널링하는 방법을 도시한다.
제안하는 화면 내 예측 방법은 압축 비트스트림 내에 존재하는 NAL (Network Abstract Layer) 유닛 중 시퀀스 파라미터 셋 (901) 내에서 상기 제안하는 화면 내 예측 방법의 적용 가능 여부를 'seq_model_intra_enabled_flag"의 1 비트 플래그 (902-4)의 형태로 포함할 수 있으며, 만일, 해당 플래그의 값이 참일 경우, 상기 시퀀스 파라미터 셋을 참조하는 픽쳐들은 상기 제안하는 화면 내 예측 방법을 사용하여 복호화될 수 있다.
도 38은 본 발명의 실시예에 따른 화면 내 예측 방법을 위한 상위 수준 신택스 (High-level syntax) 중 픽쳐 파라미터 셋에 의하여 제안하는 화면 내 예측 수행 여부를 시그널링하는 방법을 도시한다.
제안하는 화면 내 예측 방법은 압축 비트스트림 내에 존재하는 NAL (Network Abstract Layer) 유닛 중 픽쳐 파라미터 셋 (1001-4) 내에서 상기 제안하는 화면 내 예측 방법의 적용 가능 여부를 'pic_model_intra_enabled_flag'의 1 비트 플래그 (1002-4)의 형태로 포함할 수 있으며, 만일, 해당 플래그의 값이 참일 경우, 상기 픽쳐 파라미터 셋을 참조하는 슬라이스들은 상기 제안하는 화면 내 예측 방법을 사용하여 복호화될 수 있다. 또한, 상기 픽쳐 파라미터 셋 내에서 전송되는 'pic_model_intra_enabled_flag' 값이 참일 경우, 상기 제안하는 화면 내 예측 방법이 픽쳐 내에서 허용되는 모든 크기의 화면 내 예측 블록에 적용될 수 있는지 여부를 'pic_model_intra_all_blk_sizes_flag'의 1비트 플래그 (1003-4)의 형태로 포함될 수 있다. 만일, 상기 pic_model_intra_enabled_flag가 참이고, 상기 pic_model_intra_all_blk_sizes_flag가 거짓일 경우, 현재 픽쳐 내에 포함된 화면 내 예측 블록들 중, 상기 제안하는 화면 내 예측 방법이 적용될 수 있는 블록의 최소 크기와 최대 크기를 밑이 2인 log 값인 min_log2_model_intra_blk_size (1004-4)와 max_log2_model_intra_blk_size (1005-4)를 지수골롬 코드의 형태로 전송할 수 있다.
도 39는 본 발명의 실시예에 따른 화면 내 예측 방법을 위한 상위 수준 신택스 (High-level syntax) 중 슬라이스 세그먼트 헤더에 의하여 제안하는 화면 내 예측 수행 여부를 시그널링하는 방법을 도시한다.
제안하는 화면 내 예측 방법은 압축 비트스트림 내에 존재하는 NAL (Network Abstract Layer) 유닛 중 슬라이스 세그먼트 헤더 (1101-4) 내에서 상기 제안하는 화면 내 예측 방법의 적용 가능 여부를 slice_model_intra_enabled_flag의 1 비트 플래그 (1102-4)의 형태로 포함할 수 있으며, 만일, 해당 플래그의 값이 참일 경우, 상기 슬라이스 세그먼트 헤더를 참조하는 블록들은 상기 제안하는 화면 내 예측 방법을 사용하여 복호화될 수 있다.
도 40은 본 발명의 일 실시예에 따른 화면내 예측부를 포함하는 복호화 장치를 도시한다.
화면내 예측부를 포함하는 복호화 장치는 엔트로피 복호화부(110-5), 역양자화부(120-5), 역변환부(130-5), 화면내 예측부(140-5), 화면간 예측부(150-5), 인루프 필터부(160-5), 복원 영상 저장부(170-5) 중 적어도 하나를 포함할 수 있다.
엔트로피 복호화부(110-5)는 입력된 비트스트림(100-5)을 복호화하여 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 복호화 정보를 출력한다. 출력되는 정보에는 글로벌 움직임 보상을 위한 정보가 포함될 수 있다.
역양자화부(120-5) 및 역변환부(130-5)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 잔차 신호(residual signal)를 출력한다.
화면내 예측부(140-5)는 복호화되는 현재 블록과 인접하는 기 복호화된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다. 예측 신호 생성을 위해 곡선 방향의 주변 화소 값을 이용할 수 있다.
화면간 예측부(150-5)는 비트스트림으로부터 추출된 움직임 벡터와 복원 영상 저장부(170-5)에 저장되어 있는 복원 영상을 이용하여 움직임 보상을 수행하여 예측 신호를 생성한다.
화면내 예측부(140-5)와 화면간 예측부(150-5)로부터 출력된 예측 신호는 잔차 신호와 합산되며, 합산을 통해 생성된 복원된 영상은 인루프 필터부(160-5)로 전달된다.
인루프 필터부(160-5)에서 필터링이 적용된 복원 픽쳐는 복원 영상 저장부(170-5)에 저장되며, 화면간 예측부(150-5)에서 참조 픽쳐로 사용될 수 있다.
도 41은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 참조 영역을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록(210-5)의 예측 샘플을 생성하기 위해 상단 참조샘플(220-5), 좌측 참조샘플(230-5), 좌상단 참조샘플(240-5)이 사용될 수 있다.
상단 참조샘플(220-5)열의 길이는 현재 화면 내 예측 블록(210-5)의 가로길이 M보다 길 수 있다. 또한, 좌측 참조샘플(230-5)열의 길이는 현재 화면 내 예측 블록(210)의 세로길이 N보다 길 수 있다.
도 42는 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록의 샘플을 참조하는 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측블록(310-5)의 예측샘플을 생성할 때, 곡선(320-5) 방향의 참조샘플을 이용해 예측신호를 생성할 수 있으며, 상기 곡선은 N차식으로 표현되고 계수에 따라 직선이 될 수 있다.
상기 곡선의 정보는 비트스트림에 포함되어 전송될 수 있으며, 그 정보는 곡선 방정식의 차수 또는 계수를 포함할 수 있다.
도 43은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록의 참조 샘플을여러 개 참조하는 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록(410-5)의 예측 샘플(420-5)을 생성할 때, 곡선(430-5)방향의 주변 블록의 화소를 하나뿐만 아니라 두 개 이상 참조할 수 있다.
두 개 이상의 참조샘플을 사용할 경우, 참조샘플들(440-5, 450-5)의 가중 평균 값으로 예측 샘플(420-5)을 생성할 수 있다.
도 44는 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록의 존재하지 않는 참조샘플을 생성하는 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록(510-5) 주변에 참조샘플이 부분적으로 존재하는 경우, 사용 가능한 참조샘플(540-5, 550-5)을 이용하여 존재하지 않는 참조샘플을 생성할 수 있다.
존재하지 않는 참조 샘플(520-5, 530-5)을 생성하는 경우, 생성해야 하는 참조 샘플의 길이는 현재 예측 블록에서 사용하는 곡선(560)에 따라 달라질 수 있다.
도 45는 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 예측 블록의 각 영역에서 서로 다른 방향의 참조 샘플을 이용하여 예측을 수행하는 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록이 곡선(610-5)에 의해 두 구역 A, B로 나누어질 때, 구역 A, B는 서로 다른 방향의 참조 샘플을 이용하여 예측 샘플을 생성할 수 있다.
상기 구역 A 또는 구역 B에서 예측 샘플을 생성하기 위해 사용하는 참조 샘플은 하나 이상이 될 수 있으며, 하나 이상의 각 참조샘플들은 서로 다른 방향에 위치할 수 있다.
도 46은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 예측 블록의 각 영역에서 서로 다른 방향의 참조 샘플을 이용하여 예측을 수행하는 또 다른 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록이 곡선 (710-5) 및 블록의 모서리를 연결하는 직선 (720-5)에 의해 구역 A, B, C, D로 나누어질 때, 구역 A, B, C, D는 서로 다른 방향의 참조 샘플을 이용하여 예측 샘플을 생성할 수 있다.
상기 각 구역 A, B, C, D에서 예측 샘플을 생성하기 위해 사용하는 참조 샘플은 하나 이상이 될 수 있으며, 하나 이상의 각 참조 샘플들은 서로 다른 방향에 위치할 수 있다.
도 47은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록과의 불연속성을 제거하기 위해 예측 블록의 가장 왼쪽 예측샘플열에 대한 필터링을 하는 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록이 곡선 또는 직선으로 나뉜 영역 중 수직 방향의 예측을 수행하는 영역이 예측 블록의 좌측에 위치할 경우, 예측 블록의 가장 왼쪽 열의 예측 샘플에 대하여 필터링을 수행할 수 있다.
예측 블록의 가장 왼쪽 열의 샘플들에 대하여 필터링을 수행할 경우, 좌측 참조 샘플 변화량을 이용할 수 있다.
예를 들어, 도 47과 같이 곡선 (810-5)에 의해 예측 블록이 A, B 두 영역으로 나누어졌고, 영역 A가 수직 방향 예측을 사용한다면, 가장 왼쪽 열(820-5)의 예측 샘플들에 대하여 좌측 참조 샘플들의 변화량(830-5)을 이용해 필터링을 수행할 수 있다.
도 48은 본 발명의 일 실시예에 따른 화면 내 예측을 수행할 때, 주변 블록과의 불연속성을 제거하기 위해 예측 블록의 가장 위쪽 예측 샘플열에 대한 필터링을 하는 방법을 도시한다.
MxN 크기를 갖는 현재 화면 내 예측 블록이 곡선 또는 직선으로 나뉜 영역 중 수평 방향의 예측을 수행하는 영역이 예측 블록의 상단에 위치할 경우, 예측 블록의 가장 위쪽 열의 예측 샘플에 대하여 필터링을 수행할 수 있다.
예측 블록의 가장 위쪽 열의 샘플들에 대하여 필터링을 수행할 경우, 상단 참조 샘플 변화량을 이용할 수 있다.
예를 들어, 도 48와 같이 곡선 (910-5)에 의해 예측 블록이 A, B 두 영역으로 나누어졌고, 영역 A가 수평 방향 예측을 사용한다면, 가장 위쪽 열(920-5)의 예측 샘플들에 대하여 상단 참조 샘플들의 변화량(930-5)을 이용해 필터링을 수행할 수 있다.
도 49는 본 발명의 일 실시예에 따른 화면 내 예측을 수행하는 순서를 나타낸 순서도이다.
먼저, 비트스트림으로부터 곡선 화면 내 예측 정보를 추출(1010-5)한다. 상기 추출된 정보에는 곡선을 표현하기 위한 곡선의 방정식의 차수 또는 계수를 포함할 수 있다. 그리고 추출한 곡선에 대한 정보와 주변 블록의 참조 픽셀의 존재 여부를 이용하여 참조 샘플 패딩이 필요한지 판단(1020-5)한다. 참조 샘플 패딩이 필요하다면, 주변블록의 사용 가능한 참조 샘플을 이용하여 존재하지 않는 참조 샘플을 생성(1030-5)한다. 참조 샘플 패딩이 필요없다면, 참조 샘플을 이용하여 현재 화면 내 예측 블록의 예측 샘플을 생성(1040-5)한다. 예측 샘플 생성시, 앞서 추출한 곡선에 대한 정보를 이용하여 참조 샘플을 결정한다. 예측 블록의 생성이 끝났다면, 예측 샘플에 대한 필터링을 수행할지 판단(1050-5)한다. 예측 블록의 좌측 영역이 수직 방향 예측을 사용하거나 예측 블록의 상단 영역이 수평 방향 예측을 사용하여 예측 샘플에 대한 필터링이 필요하다면 주변 참조 샘플을 변화량을 이용해 예측 샘플 필터링을 수행(1060-5)한다. 예측 샘플에 대한 필터링은 예측 블록의 가장 좌측 샘플열과 가장 상단 샘플행에 대해 수행할 수 있다.
본 발명은 비디오 신호를 인코딩/디코딩하는데 이용될 수 있다.

Claims (12)

  1. 비디오 복호화 방법에 있어서,
    현재 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계;
    상기 현재 양자화 계수 그룹에 대하여 엔트로피 복호화를 통해 양자화 계수를 획득하는 단계;
    상기 획득한 양자화 계수들에 대하여 역양자화 과정을 거쳐 변환 계수를 획득하는 단계; 및
    상기 획득한 변환 계수에 대하여 역변환 과정을 거쳐 차분 신호를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  2. 제 1항에 있어서,
    상기 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계는
    현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 단계;
    상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  3. 제 2항에 있어서,
    상기 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할정보를 획득하는 단계는
    상기 현재 복호화단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 플래그를 비트스트림에서 추출하는 단계;
    상기 추출된 양자화 계수 그룹 분할 플래그가 분할하지 않음을 나타내는 경우,상기 현재 복호화단위에서 양자화 계수 그룹의 크기를 결정하는 단계; 및
    상기 추출된 양자화 계수 그룹 분할 플래그가 분할을 나타내는 경우, 상기 현재 복호화단위를 복수의 하위 양자화 계수 그룹들로 분할하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제 2항에 있어서,
    상기 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할정보를 획득하는 단계는
    상기 현재 복호화단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 플래그를 비트스트림에서 추출하는 단계;
    상기 추출된 양자화 계수 그룹 분할 플래그가 분할하지 않음을 나타내는 경우,상기 현재 복호화단위에서 양자화 계수 그룹의 크기를 결정하는 단계; 및
    상기 추출된 양자화 계수 그룹 분할 플래그가 분할을 나타내는 경우, 상기 현재 복호화단위를 복수의 하위 양자화 계수 그룹들로 분할하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  5. 제 4항에 있어서,
    상기 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 크기 정보를 획득하는 단계는
    상기 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 갯수 정보를 비트스트림에서 추출하는 단계;
    상기 가변 크기의 양자화 계수 그룹분할방법과 현재 복호화 단위의 크기,상기 양자화 계수 그룹 분할 갯수 정보에 기초하여 정의된 분할 정보를 이용하여 양자화 계수 그룹을 분할하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  6. 제 1항에 있어서,
    상기 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계는
    현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 단계;
    상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 단계;및
    상기 역양자화를 위한 양자화 계수 그룹의 분할 정보에 기초하여 양자화 계수 그룹의 엔트로피 복호화 스캔 순서를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  7. 비디오 복호화 장치에 있어서,
    현재 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계;
    상기 현재 양자화 계수 그룹에 대하여 엔트로피 복호화를 통해 양자화 계수를 획득하는 단계;
    상기 획득한 양자화 계수들에 대하여 역양자화 과정을 거쳐 변환 계수를 획득하는 단계; 및
    상기 획득한 변환 계수에 대하여 역변환 과정을 거쳐 차분 신호를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
  8. 제 7항에 있어서,
    상기 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계는
    현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 단계;
    상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
  9. 제 8항에 있어서,
    상기 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 단계는
    상기 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 플래그를 비트스트림에서 추출하는 단계;
    상기 추출된 양자화 계수 그룹 분할 플래그가 분할하지 않음을 나타내는 경우,상기 현재 복호화 단위에서 양자화 계수 그룹의 크기를 결정하는 단계; 및
    상기 추출된 양자화 계수 그룹 분할 플래그가 분할을 나타내는 경우, 상기 현재 복호화 단위를 복수의 하위 양자화 계수 그룹들로 분할하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
  10. 제 8항에 있어서,
    상기 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계는
    현재 복호화하는 비트스트림에 대하여 가변 크기의양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 단계;
    상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 상기 가변 크기의 양자화 계수 그룹의 분할 방법을 결정하는 단계; 및
    상기 결정된 가변 크기의 양자화 계수 그룹의 분할 방법에 따라 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 크기 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
  11. 제 10항에 있어서,
    상기 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 크기 정보를 획득하는 단계는
    상기 현재 복호화 단위의 크기에 기초하여 분할에 대한 양자화 계수 그룹 분할 갯수 정보를 비트스트림에서 추출하는 단계;
    상기 가변 크기의 양자화 계수 그룹 분할 방법과 현재 복호화 단위의 크기,상기 양자화 계수 그룹 분할 갯수 정보에 기초하여 정의된 분할 정보를 이용하여 양자화 계수 그룹을 분할하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
  12. 제 7항에 있어서,
    상기 역양자화를 위한 양자화 계수 그룹의 정보를 획득하는 단계는
    현재 복호화하는 비트스트림에 대하여 가변 크기의 양자화 계수 그룹 사용 여부 정보를 비트스트림에서 추출하는 단계;
    상기 추출된 가변 크기의 양자화 계수 그룹 사용 여부 정보가 가변 크기의 양자화 계수 그룹 사용을 의미하는 경우, 현재 복호화 단위에서 역양자화를 위한 양자화 계수 그룹의 분할 정보를 획득하는 단계;및
    상기 역양자화를 위한 양자화 계수 그룹의 분할 정보에 기초하여 양자화 계수 그룹의 엔트로피 복호화 스캔 순서를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
PCT/KR2017/002578 2016-03-11 2017-03-09 비디오 코딩 방법 및 장치 WO2017155334A1 (ko)

Priority Applications (10)

Application Number Priority Date Filing Date Title
CN201780028323.3A CN109155857B (zh) 2016-03-11 2017-03-09 视频编码方法以及装置
CN202310522574.4A CN116506604A (zh) 2016-03-11 2017-03-09 视频编码方法以及装置
CN202310522570.6A CN116506603A (zh) 2016-03-11 2017-03-09 视频编码方法以及装置
CN202310522559.XA CN116506601A (zh) 2016-03-11 2017-03-09 视频编码方法以及装置
CN202310522554.7A CN116506600A (zh) 2016-03-11 2017-03-09 视频编码方法以及装置
US16/084,105 US10694184B2 (en) 2016-03-11 2017-03-09 Video coding method and apparatus
CN202310522560.2A CN116506602A (zh) 2016-03-11 2017-03-09 视频编码方法以及装置
US16/881,786 US11438591B2 (en) 2016-03-11 2020-05-22 Video coding method and apparatus
US17/872,577 US11838509B2 (en) 2016-03-11 2022-07-25 Video coding method and apparatus
US18/381,715 US20240048704A1 (en) 2016-03-11 2023-10-19 Video coding method and apparatus

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
KR10-2016-0029699 2016-03-11
KR1020160029699A KR102669632B1 (ko) 2016-03-11 가변 크기의 양자화 계수 그룹을 이용한 비디오 코딩 방법 및 장치
KR10-2016-0031800 2016-03-17
KR1020160031800A KR20170109095A (ko) 2016-03-17 2016-03-17 움직임 벡터 도출을 통한 비디오 복호화 방법 및 장치
KR1020160038075A KR20170113947A (ko) 2016-03-30 2016-03-30 글로벌 움직임 보상 방법 및 장치
KR10-2016-0038075 2016-03-30
KR10-2016-0048883 2016-04-21
KR1020160048883A KR102443958B1 (ko) 2016-04-21 2016-04-21 고효율 비디오 코딩을 위한 화면 내 예측 방법 및 장치
KR10-2016-0054609 2016-05-03
KR1020160054609A KR20170125154A (ko) 2016-05-03 2016-05-03 곡선 화면 내 예측을 사용하는 비디오 복호화 방법 및 장치

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/084,105 A-371-Of-International US10694184B2 (en) 2016-03-11 2017-03-09 Video coding method and apparatus
US16/881,786 Continuation US11438591B2 (en) 2016-03-11 2020-05-22 Video coding method and apparatus

Publications (1)

Publication Number Publication Date
WO2017155334A1 true WO2017155334A1 (ko) 2017-09-14

Family

ID=59789592

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/002578 WO2017155334A1 (ko) 2016-03-11 2017-03-09 비디오 코딩 방법 및 장치

Country Status (3)

Country Link
US (4) US10694184B2 (ko)
CN (6) CN116506601A (ko)
WO (1) WO2017155334A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110650343A (zh) * 2018-06-27 2020-01-03 中兴通讯股份有限公司 图像的编码、解码方法及装置、电子设备及系统
CN112262576A (zh) * 2018-06-11 2021-01-22 光云大学校产学协力团 残差系数编码/解码方法和装置
RU2792110C2 (ru) * 2018-06-11 2023-03-16 Ханвха Текуин Ко., Лтд. Способ и устройство кодирования/декодирования остаточных коэффициентов
US11805256B2 (en) * 2017-07-31 2023-10-31 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
US11818354B2 (en) 2018-06-19 2023-11-14 Hanwha Techwin Co., Ltd. Method and an apparatus for encoding/decoding residual coefficient

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
EP3646599A4 (en) * 2017-06-30 2020-05-06 Telefonaktiebolaget LM Ericsson (PUBL) ENCODING AND DECODING OF AN IMAGE BLOCK USING A CURVED INTRA-PREDICTION MODE
CN115955562A (zh) * 2017-11-29 2023-04-11 韩国电子通信研究院 采用环内滤波的图像编码/解码方法和装置
KR102357295B1 (ko) * 2018-01-02 2022-02-08 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US11765349B2 (en) 2018-08-31 2023-09-19 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
US11094088B2 (en) 2018-08-31 2021-08-17 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries in video coding
DE112019006649T8 (de) * 2019-01-14 2022-01-20 Mediatek Inc. Verfahren und Vorrichtung einer In-Loop-Filterung für virtuelle Grenzlinien
US11089335B2 (en) 2019-01-14 2021-08-10 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101426272B1 (ko) * 2008-03-10 2014-08-07 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
KR20150022299A (ko) * 2013-08-22 2015-03-04 주식회사 에스원 계수 정보를 변환하는 방법 및 장치
KR20150052818A (ko) * 2011-07-01 2015-05-14 삼성전자주식회사 계층적 구조의 데이터 단위를 이용한 엔트로피 부호화 방법 및 장치, 복호화 방법 및 장치
KR20150105348A (ko) * 2012-11-29 2015-09-16 인텔렉추얼디스커버리 주식회사 트랜스폼을 이용한 영상 부호화/복호화 방법 및 장치
KR101564563B1 (ko) * 2014-05-07 2015-10-30 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI301723B (en) * 2005-05-17 2008-10-01 Novatek Microelectronics Corp Method and apparatus for selecting prediction mode of intra coding
US20100118943A1 (en) 2007-01-09 2010-05-13 Kabushiki Kaisha Toshiba Method and apparatus for encoding and decoding image
FR2947134A1 (fr) * 2009-06-23 2010-12-24 France Telecom Procedes de codage et de decodages d'images, dispositifs de codage et de decodage, flux de donnees et programme d'ordinateur correspondants.
KR101474756B1 (ko) * 2009-08-13 2014-12-19 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
US9549190B2 (en) * 2009-10-01 2017-01-17 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding image using variable-size macroblocks
EP2485490B1 (en) * 2009-10-01 2015-09-30 SK Telecom Co., Ltd. Method and apparatus for encoding/decoding image using split layer
KR101495724B1 (ko) * 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101988327B1 (ko) * 2010-05-04 2019-06-12 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR101952103B1 (ko) * 2010-10-08 2019-02-27 지이 비디오 컴프레션, 엘엘씨 블록 분할 및 블록 병합을 지원하는 픽처 코딩
CA2822800C (en) * 2010-12-23 2017-08-29 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
US9787982B2 (en) 2011-09-12 2017-10-10 Qualcomm Incorporated Non-square transform units and prediction units in video coding
MX2014004776A (es) 2011-10-17 2014-07-09 Kt Corp Metodo de transformacion adaptable con base en la prediccion en pantalla y aparato que usa el metodo.
WO2013157829A1 (ko) * 2012-04-16 2013-10-24 한국전자통신연구원 부호화 방법 및 복호화 방법 그리고 이를 이용하는 장치
KR101540510B1 (ko) 2013-05-28 2015-07-31 한양대학교 산학협력단 추가적 예측 후보를 이용한 인트라 예측 방법 및 그 장치
EP2920962A4 (en) 2012-11-13 2016-07-20 Intel Corp ADAPTIVE TRANSFORMATION ENCODING OF CONTENT FOR NEXT GENERATION VIDEO
JP2014131162A (ja) * 2012-12-28 2014-07-10 Nippon Telegr & Teleph Corp <Ntt> イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
US9300964B2 (en) * 2013-01-24 2016-03-29 Sharp Kabushiki Kaisha Image decoding apparatus and image coding apparatus
EP2952003B1 (en) * 2013-01-30 2019-07-17 Intel Corporation Content adaptive partitioning for prediction and coding for next generation video
US9716894B2 (en) * 2013-03-25 2017-07-25 Qualcomm Incorporated Intra prediction modes for lossy coding when transform is skipped
AU2013202653A1 (en) * 2013-04-05 2014-10-23 Canon Kabushiki Kaisha Method, apparatus and system for generating intra-predicted samples
EP2936816B1 (en) * 2013-04-09 2020-04-29 MediaTek Singapore Pte Ltd. Method and apparatus for non-square intra mode coding
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US20150189269A1 (en) * 2013-12-30 2015-07-02 Google Inc. Recursive block partitioning
CN103928025B (zh) * 2014-04-08 2017-06-27 华为技术有限公司 一种语音识别的方法及移动终端
WO2016048183A1 (en) * 2014-09-23 2016-03-31 Intel Corporation Intra-prediction complexity reduction using a reduced number of angular modes and subsequent refinement
WO2016090568A1 (en) * 2014-12-10 2016-06-16 Mediatek Singapore Pte. Ltd. Binary tree block partitioning structure
US20180035123A1 (en) * 2015-02-25 2018-02-01 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and Decoding of Inter Pictures in a Video
CN107409207B (zh) * 2015-03-23 2020-07-28 Lg 电子株式会社 在内预测模式的基础上处理图像的方法及其装置
KR101911587B1 (ko) 2015-08-03 2018-10-24 한양대학교 산학협력단 적응적인 인트라 예측을 이용한 영상 부호화/복호화 장치 및 방법
US11032550B2 (en) * 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
KR102443958B1 (ko) 2016-04-21 2022-09-19 광운대학교 산학협력단 고효율 비디오 코딩을 위한 화면 내 예측 방법 및 장치
US10448011B2 (en) * 2016-03-18 2019-10-15 Mediatek Inc. Method and apparatus of intra prediction in image and video processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101426272B1 (ko) * 2008-03-10 2014-08-07 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
KR20150052818A (ko) * 2011-07-01 2015-05-14 삼성전자주식회사 계층적 구조의 데이터 단위를 이용한 엔트로피 부호화 방법 및 장치, 복호화 방법 및 장치
KR20150105348A (ko) * 2012-11-29 2015-09-16 인텔렉추얼디스커버리 주식회사 트랜스폼을 이용한 영상 부호화/복호화 방법 및 장치
KR20150022299A (ko) * 2013-08-22 2015-03-04 주식회사 에스원 계수 정보를 변환하는 방법 및 장치
KR101564563B1 (ko) * 2014-05-07 2015-10-30 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11805256B2 (en) * 2017-07-31 2023-10-31 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
CN112262576A (zh) * 2018-06-11 2021-01-22 光云大学校产学协力团 残差系数编码/解码方法和装置
RU2792110C2 (ru) * 2018-06-11 2023-03-16 Ханвха Текуин Ко., Лтд. Способ и устройство кодирования/декодирования остаточных коэффициентов
US11818354B2 (en) 2018-06-19 2023-11-14 Hanwha Techwin Co., Ltd. Method and an apparatus for encoding/decoding residual coefficient
CN110650343A (zh) * 2018-06-27 2020-01-03 中兴通讯股份有限公司 图像的编码、解码方法及装置、电子设备及系统
CN110650343B (zh) * 2018-06-27 2024-06-07 中兴通讯股份有限公司 图像的编码、解码方法及装置、电子设备及系统

Also Published As

Publication number Publication date
CN116506601A (zh) 2023-07-28
CN116506602A (zh) 2023-07-28
CN116506600A (zh) 2023-07-28
US20190082179A1 (en) 2019-03-14
US11838509B2 (en) 2023-12-05
US20240048704A1 (en) 2024-02-08
US10694184B2 (en) 2020-06-23
CN116506603A (zh) 2023-07-28
US11438591B2 (en) 2022-09-06
CN116506604A (zh) 2023-07-28
US20220360780A1 (en) 2022-11-10
CN109155857A (zh) 2019-01-04
CN109155857B (zh) 2023-05-30
US20200288133A1 (en) 2020-09-10

Similar Documents

Publication Publication Date Title
WO2017155334A1 (ko) 비디오 코딩 방법 및 장치
WO2019107916A1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
WO2011068360A2 (ko) 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
WO2018030599A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017026681A1 (ko) 비디오 코딩 시스템에서 인터 예측 방법 및 장치
WO2013002589A2 (ko) 휘도 성분 영상을 이용한 색차 성분 영상의 예측 방법 및 예측 장치
WO2013157825A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020004990A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2014010943A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020055107A1 (ko) 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
WO2019221465A1 (ko) 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
WO2019194514A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019245261A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020013569A1 (ko) 영상 코딩 시스템에서 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
WO2020180119A1 (ko) Cclm 예측에 기반한 영상 디코딩 방법 및 그 장치
WO2019216714A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018182184A1 (ko) 부호화 트리 유닛 및 부호화 유닛의 처리를 수행하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
WO2021101203A1 (ko) 필터링 기반 영상 코딩 장치 및 방법
WO2019182329A1 (ko) 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
WO2020017785A1 (ko) 영상 코딩 시스템에서 인트라 예측 관련 정보를 사용하는 영상 디코딩 방법 및 그 장치
WO2019194463A1 (ko) 영상의 처리 방법 및 이를 위한 장치
WO2013157769A1 (ko) 엔트로피 부복호화 방법 및 이러한 방법을 사용하는 장치
WO2021141227A1 (ko) 영상 디코딩 방법 및 그 장치
WO2013168952A1 (ko) 인터 레이어 예측 방법 및 이를 이용하는 장치
WO2021125904A1 (ko) 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17763595

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17763595

Country of ref document: EP

Kind code of ref document: A1