WO2012044105A2 - 평활화 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치 - Google Patents

평활화 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치 Download PDF

Info

Publication number
WO2012044105A2
WO2012044105A2 PCT/KR2011/007220 KR2011007220W WO2012044105A2 WO 2012044105 A2 WO2012044105 A2 WO 2012044105A2 KR 2011007220 W KR2011007220 W KR 2011007220W WO 2012044105 A2 WO2012044105 A2 WO 2012044105A2
Authority
WO
WIPO (PCT)
Prior art keywords
interpolation
unit
pixel
filter
depth
Prior art date
Application number
PCT/KR2011/007220
Other languages
English (en)
French (fr)
Other versions
WO2012044105A3 (ko
Inventor
알쉰알렉산더
알쉬나엘레나
천지엔러
한우진
쉬라코프니콜라이
홍윤미
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2013531498A priority Critical patent/JP5654685B2/ja
Priority to US13/877,074 priority patent/US9124902B2/en
Priority to BR122021005436-3A priority patent/BR122021005436B1/pt
Priority to MX2013003606A priority patent/MX2013003606A/es
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP11829611.0A priority patent/EP2624558A4/en
Priority to CN201180057602.5A priority patent/CN103238320B/zh
Priority to EP23216198.4A priority patent/EP4318277A3/en
Priority to BR112013007203-2A priority patent/BR112013007203B1/pt
Priority to BR122020014075-5A priority patent/BR122020014075B1/pt
Publication of WO2012044105A2 publication Critical patent/WO2012044105A2/ko
Publication of WO2012044105A3 publication Critical patent/WO2012044105A3/ko
Priority to US14/632,155 priority patent/US9179167B2/en
Priority to US14/632,169 priority patent/US9277247B2/en
Priority to US14/632,176 priority patent/US9253507B2/en
Priority to US14/632,132 priority patent/US9118933B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • G06F17/175Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method of multidimensional data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation

Definitions

  • the present invention relates to predictive encoding by motion compensation.
  • An image interpolation method considering smoothing is based on interpolation positions and smoothness of the subpixel units among interpolation filters for generating pixel values of at least one subpixel unit positioned between pixel units. Selecting interpolation filters differently; And generating pixel values of the at least one subpixel unit by interpolating pixel values of the pixel units using the selected interpolation filter.
  • FIG. 1 is a block diagram of an image interpolation apparatus, according to an exemplary embodiment.
  • FIG. 2 shows a relationship between a pixel unit and a subpixel unit.
  • FIG. 5 illustrates a smoothness parameter of a smoothed interpolation filter, according to an embodiment.
  • FIG. 6 illustrates a graph of the spline function available in the smoothed interpolation filter, according to one embodiment.
  • FIG. 7 is a flowchart of an image interpolation method, according to an exemplary embodiment.
  • FIG. 13A illustrates a block diagram of a video encoding apparatus using a smoothed interpolation filter, according to an embodiment.
  • 13B is a block diagram of an image decoding apparatus using a smoothed interpolation filter, according to an embodiment.
  • FIG. 14A illustrates a flowchart of an image encoding method using a smoothed interpolation filter, according to an embodiment.
  • 14B is a flowchart of an image decoding method using a smoothed interpolation filter, according to an embodiment.
  • 22, 23, and 24 illustrate a relationship between a coding unit, a prediction unit, and a transformation unit, according to an embodiment of the present invention.
  • FIG. 25 illustrates a relationship between coding units, prediction units, and transformation units, according to encoding mode information of Table 1.
  • FIG. 25 illustrates a relationship between coding units, prediction units, and transformation units, according to encoding mode information of Table 1.
  • the interpolation filter may include filter coefficients obtained by synthesizing a filter and a window function for transform and inverse transform using the plurality of basis functions to interpolate the pixel-by-pixel pixels in a spatial domain.
  • the window function may be symmetrical with respect to the interpolation position.
  • the interpolation filter may be configured of filter coefficients based on a spline function.
  • the interpolation filter according to an embodiment may be configured with filter coefficients that maximize the low frequency response of the interpolation filter based on a polynomial.
  • the interpolation filter selection step may include selecting an interpolation filter of which filter coefficients are enlarged to an integer among the interpolation filters, and generating the pixel value of each subpixel unit by selecting the selected interpolation filter. And normalizing the pixel value generated by using the scaling ratio.
  • the interpolation filter having a high smoothness may be configured to smooth the pixel-by-pixel pixels, convert the smoothed pixel-to-pixel pixels using a plurality of basis functions, and inversely transform the plurality of coefficients generated as a result of the conversion.
  • a filter composed of filter coefficients; A filter combining filter coefficients for transform and inverse transform using the plurality of basis functions and window function coefficients for low pass filtering; A filter comprising filter coefficients for maximally smoothing at boundary pixels of the pixel-by-pixel pixels based on a boundary condition of a spline function; And a filter comprised of filter coefficients based on polynomials that maximize the low frequency response of the interpolation filter.
  • an interpolation position of a subpixel unit and a current pixel among interpolation filters for generating pixel values of at least one subpixel unit positioned between pixel units A filter selector for differently selecting an interpolation filter based on the color component of the filter; And an interpolation unit configured to generate pixel values of the at least one subpixel unit by interpolating pixel values of the pixel units using the selected interpolation filter.
  • the subtraction is performed among the interpolation filters for generating pixel values of at least one subpixel unit positioned between pixel units for each block of an input picture.
  • the interpolation filter is differently selected based on the interpolation position and the smoothness of the subunit, and the pixel values of the pixel units are interpolated using the selected interpolation filter to generate the pixel values of the at least one subpixel unit to perform prediction encoding.
  • An encoder configured to perform transform and quantization on the prediction result according to the prediction encoding;
  • An output unit for performing entropy encoding on the quantized transform coefficients and encoding information and outputting the generated bitstream;
  • a storage unit for storing filter coefficients of the interpolation filters.
  • FIGS. 1 through 12C an image interpolation considering smoothing according to an embodiment is disclosed. Also, with reference to FIGS. 13A through 27, encoding and decoding of a video using a smoothed interpolation filter according to an embodiment are disclosed. In particular, coding units having a tree structure according to an embodiment will be described with reference to FIGS. 15 through 27. Encoding and decoding of a video using a smoothed interpolation filter are started.
  • FIG. 1 is a block diagram of an image interpolation apparatus, according to an exemplary embodiment.
  • the image interpolation apparatus 10 may generate pixel values of a sub-pel unit by receiving an image and interpolating pixels of an integer pel unit.
  • the input image may be a picture sequence, a picture, a frame, and blocks of the video.
  • the filter selector 12 differs based on interpolation positions and smoothness of subpixel units among interpolation filters for generating pixel values of at least one subpixel unit positioned between pixel units. You can select an interpolation filter.
  • the interpolation filter may be configured with filter coefficients for transforming pixel-based reference pixels based on a plurality of basis functions and inversely transforming a plurality of coefficients generated as a result of the transformation.
  • the interpolation filter may be in the form of a one-dimensional filter or a two-dimensional filter.
  • the interpolation unit 14 may generate a pixel value of a current subpixel unit by continuously filtering using one-dimensional interpolation filters of two or more directions. .
  • the interpolation filter according to an embodiment may be configured with different filter coefficients according to the interpolation position and the smoothness of the subpixel unit.
  • an interpolation filter determined in consideration of interpolation positions and smoothness of a subpixel unit is referred to as a smoothed interpolation filter.
  • the smoothness may be determined based on a distance between interpolation positions and pixels adjacent to the interpolation position among the pixel-by-pixel pixels.
  • the smoothed interpolation filter synthesizes a filter coefficient for transform and inverse transform using a plurality of basis functions and a window function coefficient for low pass filtering in order to interpolate pixel-by-pixel pixels in a spatial domain. It may consist of filter coefficients.
  • the window function may be symmetrical about the interpolation position.
  • the smoothed interpolation filter in which filter coefficients for transform and inverse transform and window function coefficients for low pass filtering are synthesized, gives a greater weight to reference pixels closer to the interpolation position among pixel reference pixels.
  • the reference pixel may be configured with filter coefficients to give a smaller weight.
  • the smoothed interpolation filter may be composed of filter coefficients obtained by synthesizing a smoothness parameter with an interpolation filter for transform and inverse transform.
  • the smoothness parameter may control at least one of a speed of smoothness and a range of smoothness.
  • the smoothed interpolation filter according to an embodiment may be composed of filter coefficients based on a spline function. That is, the basis functions of the transform and inverse transform for determining the interpolation filter coefficients may be spline functions.
  • the interpolation filter according to an embodiment may be composed of filter coefficients determined using a spline function for a smoother interpolation result.
  • the filter selector 12 may select different interpolation filters among interpolation filters according to characteristics of pixels.
  • the interpolator 14 may generate pixel values of a subpixel unit by using different interpolation filters selected for respective pixel characteristics.
  • the interpolation filters selectable by the filter selector 12 may include not only a smoothing interpolation filter according to an embodiment but also a general interpolation filter without considering smoothing. Accordingly, the filter selector 12 may select a general interpolation filter that does not consider smoothing at all according to image characteristics.
  • the image interpolation apparatus 10 may perform image interpolation using different interpolation filters for each color component.
  • the filter selector 12 may differently select an interpolation filter based on the interpolation position of the subpixel unit and the color component of the current pixel among the interpolation filters.
  • the interpolator 14 may generate pixel values of at least one subpixel unit by interpolating pixel units by using the selected interpolation filter.
  • the filter selector 12 may determine the interpolation filter of the luma component and the interpolation filter of the chroma component differently.
  • the filter selector 12 may select a smoothed interpolation filter having a greater smoothness than the interpolation filter for the pixel of the luma component from among the interpolation filters.
  • an interpolation filter composed of filter coefficients determined based on a spline function, an interpolation filter composed of filter coefficients determined based on a polynomial, and the like may be selected for pixel interpolation of chroma components.
  • the filter coefficients determined based on the spline function may be smoothed to the maximum at the boundary pixels of the pixel-by-pixel pixels based on the boundary condition of the spline function.
  • an interpolation filter determined according to a polynomial may be configured with filter coefficients for maximizing a low frequency response. .
  • an interpolation filter composed of filter coefficients determined based on a smoothness parameter having a higher smoothness than an interpolation filter for a luma component pixel, and removes a lot of high frequency components than an interpolation filter for a luma component pixel.
  • An interpolation filter including a window function and synthesized filter coefficients may be selected.
  • a smoothed interpolation filter may be selected in which filter coefficients for transform and inverse transform based on a plurality of basis functions and window function coefficients for low pass filtering are synthesized. have.
  • the smoothed interpolation filter used by the image interpolation apparatus 10 may reduce the high frequency component of the interpolation result using the interpolation filter, and may lead to smoother interpolation results. Since the presence of a high frequency component impairs image compression efficiency, image encoding and image decoding efficiency may also be improved through image interpolation in which smoothness is adjustable.
  • FIG. 2 shows a relationship between a pixel unit and a subpixel unit.
  • the image interpolation apparatus 10 interpolates pixel values in pixel units of a spatial domain, that is, pixel values of an 'X' position that is an interpolation position by interpolating between pixel values of an 'O' position of a predetermined block 20. Create them.
  • the pixel values of the 'X' position are pixel values of the subpixel unit whose interpolation position is determined by ⁇ x and ⁇ y .
  • 10 illustrates an example in which a predetermined block 20 is 4x4, but the size of the block is not limited to 4x4, and pixel values of subpixel units may be generated through interpolation filtering for blocks of larger or smaller sizes. It can be easily understood by those skilled in the art.
  • motion vectors are used for motion compensation and prediction of the current image.
  • a previously decoded image is referred to in order to predict the current image, and the motion vector indicates a predetermined point of the reference image. Therefore, the motion vector indicates pixels in pixel units of the reference image.
  • a plurality of adjacent pixel units including pixel values 31 and 33 are generated to interpolate between two pixel values 31 and 33 of a pixel unit pixel to generate a pixel value 35 of a subpixel unit.
  • Pixel values 37 and 39 of the pixels are used.
  • interpolation may be performed between a 0 th pixel and a 1 th pixel.
  • FIG. 4A has been described as an example of interpolating between pixel values in a horizontal direction, one-dimensional interpolation filtering is possible using pixel values in a vertical direction or pixel values in a diagonal direction.
  • the pixel value P ( ⁇ ) of the interpolation position ⁇ in the vertical direction may be generated by interpolating between adjacent P 0 41 and P 1 43 in the vertical direction.
  • the interpolation filtering method is similar except that the interpolation is performed using the pixel values 47 and 49 arranged in the vertical direction instead of the pixel values 37 and 39 arranged in the horizontal direction. something to do.
  • FIG. 4C differs from the pixel values 46 and 48 arranged in the diagonal direction instead of the pixel values 37 and 39 arranged in the horizontal direction, similarly to the embodiment of FIG. 4B, but the two adjacent pixel values are different.
  • the method of generating the pixel value 44 at the interpolation position ⁇ by interpolating between 40 and 42 is similar to the one-dimensional interpolation filtering method in the horizontal direction.
  • an interpolation filter using transformation and inverse transformation may shift a phase of a plurality of basis functions used for transformation, and generate a plurality of coefficients generated using a plurality of phase shifted basis functions, that is, a transform domain. Invert the values of domain). As a result of the inverse transformation, a pixel value of the spatial domain is output, and the output value may be a pixel value of an interpolation position.
  • interpolation filtering in which the interpolator 14 uses transforms and inverse transforms based on orthogonal basis functions is described in detail.
  • a discrete cosine transform is taken as an example of an orthogonal basis function.
  • the interpolator 14 first converts pixel values in pixel units by one-dimensional discrete cosine.
  • the one-dimensional discrete cosine transform may be performed by calculating the following equation (1).
  • p (l) is the pixel values 37 and 39 from the-(M-1) th to the M th
  • C k is a coefficient of a plurality of frequency domains generated by one-dimensional discrete cosine transforming the pixel values.
  • k is a positive integer that satisfies the condition of Expression (1).
  • Equation 2 When the interpolator 14 calculates Equation 2 to convert the pixel values 37 and 39 into one-dimensional discrete cosine transform, the following equation 2 is calculated to inversely transform the coefficients.
  • the phase of the cosine function which is the basis function used for the inverse discrete cosine transform
  • the phase of the basis function used for the one-dimensional discrete cosine transform is determined by the fraction ⁇ instead of the integer l, and thus the phase of the basis function used for the one-dimensional discrete cosine transform.
  • the phases of the basis functions used in the inverse transform that is, the cosine functions
  • the pixel value 35 of the interpolation position that is, P 0 of FIG. 4A is generated.
  • C is a 2M ⁇ 1 matrix for 2M coefficients described above with reference to Equation 1
  • REF is pixel values of the pixel units described above with reference to Equation 1, that is, P- (M-1) , ... Is a 2M ⁇ 1 matrix for P M pixel values.
  • the number of pixel values of the pixel unit pixel position used for interpolation, that is, 2M, means the number of taps of the one-dimensional interpolation filter.
  • D is a square matrix for one-dimensional discrete cosine transform and may be defined as in Equation 4 below.
  • Equation (3) M k and l are integers satisfying the above conditions, and D kl means k rows and l columns of the square matrix D for the discrete coin transformation of Equation (3).
  • M is the same M as M in equation (3).
  • Equation 5 Inverse discrete cosine transform using a plurality of phase-shifted basis functions according to Equation 2 is expressed as a matrix Equation 5 below.
  • P ( ⁇ ) is the same as P ( ⁇ ) of Equation 2
  • W ( ⁇ ) is a 1x2M matrix for one-dimensional inverse discrete cosine transform using a plurality of phase-shifted basis functions, defined as in Equation 6 below. Can be.
  • Equation 7 the filter F ( ⁇ ) for the one-dimensional discrete cosine transform and the one-dimensional inverse discrete cosine transform using a plurality of phase-shifted basis functions may be defined as in Equation 7 below.
  • F 1 ( ⁇ ) means column l of F ( ⁇ )
  • W ( ⁇ ) and D are the same as W ( ⁇ ) and D in the equation (3).
  • the interpolator 14 may modify an interpolation filter used for transform and inverse transform based on a basis function to generate pixel values of a smoother subpixel unit.
  • Window functions usable according to one embodiment may include Hamming windows, cosine windows, exponential windows, Hanning windows, Blackman windows, and triangular window functions. Can be. For convenience of description, an embodiment of smoothing an interpolation filter based on transform and inverse transform according to an embodiment using a specific window function is described above, but other window functions having similar frequency responses may be used in addition to the described window functions. Will be readily understood by those skilled in the art.
  • the window coefficient according to the Hamming window function is according to Equation 8.
  • window functions including the Hamming window function
  • the window size N may be set to a positive integer greater than the filter length of the original interpolation filter.
  • the center position of the window function is shifted by 1/2 or 1/4 subpixel units. Can be. That is, the center position of the window function is moved to the interpolation position, and thus may be symmetrical about the interpolation position.
  • the window revelations of Equation 11 illustrate window coefficients according to a Hamming window function, a cosine window function, and an expansive window function, as window functions for an interpolation filter, generalized according to an interpolation position ⁇ of a subpixel unit.
  • the smoothed interpolation filter coefficient can be determined according to (12).
  • a weight for an interpolation filter coefficient may be adjusted based on a distance between a pixel reference pixel and an interpolation position. For example, by the window function, among the filter coefficients of the interpolation filter, the filter coefficients for the pixel-by-pixel reference pixels located far from the interpolation position are greatly smoothed, and the filter coefficients for the reference pixels near the interpolation position are not greatly changed. In other instances, a smoothed interpolation filter can be determined.
  • the interpolation filtering is performed after smoothing the pixel reference pixel.
  • the smoothed interpolation filter may determine the smoothness of the filter coefficients based on two parameters.
  • the smoothed interpolation filter coefficients for the subpixel units obtained by synthesizing the smoothing matrix S with the interpolation filter coefficients based on the transform and inverse transform are expressed by Equation 13.
  • Smoothing matrix S according to Equation 14 is in the form of a 3-diagonal matrix. That is, among the components of the smoothing matrix S, all components other than the components on one corresponding diagonal and the central diagonal and except on the corresponding two diagonals are all zero.
  • the smoothness sigma i may be determined irrespective of the distance i- ⁇ from the pixel-by-pixel to be interpolated.
  • smoothing according to the smoothing matrix S may be referred to as equal smoothing.
  • the smoothness ⁇ i may be changed according to the index i of the pixel unit pixel position.
  • smoothing according to the smoothing matrix S may be referred to as non-uniform smoothing.
  • the smoothness ⁇ i is according to equation (15).
  • the positive index l may increase the smoothing effect as the distance between the interpolated interpolation position and the pixel-by-pixel reference pixel increases. Accordingly, the positive index l may control the speed at which the smoothing effect increases according to the speed of smoothing, that is, the distance between the interpolation position and the pixel-by-pixel reference pixel.
  • the smoothing parameter ⁇ can control the smoothing range, i.e., smoothing near the interpolation position.
  • the smoothing matrix S according to Equation 13 may be changed to a sharpening filter. Therefore, if the smoothing matrix S smaller than 0 is synthesized with an interpolation filter using transform and inverse transform, it may be realized in another embodiment that a filter for amplifying a high frequency component may be generated.
  • the image interpolation apparatus 10 may load the smoothed interpolation filter coefficient data in advance into a memory or the like for prediction of a subpixel unit.
  • FIG. 5 shows a graph 50 of smoothing factors according to the smoothness parameter of a smoothed interpolation filter, according to one embodiment.
  • the first curve 52 and the second curve 54 show graphs of smoothing factors for smoothing the interpolation filter based on the discrete transform, according to one embodiment.
  • the first curve 52 with a small smoothing parameter ⁇ has a relatively wider smoothing factor than the second curve 54 with a large smoothing parameter ⁇ . That is, according to the smoothed interpolation filter having a large smoothing parameter ⁇ , only low frequency components are mainly filtered to generate pixel values of a relatively strongly smoothed subpixel unit.
  • the smoothing parameter ⁇ of the smoothing interpolation filter is relatively small, the pixel value of the subpixel unit may be generated by interpolation while the high frequency component is relatively preserved.
  • the image interpolation apparatus 10 may use a spline function and a polynomial in addition to the orthogonal basis function as the basis function to determine the filter coefficient of the smoothed interpolation filter.
  • the image interpolation apparatus 10 may determine filter coefficients of the smoothed interpolation filter based on a spline function.
  • the image interpolation apparatus 10 may use a spline function to which boundary conditions are added to smooth the interpolation result.
  • a spline function to which boundary conditions are added to smooth the interpolation result.
  • the variable p is maximum in the range of 3 ⁇ ⁇ ⁇ M + 1.
  • additional conditions may be set such that the spline value, that is, the interpolation result value is smoothed to infinity in the ( ⁇ M + 2) th pixel and the (M ⁇ 1) th pixel.
  • These additional conditions are called not-a-knot boundary conditions or de Boor boundary conditions.
  • Interpolation results using interpolation filter coefficients based on a spline function may be expressed by a weighted sum as shown in Equation 16.
  • the filter coefficient f m (x) may be determined according to Equation 17.
  • the spline filter coefficient f m (x) is in the range [-M + 1 + k, -M + k + 2], i.e. (-M + 1 + k Can be determined for every integer m from ( ⁇ M + k + 2).
  • Coefficient in equation (17) May be determined based on the equations of Equation 18.
  • the spline filter coefficient f m ( ⁇ ) calculating the FIR filter previously stores haenotgo, spline filter in the pixel reference unit pixel p m coefficients consisting of the interpolation position ⁇ f m ( ⁇ ).
  • the interpolation filtering using the FIR filter composed of may generate a pixel value of a subpixel unit of the interpolation position ⁇ between the pixel 0 and the first pixel.
  • FIG. 6 illustrates a graph 60 of the spline function available in the smoothed interpolation filter, according to one embodiment.
  • the image interpolation apparatus 10 may determine filter coefficients of the smoothed interpolation filter based on the polynomial.
  • a polynomial interpolation function consisting of interpolation filter coefficients ⁇ f k ⁇ based on the polynomial may be expressed based on the basis function of the polynomial as shown in Equation 19.
  • the integer k is defined in the range -M + 1 ⁇ k ⁇ M.
  • the image interpolation apparatus 10 may determine filter coefficients optimized in the low frequency band among the polynomial based interpolation filter coefficients ⁇ f k ⁇ to smooth the interpolation result. For example, when the frequency ⁇ is 0, the filter coefficients ⁇ f k ⁇ which are determined when the values of the functions of the polynomial interpolation function and the derivatives of the polynomial interpolation function are both the same, are determined as the optimized interpolation filter coefficients in the low frequency band. Can be. Accordingly, as shown in Equation 20, 2M linear functions for unknown 2M filter coefficients ⁇ f k ⁇ may be derived as a function of integer k.
  • Equation 21 is the 2M filter coefficients ⁇ f k ⁇ computed as the solution to the linear functions of Equation 20.
  • an interpolation filter composed of filter coefficients ⁇ f k ⁇ determined based on Newton's polynomials of Equations 20 and 21 has the highest frequency response in the low frequency band, pixel values using this interpolation filter yield a smoother interpolation result. can do.
  • an interpolation filter composed of filter coefficients determined based on the basis function of the polynomial can be selected as the smoothed interpolation filter.
  • the image interpolation apparatus 10 may generate a smoother interpolation pixels by selecting a smoothed interpolation filter including interpolation filter coefficients based on a polynomial.
  • a smoothed interpolation filter composed of interpolation filter coefficients based on polynomials may be used to generate pixel values of subpixels for the pixel units of the chroma component.
  • filter coefficients disclosed through FIGS. 8A to 12C are only a part of various embodiments, and for interpolation filters considering smoothing according to an embodiment, interpolation positions, smoothing parameters, types of window functions, types of spline functions, and polynomials It will be readily understood by those skilled in the art that filter coefficients may be modified depending on various factors including the type of solution, scaling ratio, rounding or the like.
  • the data related to the image may be divided into data groups, and the same operation may be performed on data included in the same data group.
  • a data group formed according to a predetermined criterion is referred to as a 'data unit'.
  • the operation performed for each 'data unit' means that the corresponding operation is performed using data included in the data unit.
  • Operations of the encoder 120 and the output unit 130 of the video encoding apparatus 100 may be organically controlled by a video encoding processor, a central processor, a graphics processor, or the like.
  • each pixel group having a predetermined size may be used as a data unit to be encoded.
  • transform coefficients of the transform domain are generated by performing transform for video encoding on pixel values of the pixel group of the spatial domain, and the transform coefficients also maintain a coefficient group having the same size as that of the pixel group of the spatial domain. Therefore, a coefficient group of transform coefficients of a transform domain may also be used as a data unit for encoding a picture.
  • the video encoding apparatus 100 may determine residual data and reference data using subpixel unit pixel values for more accurate inter prediction.
  • the video encoding apparatus 100 interpolates pixel units in subpixel units by interpolating pixel units in order to determine subpixel unit pixel values positioned between adjacent pixel unit pixels for inter prediction in subpixel units. Can be determined.
  • pixel values of a subpixel unit may be generated through interpolation filtering of reference pixels of two or more pixel units including adjacent pixel units of pixels.
  • Reference pixels for interpolation filtering may be pixels on a reference picture.
  • the video encoding apparatus 100 may selectively determine interpolation filter coefficients for efficient image interpolation.
  • the image interpolation apparatus 10 may be mounted in the encoder 120 according to an embodiment. That is, the encoder 120 generates a pixel value of a subpixel unit by using an interpolation filter composed of filter coefficients determined based on transform and inverse transform, according to the image interpolator 10, for inter prediction of a subpixel unit. can do.
  • the video encoding apparatus 100 may store interpolation filter coefficients in memory in advance for effective interpolation filtering.
  • the interpolation filter coefficients according to an embodiment may include various types of interpolation filter coefficients according to the interpolation position, the smoothness, the number of filter taps, the bit depth, the scaling ratio, and the basis function of the interpolation filtering based on the transformation. It may be stored in the memory of.
  • smoothed interpolation filter coefficients that can be modified through various basis functions, window functions, and the like may be used as interpolation filters. As shown.
  • an operation speed for inter prediction may be improved.
  • the encoder 120 may select a smoothed interpolation filter according to the interpolation position ⁇ and the smoothness of the subpixel unit among interpolation filters and use the interpolation filter for inter prediction.
  • a smoothing interpolation filter suitable for the current pixel may be determined according to the number of filter taps, bit depth, scaling ratio, and the like.
  • the video may be encoded by performing intra prediction and transform / quantization, including inter prediction based on subpixel interpolation.
  • the output unit 130 may encode and output encoded information, and output encoded picture data.
  • information about the selection of the interpolation filter may be separately encoded. That is, information about which interpolation filter is used for prediction encoding on a subpixel basis may be encoded. For example, if the decoding side knows which filter was interpolated in the encoding process of the image, the image may be interpolated and decoded using the same filter as the interpolation filter used in the encoding process. To this end, information for specifying a filter used for interpolation may be encoded together with the image. However, when the filter selection is previously performed based on the encoding result, that is, the context, it is not necessary to separately encode information related to the filter selection.
  • the output unit 130 may perform entropy encoding on the encoded information and the encoded picture data to output a bitstream.
  • 13B is a block diagram of an image decoding apparatus using a smoothed interpolation filter, according to an embodiment.
  • the video decoding apparatus 200 using the smoothed interpolation filter includes a reception extractor 220 and a decoder 230.
  • the video decoding apparatus 200 using the smoothed interpolation filter according to an embodiment will be referred to as the video decoding apparatus 200.
  • the operations of the reception extractor 220 and the decoder 230 of the video decoding apparatus 200 may be organically controlled by a video decoding processor, a graphics processor, a central processor, or the like.
  • the video decoding apparatus 200 decodes the coded picture data of the bitstream through operations including entropy decoding, inverse quantization, inverse transform and inter prediction / compensation, and intra prediction / compensation, to reconstruct an image from the bitstream. can do.
  • the decoder 230 reads from the interpolation filter information which interpolation filter performs intra prediction in sub-pixel units, and the decoder 230 uses the encoding process. Motion compensation may be performed using the interpolated filter.
  • a reference area of a reference picture that is preceded or following in time order with respect to the current picture is determined using the reference data, and pixel values and residual data of the reference area are synthesized to restore the current pixel value.
  • the decoder 230 may also perform motion compensation based on the interpolated pixels in the subpixel units.
  • the decoder 230 may generate a pixel value of a subpixel unit by interpolating pixels of a neighboring pixel among the pixels of the reference picture to compensate for the motion of the subpixel unit.
  • Sub-pixel pixel values may be generated through interpolation filtering of reference pixels of two or more pixel units including adjacent pixel units of pixels.
  • the video decoding apparatus 200 may selectively determine interpolation filter coefficients for efficient image interpolation.
  • the image interpolation apparatus 10 may be mounted in the decoder 230 according to an embodiment. That is, the decoder 230 may generate the pixel value of the subpixel unit by using the interpolation filter based on the transform to compensate for the motion of the subpixel unit.
  • FIG. 14A illustrates a flowchart of an image encoding method using a smoothed interpolation filter, according to an embodiment.
  • interpolation filters for generating pixel values in subpixel units
  • interpolation filters are selected differently based on the interpolation position and smoothness of the subpixel units.
  • the smoothness of interpolation filters according to an embodiment may be determined based on an interpolation position and a distance between pixel units.
  • the interpolation filter coefficients may be selectively determined for efficient image interpolation. Among the interpolation filter coefficients pre-stored in the memory, interpolation position, smoothness, number of filter taps, bit depth, scaling ratio, and the basis of interpolation filtering based on transformation According to the type of function, color component, etc., a desired interpolation filter may be selected to perform interpolation for pixel values in subpixel units.
  • step 1420 transform / quantization is performed on the result of the intra prediction being performed, including inter prediction based on interpolation in subpixel units,
  • the encoded picture data may be decoded through various decoding operations, such as motion compensation and intra prediction, based on an encoding mode.
  • motion compensation may be performed based on interpolated pixels in subpixel units.
  • interpolation filters for generating pixel values in subpixel units interpolation filters are selected differently based on the interpolation position and smoothness of the subpixel units.
  • the interpolation filter coefficients may be selectively determined for efficient image interpolation.
  • interpolation filter coefficients pre-stored in the memory interpolation position, smoothness, number of filter taps, bit depth, scaling ratio, and basis of interpolation filtering based on transformation According to the type of function, color component, etc., a desired interpolation filter may be selected to perform interpolation for pixel values in subpixel units.
  • the motion compensation is performed by referring to the interpolated pixels using interpolation filter coefficients stored in the memory, the computation speed may increase.
  • a reference picture and a reference region may be determined using reference data, and pixel values of a subpixel unit may be generated through interpolation filtering of reference pixels of two or more pixel units on the reference picture. As the generated subpixel unit pixel value and the residual data are synthesized, motion compensation may be performed and prediction decoding may be performed.
  • the current picture is reconstructed using the pixel value reconstructed through the predictive decoding, and the video is decoded.
  • FIGS. 15 to 27 An embodiment of a decoding method is described in detail.
  • the video encoding apparatus 100 may encode a video based on a coding unit and a transformation unit having a tree structure according to an embodiment.
  • the current picture may be partitioned based on the largest coding unit that is the largest coding unit for the current picture of the video. If the current picture is larger than the maximum coding unit, image data of the current picture may be split into at least one maximum coding unit.
  • the maximum coding unit may be a data unit having a size of 32x32, 64x64, 128x128, 256x256, or the like, and may be a square data unit having a square of two horizontal and vertical sizes.
  • the encoder 120 may encode picture data for at least one maximum coding unit.
  • the image data of the current picture may be divided into maximum coding units according to the maximum size of the coding unit, and each maximum coding unit may include coding units divided by depths. Since the maximum coding unit is divided according to depths, image data of a spatial domain included in the maximum coding unit may be hierarchically classified according to depths.
  • the maximum depth and the maximum size of the coding unit that limit the total number of times of hierarchically dividing the height and the width of the maximum coding unit may be preset.
  • the encoder 120 encodes at least one divided region obtained by dividing the region of the largest coding unit for each depth, and determines a depth at which the final encoding result is output for each of the at least one divided region. That is, the encoder 120 encodes the image data in coding units according to depths for each maximum coding unit of the current picture, and selects a depth at which the smallest coding error occurs to determine the coding depth.
  • the encoder 120 may output image data encoded in a coding unit of a coding depth determined for each largest coding unit.
  • the encoder 120 may transmit the information about the determined coded depth to the outputter 130 so that the information about the coded depth may be encoded as the coded information.
  • Image data in the largest coding unit is encoded based on coding units according to depths according to at least one depth less than or equal to the maximum depth, and encoding results based on the coding units for each depth are compared. As a result of comparing the encoding error of the coding units according to depths, a depth having the smallest encoding error may be selected. At least one coding depth may be determined for each maximum coding unit.
  • the coding unit is divided into hierarchically and the number of coding units increases.
  • a coding error of each data is measured, and whether or not division into a lower depth is determined. Therefore, even in the data included in one largest coding unit, since the encoding error for each depth is different according to the position, the coding depth may be differently determined according to the position. Accordingly, one or more coding depths may be set for one maximum coding unit, and data of the maximum coding unit may be partitioned according to coding units of one or more coding depths.
  • the encoder 120 may determine coding units having a tree structure included in the current maximum coding unit.
  • the coding units having a tree structure according to an embodiment include coding units having a depth determined as a coding depth among all deeper coding units included in the maximum coding unit.
  • the coding unit of the coding depth may be hierarchically determined according to the depth in the same region within the maximum coding unit, and may be independently determined for the other regions.
  • the coded depth for the current region may be determined independently of the coded depth for the other region.
  • the maximum depth according to an embodiment is an index related to the number of divisions from the maximum coding unit to the minimum coding unit.
  • the first maximum depth according to an embodiment may represent the total number of divisions from the maximum coding unit to the minimum coding unit.
  • the second maximum depth according to an embodiment may represent the total number of depth levels from the maximum coding unit to the minimum coding unit. For example, when the depth of the largest coding unit is 0, the depth of the coding unit obtained by dividing the largest coding unit once may be set to 1, and the depth of the coding unit divided twice may be set to 2. In this case, if the coding unit divided four times from the maximum coding unit is the minimum coding unit, since depth levels of 0, 1, 2, 3, and 4 exist, the first maximum depth is set to 4 and the second maximum depth is set to 5. Can be.
  • Predictive encoding and transformation of the largest coding unit may be performed. Similarly, prediction encoding and transformation are performed based on depth-wise coding units for each maximum coding unit and for each depth less than or equal to the maximum depth.
  • encoding including prediction encoding and transformation should be performed on all the coding units for each depth generated as the depth deepens.
  • the prediction encoding and the transformation will be described based on the coding unit of the current depth among at least one maximum coding unit.
  • the video encoding apparatus 100 may variously select a size or shape of a data unit for encoding image data.
  • the encoding of the image data is performed through prediction encoding, transforming, entropy encoding, and the like.
  • the same data unit may be used in every step, or the data unit may be changed in steps.
  • the video encoding apparatus 100 may select not only a coding unit for encoding the image data, but also a data unit different from the coding unit in order to perform predictive encoding of the image data in the coding unit.
  • the partition type includes not only symmetric partitions in which the height or width of the prediction unit is divided by a symmetrical ratio, but also partitions divided in an asymmetrical ratio, such as 1: n or n: 1, by a geometric form. It may optionally include partitioned partitions, arbitrary types of partitions, and the like.
  • the prediction mode of the prediction unit may be at least one of an intra mode, an inter mode, and a skip mode.
  • the intra mode and the inter mode may be performed on partitions having sizes of 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, and N ⁇ N.
  • the skip mode may be performed only for partitions having a size of 2N ⁇ 2N.
  • the encoding may be performed independently for each prediction unit within the coding unit to select a prediction mode having the smallest encoding error.
  • the video encoding apparatus 100 may perform conversion of image data of a coding unit based on not only a coding unit for encoding image data, but also a data unit different from the coding unit.
  • the transformation may be performed based on a transformation unit having a size smaller than or equal to the coding unit.
  • the transformation unit may include a data unit for intra mode and a transformation unit for inter mode.
  • the transformation unit in the coding unit is also recursively divided into smaller transformation units, so that the residual data of the coding unit is determined according to the tree structure according to the transformation depth. Can be partitioned according to the conversion unit.
  • a transform depth indicating a number of divisions between the height and the width of the coding unit divided to the transform unit may be set. For example, if the size of the transform unit of the current coding unit of size 2Nx2N is 2Nx2N, the transform depth is 0, the transform depth 1 if the size of the transform unit is NxN, and the transform depth 2 if the size of the transform unit is N / 2xN / 2. Can be. That is, the transformation unit having a tree structure may also be set for the transformation unit according to the transformation depth.
  • the encoded information for each coded depth requires not only the coded depth but also prediction related information and transformation related information. Accordingly, the encoder 120 may determine not only the coded depth that generated the minimum encoding error, but also a partition type obtained by dividing a prediction unit into partitions, a prediction mode for each prediction unit, and a size of a transformation unit for transformation.
  • the encoding information for each coding depth may include information related to interpolation filtering for interpolation of subpixel units for inter prediction.
  • the encoder 120 may perform transformation using tree transform units in the encoding process on the basis of the largest coding unit or the largest division level of the transformation unit set in advance for each current coding unit. have.
  • a basic transform unit having a size equal to or smaller than a coding unit may be gradually divided into transform units having a lower transform depth.
  • the transformation unit of the tree structure may include transformation units of lower levels from a basic transformation unit, which is a transformation unit of the maximum size currently allowed, to a maximum division level allowed in the coding unit.
  • the encoder 120 is a tree structure that forms a hierarchical structure between transform units of transform depths of the same region and independent of transform units of a peripheral region, as a result of performing the transform for each level according to the transform depth in the current coding unit.
  • the conversion unit according to can be determined.
  • the transformation unit with the smallest coding error should be determined.
  • encoding errors may be measured and compared for each transform unit for each transform depth.
  • the transformation unit according to an embodiment may be determined as a data unit that minimizes an error caused by the transformation of the coding unit.
  • the coding unit of the tree structure and the transformation unit of the tree structure may be determined. have.
  • a method of determining a coding unit, a partition, and a transform unit, according to a tree structure of a maximum coding unit, according to an embodiment will be described in detail with reference to FIGS. 15 to 25.
  • the encoder 120 may measure a coding error of coding units according to depths using a rate-distortion optimization technique based on a Lagrangian multiplier.
  • the video encoding apparatus 100 may include image data of a maximum coding unit encoded based on at least one coded depth determined by the encoder 120, and information about a depth-specific encoding mode encoded by the output unit 130. Can be output in the form of a bitstream included together.
  • the information about the encoding mode of the coding unit of the coded depth determined according to the encoding of the picture based on the coding unit, the prediction unit, the transformation unit, etc. of the tree structure according to an embodiment may be included in a header of the bitstream, an SPS, a PPS, or the like. have.
  • the encoded image data may be a result of encoding residual data of the image.
  • the information about the encoding modes according to depths may include encoding depth information, partition type information of a prediction unit, prediction mode information, size information of a transformation unit, and the like.
  • the coded depth information may be defined using depth-specific segmentation information indicating whether to encode to a coding unit of a lower depth without encoding to the current depth. If the current depth of the current coding unit is a coding depth, since the current coding unit is encoded in a coding unit of the current depth, split information of the current depth may be defined so that it is no longer divided into lower depths. On the contrary, if the current depth of the current coding unit is not the coding depth, encoding should be attempted using the coding unit of the lower depth, and thus split information of the current depth may be defined to be divided into coding units of the lower depth.
  • encoding is performed on the coding unit divided into the coding units of the lower depth. Since at least one coding unit of a lower depth exists in the coding unit of the current depth, encoding may be repeatedly performed for each coding unit of each lower depth, and recursive coding may be performed for each coding unit of the same depth.
  • coding units having a tree structure are determined in one largest coding unit and information about at least one coding mode should be determined for each coding unit of a coding depth, information about at least one coding mode may be determined for one maximum coding unit. Can be.
  • the coding depth may be different for each location, and thus information about the coded depth and the coding mode may be set for the data.
  • the output unit 130 may allocate encoding information about a corresponding coding depth and an encoding mode to at least one of a coding unit, a prediction unit, and a minimum unit included in the maximum coding unit. .
  • the minimum unit according to an embodiment is a square data unit having a size obtained by dividing the minimum coding unit, which is the lowest coding depth, into four divisions.
  • the minimum unit according to an embodiment may be a square data unit having a maximum size that may be included in all coding units, prediction units, partition units, and transformation units included in the maximum coding unit.
  • Information about the maximum size and information about the maximum depth of the coding unit defined for each picture, slice, or GOP may be inserted into a header, a sequence parameter set, or a picture parameter set of the bitstream.
  • a coding unit according to depths is a coding unit having a size in which a height and a width of a coding unit of one layer higher depth are divided by half. That is, if the size of the coding unit of the current depth is 2Nx2N, the size of the coding unit of the lower depth is NxN.
  • the current coding unit having a size of 2N ⁇ 2N may include up to four lower depth coding units having a size of N ⁇ N.
  • the video encoding apparatus 100 determines a coding unit having an optimal shape and size for each maximum coding unit based on the size and the maximum depth of the maximum coding unit determined in consideration of the characteristics of the current picture. Coding units may be configured. In addition, since each of the maximum coding units may be encoded in various prediction modes and transformation methods, an optimal coding mode may be determined in consideration of image characteristics of coding units having various image sizes.
  • the video encoding apparatus may adjust the coding unit in consideration of the image characteristics while increasing the maximum size of the coding unit in consideration of the size of the image, thereby increasing image compression efficiency.
  • the output unit 130 may encode and output encoding information indicating information about an encoding method used to encode a video based on a coding unit having a tree structure and a transformation unit having a tree structure.
  • Encoding information may include the information about the coding depth, and information about the various types of coding mode for the coded unit in the sub-field expensive.
  • the reception extractor 220 may extract encoding information about coding units having a tree structure for each maximum coding unit, from the parsed bitstream. From the coded information, information about the coded depth and information about the coded mode are extracted. The extracted information about the coded depth and the coding mode is output to the decoder 230. That is, the image data of the bit string may be divided into maximum coding units so that the decoder 230 may decode the image data for each maximum coding unit.
  • the information about the coded depth and the encoding mode for each largest coding unit may be set with respect to one or more coded depth information, and the information about the coding mode according to the coded depths may include partition type information, prediction mode information, and transformation unit of the corresponding coding unit. May include size information and the like. From encoding information according to coding depths, information related to interpolation filtering for interpolation in subpixel units may be extracted for inter prediction. In addition, split information for each depth may be extracted as the coded depth information.
  • the information about the coded depth and the encoding mode according to the maximum coding units extracted by the reception extractor 220 is repeated in each coding unit according to the deeper coding units according to the maximum coding units, as in the video encoding apparatus 100 according to an embodiment.
  • the reception extractor 220 may encode the coded depth for each predetermined data unit. And information about an encoding mode. If the information about the coded depth and the coding mode of the maximum coding unit is recorded for each of the predetermined data units, the predetermined data units having the information about the same coded depth and the coding mode are inferred as data units included in the same maximum coding unit. Can be.
  • the decoder 230 may determine the coded depth of the current maximum coding unit by using the split information for each depth. If the split information indicates that the split information is no longer split at the current depth, the current depth is the coded depth. Therefore, the decoder 230 may also decode the coding unit of the current depth using the partition type, the prediction mode, and the transformation unit size information of the prediction unit, even for the encoded picture data of the current maximum coding unit.
  • the decoding unit 230 performs the same encoding. It can be regarded as one data unit to be decoded in the mode.
  • the decoder 230 may reconstruct the current picture by decoding the coded picture data of each maximum coding unit based on the read coded depth and the encoding mode for each maximum coding unit. For each coding unit among coding units having a tree structure included in the largest coding unit, a partition type, a prediction mode, a transformation unit structure, and the like may be read as an encoding mode.
  • the decoding process may include a prediction process including intra prediction and motion compensation, and an inverse transform process.
  • the decoder 230 may perform intra prediction or motion compensation according to each partition and prediction mode for each coding unit based on the partition type and the prediction mode of the prediction unit of the coding unit of the tree structure.
  • the decoder 230 may read the transform unit structure of the tree structure and perform inverse transform based on the transform unit for each coding unit.
  • the video decoding apparatus 200 may obtain information about a coding unit that generates a minimum coding error by recursively encoding each maximum coding unit in the encoding process, and use the same to decode the current picture. That is, decoding of encoded image data of coding units having a tree structure determined as an optimal coding unit for each maximum coding unit can be performed.
  • the image data can be efficiently used according to the coding unit size and the encoding mode that are adaptively determined according to the characteristics of the image by using the information about the optimum encoding mode transmitted from the encoding end. Can be decoded and restored.
  • a size of a coding unit may be expressed by a width x height, and may include 32x32, 16x16, and 8x8 from a coding unit having a size of 64x64.
  • Coding units of size 64x64 may be partitioned into partitions of size 64x64, 64x32, 32x64, and 32x32, coding units of size 32x32 are partitions of size 32x32, 32x16, 16x32, and 16x16, and coding units of size 16x16 are 16x16.
  • Coding units of size 8x8 may be divided into partitions of size 8x8, 8x4, 4x8, and 4x4, into partitions of 16x8, 8x16, and 8x8.
  • the resolution is set to 1920x1080, the maximum size of the coding unit is 64, and the maximum depth is 2.
  • the resolution is set to 1920x1080, the maximum size of the coding unit is 64, and the maximum depth is 3.
  • the resolution is set to 352x288, the maximum size of the coding unit is 16, and the maximum depth is 1.
  • the maximum depth illustrated in FIG. 15 represents the total number of divisions from the maximum coding unit to the minimum coding unit.
  • the maximum size of the coding size is relatively large not only to improve coding efficiency but also to accurately shape an image characteristic. Accordingly, the video data 310 or 320 having a higher resolution than the video data 330 may be selected to have a maximum size of 64.
  • the coding unit 315 of the video data 310 is divided twice from a maximum coding unit having a long axis size of 64, and the depth is deepened by two layers, so that the long axis size is 32, 16. Up to coding units may be included.
  • the coding unit 335 of the video data 330 is divided once from coding units having a long axis size of 16, and the depth is deepened by one layer to increase the long axis size to 8. Up to coding units may be included.
  • the video encoding apparatus 100 encodes or decodes an image in coding units having a size smaller than or equal to the maximum coding unit for each maximum coding unit.
  • the size of a transformation unit for transformation in the encoding process may be selected based on a data unit that is not larger than each coding unit.
  • the depth 0 is changed to 1 and split (920), and the encoding is repeatedly performed on the depth 2 and the coding units 930 of the partition type having the size N_0xN_0.
  • the encoding information held by each adjacent data unit is checked, it may be determined whether the adjacent data units are included in the coding unit having the same coding depth.
  • the coding unit of the corresponding coding depth may be identified by using the encoding information held by the data unit, the distribution of the coded depths within the maximum coding unit may be inferred.
  • the encoding information of the data unit in the depth-specific coding unit adjacent to the current coding unit may be directly referred to and used.
  • FIG. 25 illustrates a relationship between coding units, prediction units, and transformation units, according to encoding mode information of Table 1.
  • FIG. 25 illustrates a relationship between coding units, prediction units, and transformation units, according to encoding mode information of Table 1.
  • the partition type information is set to one of the symmetric partition types 2Nx2N 1322, 2NxN 1324, Nx2N 1326, and NxN 1328
  • the conversion unit partition information is 0, a conversion unit of size 2Nx2N ( 1342 is set, and if the transform unit split information is 1, a transform unit 1344 of size NxN may be set.
  • the conversion unit splitting information (TU size flag) described above with reference to FIG. 21 is a flag having a value of 0 or 1, but the conversion unit splitting information according to an embodiment is not limited to a 1-bit flag and is set to 0 according to a setting. , 1, 2, 3., etc., and may be divided hierarchically.
  • the transformation unit partition information may be used as an embodiment of the transformation index.
  • the maximum transform unit split information as 'MaxTransformSizeIndex'
  • the minimum transform unit size as 'MinTransformSize'
  • the transform unit split information is 0, that is, the size of the base transform unit RootTu as 'RootTuSize'
  • the minimum transform unit size 'CurrMinTuSize' possible in the coding unit may be defined as in Equation (1) below.
  • the base transform unit size 'RootTuSize' may indicate the maximum transform unit size that can be adopted in the system. That is, according to relation (1), 'RootTuSize / (2 ⁇ MaxTransformSizeIndex)' is a transform unit size obtained by dividing 'RootTuSize', which is the basic transform unit size, by the number of times corresponding to the maximum transform unit partition information, and 'MinTransformSize' is Since the minimum transform unit size, a smaller value among them may be the minimum transform unit size 'CurrMinTuSize' possible in the current current coding unit.
  • the base transform unit size RootTuSize may vary depending on the prediction mode.
  • RootTuSize may be determined according to the following relation (2).
  • 'MaxTransformSize' represents the maximum transform unit size
  • 'PUSize' represents the current prediction unit size.
  • 'RootTuSize' which is a basic transform unit size that is a transform unit when the transform unit split information is 0, may be set to a smaller value among the maximum transform unit size and the current prediction unit size.
  • 'RootTuSize' may be determined according to Equation (3) below.
  • 'PartitionSize' represents the size of the current partition unit.
  • RootTuSize min (MaxTransformSize, PartitionSize) ........... (3)
  • the base transform unit size 'RootTuSize' may be set to a smaller value among the maximum transform unit size and the current partition unit size.
  • the basic transform unit size 'RootTuSize' which is the current maximum transform unit size according to an embodiment that varies according to the prediction mode of the partition unit, is only an embodiment, and a factor for determining the current maximum transform unit size is not limited thereto. It should be noted.
  • FIG. 26 is a flowchart of a video encoding method using a smoothed interpolation filter based on coding units having a tree structure, according to an embodiment of the present invention.
  • the current picture is split into at least one maximum coding unit in order to encode the current picture among the input videos.
  • At least one divided region in which at least one region of the largest coding unit is divided according to depths may be encoded, respectively.
  • transform / quantization is performed on a result of intra prediction, including inter prediction based on interpolation in subpixel units.
  • the divided depth for outputting the final encoding result for each of the at least one divided region may be determined, and the coding units having the tree structure included in the current maximum coding unit may be determined. Similar to the coding unit of the tree structure, transformation units according to the tree structure may be determined. That is, as a coding result of the picture, similarly to the coding unit of the determined tree structure, the coding result of the transformation units having the tree structure may be output as coded data of the picture.
  • Inter prediction may be performed for each prediction unit or partition of a coding unit.
  • the motion of the current prediction unit or party may be predicted with reference to the pixels generated using interpolation in subpixel units.
  • interpolation filters for generating pixel values in subpixel units interpolation filters are selected differently based on the interpolation position and smoothness of the subpixel units.
  • interpolation filter coefficients may be selectively determined.
  • a desired interpolation filter is selected according to the interpolation position, smoothness, number of filter taps, bit depth, scaling ratio, base function of interpolation filtering based on transformation, color component, etc. Interpolation for pixel values in subpixel units may be performed.
  • image data which is a final encoding result of at least one divided region per maximum coding unit, and information about an encoding depth and an encoding mode are output in the form of a bitstream.
  • the information about the encoding mode may include information about the coding depth or split information, partition type information of the prediction unit, prediction mode information, transformation unit hierarchy information, and the like.
  • the encoding information may include information about which interpolation filter is used for predictive encoding in subpixel units.
  • the information about the encoded encoding mode may be transmitted to the decoding end together with the encoded image data.
  • FIG. 27 is a flowchart of a video decoding method using a smoothed interpolation filter based on coding units having a tree structure, according to an embodiment of the present invention.
  • step 2710 a bitstream for the encoded video is received.
  • image data of the current picture allocated to the largest coding unit having the maximum size, and information about the coding depth and the coding mode for each largest coding unit are extracted from the parsed bitstream.
  • Information on which interpolation filter is required for motion compensation of a subpixel unit may be extracted from the encoding information.
  • the maximum coding unit may be split into coding units having a tree structure.
  • a transform unit of a transform depth according to a tree structure in a coding unit may be determined.
  • the image data of each maximum coding unit is based on the coding unit of the tree structure, the prediction unit thereof, and the transformation unit of the tree structure using the information about the coding depth and the encoding mode for each maximum coding unit. Can be decrypted. While decoding is performed on the current coding unit based on the information about the coded depth and the encoding mode, an inverse transform may be performed on the current coding unit by using a transform unit determined among the transform units of the tree structure.
  • coded picture data may be decoded through various decoding operations such as motion compensation and intra prediction based on an encoding mode.
  • motion compensation for the current prediction unit or the current partition may be performed with reference to the interpolated pixels in subpixel units.
  • the interpolation filter may be differently selected based on the interpolation position and the smoothness of the subpixel unit.
  • the interpolation filter coefficients may be selectively determined for efficient image interpolation. Among the interpolation filter coefficients pre-stored in the memory, interpolation position, smoothness, number of filter taps, bit depth, scaling ratio, and basis of interpolation filtering based on transformation According to the type of function, color component, etc., a desired interpolation filter may be selected to perform interpolation for pixel values in subpixel units.
  • a reference picture and a reference region may be determined using reference data, and pixel values of a subpixel unit may be generated through interpolation filtering of reference pixels of two or more pixel units on the reference picture. As the generated subpixel unit pixel values and the residual data are synthesized, motion compensation for the current prediction unit or the current partition may be performed, and prediction decoding may be performed.
  • image data of a spatial region may be reconstructed, and a picture and a video, which is a picture sequence, may be reconstructed.
  • the reconstructed video can be played back by a playback device, stored in a storage medium, or transmitted over a network.
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

본 발명은 보간 필터 계수를 결정하여 영상을 보간하는 방법을 제안한다. 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하고, 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 적어도 하나의 부화소단위의 픽셀값을 생성하는 평활화를 고려한 영상 보간 방법이 개시된다.

Description

평활화 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치
본 발명은, 움직임 보상에 의한 예측 부호화에 관한 것이다.
종래 기술에 따른 영상 부호화, 복호화 방법에서는 영상을 부호화하기 위해 하나의 픽처를 매크로 블록으로 분할한다. 그런 다음, 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)을 이용해 각각의 매크로 블록을 예측 부호화한다.
인터 예측은 픽처들 사이의 시간적인 중복성을 제거하여 영상을 압축하는 방법으로 움직임 추정 부호화가 대표적인 예이다. 움직임 추정 부호화는 적어도 하나의 참조 픽처를 이용해 현재 픽처의 블록들을 각각 예측한다. 소정의 평가 함수를 이용하여 현재 블록과 가장 유사한 참조 블록을 소정의 검색 범위에서 검색한다.
현재 블록을 참조 블록에 기초해 예측하고, 현재 블록에서 예측 결과 생성된 예측 블록을 감산하여 생성된 레지듀얼 블록을 부호화한다. 이 때, 예측을 보다 정확하게 수행하기 위해 참조 픽처의 검색 범위에 대해 보간을 수행하여 화소단위(integer pel unit)보다 작은 픽셀 단위의 부픽셀들을 생성하고, 생성된 부픽셀에 기초해 인터 예측을 수행한다.
본 발명은, 영상 보간을 통해 화소단위 픽셀들을 보간하여 부화소 단위 픽셀을 생성하기 위해, 영상 특성을 고려하여 적합한 보간 필터 계수를 결정한다.
본 발명의 일 실시예에 따른 평활화를 고려한 영상 보간 방법은, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하는 단계; 및 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 단계를 포함한다.
비디오의 부호화 및 복호화 과정에서 움직임 예측/보상시, 참조 프레임을 보간하여 고화질의 영상을 생성하고, 고화질의 영상에 기초해 움직임 추정 및 보상을 수행함으로써 인터 예측의 정확도가 높아진다. 또한, 평활화 보간 필터를 이용하여 보간 결과의 고주파 성분가 저감되어, 보다 평활한 보간 결과를 도출됨으로써, 고주파 성분이 제거되어 영상 부호화 및 영상 복호화 효율도 향상될 수 있다.
도 1 은 일 실시예에 따른 영상 보간 장치의 블록도를 도시한다.
도 2 는 화소단위와 부화소단위의 관계를 도시한다.
도 3 은 부화소단위의 픽셀값을 결정하기 위해 참조되는 인접하는 화소단위 픽셀들을 도시한다.
도 4a, 4b 및 4c 는 일 실시예에 따라 부화소단위의 픽셀값을 결정하기 위해 참조되는 화소단위 픽셀 그룹들을 예시한다.
도 5 는 일 실시예에 따라 평활화 보간 필터의 평활도 파라미터를 도시한다.
도 6 는 일 실시예에 따른 평활화 보간 필터에서 이용가능한 스플라인 함수의 그래프를 예시한다.
도 7 은 일 실시예에 따른 영상 보간 방법의 흐름도를 도시한다.
도 8a, 8b, 및 8c 는 일 실시예에 따라, 평활도 파라미터와 보간 위치에 따라 결정되는 12탭 보간 필터들의 필터 계수들을 도시한다.
도 9a, 9b, 및 9c 는 일 실시예에 따라, 평활도 파라미터와 보간 위치에 따라 결정되는 6탭 보간 필터들의 필터 계수들을 도시한다.
도 10 은 일 실시예에 따라, 크로마 성분의 픽셀들을 위한 평활도 파라미터와 보간 위치에 따라 결정되는 6탭 보간 필터의 필터 계수들을 예시한다.
도 11 은 일 실시예에 따라, 컬러 성분 및 영상 보간 위치에 따라 상이하게 결정되는 평활화 보간 필터들의 필터 계수들을 예시한다.
도 12a, 12b 및 12c 는 일 실시예에 따라 영상 보간 위치 및 스케일링 비율에 따른 평활화 보간 필터들의 필터 계수들을 예시한다.
도 13a 는 일 실시예에 따른 평활화 보간 필터를 이용하는 비디오 부호화 장치의 블록도를 도시한다.
도 13b 는 일 실시예에 따른 평활화 보간 필터를 이용하는 영상 복호화 장치의 블록도를 도시한다.
도 14a 는 일 실시예에 따른 평활화 보간 필터를 이용하는 영상 부호화 방법의 흐름도를 도시한다.
도 14b 는 일 실시예에 따른 평활화 보간 필터를 이용하는 영상 복호화 방법의 흐름도를 도시한다.
도 15 은 본 발명의 일 실시예에 따른 부호화 단위의 개념을 도시한다.
도 16 는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 부호화부의 블록도를 도시한다.
도 17 는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 복호화부의 블록도를 도시한다.
도 18 는 본 발명의 일 실시예에 따른 심도별 부호화 단위 및 파티션을 도시한다.
도 19 은 본 발명의 일 실시예에 따른, 부호화 단위 및 변환 단위의 관계를 도시한다.
도 20 은 본 발명의 일 실시예에 따라, 심도별 부호화 정보들을 도시한다.
도 21 는 본 발명의 일 실시예에 따른 심도별 부호화 단위를 도시한다.
도 22, 23 및 24는 본 발명의 일 실시예에 따른, 부호화 단위, 예측 단위 및 변환 단위의 관계를 도시한다.
도 25 은 표 1의 부호화 모드 정보에 따른 부호화 단위, 예측 단위 및 변환 단위의 관계를 도시한다.
도 26 는 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초하여 평활화 보간 필터를 이용하는 비디오 부호화 방법의 흐름도를 도시한다.
도 27 은 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초하여 평활화 보간 필터를 이용하는 비디오 복호화 방법의 흐름도를 도시한다.
본 발명의 일 실시예에 따른 평활화를 고려한 영상 보간 방법은, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하는 단계; 및 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 단계를 포함한다.
일 실시예에 따른 상기 보간 필터는, 복수 개의 기저함수들에 기초하여 상기 화소단위 픽셀들을 변환하고, 상기 변환 결과 생성된 복수 개의 계수들을 역변환하기 위한 필터 계수들로 구성될 수 있다.
일 실시예에 따른 상기 보간 필터는, 상기 화소단위 픽셀들과 상기 보간 위치 간의 거리에 기초하여 상기 평활도가 결정되는 필터 계수들로 구성될 수 있다. 일 실시예에 따른 상기 보간 필터들은, 상기 화소단위 픽셀들 중에서 상기 보간 위치에 인접하는 픽셀들과 상기 보간 위치 간의 거리에 기초하여, 상기 평활도가 결정되는 필터 계수들로 구성될 수 있다.
일 실시예에 따른 상기 보간 필터는, 상기 화소단위 픽셀들을 공간 도메인에서 보간하기 위하여, 상기 복수 개의 기저함수들을 이용한 변환 및 역변환을 위한 필터 및 윈도우 함수를 합성한 필터 계수들로 구성될 수 있다. 일 실시예에 따른 상기 윈도우 함수는, 상기 보간 위치를 중심으로 대칭적인 형태일 수 있다.
일 실시예에 따른 상기 보간 필터는, 상기 화소단위 픽셀들을 공간 도메인에서 보간하기 위하여, 상기 복수 개의 기저함수들을 이용한 변환 및 역변환을 위한 필터에 평활도 파라미터를 합성한 필터 계수들로 구성되고, 상기 평활도 파라미터는, 상기 평활도의 속도 및 상기 평활도의 범위 중 적어도 하나를 제어할 수 있다.
일 실시예에 따른 상기 보간 필터는, 상기 보간 필터는, 스플라인 함수에 기초한 필터 계수들로 구성될 수 있다. 일 실시예에 따른 상기 보간 필터는, 다항식에 기초하여, 상기 보간 필터의 저주파 응답을 최대화하는 필터 계수들로 구성될 수 있다.
일 실시예에 따른 상기 보간 필터 선택 단계는, 상기 보간 필터들 중에서, 필터 계수들이 정수로 확대된 보간 필터를 선택하는 단계를 포함하고, 상기 부화소단위의 픽셀값 생성 단계는, 상기 선택된 보간 필터를 이용하여 생성한 픽셀값을 상기 스케일링 비율에 기초하여 정규화하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 보간 필터 선택 단계는, 픽셀의 특성에 기초하여, 상기 보간 필터들 중에서 서로 다른 보간 필터를 선택하는 단계를 포함하고, 상기 부화소단위의 픽셀값 생성 단계는, 상기 픽셀의 특성별로 각각 선택된 서로 다른 보간 필터를 이용하여, 상기 부화소단위의 픽셀값을 생성하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 평활화를 고려한 영상 보간 장치는, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하는 필터 선택부; 및 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 보간부를 포함한다.
본 발명의 일 실시예에 따른 컬러 성분을 고려한 영상 보간 방법은, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 현재 픽셀의 컬러 성분에 기초하여 상이하게 보간 필터를 선택하는 단계; 및 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 단계를 포함한다.
일 실시예에 따른 컬러 성분을 고려한 영상 보간 방법의 상기 보간 필터 선택 단계는, 크로마 성분의 픽셀 보간을 위해, 상기 보간 필터들 중에서 루마 성분의 픽셀을 위한 보간 필터보다 평활도가 큰 보간 필터를 선택하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 평활도가 큰 보간 필터는, 상기 화소단위 픽셀들을 평활화하고, 복수 개의 기저함수들을 이용하여 상기 평활화된 화소단위 픽셀들을 변환하고, 상기 변환 결과 생성된 복수 개의 계수들을 역변환하기 위한 필터 계수로 구성된 필터; 상기 복수 개의 기저함수들을 이용한 변환 및 역변환을 위한 필터 계수 및 저역 통과 필터링을 위한 윈도우 함수 계수를 합성한 필터; 스플라인 함수의 경계 조건에 기초하여 상기 화소단위 픽셀들의 경계 픽셀들에서 최대로 평활화하기 위한 필터 계수들로 구성된 필터; 및 보간 필터의 저주파 응답을 최대화하는 다항식에 기초한 필터 계수들 구성된 필터 중 하나일 수 있다.
본 발명의 일 실시예에 따른 컬러 성분을 고려한 영상 보간 장치는, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 현재 픽셀의 컬러 성분에 기초하여 상이하게 보간 필터를 선택하는 필터 선택부; 및 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 보간부를 포함한다.
본 발명의 일 실시예에 따른 영상 보간 필터를 이용한 비디오 부호화 장치는, 입력 픽처의 블록별로, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하고, 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하여 예측 부호화를 수행하고, 상기 예측 부호화에 따른 예측 결과에 대해 변환 및 양자화를 수행하는 부호화부; 상기 양자화된 변환 계수 및 부호화 정보에 대해 엔트로피 부호화를 수행하고 생성된 비트스트림을 출력하는 출력부; 및 상기 보간 필터들의 필터 계수들이 저장된 저장부를 포함한다.
본 발명의 일 실시예에 따른 영상 보간 필터를 이용한 비디오 복호화 장치는, 비디오의 부호화된 비트스트림을 수신하여, 엔트로피 복호화를 수행하고, 파싱하여, 부호화 정보와 상기 비디오의 픽처의 부호화된 데이터를 추출하는 수신추출부; 상기 픽처 중 현재 블록의 부호화된 데이터 중에서 양자화된 변환 계수에 대해 역양자화 및 역변환을 수행하고, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하고, 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하여 예측 복호화를 수행하여, 상기 픽처를 복원하는 복호화부; 및 상기 보간 필터들의 필터 계수들이 저장된 저장부를 포함한다.
본 발명은, 일 실시예에 따른 영상 보간 방법을 전산적으로 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체를 포함한다.
이하 본 명세서에 기재된 본 발명의 다양한 실시예들에서, '영상'은 정지 영상 뿐만 아니라 비디오와 같은 동영상을 포함하여 포괄적으로 지칭할 수 있다.
이하 도 1 내지 도 12c를 참조하여, 일 실시예에 따른 평활화를 고려한 영상 보간이 개시된다. 또한 도 13a 내지 도 27을 참조하여, 일 실시예에 따른 평활화 보간 필터를 이용하는 비디오의 부호화 및 복호화가 개시되고, 특히 이하 도 15 내지 도 27을 참조하여 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초하여 평활화 보간 필터를 이용하는 비디오의 부호화 및 복호화가 개시된다.
이하 도 1 내지 도 12c을 참조하여, 일 실시예에 따른 평활화를 고려한 영상 보간 및 평활화 보간 필터가 상술된다.
도 1 은 일 실시예에 따른 영상 보간 장치의 블록도를 도시한다.
일 실시예에 따른 평활화를 고려한 영상 보간 장치(10)는, 필터 선택부(12) 및 보간부(14)를 포함한다. 이하 설명의 편의를 위해, 일 실시예에 따른 평활화를 고려한 영상 보간 장치(10)를 '비디오 부호화 장치(10)'로 축약하여 지칭한다. 비디오 부호화 장치(10)의 부호화부(120) 및 출력부(130)의 동작은, 비디오 인코딩 프로세서, 중앙 프로세서, 그래픽 프로세서 등에 의해 유기적으로 제어될 수 있다.
일 실시예에 따른 영상 보간 장치(10)는, 영상을 입력받아 화소단위(integer pel unit)의 픽셀들을 보간하여 부화소단위(sub-pel unit)의 픽셀값들을 생성할 수 있다. 입력되는 영상은, 비디오의 픽처 시퀀스, 픽처, 프레임, 블록들일 수 있다.
일 실시예에 따른 필터 선택부(12)는, 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여, 상이하게 보간 필터를 선택할 수 있다.
일 실시예에 따른 보간부(14)는, 필터 선택부(12)에서 선택된 보간 필터를 이용하여, 부화소 단위의 보간 위치에 인접한 화소단위 픽셀들을 보간하여, 부화소 단위의 픽셀값을 생성할 수 있다. 부화소단위 픽셀값을 생성하기 위한 화소단위 픽셀들에 대한 보간 필터링은, 부화소 단위의 보간 위치에 인접한 화소단위 픽셀들을 포함하여 화소단위의 참조픽셀 값들에 대해 보간 필터링을 수행하는 동작을 포함할 수 있다.
일 실시예에 따른 보간 필터는, 복수 개의 기저함수들에 기초하여 화소단위 참조픽셀들을 변환하고, 변환 결과 생성된 복수 개의 계수들을 역변환하기 위한 필터 계수들로 구성될 수 있다.
일 실시예에 따른 보간 필터는, 1차원 필터 또는 2차원 필터의 형태일 수 있다. 일 실시예에 따른 보간부(14)는, 선택된 보간 필터가 1차원 필터인 경우, 2방향 이상의 1차원 보간 필터들을 이용하여 연속적으로 필터링을 수행하여, 현재 부화소단위의 픽셀값을 생성할 수 있다.
일 실시예에 따른 평활화 보간 필터는, 보간 위치와 화소단위 픽셀들 간의 거리에 기초하여, 평활도가 결정될 수 있다.
일 실시예에 따른 보간 필터는, 부화소단위의 보간 위치와 평활도에 따라 상이한 필터 계수들로 구성될 수 있다. 이하, 일 실시예에 따라 부화소단위의 보간 위치와 평활도를 고려하여 결정되는 보간 필터를, 평활화 보간 필터라 지칭한다.
일 실시예에 따른 평활화 보간 필터는, 화소단위 픽셀들 중에서 보간 위치에 인접하는 픽셀들과 보간 위치 간의 거리에 기초하여, 평활도가 결정될 수도 있다.
또한, 일 실시예에 따른 보간 필터는, 화소단위의 참조픽셀들 가운데 보간 위치와 먼 참조픽셀들일 수록 더 평활해지도록 하기 위한 필터 계수들로 구성될 수 있다.
일 실시예에 따른 평활화 보간 필터는, 화소단위 픽셀들을 공간 도메인(spatial domain)에서 보간하기 위하여, 복수 개의 기저함수들을 이용한 변환 및 역변환을 위한 필터 계수 및 저역 통과 필터링을 위한 윈도우 함수 계수를 합성한 필터 계수들로 구성될 수 있다.
일 실시예에 따른 윈도우 함수는, 보간 위치를 중심으로 대칭적인 형태일 수 있다. 일 실시예에 따라 변환 및 역변환을 위한 필터 계수 및 저역 통과 필터링을 위한 윈도우 함수 계수가 합성된 평활화 보간 필터는, 화소단위의 참조픽셀들 중에서 보간 위치에 가까운 참조픽셀일수록 큰 가중치를 부여하고, 먼 참조픽셀일수록 작은 가중치를 부여하기 위한 필터 계수들로 구성될 수 있다.
일 실시예에 따른 평활화 보간 필터는, 화소단위의 참조픽셀들을 평활화하고, 복수 개의 기저함수들을 이용하여 평활화된 화소단위의 참조픽셀들을 변환하고, 변환 결과 생성된 복수 개의 계수들을 역변환하기 위한 필터 계수들로 구성될 수 있다.
일 실시예에 따른 평활화 보간 필터는, 공간 도메인의 보간 필터로서, 변환 및 역변환을 위한 보간 필터에 평활도 파라미터를 합성한 필터 계수들로 구성될 수도 있다. 평활도 파라미터는, 평활도의 속도 및 평활도의 범위 중 적어도 하나를 제어할 수 있다.
일 실시예에 따른 평활화 보간 필터는, 스플라인 함수에 기초한 필터 계수들로 구성될 수 있다. 즉 보간 필터 계수를 결정하기 위한 변환 및 역변환의 기저함수가 스플라인 함수일 수 있다. 일 실시예에 따른 보간 필터는 보다 평활한 보간 결과를 위하여, 스플라인 함수를 이용하여 결정된 필터 계수들로 구성될 수 있다.
일 실시예에 따라 스플라인 함수에 기초한 평활화 보간 필터는, 스플라인 함수의 경계 조건에 기초하여, 화소단위의 참조픽셀들 중에서 경계 픽셀들에서 최대로 평활화하기 위한 필터 계수들로 구성될 수 있다.
또 다른 실시예에 따라 변환 및 역변환의 기저함수가 다항식인 경우, 평활화 보간 필터는, 다항식에 기초하여 보간 필터의 저주파 응답을 최대화하는 필터 계수들로 구성될 수 있다.
일 실시예에 따른 평활화 보간 필터는, 부화소단위의 보간 위치와 평활도 뿐만 아니라, 필터 길이에 따라 상이한 필터 계수들로 구성될 수 있다.
또한 일 실시예에 따른 평활화 보간 필터들은, 부화소단위의 보간 위치, 평활도와 필터 길이 뿐만 아니라, 보간 결과의 스케일링 비율에 따라 상이한 필터 계수들로 구성될 수 있다. 일 실시예에 따른 필터 선택부(12)는, 평활화 보간 필터들 중에서, 필터 계수들이 정수로 확대된 보간 필터를 선택할 수 있다. 일 실시예에 따른 보간부(14)는, 필터 선택부(12)에서 선택된 평활화 보간 필터를 이용하여 생성한 픽셀값을, 정규화한다.
또한 일 실시예에 필터 선택부(12)는, 픽셀의 특성에 따라서, 보간 필터들 중에서 서로 다른 보간 필터를 선택할 수 있다. 일 실시예에 따른 보간부(14)는, 픽셀의 특성별로 각각 선택된 서로 다른 보간 필터를 이용하여, 부화소단위의 픽셀값을 생성할 수 있다.
일 실시예에 따른 필터 선택부(12)에서 선택 가능한 보간 필터들은, 일 실시예에 따른 평활화 보간 필터 뿐만 아니라, 평활화를 고려하지 않은 일반 보간 필터도 포함할 수도 있다. 따라서, 필터 선택부(12)는 영상 특성에 따라 평활화를 전혀 고려하지 않는 일반 보간 필터를 선택할 수도 있다.
구체적으로 예를 들면, 다른 실시예에 따른 영상 보간 장치(10)는, 컬러 성분별로 상이한 보간 필터를 이용하여 영상 보간을 수행할 수 있다.
다른 실시예에 따른 필터 선택부(12)는, 보간 필터들 중에서, 부화소단위의 보간 위치 및 현재 픽셀의 컬러 성분에 기초하여 상이하게 보간 필터를 선택할 수 있다. 다른 실시예에 따른 보간부(14)는, 선택된 보간 필터를 이용하여 화소단위 픽셀들을 보간하여, 적어도 하나의 부화소단위의 픽셀값을 생성할 수 있다.
예를 들어 필터 선택부(12)는, 루마 성분의 보간 필터와 크로마 성분의 보간 필터를 다르게 결정할 수 있다.
따른 필터 선택부(12)는, 크로마 성분의 픽셀 보간을 위해, 보간 필터들 중에서 루마 성분의 픽셀을 위한 보간 필터보다 평활도가 큰 평활화 보간 필터를 선택할 수 있다.
예를 들어, 크로마 성분의 픽셀 보간을 위해, 스플라인 함수에 기초하여 결정된 필터 계수들로 구성된 보간 필터, 다항식에 기초하여 결정된 필터 계수들로 구성된 보간 필터 등이 선택될 수 있다. 스플라인 함수에 기초하여 결정된 필터 계수들은, 스플라인 함수의 경계 조건에 기초하여 화소단위 픽셀들의 경계 픽셀들에서 최대로 평활화할 수 있다. 일 실시예에 따라 다항식에 따라 결정된 보간 필터는, 저주파 응답을 최대화하기 위한 필터 계수들로 구성될 수 있다. .
또한, 크로마 성분의 픽셀 보간을 위해, 루마 성분의 픽셀을 위한 보간 필터보다 평활도가 큰 평활도 파라미터에 기초하여 결정된 필터 계수들로 구성된 보간 필터, 루마 성분의 픽셀을 위한 보간 필터보다 고주파 성분을 많이 제거하는 윈도우 함수와 합성된 필터 계수들로 구성된 보간 필터 등이 선택될 수 있다.
일 실시예에 따라 크로마 성분의 평활한 보간 결과를 도출하기 위해, 복수 개의 기저함수들에 기초한 변환 및 역변환을 위한 필터 계수 및 저역 통과 필터링을 위한 윈도우 함수 계수가 합성된 평활화 보간 필터가 선택될 수도 있다.
영상의 보간은 저화질의 영상을 고화질로 변환할 때 이용된다. 인터레이스(interace) 영상을 프로그래시브(progressive) 영상으로 변환할 때 이용되기도 하고, 저화질의 영상을 업샘플링(upsampling)하여 고화질의 영상으로 변환할 때 이용되기도 한다. 또한, 비디오 부호화 장치가 영상을 부호화할 때 움직임 추정 및 움직임 보상부는 보간된 참조 프레임을 이용하여 인터 예측을 수행할 수 있다. 참조 프레임을 보간하여 고화질의 영상을 생성하고, 고화질의 영상에 기초해 움직임 추정 및 보상을 수행함으로써 인터 예측의 정확도를 높일 수 있다. 마찬가지로 영상 복호화 장치가 영상을 복호화할 때에도 움직임 보상부는 보간된 참조 프레임을 이용하여 움직임 보상을 수행함으로써 인터 예측의 정확도를 높일 수 있다.
또한 일 실시예에 따른 영상 보간 장치(10)가 이용하는 평활화 보간 필터는, 보간 필터를 이용한 보간 결과의 고주파 성분을 저감시켜, 보다 평활한 보간 결과를 도출할 수 있다. 고주파 성분의 존재는 영상 압축 효율을 저해하므로, 평활도가 조절 가능한 영상 보간을 통해 영상 부호화 및 영상 복호화 효율도 향상될 수 있다.
도 2 는 화소단위와 부화소단위의 관계를 도시한다.
도 2를 참조하면, 영상 보간 장치(10)는 공간 도메인의 화소단위의 픽셀 값들 즉, 소정 블록(20)의 'O' 위치의 픽셀 값들 사이를 보간하여 보간 위치인 'X' 위치의 픽셀 값들을 생성한다. 'X' 위치의 픽셀 값들은 αx 및 αy에 의해 보간 위치가 결정되는 부화소단위의 픽셀 값들이다. 도 10은 소정의 블록(20)이 4x4인 경우를 예로 들어 설명하나, 블록의 크기는 4x4에 한정되지 않으며, 더 크거나 작은 크기의 블록에 대한 보간 필터링을 통해 부화소단위의 픽셀 값들을 생성할 수 있음은 당업자가 쉽게 알 수 있다.
비디오 처리 분야에서, 현재 영상의 움직임 보상 및 예측을 위해 움직임 벡터가 이용된다. 예측 부호화에 따르면, 현재 영상을 예측하기 위하여 이전에 복호화된 영상이 참조되며, 움직임 벡터는 참조 영상의 소정 지점을 가리킨다. 그러므로, 움직임 벡터는 참조 영상의 화소단위의 픽셀을 가리킨다.
하지만, 현재 영상이 참조하고자 하는 픽셀의 위치가 참조 영상의 화소단위의 픽셀들 사이에 위치하는 지점일 수 있다. 이러한 지점을 부화소 단위의 위치라 한다. 부화소 단위의 위치에는 픽셀이 존재하지 않으므로, 화소단위 픽셀들의 픽셀 값들을 이용하여 부화소 단위의 픽셀 값이 예측될 뿐이다. 즉, 화소단위 픽셀들에 대한 보간을 통해 부화소 단위의 픽셀 값이 추정된다.
이하 도 3, 4a, 4b 및 4c를 참조하여 화소단위 픽셀들에 대한 보간 방법이 상술된다.
도 3 은 부화소단위의 픽셀값을 결정하기 위해 참조되는 인접하는 화소단위 픽셀들을 도시한다.
도 3를 참조하면, 영상 보간 장치(10)는 공간 도메인의 화소단위의 픽셀 값들(31 및 33) 사이의 보간하여 보간 위치의 픽셀 값(35)을 생성한다. α에 의해 보간 위치가 결정되는 부화소단위의 픽셀 값(35)이다.
도 4a, 4b 및 4c 는 일 실시예에 따라 부화소단위의 픽셀값을 결정하기 위해 참조되는 화소단위 픽셀들을 예시한다.
도 4a 를 참조하면, 화소단위 픽셀의 두 픽셀 값들(31 및 33) 사이를 보간하여 부화소단위의 픽셀 값(35)을 생성하기 위해, 픽셀 값들(31 및 33)을 포함하는 인접한 복수의 화소단위 픽셀들의 픽셀값들(37 및 39)을 이용한다. 다시 말해, -(M-1) 번째부터 M 번째까지의 2M 개의 픽셀 값들을 1차원 보간 필터링함으로써 0 번째 픽셀와 1번째 픽셀 사이를 보간할 수 있다.
또한, 도 4a은 수평 방향의 픽셀 값들 사이를 보간하는 경우를 예로 들어 설명하였으나, 수직 방향의 픽셀 값들 사이 또는 대각(diagonal) 방향의 픽셀 값들을 이용하여 1차원 보간 필터링이 가능하다.
도 4b를 참조하면, 수직 방향으로 인접한 P0(41) 및 P1(43) 사이를 보간하여 수직 방향의 보간 위치 α의 픽셀 값 P(α)를 생성할 수 있다. 도 4a과 비교하여 보면, 수평 방향으로 배열된 픽셀 값들(37 및 39) 대신에 수직 방향으로 배열된 픽셀 값들(47 및 49)을 이용하여 보간을 수행한다는 점만 상이할 뿐, 보간 필터링 방법은 유사할 것이다.
도 4c의 실시예도 도 4b의 실시예와 마찬가지로 수평 방향으로 배열된 픽셀 값들(37 및 39) 대신에 대각 방향으로 배열된 픽셀 값들(46 및 48)을 이용한다는 점만 상이할 뿐, 인접한 두 픽셀 값(40 및 42) 사이를 보간하여 보간 위치 α의 픽셀 값(44)을 생성하는 방법은 수평 방향의 1차원 보간 필터링 방법과 유사하다.
도 4a, 4b 및 4c에서 예시된 방향의 1차원 보간 필터링 뿐만 아니라, 보다 다양한 방향의 보간 위치의 픽셀 값이 생성될 수도 있다.
부화소 단위의 픽셀 값을 생성하기 위한 화소단위 픽셀들에 대한 보간은, 보간 필터링을 통해 구현될 수 있다. 보간 필터링을 수학식으로 표현하면 아래와 같다.
Figure PCTKR2011007220-appb-I000001
2M개의 화소단위 참조픽셀들 {pm} = {p-M+1, p-M+2, ..., p0, p1, ..., pM}의 벡터 p 과 필터 계수들 {fm} = {f-M+1, f-M+2, ..., f0, f1, ..., fM}의 벡터 f(x)의 내적(dot product)에 따라 보간 결과 생성된 픽셀값 p(x)가 도출된다. 보간 위치 α에 따라 필터 계수 f(α)가 변하고, 이에 따라 보간 결과 픽셀값 p(α)가 결정되므로, 어떠한 보간 필터가 선택되는지, 즉 필터 계수 f(x)가 어떻게 결정되는지 여부가 보간 필터링의 성능에 상당한 영향을 미친다.
이하, 기저함수에 기초한 변환 및 역변환을 이용한 영상 보간 및 보간 필터의 결정 방법에 대해 상술된다.
일 실시예에 따라 변환 및 역변환을 이용한 보간 필터는, 먼저 서로 다른 주파수 성분의 복수의 기저함수를 이용해 픽셀 값들을 변환한다. 변환은 공간 도메인의 픽셀 값들을 변환 도메인의 계수로 변환하는 모든 변환일 수 있으며, 전술한 이산 코사인 변환일 수 있다. 화소단위의 픽셀 값들은 복수의 기저함수를 이용해 변환된다. 픽셀 값은 휘도(luminance) 성분에 대한 픽셀 값일 수도 있고, 채도(chroma) 성분에 대한 픽셀 값일 수도 있다. 기저함수에는 제한이 없으며, 공간 도메인의 픽셀 값들을 변환 도메인의 값(들)로 변환하는 모든 변환일 수 있다. 예를 들어, 기저함수는 이산 코사인 변환 및 역이산 코사인 변환을 위한 코사인(cosine) 함수 또는 사인(sine) 함수일 수 있다. 또는 스플라인(spline) 함수, 다항 기저(polynomial basis) 등 다양한 기저함수가 이용될 수 있다. 또한, 이산 코사인 변환은 변형 이산 코사인 변환(Modified DCT), 윈도우를 이용한 변형 이산 코사인 변환(Modified DCT with windowing)일 수 있다.
일 실시예에 따라 변환 및 역변환을 이용한 보간 필터는, 변환에 이용된 복수의 기저함수의 위상을 변경(shift)하고, 위상 변경된 복수의 기저함수를 이용해 생성된 복수의 계수 즉, 변환 도메인(transform domain)의 값들을 역변환한다. 역변환 결과, 공간 도메인의 픽셀값이 출력되며, 출력된 값은 보간 위치의 픽셀값일 수 있다.
<직교기저함수에 기초한 직교변환 및 역변환을 이용한 필터 계수>
이하, 보간부(14)가 직교기저함수에 기초한 변환 및 역변환을 이용하는 보간 필터링이 상술된다. 특히, 직교기저함수의 일례로서 이산 코사인 변환을 예로 들어 설명한다.
예를 들어 도 4a을 참조하면, 화소단위 픽셀의 두 픽셀 값들(31 및 33) 사이를 보간하여 부화소단위의 픽셀 값(35)을 생성하기 위해, 픽셀 값들(31 및 33)을 포함하는 인접한 복수의 픽셀 값들(37 및 39)을 이용하여, -(M-1) 번째부터 M 번째까지의 2M 개의 픽셀 값들을 1차원 이산 코사인 변환하고, 위상 변경된 기저함수에 기초해 1차원 역이산 코사인 변환함으로써 0 번째와 1번째 픽셀 사이를 보간할 수 있다.
보간부(14)는 먼저 화소단위의 픽셀 값들을 1차원 이산 코사인 변환한다. 1차원 이산 코사인 변환은 다음의 수학식 1을 계산함으로써 수행될 수 있다.
[수학식 1]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-109
p(l)은 -(M-1)번째부터 M번째까지의 픽셀 값들(37 및 39)이고, Ck는 픽셀 값들을 1차원 이산 코사인 변환한 결과 생성된 복수의 주파수 도메인의 계수들이다. 이 때, k는 수학식 1의 조건을 만족하는 양의 정수이다.
보간부(14)가 수학식 2을 계산하여 픽셀 값들(37 및 39)을 1차원 이산 코사인 변환하면, 다음의 수학식 2을 계산하여 계수들을 역변환한다.
[수학식 2]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-113
α는 도 13에 도시된 바와 같이 두 픽셀 값들 사이의 보간 위치를 의미하는 바, 1/2, 1/4, 3/4, 1/8, 3/8, 5/8, 7/8, 1/16, ... 과 같이 다양한 분수 값일 수 있다. 분수 값에는 제한이 없으며, α는 분수가 아닌 실수 값일 수도 있다. P(α)는 1차원 역이산 코사인 변환 결과 생성되는 보간 위치의 픽셀 값(35)을 의미한다.
수학식 1과 비교하여 보면, 역이산 코사인 변환에 이용되는 기저함수인 코사인 함수의 위상은 정수 l에 따라 결정되는 대신에 분수 α에 따라 결정되므로 1차원 이산 코사인 변환에 이용되는 기저함수의 위상과 상이하다. 즉, 역변환에서 이용하는 기저함수들 즉, 코사인 함수들의 위상이 각각 2α에 따라 변경된 것을 알 수 있다. 보간부(14)가 수학식 2의 위상 변경된 복수의 코사인 함수들에 기초해 역이산 코사인 변환을 수행하면, 도 4a의 보간 위치 즉, P0의 픽셀 값(35)이 생성된다.
수학식 1에 의한 이산 코사인 변환을 행렬식으로 표현하면 아래 수학식 3과 같다.
[수학식 3]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-118
여기서, C는 수학식 1과 관련하여 전술한 2M개의 계수들에 대한 2Mx1 행렬이고, REF는 수학식 1과 관련하여 전술한 화소단위의 픽셀 값들 즉, P-(M-1), ... PM 픽셀 값들에 대한 2Mx1 행렬이다. 보간에 이용되는 화소단위 픽셀 위치의 픽셀 값들의 개수 즉, 2M은 1차원 보간 필터의 탭(tap) 수를 의미한다. D는 1차원 이산 코사인 변환을 위한 정방 행렬로서 다음 수학식 4와 같이 정의될 수 있다.
[수학식 4]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-121
k 및 l은 상기 조건을 만족하는 정수로서, Dkl은 수학식 3의 이산 코인 변환을 위한 정방 행렬 D의 k행, l열을 의미한다. M은 수학식 3의 M과 동일한 M이다.
수학식 2에 의한 위상 변경된 복수의 기저함수를 이용한 역이산 코사인 변환을 행렬식으로 표현하면 다음 수학식 5와 같다.
[수학식 5]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-125
여기서, P(α)는 수학식 2의 P(α)와 동일하며, W(α)는 위상 변경된 복수의 기저함수를 이용한 1차원 역이산 코사인 변환을 위한 1x2M 행렬로서 다음 수학식 6과 같이 정의될 수 있다.
[수학식 6]
[규칙 제26조에 의한 보정 02.12.2011] 
d
Figure WO-DOC-MATHS-128
k는 상기 조건을 만족하는 정수이고, Wk(α)는 수학식 5와 관련하여 전술한 W(α) 행렬의 k열을 의미한다. 수학식 3 및 5에 기초해 1차원 이산 코사인 변환 및 위상 변경된 복수의 기저함수를 이용한 1차원 역이산 코사인 변환을 위한 필터 F(α)는 다음 수학식 7과 같이 정의할 수 있다.
[수학식 7]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-131
k 및 l은 상기 조건을 만족하는 정수이고, Fl(α)는 F(α)의 l열을 의미하고, W(α) 및 D는 수학식 3의 W(α) 및 D와 동일하다.
일 실시예에 따른 보간부(14)는, 보다 평활화된 부화소단위의 픽셀값들을 생성하기 위하여, 기저함수에 기초한 변환 및 역변환에 이용한 보간 필터를 변형할 수 있다.
이하, 실시예에 따른 다양한 평활화 보간 필터를 결정하기 위해, 윈도우 함수가 이용되는 경우, 복수 개의 평활화 파라미터가 이용되는 경우, 스플라인 함수가 기저함수로 이용되는 경우, 다항식이 기저함수로 이용되는 경우가 순서대로 상술된다.
<윈도우 함수를 이용한 평활화 보간 필터>
일 실시예에 따라 윈도우 함수를 이용하여 보간 필터 계수를 평활화하는 방식이 상술된다.
일 실시예에 따라 사용 가능한 윈도우 함수는, 해밍(Hamming) 윈도우, 코사인 윈도우, 익스포넨셜(exponential) 윈도우, 해닝(Hanning) 윈도우, 블랙먼(Blackman) 윈도우, 삼각(triangle) 윈도우 함수들을 포함할 수 있다. 이하 설명의 편의를 위해 특정 윈도우 함수를 이용하여 일 실시예에 따른 변환 및 역변환에 기초한 보간 필터를 평활화하는 실시예가 상술되지만, 설명된 윈도우 함수들 이외에 유사한 주파수 응답을 갖는 타 윈도우 함수들도 활용 가능함은 당업자에게 쉽게 이해될 것이다.
해밍 윈도우 함수에 따른 윈도우 계수는 수학식 8에 따른다.
[수학식 8]
Figure PCTKR2011007220-appb-I000009
해밍 윈도우 함수를 포함하여 다양한 윈도우 함수들은, 입력 n이 N/2을 기준으로 대칭이며, 주파수 응답이 저역통과 필터와 유사하다. 윈도우 함수에 대한 입력 중에서, 윈도우 함수가 형성하는 윈도우에 커버되는 입력만이 출력될 수 있다. 윈도우 크기 N은 원본 보간 필터의 필터 길이보다 큰 양의 정수로 설정될 수 있다. 예를 들어, 1/2 픽셀 또는 1/4 픽셀과 같이 부화소단위를 생성하기 위한 보간 필터에 윈도우 함수를 적용하기 위해, 윈도우 함수의 중앙 위치가 1/2 또는 1/4 의 부화소단위만큼 이동될 수 있다. 즉 윈도우 함수의 중앙 위치가 보간 위치로 이동되어, 보간 위치를 중심으로 대칭 형태일 수 있다.
예를 들어, 수학식 9와 10은 각각 1/2 픽셀 단위와 1/4 픽셀 단위의 보간 필터를 위한, 해밍 윈도우 함수에 따른 윈도우 계수를 예시한다.
[수학식 9]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-144
[수학식 10]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-145
수학식 11의 윈도우 계시들은, 부화소단위의 보간 위치 α에 따라 일반화된, 보간 필터를 위한 윈도우 함수들로서, 차례대로 해밍 윈도우 함수, 코사인 윈도우 함수, 익스포넨셜 윈도우 함수에 따른 윈도우 계수들을 예시한다.
[수학식 11]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-149
수학식 11에 따른 윈도우 계수를 원본 보간 필터 fk(α)에 합성함으로써, 평활화 보간 필터 계수는 수학식 12에 따라 결정될 수 있다.
[수학식 12]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-152
일 실시예에 따라, 윈도우 함수를 이용하여 평활화 보간 필터를 결정함으로써, 화소단위 참조픽셀과 보간 위치 간의 거리에 기초하여 보간 필터 계수에 대한 가중치가 조절될 수 있다. 예를 들어, 윈도우 함수에 의해, 보간 필터의 필터 계수들 중에서 보간 위치로부터 먼 거리에 위치한 화소단위 참조픽셀을 위한 필터 계수는 크게 평활화되고, 보간 위치에 가까운 참조픽셀을 위한 필터 계수는 크게 변경하지 않는 형태로, 평활화 보간 필터가 결정될 수 있다.
또한, 윈도우 함수를 이용하여 평활화 보간 필터를 결정함으로써, 화소단위 참조픽셀을 평활화한 후 보간 필터링이 수행되는 효과가 있다. 입력된 화소단위 참조픽셀들(Ref = {p-M+1, p-M+2, ..., p0, p1, ..., pM})은, 잡음을 포함하고 있거나, 양자화 에러와 같은 오류로 인해 훼손되어 있을 수 있다. 이에 따라, 일 실시예에 따른 영상 보간 장치(10)는, 화소단위 참조픽셀들을 이용한 보간 전에, 먼저 화소단위 참조픽셀들을 평활화한 후 보간 필터링을 수행함으로써 보간 효과를 향상시킬 수 있다.
<2개 파라미터를 이용한 평활화 보간 필터>
다른 실시예에 따른 평활화 보간 필터는, 2개의 파라미터에 기초하여 필터 계수의 평활도를 결정할 수 있다. 변환 및 역변환에 기초한 보간 필터 계수와 평활화 매트릭스 S 를 합성한, 부화소 단위를 위한 평활화 보간 필터 계수는 수학식 13에 따른다.
[수학식 13]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-158
수학식 14는, 평활화 매트릭스 S의 일례이다.
[수학식 14]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-161
수학식 14에 따른 평활화 매트릭스 S 는 3-대각 매트릭스 형태이다. 즉, 평활화 매트릭스 S 의 성분들 중에서, 한 개의 중심 대각선과 중심 대각선에 인접하며 상응하는 두 개의 대각선들 상의 성분들을 제외한 나머지 성분들은 모두 0이다.
평활화 매트릭스 S에서, 평활도 σi는 보간되는 화소단위 픽셀로부터의 거리 (i-α)와 무관하게 결정될 수도 있다. 이 경우 평활화 매트릭스 S에 따른 평활화는 균등 평활화라 지칭할 수 있다.
또한 일 실시예에 따른 평활화 매트릭스 S에서, 평활도 σi는 화소단위 픽셀 위치의 인덱스 i에 따라 변경될 수도 있다. 이 경우 평활화 매트릭스 S에 따른 평활화는 비균등 평활화라 지칭할 수 있다. 예를 들어, 평활도 σi는 수학식 15에 따른다
[수학식 15]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-166
양의 지수 l은 보간되는 보간 위치와 화소단위 참조픽셀 간의 거리가 멀수록 평활화 효과를 증가시킬 수 있다. 따라서, 양의 지수 l은 평활화의 속도, 즉 보간 위치와 화소단위 참조픽셀 간의 거리에 따라 평활화 효과가 증가하는 속도를 제어할 수 있다. 평활화 파라미터 β는 평활화의 범위, 즉 보간 위치 근처에서의 평활화를 제어할 수 있다.
만약 0보다 작은 β가 사용된다면, 수학식 13에 따른 평활화 매트릭스 S 는 샤프닝 필터(sharpening filter)로 변경될 수도 있다. 따라서, 0보다 작은 평활화 매트릭스 S 가 변환 및 역변환을 이용한 보간 필터와 합성된다면, 고주파 성분을 증폭시키는 필터가 생성될 수 있음은 또 다른 실시예로 구현될 수 있을 것이다.
일 실시예에 따른 영상 보간 장치(10)는, 부화소 단위의 예측을 위해, 평활화 보간 필터 계수 데이터를 미리 메모리 등에 적재해놓고 사용할 수 있다.
도 5 는 일 실시예에 따라 평활화 보간 필터의 평활도 파라미터에 따른 평활화 팩터의 그래프(50)를 도시한다.
제 1 곡선(52) 및 제 2 곡선(54)은 일 실시예에 따른 이산 변환에 기초한 보간 필터를 평활하기 위한 평활화 팩터의 그래프를 나타낸다. m이 클수록, 즉 보간되는 화소단위 픽셀들로부터 멀어질수록 평활화 팩터는 0에 가까워진다.
여기서 평활화 파라미터 β가 작은 제 1 곡선(52)은, 평활화 파라미터 β가 큰 제 2 곡선(54)에 비해, 상대적으로 평활화 팩터의 너비가 넓다. 즉, 평활화 파라미터 β가 큰 평활화 보간 필터에 의하면, 저주파 성분만이 주로 필터링되어 상대적으로 강하게 평활화된 부화소단위의 픽셀값이 생성될 수 있다. 평활화 보간 필터의 평활화 파라미터 β가 상대적으로 작으면, 상대적으로 고주파 성분이 보존된 채 보간되어 부화소단위의 픽셀값이 생성될 수 있다.
일 실시예에 따른 영상 보간 장치(10)는, 평활화 보간 필터의 필터 계수를 결정하기 위해, 기저함수로서, 직교 기저함수 이외에도 스플라인 함수 및 다항식을 이용할 수 있다.
<스플라인 함수에 기초한 평활화 보간 필터>
일 실시예에 따른 영상 보간 장치(10)는, 스플라인 함수에 기초하여 평활화 보간 필터의 필터 계수를 결정할 수 있다.
또한, 영상 보간 장치(10)는, 보간 결과를 평활화하기 위해, 경계 조건이 부가된 스플라인 함수를 이용할 수 있다. 구체적으로 예를 들면, 2개 이상의 M개의 화소단위 픽셀 pm 을 이용하는 보간 필터를 구성하기 위해, 변수 ρ를 갖는 다항 스플라인 보간을 이용하는 경우, 변수 ρ가 3≤ρ≤M+1의 범위에서 최대 평활도를 나타내고, (-M+2)번째 픽셀과 (M-1)번째 픽셀에서는 스플라인값, 즉 보간 결과값이 무한대로 평활해지도록, (ρ-1)개의 추가 조건이 설정될 수 있다. 이러한 추가 조건은, 낫-어-낫(not-a-knot) 경계 조건 또는 드부어(de Boor) 경계조건이라 불린다.
스플라인 함수에 기초한 보간 필터 계수를 이용한 보간 결과는 수학식 16과 같은 가중합으로 표현될 수 있다.
[수학식 16]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-179
입력 픽셀 pm은 화소단위 참조픽셀들이며, m의 범위가 [-M+1, M](즉, -M+1≤m≤M)인 입력 픽셀들의 집합 {pm}가 입력된다. 스플라인 함수 S(x)가 보간 결과 생성된 픽셀값이다. fm(x)는 카디널 스플라인 인터폴란트(cardinal spline spline interpolants)로서, 카디널 스플라인 함수에 따른 필터 계수이다. fm(x)는, 동일한 경계 조건을 갖고, 화소단위 참조픽셀들의 위치(즉, -M+1≤m≤M, m은 정수)에서만 값을 갖는 카디널 스플라인 함수값일 수 있다.
필터 계수 fm(x)는 수학식 17에 따라 결정될 수 있다.
[수학식 17]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-183
k가 0 ≤ k ≤ 2M-2의 범위의 정수일 때, 스플라인 필터 계수 fm(x)는 [-M+1+k, -M+k+2]의 범위, 즉 (-M+1+k) 으로부터 (-M+k+2) 까지의 정수 m 마다 결정될 수 있다. 수학식 17에서 계수
Figure PCTKR2011007220-appb-I000019
는 수학식 18의 등식들에 기초하여 결정될 수 있다.
[수학식 18]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-186
일 실시예에 따른 부화소단위의 보간을 위해, 보간 위치 α에 따른 스플라인 필터 계수 fm(α)로 구성된 FIR 필터를 미리 산출하여 저장해놓고, 화소단위 참조픽셀 pm에 스플라인 필터 계수 fm(α)로 구성된 FIR 필터를 이용한 보간 필터링을 통해 0번 픽셀과 1번째 픽셀 사이의 보간 위치 α의 부화소단위의 픽셀값이 생성될 수 있다.
도 6 는 일 실시예에 따른 평활화 보간 필터에서 이용가능한 스플라인 함수의 그래프(60)를 예시한다.
도 6을 참조하면, 변수 ρ이 3인 스플라인 함수에 기초하여, 2M=6, 즉 6탭 보간 필터를 위한 3개의 스플라인 인터폴란트 곡선들 f-2(x)(61), f-1(x)(62), f0(x)(63) 이 도시되어 있다. 예를 들어, α=1/4인 부화소단위의 픽셀값을 생성하기 위한 보간 필터 계수들은, 스플라인 인터폴란트 곡선들 f-2(x)(61), f-1(x)(62), f0(x)(63) 상에서 f-2(1/4)(64), f-1(1/4)(65), f0(1/4)(66)로 결정될 수 있다.
<다항식에 기초한 평활화 보간 필터>
일 실시예에 따른 영상 보간 장치(10)는, 다항식에 기초하여 평활화 보간 필터의 필터 계수를 결정할 수 있다.
다항식에 기초한 보간 필터 계수들 {fk}로 구성된 다항식 보간 함수는, 수학식 19과 같이 다항식의 기저함수에 기초하여 표현될 수 있다. 정수 k는 -M+1 ≤ k ≤ M 의 범위로 정의된다.
[수학식 19]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-194
,
Figure PCTKR2011007220-appb-I000022
또한, 영상 보간 장치(10)는, 보간 결과를 평활화하기 위해, 다항식에 기초한 보간 필터 계수들 {fk} 중에서, 저주파 대역에서 최적화된 필터 계수들을 결정할 수 있다. 일례로, 주파수 ω가 0일 때, 다항식 보간 함수의 함수값과 다항식 보간 함수의 도함수들의 값들이 모두 동일한 경우에 결정되는 필터 계수들 {fk}가, 저주파 대역에서 최적화된 보간 필터 계수로 결정될 수 있다. 이에 따르면, 수학식 20과 같이, 정수 k에 대한 함수로서, 미지수인 2M개의 필터 계수들 {fk}을 위한 2M개의 선형 함수들이 도출될 수 있다.
[수학식 20]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-197
수학식 20의 선형 함수들의 해는, 뉴튼 다항식(Newton polynomial)에 대한 해법을 통해 구할 수 있다. 수학식 21은, 수학식 20의 선형 함수들에 대한 해로 산출된 2M개의 필터 계수들 {fk}이다.
[수학식 21]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-200
수학식 20 및 21의 뉴튼 다항식에 기초하여 결정된 필터 계수들 {fk}로 구성된 보간 필터는 저주파수 대역에서 최고 주파수 응답을 가지므로, 이 보간 필터를 이용한 픽셀값들은, 보다 평활화된 보간 결과를 도출할 수 있다. 따라서, 다항식의 기저함수에 기초하여 결정된 필터 계수로 구성된 보간 필터가 평활화 보간 필터로서 선택될 수 있다.
이에 따라 일 실시예에 따른 영상 보간 장치(10)는, 다항식에 기초한 보간 필터 계수로 구성된 평활화 보간 필터를 선택하여, 보다 평활화된 보간 픽셀들을 생성할 수 있다. 특히, 크로마 성분의 픽셀들은 고주파 성분이 강하므로, 크로마 성분의 화소단위 픽셀들에 대하여 부화소단위의 픽셀값을 생성하기 위하여, 다항식에 기초한 보간 필터 계수로 구성된 평활화 보간 필터가 이용될 수 있다.
<확대 보간을 위한 보간 필터 계수>
일 실시예에 따른 다양한 평활화 보간 필터 생성 방법들은 정수가 아닌 부동 소수점 수(floating point number)를 생성하는 연산식에 기초하며, 필터 계수들의 절대값은 대개 1보다 크지 않다. 특히, 부화소단위의 보간 위치 α 에 의해 정수가 아닌 실수의 연산 결과가 발생할 수 있다.
부동 소수점 기반의 연산보다 효율이 정수 기반의 연산 효율이 높다. 이에 따라 일 실시예에 따른 영상 보간 장치(10)는, 스케일링 비율를 이용하여 필터 계수를 정수로 확대함으로써, 보간 필터링의 연산 효율성을 향상시킬 수 있다. 또한, 픽셀값의 비트 깊이가 커짐에 따라 보간 필터링의 정확도도 향상될 수 있다.
일 실시예에 따른 영상 보간 장치(10)는 필터 계수들 fm(α)에 소정의 값을 곱하고, 큰 값의 계수 Fm(α)를 이용해 영상을 보간할 수 있다. 예를 들어, 수학식 22에 따라 필터 계수 Fm(α)는 필터 계수들 fm(α)로부터 확대될 수 있다.
[수학식 22]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-208
연산 효율을 위해 스케일링 비율은, 2n의 형태일 수 있다. n 은 0 및 양의 정수일 수 있다. 2n만큼 확대된 필터 계수에 의한 보간 필터링 결과는, 원 필터 계수에 의한 필터링 결과에 비해 비트뎁스가 n비트만큼 확대될 수 있다.
확대된 필터 계수 Fm(α)를 이용한 정수 연산 보간 필터링은 수학식 23을 따를 수 있다. 즉, 확대된 필터 계수 Fm(α)을 이용하여 보간 필터링이 수행된 후, 확대된 비트뎁스가 원본 비트뎁스로 복원되어야 한다.
[수학식 23]
[규칙 제26조에 의한 보정 02.12.2011] 
Figure WO-DOC-MATHS-212
이 때, offset은 2n-1일 수 있다.
즉, 일 실시예에 따른 확대된 평활화 보간 필터를 이용하여 확대된 필터링 결과는, 원본 비트로 복원되기 위해 스케일링 비율 2n 만큼 축소되어 하므로, 확대된 필터링 결과의 비트뎁스가 n비트만큼 축소될 수 있다.
만약, 수평 방향의 1차원 보간 필터링과 수직 방향의 1차원 보간 필터링을 통해 2단계 보간 필터링이 수행된 경우, 총 2n비트만큼 축소될 수 있다. 따라서, 제 1 1차원 보간 필터가 n1비트만큼 확대되고, 제 2 1차원 보간 필터가 n2만큼 확대된 경우, 제 1 1차원 보간 필터링과 제 2 1차원 보간 필터링을 통해 2단계 보간 필터링 후에 n1과 n2의 합 2n만큼 축소될 수 있다. 제 1 1차원 보간 필터는 확대되지 않은 보간 필터일 수 있다.
평활화 보간 필터 계수 fm(α)의 총합은 1이므로,
[수학식 24]
Figure PCTKR2011007220-appb-I000027
확대된 평활화 보간 필터의 필터 계수 Fm(α)을 위한 정규화 조건은 수학식 25에 따를 필요가 있다.
[수학식 25]
Figure PCTKR2011007220-appb-I000028
그러나, 수학식 25에 따른 정규화 조건은 라운딩 에러(rounding error)에 따라 오차가 발생할 수 있다. 일 실시예에 따른 영상 보간 장치(10)는, 수학식 19에 따른 정규화 조건에 기초하여, 확대된 필터 계수들 Fm(α)을 반올림할 수 있다. 정규화를 위해 확대된 필터 계수들 Fm(α) 중 일부는 원본값에 비해 소정 범위 내에서 조정될 수 있다. 예를 들어, 확대된 필터 계수들은 라운딩 에러를 보정하기 위해 ±1의 범위 내에서 조정될 수 있다.
이상 다양한 평활화 보간 필터들과 필터 계수들이 개시되었다. 특히, 평활화 보간 필터의 필터 계수를 결정하기 위한 함수로서, 윈도우 함수, 스플라인 함수, 다항식 등이 이용될 수 있다. 보간 필터를 위해서는 함수의 주파수 응답은 주파수에 따라 변하지만, 평활화 보간 필터를 위해서는 함수의 주파수 응답의 필터 이득(filter gain)이 1에 가까운 것이 바람직하다. 따라서, 일 실시예에 따른 영상 보간 장치(10)는, 주파수가 변하더라도 주파수 응답의 필터 이득이 1에 가장 가까운 함수를 이용하여 필터 계수를 결정하고, 이 필터 계수로 구성된 보간 필터를 평활화 보간 필터로서 선택할 수 있다.
도 7 은 일 실시예에 따른 영상 보간 방법의 흐름도를 도시한다.
단계 71에서, 픽처의 화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터가 선택된다. 일 실시예에 따른 보간 필터들의 평활도는, 보간 위치와 화소단위들 간의 거리에 기초하여 결정될 수 있다.
일 실시예에 따른 보간 필터는, 복수 개의 기저함수에 기초한 변환 및 역변환을 수행하기 위한 필터 계수들로 구성된 필터일 수 있다. 일 실시예에 따른 평활화 보간 필터는, 윈도우 함수가 합성된 보간 필터, 복수 개의 평활화 파라미터에 기초한 보간 필터, 평활화 파라미터에 기초한 보간 필터, 스플라인 보간 필터 및 다항식 보간 필터 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라 평활화 보간 필터를 이용한 필터링을 위해, 화소단위 참조픽셀들에 대한 필터 계수들 중에서, 화소단위 참조픽셀들과 보간 위치 간의 거리가 멀수록 해당 필터계수들은 더 평활해지도록 결정될 수 있다.
단계 72에서, 단계 71에서 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 적어도 하나의 부화소단위의 픽셀값이 생성된다.
보간 필터들 중에서, 필터 계수들이 정수로 확대된 보간 필터가 선택되면, 보간 필터를 이용하여 생성한 픽셀값은 스케일링 비율에 기초하여 정규화될 수 있다.
일 실시예에 따라, 보간될 픽셀들의 특성에 따라서, 보간 필터들 중에서 서로 다른 보간 필터들이 선택되고, 픽셀의 특성별로 각각 선택된 서로 다른 보간 필터를 이용하여, 부화소단위의 픽셀값이 생성될 수 있다.
이하, 도 8a 내지 12c를 참조하여, 부화소단위의 보간 위치 및 평활도를 고려하여 결정된 보간 필터의 필터 계수들의 다양한 실시예들이 개시된다.
도 8a, 8b, 및 8c 는 일 실시예에 따라, 평활도 파라미터와 보간 위치에 따라 결정되는 12탭 보간 필터들의 필터 계수들을 도시한다.
도 8a, 8b, 및 8c 를 참조하여, 전술된 직교변환에 기초한 보간 필터 중에서 도 5를 참조하여 전술한, 화소단위 참조픽셀을 평활한 후 직교변환 및 역변환을 수행하기 위해, 평활화 매트릭스와 직교변환에 기초한 보간 필터가 합성된 평활화 보간 필터의 필터 계수들이 개시된다.
도 8a, 8b, 및 8c 는 평활화 파라미터 β가 0, 0.002, 0.004, 0.006, 0.008, 0.010, 0.012, 0.014, 0.016, 0.018, 0.020로 변동함에 따라, 그리고 보간 위치 α가 1/8, 1/4, 3/8, 1/2, 5/8, 3/4, 7/8로 변동함에 따라, 서로 다른 필터 계수들로 구성된 다양한 보간 필터들이 개시되어 있다.
예를 들어, 도 8a의 테이블 중에서 평활화 파라미터 β가 0.002이고 보간 위치 α가 1/8를 보면, 보간 필터로서 필터 계수들 {fm}, 즉 {f-11, f-10, f-9, f-8, f-7, f-6, f-5, f-4, f-3, f-2,f-1, f0, f1, f2, f3, f4, f5, f6, f7, f8, f9, f10, f11, f12}가 {-1, 4, -7, 12, -24, 246, 37, -16, 9, -5, 3, -1}로 구성된 필터가 선택될 수 있다.
도 9a, 9b, 및 9c 는 일 실시예에 따라, 평활도 파라미터와 보간 위치에 따라 결정되는 6탭 보간 필터들의 필터 계수들을 도시한다.
도 8a, 8b, 및 8c 의 필터 계수는 평활화 매트릭스와 직교변환 보간 필터가 합성된 평활화 보간 필터 중에서 12탭 보간 필터의 12개의 필터 계수들인데 반해, 도 9a, 9b, 및 9c 에서는, 8탭 보간 필터의 8개의 필터 계수들이 개시된다. 도 8a, 8b, 및 8c 는 평활화 파라미터 β와 보간 위치 α가 변동함에 따라, 서로 다른 필터 계수들로 구성된 다양한 평활화 보간 필터들이 개시될 수 있다.
도 8a, 8b, 8c, 9a, 9b, 및 9c 를 참조하여 개시된 필터 계수들은, 일 실시예에 따른 확대 보간 필터링에 따라, 스케일링 비율 256(=28)로 확대되고 반올림된 계수들이다.
도 8a, 8b, 8c, 9a, 9b, 및 9c 를 관찰하면, 보간 위치 α는 일정하고 평활화 파라미터 β가 증가함에 따라, 필터 계수 fm가 상대적으로 작아지는 경향이 발생할 수 있다.
또한, 평활화 파라미터 β가 일정하고 보간 위치 α가 1/2로부터 멀어짐에 따라, 필터 계수 fm 중에서, m이 m=0으로부터 m=-M+1 또는 m=M 쪽으로 멀어질수록, f0에 비해 필터 계수 fm가 상대적으로 작아지고, m=0 근처의 필터 계수들의 필터 계수 fm가 상대적으로 큰 경향이 발생할 수 있다.
따라서, 평활화 파라미터 β가 증가함에 따라, 보간 위치 α가 1/2로부터 멀어짐(즉, 화소단위 픽셀에 가까워짐)에 따라, 보다 샤프한 보간 필터, 즉 덜 평활화하는 보간 필터가 선택될 수 있다.
일 실시예에 따른 보간 필터는 거울 반사형 대칭 필터이므로, 보간 위치 α의 필터 계수 fm(α)를 이용하여 보간 위치 (1-α)의 필터 계수 fm(α)가 결정될 수 있다. 예를 들어, 도 9a에서 평활화 파라미터 β=0.002 인 필터 계수들 {fm} 중에서 보간 위치 α=3/8인 필터 계수들 {fm(3/8)}와 보간 위치 α= 1 - 3/8 = 5/8인 필터 계수들 {fm(5/8)}를 비교하면, 아래와 같다.
{fm(3/8)} = { 11, -42, 196, 117, -35, 10 },
{fm(5/8)} = { 10, -35, 117, 196, -42, 11 }
즉, m = -2, -1, 0 일 때의 {fm(3/8)}와 m = 3, 2, 1일 때의 {fm(5/8)}가 동일하고, m = 3, 2, 1 일 때의 {fm(3/8)}와 m = -2, -1, 0일 때의 {fm(5/8)}가 동일함이 확인된다. 따라서, 이하 도 10 내지 12c의 테이블에서는, 보간 위치가 1/2보다 작거나 같은 경우의 보간 필터 계수들 {fm(α)}만이 개시되어 있더라도, 보간 위치가 1/2보다 큰 경우의 나머지 보간 필터 계수들 {fm(α)}이 결정될 수 있음은 당업자에게 쉽게 이해될 것이다.
도 10 은 일 실시예에 따라, 크로마 성분의 픽셀들을 위한 평활도 파라미터와 보간 위치에 따라 결정되는 6탭 보간 필터의 필터 계수들을 예시한다.
일 실시예에 따른 영상 보간 장치(10)는, 영상 특성에 따라 다른 종류의 보간 필터를 선택할 수 있다. 예를 들어, 평활화 매트릭스와 직교변환 보간 필터가 합성된 평활화 보간 필터가 결정되는 경우, 영상 특성에 따라 평활도 파라미터가 변경될 수 있다.
구체적인 예로, 크로마 성분의 픽셀들은 4:2:0 컬러 포맷에 따라 다운 샘플링되므로, 루마 성분의 픽셀들에 비해 저주파 성분이 적다. 이 경우 도 10를 참조하여, 루마 성분의 픽셀들을 위한 보간 필터와 별개로, 크로마 성분의 픽셀들을 위한 보간 필터만이 별도로 선택될 수 있다. 이하 도 11을 참조하여, 컬러 성분에 따라 보간 필터라 상이하게 선택되는 다양한 필터 계수들이 개시된다.
도 11 은 일 실시예에 따라, 컬러 성분 및 영상 보간 위치에 따라 상이하게 결정되는 평활화 보간 필터들의 필터 계수들을 예시한다.
도 11을 참조하면, 필터 탭수 2M, 보간 위치 α, 컬러 성분 L(루마)/C(크로마)에 변동함에 따라, 서로 다른 필터 계수들로 구성된 다양한 평활화 보간 필터들이 예시된다. 도 11의 필터 계수들은, 스케일링 비율 256(=28)로 확대되고 반올림된 계수들이다. 전술한 바와 같이, 보간 필터 계수들의 거울 반사 특성에 기초하여 보간 위치 σ가 1/2보다 작거나 같은 경우만이 개시되어 있다.
도 8a 내지 10에서 관찰한 바와 유사하게, 크로마 성분을 위한 필터 계수들과 루마 성분을 위한 필터 계수들을 비교하면, 평활화 파라미터 β가 큰 경우의 필터 계수들과 작은 경우의 필터 계수들을 비교한 결과와 유사하다.
도 12a, 12b 및 12c 는 일 실시예에 따라 영상 보간 위치 및 스케일링 비율에 따른 평활화 보간 필터들의 필터 계수들을 예시한다.
도 12a, 12b 및 12c 를 참조하여, 스케일링 비율 2n이 512, 256, 128, 64로 변동하고, 보간 필터의 필터탭 및 보간 위치 α이 변동함에 따라, 평활화 보간 필터의 확대, 반올림 및 정규화된 필터 계수들의 다양한 변형례들이 개시된다.
특히 도 12c의 보간 필터 계수들 중에서 1/8 픽셀 단위의 보간을 위한 필터 계수들은, 크로마 성분 픽셀들의 움직임 보상에서 유용하게 이용될 수 있다. 다만 크로마 성분의 픽셀들에 대해서는, 루마 성분의 픽셀들에 비해 인간이 시각적으로 인지하는 화질이 덜 중요하므로, 상대적으로 짧은 필터탭 4탭과 비트뎁스가 낮아 스케일링 비율 25인 평활화 보간 필터가 이용될 수도 있다.
이상 도 8a 내지 12c를 통해 개시된 필터 계수들은 다양한 실시예들 중 일부일 뿐이며, 일 실시예에 따른 평활화를 고려한 보간 필터들에 대해, 보간 위치, 평활화 파라미터, 윈도우 함수의 종류, 스플라인 함수의 종류, 다항식 해법의 종류, 스케일링 비율, 반올림 여부 등을 포함한 다양한 요인에 따라 필터 계수가 변형될 수 있음은 당업자에게 쉽게 이해될 것이다.
이하 도 13a 내지 도 27을 참조하여, 일 실시예에 따른 평활화 보간 필터를 이용하는 비디오의 부호화 및 복호화가 개시된다. 도 15 내지 도 25을 참조하여 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초한 비디오의 부호화 및 복호화가 개시되고, 도 26 및 27을 참조하여 일 실시예에 따른 평활화 보간 필터를 이용하는 비디오의 부호화 및 복호화 방법이 개시된다.
영상과 관련된 데이터에 대해 각종 동작이 수행될 때, 영상과 관련된 데이터는 데이터 그룹들로 분할되고, 동일 데이터 그룹에 포함되는 데이터에 대해 동일한 동작이 수행될 수 있다. 이하 본 명세서에, 소정 기준에 따라 형성되는 데이터 그룹을 '데이터 단위'라 지칭한다. 이하 본 명세서에, '데이터 단위'마다 이루어지는 동작은, 데이터 단위에 포함된 데이터들을 이용하여 해당 동작이 수행됨을 의미한다.
<평활화 보간 필터를 이용하는 비디오 부호화/복호화>
도 13a 는 일 실시예에 따른 평활화 보간 필터를 이용하는 비디오 부호화 장치의 블록도를 도시한다.
비디오 부호화 장치(100)의 부호화부(120) 및 출력부(130)의 동작은, 비디오 인코딩 프로세서, 중앙 프로세서, 그래픽 프로세서 등에 의해 유기적으로 제어될 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)는, 입력된 비디오 중 현재 픽처를 부호화하기 위해, 현재 픽처를 소정 크기의 데이터 단위들로 분할하여 데이터 단위별로 부호화를 수행한다.
예를 들어, 현재 픽처는 공간 도메인의 화소들로 구성된다. 현재 픽처 중에서 공간적으로 인접하는 화소들을 함께 부호화하기 위해 소정 범위 내의 인접 화소들이 하나의 그룹을 이루도록, 현재 픽처는 소정 크기의 화소 그룹들로 분할될 수 있다. 분할된 소정 크기의 화소 그룹의 화소들에 대한 일련의 부호화 동작들에 의해, 현재 픽처에 대한 부호화가 수행될 수 있다.
픽처의 부호화 처리 대상이 되는 초기 데이터가 공간 도메인의 화소값이므로, 각각의 소정 크기의 화소 그룹이 부호화 처리 대상이 되는 데이터 단위로 이용될 수 있다. 또한 공간 도메인의 화소 그룹의 화소값들에 대해 비디오 부호화를 위한 변환을 수행하여, 변환 도메인의 변환 계수들이 생성되는데, 변환 계수들도 공간 도메인의 화소 그룹과 동일한 크기의 계수 그룹을 유지한다. 따라서, 변환 도메인의 변환 계수들의 계수 그룹도, 픽처의 부호화를 위한 데이터 단위로 이용될 수 있다.
따라서, 공간 도메인 및 변환 도메인을 통틀어서, 소정 크기의 데이터 그룹이 부호화를 위한 데이터 단위로 이용될 수 있다. 이 때, 데이터 단위의 크기는 데이터 단위에 포함되는 데이터의 개수로 정의될 수 있다. 예를 들어, 공간 도메인의 화소들의 개수 또는 변환 도메인의 변환 계수들의 개수가 데이터 단위의 크기를 나타낼 수 있다.
비디오 중에서 현재 부호화 처리 대상인 데이터 단위, 슬라이스, 픽처, 픽처 시퀀스 중 어느 하나의 데이터 레벨의 데이터 그룹마다, 현재 데이터 단위에 대한 부호화 방식 또는 부호화 특성이 결정될 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)는, 데이터 단위별로 인터 예측, 인트라 예측을 포함하는 예측 부호화, 변환 및 양자화 및 엔트로피 부호화를 수행함으로써, 현재 픽처의 부호화를 수행할 수 있다.
인터 예측에 따르면, 시간 순서 상 앞서거나 뒤따라오는 픽처의 픽셀값을 참조하여 현재 픽셀값이 추정되도록, 참조 픽처의 참조 영역의 픽셀값과 현재 픽처의 픽셀값 간의 레지듀얼 데이터 및 참조된 픽셀값을 가리키는 참조 데이터가 결정될 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)는 보다 정확한 인터 예측을 위해, 부화소 단위 픽셀 값을 이용하여 레지듀얼 데이터 및 참조 데이터를 결정할 수 있다. 비디오 부호화 장치(100)는 부화소 단위의 인터 예측을 위해, 인접하는 화소단위 픽셀들 사이에 위치하는 부화소 단위 픽셀값을 결정하기 위하여, 인접하는 화소단위 픽셀들을 보간하여 부화소 단위의 픽셀값을 결정할 수 있다.
또한, 인접하는 화소단위 픽셀들을 포함하여, 둘 이상의 화소단위의 참조 픽셀들에 대한 보간 필터링을 통해 부화소 단위의 픽셀값이 생성될 수 있다. 보간 필터링을 위한 참조 픽셀들은 참조 픽처 상의 픽셀들일 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)는, 효율적인 영상 보간을 위해 보간 필터 계수들의 선택적으로 결정할 수 있다. 일 실시예에 따른 부호화부(120)에, 일 실시예에 따른 영상 보간 장치(10)가 탑재될 수 있다. 즉, 부호화부(120)는 부화소 단위의 인터 예측을 위해, 영상 보간 장치(10)에 따라 변환 및 역변환에 기초하여 결정된 필터 계수들로 구성된 보간 필터를 이용하여 부화소 단위의 픽셀값을 생성할 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)는, 효과적인 보간 필터링을 위해 보간 필터 계수를 미리 메모리에 저장해놓을 수 있다. 일 실시예에 따른 보간 필터 계수는, 보간 위치, 평활도, 필터탭수, 비트뎁스, 스케일링 비율, 변환에 기초한 보간 필터링의 기저함수의 종류에 따라, 다양한 종류의 보간 필터 계수들이 비디오 부호화 장치(100)의 메모리에 저장되어 있을 수 있다.
예를 들어, (i) 8탭, 스케일링 비율 26, 1/4-화소 단위의 필터 계수인 { -1, 4, -10, 57, 19, -7, 3, -1 }, (ii) 8탭 스케일링 비율 26, 1/2-화소 단위의 보간 필터 계수인 { -1, 4, -11, 40, 40, -11, 4, -1 }, (iii) 4탭, 스케일링 비율 26, 1/8-화소 단위의 필터 계수인 { -3, 60, 8, -1 }, (iv) 4탭, 스케일링 비율 26, 1/4-화소 단위의 필터 계수인 { -4, 54, 16, -2 }, (v) 4탭, 스케일링 비율 26, 3/8-화소 단위의 필터 계수인 { -5, 46, 27, -4 }, (vi) 4탭, 스케일링 비율 26, 1/2-화소 단위의 필터 계수인 { -4, 36, 36, -4 }가 메모리에 저장되어, 본 발명에 따른 평활화 보간 필터링을 위해 이용될 수 있다.
본 예에 따른 필터 계수들을 포함하여 도 8a 내지 12c에서 예시된 다양한 필터 계수들과 같이, 다양한 기저함수, 윈도우 함수 등을 통해 변형 가능한 평활화 보간 필터 계수가, 보간 필터로써 이용될 수 있음은 전술한 바와 같다.
메모리에 저장된 필터 계수를 이용한 보간 필터링을 통해, 인터 예측을 위한 연산 속도가 향상될 수 있다.
부호화부(120)는, 보간 필터들 중에서 부화소 단위의 보간 위치 α와 평활도에 따라 원하는 평활화 보간 필터를 선택하여 인터 예측에 이용할 수 있다. 뿐만 아니라, 필터탭수, 비트뎁스, 스케일링 비율 등에 따라 현재 픽셀에 적합한 평활화 보간 필터가 결정될 수 있다.
일 실시예에 따른 부호화부(100)는, 영상 특성에 따라 보간 필터를 결정할 수 있다. 예를 들어, 부호화부(100)는, 픽셀의 컬러 성분에 따라, 서로 다른 보간 필터를 결정할 수 있다. 예를 들어, 루마 성분의 픽셀들을 위한 보간 필터 및 크로마 성분의 픽셀들을 위한 보간 필터가 별개로 선택되어, 서로 다른 보간 필터링을 통해 보간된 부화소 단위의 픽셀값들이 각각 생성될 수 있다.
부화소 단위의 보간에 기초한 인터 예측을 포함하여, 인트라 예측, 변환/양자화를 수행하여, 비디오가 부호화될 수 있다.
일 실시예에 따른 출력부(130)는, 부호화 정보를 부호화하여 출력하고, 부호화된 픽처 데이터를 출력할 수 있다. 부호화 정보는, 보간 필터의 선택에 대한 정보가 별도로 부호화될 수 있다. 즉, 부화소 단위의 예측 부호화를 위해 어떤 보간 필터가 사용되었는지에 대한 정보가 부호화될 수 있다. 예를 들어, 영상의 부호화 과정에서 어떠한 필터를 이용해 보간하였는지 복호화하는 측이 알고 있어야, 부호화 과정에서 이용된 보간 필터와 동일한 필터를 이용해 영상을 보간하고, 복호화할 수 있다. 이를 위해, 보간에 이용된 필터를 특정할 수 있는 정보가 영상과 함께 부호화될 수도 있다. 다만, 필터의 선택이 이전에 부호화 결과 즉, 콘텍스트(context)에 기초해 수행되는 경우에는 필터 선택과 관련된 정보를 별도로 부호화할 필요가 없다.
출력부(130)는 부호화 정보 및 부호화된 픽처 데이터에 대해 엔트로피 부호화를 수행하여, 비트스트림을 출력할 수 있다.
도 13b 는 일 실시예에 따른 평활화 보간 필터를 이용하는 영상 복호화 장치의 블록도를 도시한다.
일 실시예에 따른 평활화 보간 필터를 이용하는 비디오 복호화 장치(200)는 수신추출부(220) 및 복호화부(230)를 포함한다. 이하 설명의 편의를 위해 일 실시예에 따른 평활화 보간 필터를 이용하는 비디오 복호화 장치(200)를 '비디오 복호화 장치(200)'로 축약하여 지칭한다. 비디오 복호화 장치(200)의 수신추출부(220) 및 복호화부(230)의 동작은, 비디오 디코딩 프로세서, 그래픽 프로세서, 중앙 프로세서 등에 의해 유기적으로 제어될 수 있다.
비디오 복호화 장치(200)는, 비트스트림으로부터 영상을 복원하기 위해, 엔트로피 복호화, 역양자화, 역변환 및 인터 예측/보상, 인트라 예측/보상을 포함하는 동작들을 통해, 비트스트림의 부호화된 픽처 데이터를 복호화할 수 있다.
일 실시예에 따른 수신추출부(220)는, 부호화된 비디오에 대한 비트스트림을 수신하고 파싱한다. 수신추출부(220)는, 파싱된 비트스트림으로부터, 현재 픽처에 대해 데이터 단위별로 부호화된 데이터를 추출하고, 부호화된 데이터를 복호화할 수 있도록 부호화 방식에 대한 정보가 수록된 부호화 정보를 추출할 수 있다.
부호화 정보가 보간 필터 정보를 포함한 경우, 복호화부(230)는, 보간 필터 정보로부터 어느 보간 필터를 이용하여 부화소 단위의 인트라 예측을 수행하였는지 판독하여, 복호화부(230)는, 부호화 과정에서 이용된 보간 필터를 이용하여 움직임 보상을 수행할 수도 있다.
복호화부(230)는, 부호화 모드에 대한 정보에 기초하여 결정된 각종 복호화 방식에 따라, 부호화된 픽처에 대해 엔트로피 복호화, 역양자화, 역변환, 인터 예측/보상, 인트라 예측/보상 등의 각종 복호화 동작을 수행함으로써 부호화된 픽처 데이터를 복호화할 수 있다.
움직임 보상을 위해, 참조 데이터를 이용하여 현재 픽처에 대한 시간 순서 상 앞서거나 뒤따라오는 참조 픽처의 참조 영역이 결정되고, 참조 영역의 픽셀값과 레지듀얼 데이터가 합성되어 현재 픽셀 값이 복원될 수 있다.
부호화 과정에서 부화소 단위로 보간된 픽셀을 기초로 레지듀얼 데이터 및 참조 데이터가 결정된 경우, 복호화부(230)도 부화소 단위로 보간된 픽셀들을 기초로 움직임 보상을 수행할 수 있다. 복호화부(230)는 부화소단위의 움직임 보상을 위해, 참조 픽처의 픽셀들 중에서, 인접하는 화소단위 픽셀들을 보간하여 부화소 단위의 픽셀값을 생성할 수 있다. 인접하는 화소단위 픽셀들을 포함하여, 둘 이상의 화소단위의 참조 픽셀들에 대한 보간 필터링을 통해 부화소 단위의 픽셀값이 생성될 수 있다.
일 실시예에 따른 비디오 복호화 장치(200)는, 효율적인 영상 보간을 위해 보간 필터 계수들의 선택적으로 결정할 수 있다. 일 실시예에 따른 복호화부(230)에, 일 실시예에 따른 영상 보간 장치(10)가 탑재될 수 있다. 즉, 복호화부(230)는 부화소 단위의 움직임 보상을 위해, 변환에 기초한 보간 필터를 이용하여 부화소 단위의 픽셀값을 생성할 수 있다.
일 실시예에 따른 비디오 복호화 장치(200)는, 효과적인 보간 필터링을 위해, 보간 위치, 평활도, 필터탭수, 비트뎁스, 스케일링 비율, 변환에 기초한 보간 필터링의 기저함수의 종류에 따라, 다양하게 선택 가능한 보간 필터의 필터 계수들을 메모리에 저장해 놓을 수 있다.
전술한 바와 같이, 예를 들어, (i) 8탭, 스케일링 비율 26, 1/4-화소 단위의 필터 계수인 { -1, 4, -10, 57, 19, -7, 3, -1 }, (ii) 8탭 스케일링 비율 26, 1/2-화소 단위의 필터 계수인 { -1, 4, -11, 40, 40, -11, 4, -1 }, (iii) 4탭, 스케일링 비율 26, 1/8-화소 단위의 필터 계수인 { -3, 60, 8, -1 }, (iv) 4탭, 스케일링 비율 26, 1/4-화소 단위의 필터 계수인 { -4, 54, 16, -2 }, (v) 4탭, 스케일링 비율 26, 3/8-화소 단위의 필터 계수인 { -5, 46, 27, -4 }, (vi) 4탭, 스케일링 비율 26, 1/2-화소 단위의 필터 계수인 { -4, 36, 36, -4 } 중 적어도 하나의 필터 계수가 메모리에 저장되어, 본 발명에 따른 평활화 보간 필터링을 위해 이용될 수 있다. 본 예에 따른 필터 계수들을 포함하여 도 8a 내지 12c에 도시된 바와 같이, 다양한 기저함수, 윈도우 함수 등을 통해 변형 가능한 평활화 보간 필터 계수가, 평활화 보간 필터링을 위해 이용될 수 있음은 전술한 바와 같다.
복호화부(230)는, 보간 필터들 중에서 부화소 단위의 보간 위치 α와 평활도, 뿐만 아니라 필터탭수, 비트뎁스, 스케일링 비율 등에 따라 현재 픽셀에 적합한 보간 필터를 선택적으로 결정하여, 부화소 단위의 움직임 보상을 수행할 수 있다.
또한 복호화부(230)는, 영상 특성에 따라 평활화 보간 필터를 결정할 수 있다. 예를 들어, 픽셀의 컬러 성분에 따라 서로 다른 보간 필터를 선택하고, 루마 성분의 픽셀들을 위한 보간 필터링 및 크로마 성분의 픽셀들을 위한 보간 필터링이 별개로 수행되어, 보간된 부화소 단위의 픽셀값들이 각각 생성될 수 있다.
따라서, 복호화부(230)는, 역양자화/역변환을 통해 공간 도메인의 데이터를 복원하고, 인트라 예측 및 화소 단위의 보간 뿐만 아니라 부화소 단위의 보간에 기초한 움직임 보상을 수행함으로써, 픽셀값을 복원하고 현재 픽처를 복원할 수 있다. 픽처들이 복원됨에 따라, 비디오가 복호화될 수 있다.
도 14a 는 일 실시예에 따른 평활화 보간 필터를 이용하는 영상 부호화 방법의 흐름도를 도시한다.
단계 1410에서, 입력된 비디오 중 현재 픽처를 부호화하기 위해, 부화소 단위의 보간을 이용한 예측 부호화가 수행된다. 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터가 선택된다. 일 실시예에 따른 보간 필터들의 평활도는, 보간 위치와 화소단위들 간의 거리에 기초하여 결정될 수 있다.
참조 픽처 상의 둘 이상의 화소단위의 참조 픽셀들에 대한 보간 필터링을 통해 부화소 단위의 픽셀값이 생성될 수 있다. 생성된 부화소 단위 픽셀 값을 이용하여 레지듀얼 데이터 및 참조 데이터가 결정됨으로써 예측 부호화가 수행될 수 있다.
효율적인 영상 보간을 위해 보간 필터 계수들의 선택적으로 결정할 수 있다.메모리에 미리 저장된 보간 필터 계수들 중에서, 부화소 단위의 보간 위치, 평활도, 필터탭수, 비트뎁스, 스케일링 비율, 변환에 기초한 보간 필터링의 기저함수의 종류, 컬러 성분 등에 따라, 원하는 보간 필터가 선택되어 부화소 단위의 픽셀값을 위한 보간이 수행될 수 있다.
단계 1420에서, 부화소 단위의 보간에 기초한 인터 예측을 포함하여, 인트라 예측이 수행된 결과에 대해 변환/양자화가 수행된다,
단계 1430에서, 양자화된 변환 계수의 형태인 부호화된 픽처 데이터 및 부호화 정보에 대해 엔트로피 부호화를 수행하여, 비트스트림을 출력할 수 있다. 부호화 정보는, 부화소 단위의 예측 부호화를 위해 어떤 보간 필터가 사용되었는지에 대한 정보를 포함할 수도 있다.
도 14b 는 일 실시예에 따른 평활화 보간 필터를 이용하는 영상 복호화 방법의 흐름도를 도시한다.
단계 1450에서, 부호화된 비디오에 대한 비트스트림을 수신하고 엔트로피 복호화하고 파싱하여, 비트스트림으로부터 현재 픽처의 양자화된 변환 계수 및 부호화 정보가 추출된다.
부호화 정보가 보간 필터 정보를 포함한 경우, 보간 필터 정보로부터 필요한 보간 필터의 종류를 판독할 수도 있다.
단계 1460에서, 부호화 정보로부터 판독된 부호화 모드에 기초하여 결정된 각종 복호화 방식에 따라, 양자화된 변환 계수에 대해 역양자화 및 역변환을 수행하여 레지듀얼 데이터를 포함하여 공간 도메인의 데이터가 복원된다.
단계 1470에서, 부호화 모드에 기초하여 움직임 보상, 인트라 예측 등의 각종 복호화 동작을 통해 부호화된 픽처 데이터가 복호화될 수 있다.
특히, 부화소 단위로 보간된 픽셀을 기초로 부호화된 레지듀얼 데이터 및 참조 데이터가 추출된 경우, 부화소 단위로 보간된 픽셀들을 기초로 움직임 보상이 수행될 수 있다. 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터가 선택된다.
효율적인 영상 보간을 위해 보간 필터 계수들의 선택적으로 결정할 수 있다.메모리에 미리 저장된 보간 필터 계수들 중에서, 부화소 단위의 보간 위치, 평활도, 필터탭수, 비트뎁스, 스케일링 비율, 변환에 기초한 보간 필터링의 기저함수의 종류, 컬러 성분 등에 따라, 원하는 보간 필터가 선택되어 부화소 단위의 픽셀값을 위한 보간이 수행될 수 있다. 메모리에 미리 저장된 보간 필터 계수들을 이용하여 보간된 픽셀들을 참조하여 움직임 보상이 수행됨으로써, 연산 속도가 증가할 수 있다.
참조 데이터를 이용하여 참조 픽처 및 참조 영역이 결정되고, 참조 픽처 상의 둘 이상의 화소단위의 참조 픽셀들에 대한 보간 필터링을 통해 부화소 단위의 픽셀값이 생성될 수 있다. 생성된 부화소 단위 픽셀 값과 레지듀얼 데이터가 합성됨으로써 움직임 보상이 수행되고 예측 복호화가 수행될 수 있다.
단계 1480에서, 예측 복호화를 통해 복원된 픽셀값을 이용하여 현재 픽처가 복원되고, 비디오가 복호화된다.
<트리 구조에 따른 부호화 단위에 기초하여 평활화 보간을 이용하는 따른 비디오 부호화/복호화>
이하 도 15 내지 도 27을 참조하여 일 실시예에 따라 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초하여 평활화 보간 필터를 이용하는 비디오 부호화 장치 및 비디오 복호화 장치, 그리고 그에 상응하는 비디오 부호화 방법 및 비디오 복호화 방법의 실시예가 상술된다.
본 실시예에 따른 비디오 부호화 장치(100)는 일 실시예에 따른 트리 구조에 따른 부호화 단위 및 변환 단위에 기초하여 비디오를 부호화할 수 있다.
비디오의 현재 픽처를 위한 최대 크기의 부호화 단위인 최대 부호화 단위에 기반하여 현재 픽처가 구획될 수 있다. 현재 픽처가 최대 부호화 단위보다 크다면, 현재 픽처의 영상 데이터는 적어도 하나의 최대 부호화 단위로 분할될 수 있다. 일 실시예에 따른 최대 부호화 단위는 크기 32x32, 64x64, 128x128, 256x256 등의 데이터 단위로, 가로 및 세로 크기가 2의 자승인 정사각형의 데이터 단위일 수 있다. 본 실시예에 따른 부호화부(120)는 적어도 하나의 최대 부호화 단위별로 픽처 데이터를 부호화할 수 있다.
일 실시예에 따른 부호화 단위는 최대 크기 및 심도로 특징지어질 수 있다. 심도란 최대 부호화 단위로부터 부호화 단위가 공간적으로 분할한 횟수를 나타내며, 심도가 깊어질수록 심도별 부호화 단위는 최대 부호화 단위로부터 최소 부호화 단위까지 분할될 수 있다. 최대 부호화 단위의 심도가 최상위 심도이며 최소 부호화 단위가 최하위 부호화 단위로 정의될 수 있다. 최대 부호화 단위는 심도가 깊어짐에 따라 심도별 부호화 단위의 크기는 감소하므로, 상위 심도의 부호화 단위는 복수 개의 하위 심도의 부호화 단위를 포함할 수 있다.
전술한 바와 같이 부호화 단위의 최대 크기에 따라, 현재 픽처의 영상 데이터를 최대 부호화 단위로 분할하며, 각각의 최대 부호화 단위는 심도별로 분할되는 부호화 단위들을 포함할 수 있다. 일 실시예에 따른 최대 부호화 단위는 심도별로 분할되므로, 최대 부호화 단위에 포함된 공간 영역(spatial domain)의 영상 데이터가 심도에 따라 계층적으로 분류될 수 있다.
최대 부호화 단위의 높이 및 너비를 계층적으로 분할할 수 있는 총 횟수를 제한하는 최대 심도 및 부호화 단위의 최대 크기가 미리 설정되어 있을 수 있다.
본 실시예에 따른 부호화부(120)는, 심도마다 최대 부호화 단위의 영역이 분할된 적어도 하나의 분할 영역을 부호화하여, 적어도 하나의 분할 영역 별로 최종 부호화 결과가 출력될 심도를 결정한다. 즉 부호화부(120)는, 현재 픽처의 최대 부호화 단위마다 심도별 부호화 단위로 영상 데이터를 부호화하여 가장 작은 부호화 오차가 발생하는 심도를 선택하여 부호화 심도로 결정한다.
부호화부(120)는, 최대 부호화 단위별로 결정된 부호화 심도의 부호화 단위에서 부호화된 영상 데이터를 출력할 수 있다. 또한 부호화부(120)는, 결정된 부호화 심도에 대한 정보를 출력부(130)로 전달하여, 부호화 심도에 대한 정보가 부호화 정보로서 부호화될 수 있도록 할 수 있다.
최대 부호화 단위 내의 영상 데이터는 최대 심도 이하의 적어도 하나의 심도에 따라 심도별 부호화 단위에 기반하여 부호화되고, 각각의 심도별 부호화 단위에 기반한 부호화 결과가 비교된다. 심도별 부호화 단위의 부호화 오차의 비교 결과 부호화 오차가 가장 작은 심도가 선택될 수 있다. 각각의 최대화 부호화 단위마다 적어도 하나의 부호화 심도가 결정될 수 있다.
최대 부호화 단위의 크기는 심도가 깊어짐에 따라 부호화 단위가 계층적으로 분할되어 분할되며 부호화 단위의 개수는 증가한다. 또한, 하나의 최대 부호화 단위에 포함되는 동일한 심도의 부호화 단위들이라 하더라도, 각각의 데이터에 대한 부호화 오차를 측정하고 하위 심도로의 분할 여부가 결정된다. 따라서, 하나의 최대 부호화 단위에 포함되는 데이터라 하더라도 위치에 따라 심도별 부호화 오차가 다르므로 위치에 따라 부호화 심도가 달리 결정될 수 있다. 따라서, 하나의 최대 부호화 단위에 대해 부호화 심도가 하나 이상 설정될 수 있으며, 최대 부호화 단위의 데이터는 하나 이상의 부호화 심도의 부호화 단위에 따라 구획될 수 있다.
따라서, 일 실시예에 따른 부호화부(120)는, 현재 최대 부호화 단위에 포함되는 트리 구조에 따른 부호화 단위들이 결정될 수 있다. 일 실시예에 따른 '트리 구조에 따른 부호화 단위들'은, 현재 최대 부호화 단위에 포함되는 모든 심도별 부호화 단위들 중, 부호화 심도로 결정된 심도의 부호화 단위들을 포함한다. 부호화 심도의 부호화 단위는, 최대 부호화 단위 내에서 동일 영역에서는 심도에 따라 계층적으로 결정되고, 다른 영역들에 대해서는 독립적으로 결정될 수 있다. 마찬가지로, 현재 영역에 대한 부호화 심도는, 다른 영역에 대한 부호화 심도와 독립적으로 결정될 수 있다.
일 실시예에 따른 최대 심도는 최대 부호화 단위로부터 최소 부호화 단위까지의 분할 횟수와 관련된 지표이다. 일 실시예에 따른 제 1 최대 심도는, 최대 부호화 단위로부터 최소 부호화 단위까지의 총 분할 횟수를 나타낼 수 있다. 일 실시예에 따른 제 2 최대 심도는 최대 부호화 단위로부터 최소 부호화 단위까지의 심도 레벨의 총 개수를 나타낼 수 있다. 예를 들어, 최대 부호화 단위의 심도가 0이라고 할 때, 최대 부호화 단위가 1회 분할된 부호화 단위의 심도는 1로 설정되고, 2회 분할된 부호화 단위의 심도가 2로 설정될 수 있다. 이 경우, 최대 부호화 단위로부터 4회 분할된 부호화 단위가 최소 부호화 단위라면, 심도 0, 1, 2, 3 및 4의 심도 레벨이 존재하므로 제 1 최대 심도는 4, 제 2 최대 심도는 5로 설정될 수 있다.
최대 부호화 단위의 예측 부호화 및 변환이 수행될 수 있다. 예측 부호화 및 변환도 마찬가지로, 최대 부호화 단위마다, 최대 심도 이하의 심도마다 심도별 부호화 단위를 기반으로 수행된다.
최대 부호화 단위가 심도별로 분할될 때마다 심도별 부호화 단위의 개수가 증가하므로, 심도가 깊어짐에 따라 생성되는 모든 심도별 부호화 단위에 대해 예측 부호화 및 변환을 포함한 부호화가 수행되어야 한다. 이하 설명의 편의를 위해 적어도 하나의 최대 부호화 단위 중 현재 심도의 부호화 단위를 기반으로 예측 부호화 및 변환을 설명하겠다.
일 실시예에 따른 비디오 부호화 장치(100)는, 영상 데이터의 부호화를 위한 데이터 단위의 크기 또는 형태를 다양하게 선택할 수 있다. 영상 데이터의 부호화를 위해서는 예측 부호화, 변환, 엔트로피 부호화 등의 단계를 거치는데, 모든 단계에 걸쳐서 동일한 데이터 단위가 사용될 수도 있으며, 단계별로 데이터 단위가 변경될 수도 있다.
예를 들어 비디오 부호화 장치(100)는, 영상 데이터의 부호화를 위한 부호화 단위 뿐만 아니라, 부호화 단위의 영상 데이터의 예측 부호화를 수행하기 위해, 부호화 단위와 다른 데이터 단위를 선택할 수 있다.
최대 부호화 단위의 예측 부호화를 위해서는, 일 실시예에 따른 부호화 심도의 부호화 단위, 즉 더 이상한 분할되지 않는 부호화 단위를 기반으로 예측 부호화가 수행될 수 있다. 이하, 예측 부호화의 기반이 되는 더 이상한 분할되지 않는 부호화 단위를 '예측 단위'라고 지칭한다. 예측 단위가 분할된 파티션은, 예측 단위 및 예측 단위의 높이 및 너비 중 적어도 하나가 분할된 데이터 단위를 포함할 수 있다.
예를 들어, 크기 2Nx2N(단, N은 양의 정수)의 부호화 단위가 더 이상 분할되지 않는 경우, 크기 2Nx2N의 예측 단위가 되며, 파티션의 크기는 2Nx2N, 2NxN, Nx2N, NxN 등일 수 있다. 일 실시예에 따른 파티션 타입은 예측 단위의 높이 또는 너비가 대칭적 비율로 분할된 대칭적 파티션들뿐만 아니라, 1:n 또는 n:1과 같이 비대칭적 비율로 분할된 파티션들, 기하학적인 형태로 분할된 파티션들, 임의적 형태의 파티션들 등을 선택적으로 포함할 수도 있다.
예측 단위의 예측 모드는, 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 예를 들어 인트라 모드 및 인터 모드는, 2Nx2N, 2NxN, Nx2N, NxN 크기의 파티션에 대해서 수행될 수 있다. 또한, 스킵 모드는 2Nx2N 크기의 파티션에 대해서만 수행될 수 있다. 부호화 단위 이내의 하나의 예측 단위마다 독립적으로 부호화가 수행되어 부호화 오차가 가장 작은 예측 모드가 선택될 수 있다.
또한, 일 실시예에 따른 비디오 부호화 장치(100)는, 영상 데이터의 부호화를 위한 부호화 단위 뿐만 아니라, 부호화 단위와 다른 데이터 단위를 기반으로 부호화 단위의 영상 데이터의 변환을 수행할 수 있다.
부호화 단위의 변환을 위해서는, 부호화 단위보다 작거나 같은 크기의 변환 단위를 기반으로 변환이 수행될 수 있다. 예를 들어 변환 단위는, 인트라 모드를 위한 데이터 단위 및 인터 모드를 위한 변환 단위를 포함할 수 있다.
일 실시예에 따른 트리 구조에 따른 부호화 단위와 유사한 방식으로, 부호화 단위 내의 변환 단위도 재귀적으로 더 작은 크기의 변환 단위로 분할되면서, 부호화 단위의 레지듀얼 데이터가 변환 심도에 따라 트리 구조에 따른 변환 단위에 따라 구획될 수 있다.
일 실시예에 따른 변환 단위에 대해서도, 부호화 단위의 높이 및 너비가 분할하여 변환 단위에 이르기까지의 분할 횟수를 나타내는 변환 심도가 설정될 수 있다. 예를 들어, 크기 2Nx2N의 현재 부호화 단위의 변환 단위의 크기가 2Nx2N이라면 변환 심도 0, 변환 단위의 크기가 NxN이라면 변환 심도 1, 변환 단위의 크기가 N/2xN/2이라면 변환 심도 2로 설정될 수 있다. 즉, 변환 단위에 대해서도 변환 심도에 따라 트리 구조에 따른 변환 단위가 설정될 수 있다.
부호화 심도별 부호화 정보는, 부호화 심도 뿐만 아니라 예측 관련 정보 및 변환 관련 정보가 필요하다. 따라서, 부호화부(120)는 최소 부호화 오차를 발생시킨 부호화 심도 뿐만 아니라, 예측 단위를 파티션으로 분할한 파티션 타입, 예측 단위별 예측 모드, 변환을 위한 변환 단위의 크기 등을 결정할 수 있다. 부호화 심도별 부호화 정보는, 인터 예측을 위해 부화소 단위의 보간을 위한 보간 필터링과 관련된 정보를 포함할 수도 있다.
또한 부호화부(120)는, 최대 부호화 단위 또는 현재 부호화 단위마다 미리 한정적으로 설정된 변환 단위의 최다 분할 레벨에 기초하여, 부호화 단위에 대한 부호화 과정에서 트리 구조의 변환 단위들을 이용하여 변환을 수행할 수 있다.
심도별 부호화 단위마다, 부호화 단위와 같거나 작은 크기의 기초 변환 단위는, 단계적으로 하위 변환심도의 변환 단위들로 분할될 수 있다. 일 실시에에 따른 트리 구조의 변환 단위는, 현재 허용되는 최대 크기의 변환 단위인 기초 변환 단위로부터, 부호화 단위에 허용되는 최다 분할 레벨까지의 하위 레벨들의 변환 단위들을 포함할 수 있다.
부호화부(120)는, 현재 부호화 단위 내에서 변환 심도에 따른 레벨별로 변환을 수행한 결과 주변 영역의 변환 단위와는 독립적이고 동일 영역의 변환 심도별 변환 단위들 간에는 계층적인 구조를 형성하는 트리 구조에 따른 변환 단위를 결정할 수 있다.
즉, 부호화 단위마다 다양한 크기의 변환 단위들을 이용하여 변환을 수행하여 변환 결과를 비교함으로써, 트리 구조에 따른 변환 단위들이 결정될 수 있다. 부호화 단위의 결정 과정에 있어서, 부호화 단위의 변환을 위한 변환 단위가 결정될 수 있다. 하나 이상의 심도의 심도별 부호화 단위들과 각각의 심도별 부호화마다, 내부에 포함되는 하나 이상의 변환심도의 변환심도별 변환 단위들이 변환에 이용될 수 있다.
부호화 단위마다, 부호화 오차가 가장 작은 변환 단위가 결정되어야 한다. 변환 단위의 최소 부호화 오차를 발생시키는 변환 심도가 결정되기 위해서, 모든 변환 심도별 변환 단위마다 부호화 오차가 측정되어 비교될 수 있다. 일 실시예에 따른 변환 단위는 부호화 단위의 변환에 따른 오차를 최소화하는 데이터 단위로 결정될 수도 있다.
따라서, 심도별 부호화 단위와 변환 단위의 조합들 중에서 가장 부호화 오차가 작은 조합이 결정되고, 최대 부호화 단위 내의 영역마다 개별적으로 조합이 결정되므로, 트리 구조의 부호화 단위와 트리 구조의 변환 단위가 결정될 수 있다.
일 실시예에 따른 최대 부호화 단위의 트리 구조에 따른 부호화 단위 및 파티션, 트리 구조에 따른 변환 단위의 결정 방식에 대해서는, 도 15 내지 25을 참조하여 상세히 후술한다.
부호화부(120)는 심도별 부호화 단위의 부호화 오차를 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용하여 측정할 수 있다.
비디오 부호화 장치(100)는, 부호화부(120)에서 결정된 적어도 하나의 부호화 심도에 기초하여 부호화된 최대 부호화 단위의 영상 데이터와, 출력부(130)에 의해 부호화된, 심도별 부호화 모드에 관한 정보를, 함께 포함한 비트스트림 형태로 출력할 수 있다.
일 실시예에 따른 트리 구조의 부호화 단위, 예측 단위, 변환 단위 등에 기초하여 픽처가 부호화됨에 따라 결정된, 부호화 심도의 부호화 단위의 부호화 모드에 관한 정보는, 비트스트림의 헤더, SPS, PPS 등에 포함될 수 있다.
부호화된 영상 데이터는 영상의 레지듀얼 데이터의 부호화 결과일 수 있다.
심도별 부호화 모드에 관한 정보는, 부호화 심도 정보, 예측 단위의 파티션 타입 정보, 예측 모드 정보, 변환 단위의 크기 정보 등을 포함할 수 있다.
부호화 심도 정보는, 현재 심도로 부호화하지 않고 하위 심도의 부호화 단위로 부호화할지 여부를 나타내는 심도별 분할 정보를 이용하여 정의될 수 있다. 현재 부호화 단위의 현재 심도가 부호화 심도라면, 현재 부호화 단위는 현재 심도의 부호화 단위로 부호화되므로 현재 심도의 분할 정보는 더 이상 하위 심도로 분할되지 않도록 정의될 수 있다. 반대로, 현재 부호화 단위의 현재 심도가 부호화 심도가 아니라면 하위 심도의 부호화 단위를 이용한 부호화를 시도해보아야 하므로, 현재 심도의 분할 정보는 하위 심도의 부호화 단위로 분할되도록 정의될 수 있다.
현재 심도가 부호화 심도가 아니라면, 하위 심도의 부호화 단위로 분할된 부호화 단위에 대해 부호화가 수행된다. 현재 심도의 부호화 단위 내에 하위 심도의 부호화 단위가 하나 이상 존재하므로, 각각의 하위 심도의 부호화 단위마다 반복적으로 부호화가 수행되어, 동일한 심도의 부호화 단위마다 재귀적(recursive) 부호화가 수행될 수 있다.
하나의 최대 부호화 단위 안에 트리 구조의 부호화 단위들이 결정되며 부호화 심도의 부호화 단위마다 적어도 하나의 부호화 모드에 관한 정보가 결정되어야 하므로, 하나의 최대 부호화 단위에 대해서는 적어도 하나의 부호화 모드에 관한 정보가 결정될 수 있다. 또한, 최대 부호화 단위의 데이터는 심도에 따라 계층적으로 구획되어 위치 별로 부호화 심도가 다를 수 있으므로, 데이터에 대해 부호화 심도 및 부호화 모드에 관한 정보가 설정될 수 있다.
따라서, 일 실시예에 따른 출력부(130)는, 최대 부호화 단위에 포함되어 있는 부호화 단위, 예측 단위 및 최소 단위 중 적어도 하나에 대해, 해당 부호화 심도 및 부호화 모드에 대한 부호화 정보를 할당될 수 있다.
일 실시예에 따른 최소 단위는, 최하위 부호화 심도인 최소 부호화 단위가 4분할된 크기의 정사각형의 데이터 단위이다. 일 실시예에 따른 최소 단위는, 최대 부호화 단위에 포함되는 모든 부호화 단위, 예측 단위, 파티션 단위 및 변환 단위 내에 포함될 수 있는 최대 크기의 정사각 데이터 단위일 수 있다.
예를 들어 출력부(130)를 통해 출력되는 부호화 정보는, 심도별 부호화 단위별 부호화 정보와 예측 단위별 부호화 정보로 분류될 수 있다. 심도별 부호화 단위별 부호화 정보는, 예측 모드 정보, 파티션 크기 정보를 포함할 수 있다. 예측 단위별로 전송되는 부호화 정보는 인터 모드의 추정 방향에 관한 정보, 인터 모드의 참조 영상 인덱스에 관한 정보, 움직임 벡터에 관한 정보, 인트라 모드의 크로마 성분에 관한 정보, 인트라 모드의 보간 방식에 관한 정보 등을 포함할 수 있다.
픽처, 슬라이스 또는 GOP별로 정의되는 부호화 단위의 최대 크기에 관한 정보 및 최대 심도에 관한 정보는 비트스트림의 헤더, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트 등에 삽입될 수 있다.
비디오 부호화 장치(100)의 가장 간단한 형태의 실시예에 따르면, 심도별 부호화 단위는 한 계층 상위 심도의 부호화 단위의 높이 및 너비를 반분한 크기의 부호화 단위이다. 즉, 현재 심도의 부호화 단위의 크기가 2Nx2N이라면, 하위 심도의 부호화 단위의 크기는 NxN 이다. 또한, 2Nx2N 크기의 현재 부호화 단위는 NxN 크기의 하위 심도 부호화 단위를 최대 4개 포함할 수 있다.
따라서, 비디오 부호화 장치(100)는 현재 픽처의 특성을 고려하여 결정된 최대 부호화 단위의 크기 및 최대 심도를 기반으로, 각각의 최대 부호화 단위마다 최적의 형태 및 크기의 부호화 단위를 결정하여 트리 구조에 따른 부호화 단위들을 구성할 수 있다. 또한, 각각의 최대 부호화 단위마다 다양한 예측 모드, 변환 방식 등으로 부호화할 수 있으므로, 다양한 영상 크기의 부호화 단위의 영상 특성을 고려하여 최적의 부호화 모드가 결정될 수 있다.
따라서, 영상의 해상도가 매우 높거나 데이터량이 매우 큰 영상을 기존 매크로블록 단위로 부호화한다면, 픽처당 매크로블록의 수가 과도하게 많아진다. 이에 따라, 매크로블록마다 생성되는 압축 정보도 많아지므로 압축 정보의 전송 부담이 커지고 데이터 압축 효율이 감소하는 경향이 있다. 따라서, 일 실시예에 따른 비디오 부호화 장치는, 영상의 크기를 고려하여 부호화 단위의 최대 크기를 증가시키면서, 영상 특성을 고려하여 부호화 단위를 조절할 수 있으므로, 영상 압축 효율이 증대될 수 있다.
출력부(130)는, 트리 구조의 부호화 단위, 트리 구조의 변환 단위에 기초하여 비디오가 부호화하는데 사용된 부호화 방식에 관한 정보를 나타내는 부호화 정보를 부호화하여 출력할 수 있다. 일 실시예에 따른 부호화 정보는, 호화 심도의 부호화 단위에 대한 각종 부호화 모드에 대한 정보 및 부호화 심도에 대한 정보를 포함할 수 있다.
본 실시예에 따른 비디오 복호화 장치(200)의 각종 프로세싱을 위한 부호화 단위, 심도, 예측 단위, 변환 단위, 각종 부호화 모드에 관한 정보 등 각종 용어의 정의는, 비디오 부호화 장치(100)를 참조하여 전술한 바와 동일하다.
비디오 복호화 장치(200)는 부호화된 비디오에 대한 비트스트림을 수신한다. 수신추출부(220)는, 수신된 비트스트림을 파싱한다. 수신추출부(220)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 트리 구조에 따른 부호화 단위들에 따라 부호화 단위마다 부호화된 픽처 데이터를 추출하여 복호화부(230)로 출력한다. 수신추출부(220)는 현재 픽처에 대한 헤더, 시퀀스 파라미터 세트 또는 픽처 파라미터 세트로부터 현재 픽처의 부호화 단위의 최대 크기에 관한 정보를 추출할 수 있다.
또한, 수신추출부(220)는 파싱된 비트스트림으로부터 최대 부호화 단위별로 트리 구조에 따른 부호화 단위들에 대한 부호화 정보를 추출할 수 있다. 부호화 정보로부터, 부호화 심도에 대한 정보 및 부호화 모드에 관한 정보가 추출한다. 추출된 부호화 심도 및 부호화 모드에 관한 정보는 복호화부(230)로 출력된다. 즉, 비트열의 영상 데이터를 최대 부호화 단위로 분할하여, 복호화부(230)가 최대 부호화 단위마다 영상 데이터를 복호화하도록 할 수 있다.
최대 부호화 단위별 부호화 심도 및 부호화 모드에 관한 정보는, 하나 이상의 부호화 심도 정보에 대해 설정될 수 있으며, 부호화 심도별 부호화 모드에 관한 정보는, 해당 부호화 단위의 파티션 타입 정보, 예측 모드 정보 및 변환 단위의 크기 정보 등을 포함할 수 있다. 부호화 심도별 부호화 정보로부터, 인터 예측을 위해 부화소 단위의 보간을 위한 보간 필터링과 관련된 정보가 추출될 수도 있다. 또한, 부호화 심도 정보로서, 심도별 분할 정보가 추출될 수도 있다.
수신추출부(220)가 추출한 최대 부호화 단위별 부호화 심도 및 부호화 모드에 관한 정보는, 일 실시예에 따른 비디오 부호화 장치(100)와 같이 부호화단에서, 최대 부호화 단위별 심도별 부호화 단위마다 반복적으로 부호화를 수행하여 최소 부호화 오차를 발생시키는 것으로 결정된 부호화 심도 및 부호화 모드에 관한 정보가다. 따라서, 비디오 복호화 장치(200)는 최소 부호화 오차를 발생시키는 부호화 방식에 따라 데이터를 복호화하여 영상을 복원할 수 있다.
일 실시예에 따른 부호화 심도 및 부호화 모드에 대한 부호화 정보는, 해당 부호화 단위, 예측 단위 및 최소 단위 중 소정 데이터 단위에 대해 할당되어 있을 수 있으므로, 수신추출부(220)는 소정 데이터 단위별로 부호화 심도 및 부호화 모드에 관한 정보를 추출할 수 있다. 소정 데이터 단위별로, 해당 최대 부호화 단위의 부호화 심도 및 부호화 모드에 관한 정보가 기록되어 있다면, 동일한 부호화 심도 및 부호화 모드에 관한 정보를 갖고 있는 소정 데이터 단위들은 동일한 최대 부호화 단위에 포함되는 데이터 단위로 유추될 수 있다.
복호화부(230)는 심도별 분할 정보를 이용하여 현재 최대 부호화 단위의 부호화 심도를 결정할 수 있다. 만약, 분할 정보가 현재 심도에서 더 이상 분할되지 않음을 나타내고 있다면 현재 심도가 부호화 심도이다. 따라서, 복호화부(230)는 현재 최대 부호화 단위의 부호화된 픽처 데이터에 대해서도, 현재 심도의 부호화 단위를 예측 단위의 파티션 타입, 예측 모드 및 변환 단위 크기 정보를 이용하여 복호화할 수 있다.
즉, 부호화 단위, 예측 단위 및 최소 단위 중 소정 데이터 단위에 대해 설정되어 있는 부호화 정보를 관찰하여, 동일한 분할 정보를 포함한 부호화 정보를 보유하고 있는 데이터 단위가 모여, 복호화부(230)에 의해 동일한 부호화 모드로 복호화할 하나의 데이터 단위로 간주될 수 있다.
복호화부(230)는 최대 부호화 단위마다, 상기 판독된 부호화 심도 및 부호화 모드에 기초하여, 각각의 최대 부호화 단위의 부호화된 픽처 데이터를 복호화하여 현재 픽처를 복원할 수 있다. 최대 부호화 단위에 포함되는 트리 구조에 따른 부호화 단위들 가운데 각각의 부호화 단위마다, 부호화 모드로서 파티션 타입, 예측 모드, 변환 단위 구조 등이 판독될 수 있다. 복호화 과정은 인트라 예측 및 움직임 보상을 포함하는 예측 과정, 및 역변환 과정을 포함할 수 있다.
복호화부(230)는, 트리 구조의 부호화 단위의 예측 단위의 파티션 타입 및 예측 모드에 기초하여, 부호화 단위마다 각각의 파티션 및 예측 모드에 따라 인트라 예측 또는 움직임 보상을 수행할 수 있다.
또한, 복호화부(230)는, 트리 구조의 변환 단위 구조를 판독하고, 부호화 단위마다 변환 단위에 기초한 역변환을 수행할 수 있다.
비디오 복호화 장치(200)는, 부호화 과정에서 최대 부호화 단위마다 재귀적으로 부호화를 수행하여 최소 부호화 오차를 발생시킨 부호화 단위에 대한 정보를 획득하여, 현재 픽처에 대한 복호화에 이용할 수 있다. 즉, 최대 부호화 단위마다 최적 부호화 단위로 결정된 트리 구조에 따른 부호화 단위들의 부호화된 영상 데이터의 복호화가 가능해진다.
따라서, 높은 해상도의 영상 또는 데이터량이 과도하게 많은 영상이라도 부호화단으로부터 전송된 최적 부호화 모드에 관한 정보를 이용하여, 영상의 특성에 적응적으로 결정된 부호화 단위의 크기 및 부호화 모드에 따라 효율적으로 영상 데이터를 복호화하여 복원할 수 있다.
도 15 은 본 발명의 일 실시예에 따른 부호화 단위의 개념을 도시한다.
부호화 단위의 예는, 부호화 단위의 크기는 너비x높이로 표현되며, 크기 64x64인 부호화 단위부터, 32x32, 16x16, 8x8를 포함할 수 있다. 크기 64x64의 부호화 단위는 크기 64x64, 64x32, 32x64, 32x32의 파티션들로 분할될 수 있고, 크기 32x32의 부호화 단위는 크기 32x32, 32x16, 16x32, 16x16의 파티션들로, 크기 16x16의 부호화 단위는 크기 16x16, 16x8, 8x16, 8x8의 파티션들로, 크기 8x8의 부호화 단위는 크기 8x8, 8x4, 4x8, 4x4의 파티션들로 분할될 수 있다.
비디오 데이터(310)에 대해서는, 해상도는 1920x1080, 부호화 단위의 최대 크기는 64, 최대 심도가 2로 설정되어 있다. 비디오 데이터(320)에 대해서는, 해상도는 1920x1080, 부호화 단위의 최대 크기는 64, 최대 심도가 3로 설정되어 있다. 비디오 데이터(330)에 대해서는, 해상도는 352x288, 부호화 단위의 최대 크기는 16, 최대 심도가 1로 설정되어 있다. 도 15에 도시된 최대 심도는, 최대 부호화 단위로부터 최소 부호화 단위까지의 총 분할 횟수를 나타낸다.
해상도가 높거나 데이터량이 많은 경우 부호화 효율의 향상 뿐만 아니라 영상 특성을 정확히 반형하기 위해 부호화 사이즈의 최대 크기가 상대적으로 큰 것이 바람직하다. 따라서, 비디오 데이터(330)에 비해, 해상도가 높은 비디오 데이터(310, 320)는 부호화 사이즈의 최대 크기가 64로 선택될 수 있다.
비디오 데이터(310)의 최대 심도는 2이므로, 비디오 데이터(310)의 부호화 단위(315)는 장축 크기가 64인 최대 부호화 단위로부터, 2회 분할하며 심도가 두 계층 깊어져서 장축 크기가 32, 16인 부호화 단위들까지 포함할 수 있다. 반면, 비디오 데이터(330)의 최대 심도는 1이므로, 비디오 데이터(330)의 부호화 단위(335)는 장축 크기가 16인 부호화 단위들로부터, 1회 분할하며 심도가 한 계층 깊어져서 장축 크기가 8인 부호화 단위들까지 포함할 수 있다.
비디오 데이터(320)의 최대 심도는 3이므로, 비디오 데이터(320)의 부호화 단위(325)는 장축 크기가 64인 최대 부호화 단위로부터, 3회 분할하며 심도가 세 계층 깊어져서 장축 크기가 32, 16, 8인 부호화 단위들까지 포함할 수 있다. 심도가 깊어질수록 세부 정보의 표현능력이 향상될 수 있다.
도 16 는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 부호화부의 블록도를 도시한다.
일 실시예에 따른 영상 부호화부(400)는, 비디오 부호화 장치(100)의 부호화부(120)에서 영상 데이터를 부호화하는데 거치는 작업들을 포함한다. 즉, 인트라 예측부(410)는 현재 프레임(405) 중 인트라 모드의 부호화 단위에 대해 인트라 예측을 수행하고, 움직임 추정부(420) 및 움직임 보상부(425)는 인터 모드의 현재 프레임(405) 및 참조 프레임(495)을 이용하여 인터 추정 및 움직임 보상을 수행한다.
일 실시예에 따른 움직임 추정부(420) 및 움직임 보상부(425)는, 부화소 단위의 참조 픽셀을 이용하여 세밀하게 움직임을 추정하기 위해, 화소단위의 픽셀들을 보간하여 부화소 단위의 픽셀들을 생성할 수 있다. 부화소 단위의 픽셀들을 생성하기 위한 보간 필터는 도 1 및 도 13a에서 전술된 평활화 보간 필터일 수 있다.
인트라 예측부(410), 움직임 추정부(420) 및 움직임 보상부(425)로부터 출력된 데이터는 주파수 변환부(430) 및 양자화부(440)를 거쳐 양자화된 변환 계수로 출력된다. 양자화된 변환 계수는 역양자화부(460), 주파수 역변환부(470)을 통해 공간 영역의 데이터로 복원되고, 복원된 공간 영역의 데이터는 디블로킹부(480) 및 루프 필터링부(490)를 거쳐 후처리되어 참조 프레임(495)으로 출력된다. 양자화된 변환 계수는 엔트로피 부호화부(450)를 거쳐 비트스트림(455)으로 출력될 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)에 적용되기 위해서는, 영상 부호화부(400)의 구성 요소들인 인트라 예측부(410), 움직임 추정부(420), 움직임 보상부(425), 주파수 변환부(430), 양자화부(440), 엔트로피 부호화부(450), 역양자화부(460), 주파수 역변환부(470), 디블로킹부(480) 및 루프 필터링부(490)가 모두, 최대 부호화 단위마다 최대 심도를 고려하여 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위에 기반한 작업을 수행하여야 한다.
특히, 인트라 예측부(410), 움직임 추정부(420) 및 움직임 보상부(425)는 현재 최대 부호화 단위의 최대 크기 및 최대 심도를 고려하여 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위의 파티션 및 예측 모드를 결정하며, 주파수 변환부(430)는 트리 구조에 따른 부호화 단위들 중 각각의 부호화 단위 내의 변환 단위의 크기를 결정하여야 한다.
도 17 는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 복호화부의 블록도를 도시한다.
비트스트림(505)이 파싱부(510)를 거쳐 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화에 관한 정보가 파싱된다. 부호화된 영상 데이터는 엔트로피 복호화부(520) 및 역양자화부(530)를 거쳐 역양자화된 데이터로 출력되고, 주파수 역변환부(540)를 거쳐 공간 영역의 영상 데이터가 복원된다.
공간 영역의 영상 데이터에 대해서, 인트라 예측부(550)는 인트라 모드의 부호화 단위에 대해 인트라 예측을 수행하고, 움직임 보상부(560)는 참조 프레임(585)를 함께 이용하여 인터 모드의 부호화 단위에 대해 움직임 보상을 수행한다.
일 실시예에 따른 움직임 보상부(560)는, 부화소 단위의 참조 픽셀을 이용하여 세밀하게 움직임을 보상하기 위해, 화소단위의 픽셀들을 보간하여 부화소 단위의 픽셀들을 생성할 수 있다. 부화소 단위의 픽셀들을 생성하기 위한 보간 필터는 도 2 및 도 13b에서 전술된 평활화 보간 필터일 수 있다.
인트라 예측부(550) 및 움직임 보상부(560)를 거친 공간 영역의 데이터는 디블로킹부(570) 및 루프 필터링부(580)를 거쳐 후처리되어 복원 프레임(595)으로 출력될 수 있다. 또한, 디블로킹부(570) 및 루프 필터링부(580)를 거쳐 후처리된 데이터는 참조 프레임(585)으로서 출력될 수 있다.
비디오 복호화 장치(200)의 복호화부(230)에서 영상 데이터를 복호화하기 위해, 일 실시예에 따른 영상 복호화부(500)의 파싱부(510) 이후의 단계별 작업들이 수행될 수 있다.
일 실시예에 따른 비디오 복호화 장치(200)에 적용되기 위해서는, 영상 복호화부(500)의 구성 요소들인 파싱부(510), 엔트로피 복호화부(520), 역양자화부(530), 주파수 역변환부(540), 인트라 예측부(550), 움직임 보상부(560), 디블로킹부(570) 및 루프 필터링부(580)가 모두, 최대 부호화 단위마다 트리 구조에 따른 부호화 단위들에 기반하여 작업을 수행하여야 한다.
특히, 인트라 예측부(550), 움직임 보상부(560)는 트리 구조에 따른 부호화 단위들 각각마다 파티션 및 예측 모드를 결정하며, 주파수 역변환부(540)는 부호화 단위마다 변환 단위의 크기를 결정하여야 한다.
도 18 는 본 발명의 일 실시예에 따른 심도별 부호화 단위 및 파티션을 도시한다.
일 실시예에 따른 비디오 부호화 장치(100) 및 일 실시예에 따른 비디오 복호화 장치(200)는 영상 특성을 고려하기 위해 계층적인 부호화 단위를 사용한다. 부호화 단위의 최대 높이 및 너비, 최대 심도는 영상의 특성에 따라 적응적으로 결정될 수도 있으며, 사용자의 요구에 따라 다양하게 설정될 수도 있다. 미리 설정된 부호화 단위의 최대 크기에 따라, 심도별 부호화 단위의 크기가 결정될 수 있다.
일 실시예에 따른 부호화 단위의 계층 구조(600)는 부호화 단위의 최대 높이 및 너비가 64이며, 최대 심도가 4인 경우를 도시하고 있다. 이 때, 최대 심도는 최대 부호화 단위로부터 최소 부호화 단위까지의 총 분할 횟수를 나타낸다. 일 실시예에 따른 부호화 단위의 계층 구조(600)의 세로축을 따라서 심도가 깊어지므로 심도별 부호화 단위의 높이 및 너비가 각각 분할한다. 또한, 부호화 단위의 계층 구조(600)의 가로축을 따라, 각각의 심도별 부호화 단위의 예측 부호화의 기반이 되는 예측 단위 및 파티션이 도시되어 있다.
즉, 부호화 단위(610)는 부호화 단위의 계층 구조(600) 중 최대 부호화 단위로서 심도가 0이며, 부호화 단위의 크기, 즉 높이 및 너비가 64x64이다. 세로축을 따라 심도가 깊어지며, 크기 32x32인 심도 1의 부호화 단위(620), 크기 16x16인 심도 2의 부호화 단위(630), 크기 8x8인 심도 3의 부호화 단위(640), 크기 4x4인 심도 4의 부호화 단위(650)가 존재한다. 크기 4x4인 심도 4의 부호화 단위(650)는 최소 부호화 단위이다.
각각의 심도별로 가로축을 따라, 부호화 단위의 예측 단위 및 파티션들이 배열된다. 즉, 심도 0의 크기 64x64의 부호화 단위(610)가 예측 단위라면, 예측 단위는 크기 64x64의 부호화 단위(610)에 포함되는 크기 64x64의 파티션(610), 크기 64x32의 파티션들(612), 크기 32x64의 파티션들(614), 크기 32x32의 파티션들(616)로 분할될 수 있다.
마찬가지로, 심도 1의 크기 32x32의 부호화 단위(620)의 예측 단위는, 크기 32x32의 부호화 단위(620)에 포함되는 크기 32x32의 파티션(620), 크기 32x16의 파티션들(622), 크기 16x32의 파티션들(624), 크기 16x16의 파티션들(626)로 분할될 수 있다.
마찬가지로, 심도 2의 크기 16x16의 부호화 단위(630)의 예측 단위는, 크기 16x16의 부호화 단위(630)에 포함되는 크기 16x16의 파티션(630), 크기 16x8의 파티션들(632), 크기 8x16의 파티션들(634), 크기 8x8의 파티션들(636)로 분할될 수 있다.
마찬가지로, 심도 3의 크기 8x8의 부호화 단위(640)의 예측 단위는, 크기 8x8의 부호화 단위(640)에 포함되는 크기 8x8의 파티션(640), 크기 8x4의 파티션들(642), 크기 4x8의 파티션들(644), 크기 4x4의 파티션들(646)로 분할될 수 있다.
마지막으로, 심도 4의 크기 4x4의 부호화 단위(650)는 최소 부호화 단위이며 최하위 심도의 부호화 단위이고, 해당 예측 단위도 크기 4x4의 파티션(650)으로만 설정될 수 있다.
일 실시예에 따른 비디오 부호화 장치(100)의 부호화부(120)는, 최대 부호화 단위(610)의 부호화 심도를 결정하기 위해, 최대 부호화 단위(610)에 포함되는 각각의 심도의 부호화 단위마다 부호화를 수행하여야 한다.
동일한 범위 및 크기의 데이터를 포함하기 위한 심도별 부호화 단위의 개수는, 심도가 깊어질수록 심도별 부호화 단위의 개수도 증가한다. 예를 들어, 심도 1의 부호화 단위 한 개가 포함하는 데이터에 대해서, 심도 2의 부호화 단위는 네 개가 필요하다. 따라서, 동일한 데이터의 부호화 결과를 심도별로 비교하기 위해서, 한 개의 심도 1의 부호화 단위 및 네 개의 심도 2의 부호화 단위를 이용하여 각각 부호화되어야 한다.
각각의 심도별 부호화를 위해서는, 부호화 단위의 계층 구조(600)의 가로축을 따라, 심도별 부호화 단위의 예측 단위들마다 부호화를 수행하여, 해당 심도에서 가장 작은 부호화 오차인 대표 부호화 오차가 선택될 수다. 또한, 부호화 단위의 계층 구조(600)의 세로축을 따라 심도가 깊어지며, 각각의 심도마다 부호화를 수행하여, 심도별 대표 부호화 오차를 비교하여 최소 부호화 오차가 검색될 수 있다. 최대 부호화 단위(610) 중 최소 부호화 오차가 발생하는 심도 및 파티션이 최대 부호화 단위(610)의 부호화 심도 및 파티션 타입으로 선택될 수 있다.
도 19 은 본 발명의 일 실시예에 따른, 부호화 단위 및 변환 단위의 관계를 도시한다.
일 실시예에 따른 비디오 부호화 장치(100) 또는 일 실시예에 따른 비디오 복호화 장치(200)는, 최대 부호화 단위마다 최대 부호화 단위보다 작거나 같은 크기의 부호화 단위로 영상을 부호화하거나 복호화한다. 부호화 과정 중 변환을 위한 변환 단위의 크기는 각각의 부호화 단위보다 크지 않은 데이터 단위를 기반으로 선택될 수 있다.
예를 들어, 일 실시예에 따른 비디오 부호화 장치(100) 또는 일 실시예에 따른 비디오 복호화 장치(200)에서, 현재 부호화 단위(710)가 64x64 크기일 때, 32x32 크기의 변환 단위(720)를 이용하여 변환이 수행될 수 있다.
또한, 64x64 크기의 부호화 단위(710)의 데이터를 64x64 크기 이하의 32x32, 16x16, 8x8, 4x4 크기의 변환 단위들로 각각 변환을 수행하여 부호화한 후, 원본과의 오차가 가장 적은 변환 단위가 선택될 수 있다.
도 20 은 본 발명의 일 실시예에 따라, 심도별 부호화 정보들을 도시한다.
일 실시예에 따른 비디오 부호화 장치(100)의 출력부(130)는 부호화 모드에 관한 정보로서, 각각의 부호화 심도의 부호화 단위마다 파티션 타입에 관한 정보(800), 예측 모드에 관한 정보(810), 변환 단위 크기에 대한 정보(820)를 부호화하여 전송할 수 있다.
파티션 타입에 대한 정보(800)는, 현재 부호화 단위의 예측 부호화를 위한 데이터 단위로서, 현재 부호화 단위의 예측 단위가 분할된 파티션의 형태에 대한 정보를 나타낸다. 예를 들어, 크기 2Nx2N의 현재 부호화 단위 CU_0는, 크기 2Nx2N의 파티션(802), 크기 2NxN의 파티션(804), 크기 Nx2N의 파티션(806), 크기 NxN의 파티션(808) 중 어느 하나의 타입으로 분할되어 이용될 수 있다. 이 경우 현재 부호화 단위의 파티션 타입에 관한 정보(800)는 크기 2Nx2N의 파티션(802), 크기 2NxN의 파티션(804), 크기 Nx2N의 파티션(806) 및 크기 NxN의 파티션(808) 중 하나를 나타내도록 설정된다.
예측 모드에 관한 정보(810)는, 각각의 파티션의 예측 모드를 나타낸다. 예를 들어 예측 모드에 관한 정보(810)를 통해, 파티션 타입에 관한 정보(800)가 가리키는 파티션이 인트라 모드(812), 인터 모드(814) 및 스킵 모드(816) 중 하나로 예측 부호화가 수행되는지 여부가 설정될 수 있다.
또한, 변환 단위 크기에 관한 정보(820)는 현재 부호화 단위를 어떠한 변환 단위를 기반으로 변환을 수행할지 여부를 나타낸다. 예를 들어, 변환 단위는 제 1 인트라 변환 단위 크기(822), 제 2 인트라 변환 단위 크기(824), 제 1 인터 변환 단위 크기(826), 제 2 인트라 변환 단위 크기(828) 중 하나일 수 있다.
일 실시예에 따른 비디오 복호화 장치(200)의 영상 데이터 및 부호화 정보 추출부(210)는, 각각의 심도별 부호화 단위마다 파티션 타입에 관한 정보(800), 예측 모드에 관한 정보(810), 변환 단위 크기에 대한 정보(820)를 추출하여 복호화에 이용할 수 있다.
도 21 는 본 발명의 일 실시예에 따른 심도별 부호화 단위를 도시한다.
심도의 변화를 나타내기 위해 분할 정보가 이용될 수 있다. 분할 정보는 현재 심도의 부호화 단위가 하위 심도의 부호화 단위로 분할될지 여부를 나타낸다.
심도 0 및 2N_0x2N_0 크기의 부호화 단위(900)의 예측 부호화를 위한 예측 단위(910)는 2N_0x2N_0 크기의 파티션 타입(912), 2N_0xN_0 크기의 파티션 타입(914), N_0x2N_0 크기의 파티션 타입(916), N_0xN_0 크기의 파티션 타입(918)을 포함할 수 있다. 예측 단위가 대칭적 비율로 분할된 파티션들(912, 914, 916, 918)만이 예시되어 있지만, 전술한 바와 같이 파티션 타입은 이에 한정되지 않고 비대칭적 파티션, 임의적 형태의 파티션, 기하학적 형태의 파티션 등을 포함할 수 있다.
파티션 타입마다, 한 개의 2N_0x2N_0 크기의 파티션, 두 개의 2N_0xN_0 크기의 파티션, 두 개의 N_0x2N_0 크기의 파티션, 네 개의 N_0xN_0 크기의 파티션마다 반복적으로 예측 부호화가 수행되어야 한다. 크기 2N_0x2N_0, 크기 N_0x2N_0 및 크기 2N_0xN_0 및 크기 N_0xN_0의 파티션에 대해서는, 인트라 모드 및 인터 모드로 예측 부호화가 수행될 수 있다. 스킵 모드는 크기 2N_0x2N_0의 파티션에 예측 부호화가 대해서만 수행될 수 있다.
크기 2N_0x2N_0, 2N_0xN_0 및 N_0x2N_0의 파티션 타입(912, 914, 916) 중 하나에 의한 부호화 오차가 가장 작다면, 더 이상 하위 심도로 분할할 필요 없다.
크기 N_0xN_0의 파티션 타입(918)에 의한 부호화 오차가 가장 작다면, 심도 0를 1로 변경하며 분할하고(920), 심도 2 및 크기 N_0xN_0의 파티션 타입의 부호화 단위들(930)에 대해 반복적으로 부호화를 수행하여 최소 부호화 오차를 검색해 나갈 수 있다.
심도 1 및 크기 2N_1x2N_1 (=N_0xN_0)의 부호화 단위(930)의 예측 부호화를 위한 예측 단위(940)는, 크기 2N_1x2N_1의 파티션 타입(942), 크기 2N_1xN_1의 파티션 타입(944), 크기 N_1x2N_1의 파티션 타입(946), 크기 N_1xN_1의 파티션 타입(948)을 포함할 수 있다.
또한, 크기 N_1xN_1 크기의 파티션 타입(948)에 의한 부호화 오차가 가장 작다면, 심도 1을 심도 2로 변경하며 분할하고(950), 심도 2 및 크기 N_2xN_2의 부호화 단위들(960)에 대해 반복적으로 부호화를 수행하여 최소 부호화 오차를 검색해 나갈 수 있다.
최대 심도가 d인 경우, 심도별 부호화 단위는 심도 d-1일 때까지 설정되고, 분할 정보는 심도 d-2까지 설정될 수 있다. 즉, 심도 d-2로부터 분할(970)되어 심도 d-1까지 부호화가 수행될 경우, 심도 d-1 및 크기 2N_(d-1)x2N_(d-1)의 부호화 단위(980)의 예측 부호화를 위한 예측 단위(990)는, 크기 2N_(d-1)x2N_(d-1)의 파티션 타입(992), 크기 2N_(d-1)xN_(d-1)의 파티션 타입(994), 크기 N_(d-1)x2N_(d-1)의 파티션 타입(996), 크기 N_(d-1)xN_(d-1)의 파티션 타입(998)을 포함할 수 있다.
파티션 타입 가운데, 한 개의 크기 2N_(d-1)x2N_(d-1)의 파티션, 두 개의 크기 2N_(d-1)xN_(d-1)의 파티션, 두 개의 크기 N_(d-1)x2N_(d-1)의 파티션, 네 개의 크기 N_(d-1)xN_(d-1)의 파티션마다 반복적으로 예측 부호화를 통한 부호화가 수행되어, 최소 부호화 오차가 발생하는 파티션 타입이 검색될 수 있다.
크기 N_(d-1)xN_(d-1)의 파티션 타입(998)에 의한 부호화 오차가 가장 작더라도, 최대 심도가 d이므로, 심도 d-1의 부호화 단위 CU_(d-1)는 더 이상 하위 심도로의 분할 과정을 거치지 않으며, 현재 최대 부호화 단위(900)에 대한 부호화 심도가 심도 d-1로 결정되고, 파티션 타입은 N_(d-1)xN_(d-1)로 결정될 수 있다. 또한 최대 심도가 d이므로, 심도 d-1의 부호화 단위(952)에 대해 분할 정보는 설정되지 않는다.
데이터 단위(999)은, 현재 최대 부호화 단위에 대한 '최소 단위'라 지칭될 수 있다. 일 실시예에 따른 최소 단위는, 최하위 부호화 심도인 최소 부호화 단위가 4분할된 크기의 정사각형의 데이터 단위일 수 있다. 이러한 반복적 부호화 과정을 통해, 일 실시예에 따른 비디오 부호화 장치(100)는 부호화 단위(900)의 심도별 부호화 오차를 비교하여 가장 작은 부호화 오차가 발생하는 심도를 선택하여, 부호화 심도를 결정하고, 해당 파티션 타입 및 예측 모드가 부호화 심도의 부호화 모드로 설정될 수 있다.
이런 식으로 심도 0, 1, ..., d-1, d의 모든 심도별 최소 부호화 오차를 비교하여 오차가 가장 작은 심도가 선택되어 부호화 심도로 결정될 수 있다. 부호화 심도, 및 예측 단위의 파티션 타입 및 예측 모드는 부호화 모드에 관한 정보로써 부호화되어 전송될 수 있다. 또한, 심도 0으로부터 부호화 심도에 이르기까지 부호화 단위가 분할되어야 하므로, 부호화 심도의 분할 정보만이 '0'으로 설정되고, 부호화 심도를 제외한 심도별 분할 정보는 '1'로 설정되어야 한다.
일 실시예에 따른 비디오 복호화 장치(200)의 영상 데이터 및 부호화 정보 추출부(220)는 부호화 단위(900)에 대한 부호화 심도 및 예측 단위에 관한 정보를 추출하여 부호화 단위(912)를 복호화하는데 이용할 수 있다. 일 실시예에 따른 비디오 복호화 장치(200)는 심도별 분할 정보를 이용하여 분할 정보가 '0'인 심도를 부호화 심도로 파악하고, 해당 심도에 대한 부호화 모드에 관한 정보를 이용하여 복호화에 이용할 수 있다.
도 22, 23 및 24는 본 발명의 일 실시예에 따른, 부호화 단위, 예측 단위 및 변환 단위의 관계를 도시한다.
부호화 단위(1010)는, 최대 부호화 단위에 대해 일 실시예에 따른 비디오 부호화 장치(100)가 결정한 부호화 심도별 부호화 단위들이다. 예측 단위(1060)는 부호화 단위(1010) 중 각각의 부호화 심도별 부호화 단위의 예측 단위들의 파티션들이며, 변환 단위(1070)는 각각의 부호화 심도별 부호화 단위의 변환 단위들이다.
심도별 부호화 단위들(1010)은 최대 부호화 단위의 심도가 0이라고 하면, 부호화 단위들(1012, 1054)은 심도가 1, 부호화 단위들(1014, 1016, 1018, 1028, 1050, 1052)은 심도가 2, 부호화 단위들(1020, 1022, 1024, 1026, 1030, 1032, 1048)은 심도가 3, 부호화 단위들(1040, 1042, 1044, 1046)은 심도가 4이다.
예측 단위들(1060) 중 일부 파티션(1014, 1016, 1022, 1032, 1048, 1050, 1052, 1054)는 부호화 단위가 분할된 형태이다. 즉, 파티션(1014, 1022, 1050, 1054)은 2NxN의 파티션 타입이며, 파티션(1016, 1048, 1052)은 Nx2N의 파티션 타입, 파티션(1032)은 NxN의 파티션 타입이다. 심도별 부호화 단위들(1010)의 예측 단위 및 파티션들은 각각의 부호화 단위보다 작거나 같다.
변환 단위들(1070) 중 일부(1052)의 영상 데이터에 대해서는 부호화 단위에 비해 작은 크기의 데이터 단위로 변환 또는 역변환이 수행된다. 또한, 변환 단위(1014, 1016, 1022, 1032, 1048, 1050, 1052, 1054)는 예측 단위들(1060) 중 해당 예측 단위 및 파티션와 비교해보면, 서로 다른 크기 또는 형태의 데이터 단위이다. 즉, 일 실시예에 따른 비디오 부호화 장치(100) 및 일 실시예에 다른 비디오 복호화 장치(200)는 동일한 부호화 단위에 대한 인트라 예측/움직임 추정/움직임 보상 작업, 및 변환/역변환 작업이라 할지라도, 각각 별개의 데이터 단위를 기반으로 수행할 수 있다.
이에 따라, 최대 부호화 단위마다, 영역별로 계층적인 구조의 부호화 단위들마다 재귀적으로 부호화가 수행되어 최적 부호화 단위가 결정됨으로써, 재귀적 트리 구조에 따른 부호화 단위들이 구성될 수 있다. 부호화 정보는 부호화 단위에 대한 분할 정보, 파티션 타입 정보, 예측 모드 정보, 변환 단위 크기 정보를 포함할 수 있다. 이하 표 1은, 일 실시예에 따른 비디오 부호화 장치(100) 및 일 실시예에 따른 비디오 복호화 장치(200)에서 설정할 수 있는 일례를 나타낸다.
표 1
분할 정보 0 (현재 심도 d의 크기 2Nx2N의 부호화 단위에 대한 부호화) 분할 정보 1
예측 모드 파티션 타입 변환 단위 크기 하위 심도 d+1의 부호화 단위들마다 반복적 부호화
인트라 인터스킵 (2Nx2N만) 대칭형 파티션 타입 비대칭형 파티션 타입 변환 단위 분할 정보 0 변환 단위 분할 정보 1
2Nx2N2NxNNx2NNxN 2NxnU2NxnDnLx2NnRx2N 2Nx2N NxN (대칭형 파티션 타입) N/2xN/2 (비대칭형 파티션 타입)
일 실시예에 따른 비디오 부호화 장치(100)의 출력부(130)는 트리 구조에 따른 부호화 단위들에 대한 부호화 정보를 출력하고, 일 실시예에 따른 비디오 복호화 장치(200)의 수신추출부(220)는 수신된 비트스트림으로부터 트리 구조에 따른 부호화 단위들에 대한 부호화 정보를 추출할 수 있다.
분할 정보는 현재 부호화 단위가 하위 심도의 부호화 단위들로 분할되는지 여부를 나타낸다. 현재 심도 d의 분할 정보가 0이라면, 현재 부호화 단위가 현재 부호화 단위가 하위 부호화 단위로 더 이상 분할되지 않는 심도가 부호화 심도이므로, 부호화 심도에 대해서 파티션 타입 정보, 예측 모드, 변환 단위 크기 정보가 정의될 수 있다. 분할 정보에 따라 한 단계 더 분할되어야 하는 경우에는, 분할된 4개의 하위 심도의 부호화 단위마다 독립적으로 부호화가 수행되어야 한다.
예측 모드는, 인트라 모드, 인터 모드 및 스킵 모드 중 하나로 나타낼 수 있다. 인트라 모드 및 인터 모드는 모든 파티션 타입에서 정의될 수 있으며, 스킵 모드는 파티션 타입 2Nx2N에서만 정의될 수 있다.
파티션 타입 정보는, 예측 단위의 높이 또는 너비가 대칭적 비율로 분할된 대칭적 파티션 타입 2Nx2N, 2NxN, Nx2N 및 NxN 과, 비대칭적 비율로 분할된 비대칭적 파티션 타입 2NxnU, 2NxnD, nLx2N, nRx2N를 나타낼 수 있다. 비대칭적 파티션 타입 2NxnU 및 2NxnD는 각각 높이가 1:3 및 3:1로 분할된 형태이며, 비대칭적 파티션 타입 nLx2N 및 nRx2N은 각각 너비가 1:3 및 3:1로 분할된 형태를 나타낸다.
변환 단위 크기는 인트라 모드에서 두 종류의 크기, 인터 모드에서 두 종류의 크기로 설정될 수 있다. 즉, 변환 단위 분할 정보가 0 이라면, 변환 단위의 크기가 현재 부호화 단위의 크기 2Nx2N로 설정된다. 변환 단위 분할 정보가 1이라면, 현재 부호화 단위가 분할된 크기의 변환 단위가 설정될 수 있다. 또한 크기 2Nx2N인 현재 부호화 단위에 대한 파티션 타입이 대칭형 파티션 타입이라면 변환 단위의 크기는 NxN, 비대칭형 파티션 타입이라면 N/2xN/2로 설정될 수 있다.
일 실시예에 따른 트리 구조에 따른 부호화 단위들의 부호화 정보는, 부호화 심도의 부호화 단위, 예측 단위 및 최소 단위 단위 중 적어도 하나에 대해 할당될 수 있다. 부호화 심도의 부호화 단위는 동일한 부호화 정보를 보유하고 있는 예측 단위 및 최소 단위를 하나 이상 포함할 수 있다.
따라서, 인접한 데이터 단위들끼리 각각 보유하고 있는 부호화 정보들을 확인하면, 동일한 부호화 심도의 부호화 단위에 포함되는지 여부가 확인될 수 있다. 또한, 데이터 단위가 보유하고 있는 부호화 정보를 이용하면 해당 부호화 심도의 부호화 단위를 확인할 수 있으므로, 최대 부호화 단위 내의 부호화 심도들의 분포가 유추될 수 있다.
따라서 이 경우 현재 부호화 단위가 주변 데이터 단위를 참조하여 예측하기 경우, 현재 부호화 단위에 인접하는 심도별 부호화 단위 내의 데이터 단위의 부호화 정보가 직접 참조되어 이용될 수 있다.
또 다른 실시예로, 현재 부호화 단위가 주변 부호화 단위를 참조하여 예측 부호화가 수행되는 경우, 인접하는 심도별 부호화 단위의 부호화 정보를 이용하여, 심도별 부호화 단위 내에서 현재 부호화 단위에 인접하는 데이터가 검색됨으로써 주변 부호화 단위가 참조될 수도 있다.
도 25 은 표 1의 부호화 모드 정보에 따른 부호화 단위, 예측 단위 및 변환 단위의 관계를 도시한다.
최대 부호화 단위(1300)는 부호화 심도의 부호화 단위들(1302, 1304, 1306, 1312, 1314, 1316, 1318)을 포함한다. 이 중 하나의 부호화 단위(1318)는 부호화 심도의 부호화 단위이므로 분할 정보가 0으로 설정될 수 있다. 크기 2Nx2N의 부호화 단위(1318)의 파티션 타입 정보는, 파티션 타입 2Nx2N(1322), 2NxN(1324), Nx2N(1326), NxN(1328), 2NxnU(1332), 2NxnD(1334), nLx2N(1336) 및 nRx2N(1338) 중 하나로 설정될 수 있다.
변환 단위 분할 정보(TU size flag)는 변환 인덱스의 일종으로서, 변환 인덱스에 대응하는 변환 단위의 크기는 부호화 단위의 예측 단위 타입 또는 파티션 타입에 따라 변경될 수 있다.
예를 들어, 파티션 타입 정보가 대칭형 파티션 타입 2Nx2N(1322), 2NxN(1324), Nx2N(1326) 및 NxN(1328) 중 하나로 설정되어 있는 경우, 변환 단위 분할 정보가 0이면 크기 2Nx2N의 변환 단위(1342)가 설정되고, 변환 단위 분할 정보가 1이면 크기 NxN의 변환 단위(1344)가 설정될 수 있다.
파티션 타입 정보가 비대칭형 파티션 타입 2NxnU(1332), 2NxnD(1334), nLx2N(1336) 및 nRx2N(1338) 중 하나로 설정된 경우, 변환 단위 분할 정보(TU size flag)가 0이면 크기 2Nx2N의 변환 단위(1352)가 설정되고, 변환 단위 분할 정보가 1이면 크기 N/2xN/2의 변환 단위(1354)가 설정될 수 있다.
도 21을 참조하여 전술된 변환 단위 분할 정보(TU size flag)는 0 또는 1의 값을 갖는 플래그이지만, 일 실시예에 따른 변환 단위 분할 정보가 1비트의 플래그로 한정되는 것은 아니며 설정에 따라 0, 1, 2, 3.. 등으로 증가하며 변환 단위가 계층적으로 분할될 수도 있다. 변환 단위 분할 정보는 변환 인덱스의 한 실시예로써 이용될 수 있다.
이 경우, 일 실시예에 따른 변환 단위 분할 정보를 변환 단위의 최대 크기, 변환 단위의 최소 크기와 함께 이용하면, 실제로 이용된 변환 단위의 크기가 표현될 수 있다. 일 실시예에 따른 비디오 부호화 장치(100)는, 최대 변환 단위 크기 정보, 최소 변환 단위 크기 정보 및 최대 변환 단위 분할 정보를 부호화할 수 있다. 부호화된 최대 변환 단위 크기 정보, 최소 변환 단위 크기 정보 및 최대 변환 단위 분할 정보는 SPS에 삽입될 수 있다. 일 실시예에 따른 비디오 복호화 장치(200)는 최대 변환 단위 크기 정보, 최소 변환 단위 크기 정보 및 최대 변환 단위 분할 정보를 이용하여, 비디오 복호화에 이용할 수 있다.
예를 들어, (a) 현재 부호화 단위가 크기 64x64이고, 최대 변환 단위 크기는 32x32이라면, (a-1) 변환 단위 분할 정보가 0일 때 변환 단위의 크기가 32x32, (a-2) 변환 단위 분할 정보가 1일 때 변환 단위의 크기가 16x16, (a-3) 변환 단위 분할 정보가 2일 때 변환 단위의 크기가 8x8로 설정될 수 있다.
다른 예로, (b) 현재 부호화 단위가 크기 32x32이고, 최소 변환 단위 크기는 32x32이라면, (b-1) 변환 단위 분할 정보가 0일 때 변환 단위의 크기가 32x32로 설정될 수 있으며, 변환 단위의 크기가 32x32보다 작을 수는 없으므로 더 이상의 변환 단위 분할 정보가 설정될 수 없다.
또 다른 예로, (c) 현재 부호화 단위가 크기 64x64이고, 최대 변환 단위 분할 정보가 1이라면, 변환 단위 분할 정보는 0 또는 1일 수 있으며, 다른 변환 단위 분할 정보가 설정될 수 없다.
따라서, 최대 변환 단위 분할 정보를 'MaxTransformSizeIndex', 최소 변환 단위 크기를 'MinTransformSize', 변환 단위 분할 정보가 0인 경우의 변환 단위, 즉 기초 변환 단위 RootTu의 크기를 'RootTuSize'라고 정의할 때, 현재 부호화 단위에서 가능한 최소 변환 단위 크기 'CurrMinTuSize'는 아래 관계식 (1) 과 같이 정의될 수 있다.
CurrMinTuSize
= max (MinTransformSize, RootTuSize/(2^MaxTransformSizeIndex)) ... (1)
현재 부호화 단위에서 가능한 최소 변환 단위 크기 'CurrMinTuSize'와 비교하여, 기초 변환 단위 크기인 'RootTuSize'는 시스템상 채택 가능한 최대 변환 단위 크기를 나타낼 수 있다. 즉, 관계식 (1)에 따르면, 'RootTuSize/(2^MaxTransformSizeIndex)'는, 기초 변환 단위 크기인 'RootTuSize'를 최대 변환 단위 분할 정보에 상응하는 횟수만큼 분할한 변환 단위 크기이며, 'MinTransformSize'는 최소 변환 단위 크기이므로, 이들 중 작은 값이 현재 현재 부호화 단위에서 가능한 최소 변환 단위 크기 'CurrMinTuSize'일 수 있다.
일 실시예에 따른 기초 변환 단위 크기 RootTuSize는 예측 모드에 따라 달라질 수도 있다.
예를 들어, 현재 예측 모드가 인터 모드라면 RootTuSize는 아래 관계식 (2)에 따라 결정될 수 있다. 관계식 (2)에서 'MaxTransformSize'는 최대 변환 단위 크기, 'PUSize'는 현재 예측 단위 크기를 나타낸다.
RootTuSize = min(MaxTransformSize, PUSize) ......... (2)
즉 현재 예측 모드가 인터 모드라면, 변환 단위 분할 정보가 0인 경우의 변환 단위인 기초 변환 단위 크기인 'RootTuSize'는 최대 변환 단위 크기 및 현재 예측 단위 크기 중 작은 값으로 설정될 수 있다.
현재 파티션 단위의 예측 모드가 예측 모드가 인트라 모드라면 모드라면 'RootTuSize'는 아래 관계식 (3)에 따라 결정될 수 있다. 'PartitionSize'는 현재 파티션 단위의 크기를 나타낸다.
RootTuSize = min(MaxTransformSize, PartitionSize) ...........(3)
즉 현재 예측 모드가 인트라 모드라면, 기초 변환 단위 크기인 'RootTuSize'는 최대 변환 단위 크기 및 현재 파티션 단위 크기 중 작은 값으로 설정될 수 있다.
다만, 파티션 단위의 예측 모드에 따라 변동하는 일 실시예에 따른 현재 최대 변환 단위 크기인 기초 변환 단위 크기 'RootTuSize'는 일 실시예일 뿐이며, 현재 최대 변환 단위 크기를 결정하는 요인이 이에 한정되는 것은 아님을 유의하여야 한다.
도 26 는 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초하여 평활화 보간 필터를 이용하는 비디오 부호화 방법의 흐름도를 도시한다.
단계 2610에서, 입력된 비디오 중 현재 픽처를 부호화하기 위해, 현재 픽처는 적어도 하나의 최대 부호화 단위로 분할된다. 최대 부호화 단위의 영역이 하나의 이상이 심도들에 따라 분할된 적어도 하나의 분할 영역이 각각 부호화될 수 있다. 심도별로 분할 영역마다 부호화하기 위해, 부화소 단위의 보간에 기초한 인터 예측을 포함하여, 인트라 예측이 수행된 결과에 대해 변환/양자화가 수행된다.
여기서 심도별로 분할 영역들의 부호화 결과를 비교하여, 적어도 하나의 분할 영역 별로 최종 부호화 결과가 출력될 분할 심도가 결정되고, 현재 최대 부호화 단위에 포함되는 트리 구조에 따른 부호화 단위들이 결정될 수 있다. 트리 구조의 부호화 단위와 마찬가지로, 트리 구조에 따른 변환 단위들이 결정될 수 있다. 즉, 픽처의 부호화 결과로서, 결정된 트리 구조의 부호화 단위와 마찬가지로, 트리 구조에 따른 변환 단위들의 부호화 결과가 픽처의 부호화된 데이터로서 출력될 수 있다.
일 실시예에 따른 인터 예측은, 부호화 단위의 예측 단위 또는 파티션마다 수행될 수 있다. 부화소 단위의 보간을 이용하여 생성된 픽셀들을 참조하여 현재 예측 단위 또는 파티의 움직임이 예측될 수 있다. 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터가 선택된다. 효율적인 영상 보간을 위해 보간 필터 계수들의 선택적으로 결정할 수 있다. 메모리에 미리 저장된 보간 필터 계수들 중에서, 부화소 단위의 보간 위치, 평활도, 필터탭수, 비트뎁스, 스케일링 비율, 변환에 기초한 보간 필터링의 기저함수의 종류, 컬러 성분 등에 따라, 원하는 보간 필터가 선택되어 부화소 단위의 픽셀값을 위한 보간이 수행될 수 있다.
단계 2620에서, 최대 부호화 단위마다 적어도 하나의 분할 영역 별 최종 부호화 결과인 영상 데이터와, 부호화 심도 및 부호화 모드에 관한 정보가 비트스트림의 형태로 출력된다.
부호화 모드에 관한 정보는 부호화 심도에 관한 정보 또는 분할 정보, 예측 단위의 파티션 타입 정보, 예측 모드 정보, 변환 단위 계층 구조 정보 등을 포함할 수 있다. 부호화 정보는, 부화소 단위의 예측 부호화를 위해 어떤 보간 필터가 사용되었는지에 대한 정보를 포함할 수도 있다. 부호화된 부호화 모드에 관한 정보는, 부호화된 영상 데이터와 함께 복호화단으로 전송될 수 있다.
도 27 은 본 발명의 일 실시예에 따라 트리 구조에 따른 부호화 단위에 기초하여 평활화 보간 필터를 이용하는 비디오 복호화 방법의 흐름도를 도시한다.
단계 2710에서, 부호화된 비디오에 대한 비트스트림이 수신된다.
단계 2720에서, 파싱된 비트스트림으로부터 최대 크기의 최대 부호화 단위에 할당되는 현재 픽처의 영상 데이터 및 최대 부호화 단위별 부호화 심도 및 부호화 모드에 관한 정보가 추출된다. 부호화 정보로부터 부화소 단위의 움직임 보상을 위해 어떤 보간 필터가 필요한지에 대한 정보를 추출될 수도 있다.
부호화 정보로부터, 일 실시예에 따른 부호화 심도 및 부호화 모드에 관한 정보가 판독될 수 있다. 일 실시예에 따른 부호화 심도 및 부호화 모드에 관한 정보에 따르면, 최대 부호화 단위가 트리 구조에 따른 부호화 단위들로 분할될 수 있다. 또한 추출된 정보 중 변환 단위 계층 구조 정보에 따르면, 부호화 단위 내의 트리 구조에 따른 변환 심도의 변환 단위가 결정될 수 있다.
단계 2730에서, 최대 부호화 단위별 부호화 심도 및 부호화 모드에 관한 정보를 이용하여, 트리 구조의 부호화 단위, 이에 대한 예측 단위, 이에 대한 트리 구조의 변환 단위에 기초하여, 각각의 최대 부호화 단위의 영상 데이터가 복호화될 수 있다. 부호화 심도 및 부호화 모드에 관한 정보에 기초하여 현재 부호화 단위에 대해 복호화가 수행되면서, 트리 구조의 변환 단위들 중에서 결정된 변환 단위를 이용하여, 현재 부호화 단위에 대해 역변환이 수행될 수 있다.
부호화 단위의 예측 단위 또는 파티션마다, 부호화 모드에 기초하여 움직임 보상, 인트라 예측 등의 각종 복호화 동작을 통해 부호화된 픽처 데이터가 복호화될 수 있다.
특히, 부화소 단위로 보간된 픽셀을 기초로 부호화된 레지듀얼 데이터 및 참조 데이터가 추출된 경우, 현재 예측 단위 또는 현재 파티션에 대한 움직임 보상은 부화소 단위로 보간된 픽셀들을 참조하여 수행될 수 있다. 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터가 선택될 수 있다.
효율적인 영상 보간을 위해 보간 필터 계수들의 선택적으로 결정할 수 있다.메모리에 미리 저장된 보간 필터 계수들 중에서, 부화소 단위의 보간 위치, 평활도, 필터탭수, 비트뎁스, 스케일링 비율, 변환에 기초한 보간 필터링의 기저함수의 종류, 컬러 성분 등에 따라, 원하는 보간 필터가 선택되어 부화소 단위의 픽셀값을 위한 보간이 수행될 수 있다.
참조 데이터를 이용하여 참조 픽처 및 참조 영역이 결정되고, 참조 픽처 상의 둘 이상의 화소단위의 참조 픽셀들에 대한 보간 필터링을 통해 부화소 단위의 픽셀값이 생성될 수 있다. 생성된 부화소 단위 픽셀 값과 레지듀얼 데이터가 합성됨으로써 현재 예측 단위 또는 현재 파티션에 대한 움직임 보상이 수행되고 예측 복호화가 수행될 수 있다.
최대 부호화 단위마다 복호화가 수행되면서 공간 영역의 영상 데이터가 복원되고, 픽처 및 픽처 시퀀스인 비디오가 복원될 수 있다. 복원된 비디오는 재생 장치에 의해 재생되거나, 저장 매체에 저장되거나, 네트워크를 통해 전송될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 영상을 보간하는 방법에 있어서,
    화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하는 단계; 및
    상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 단계를 포함하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  2. 제 1 항에 있어서,
    상기 보간 필터는, 복수 개의 기저함수들에 기초하여 상기 화소단위 픽셀들을 변환하고, 상기 변환 결과 생성된 복수 개의 계수들을 역변환하기 위한 필터 계수들로 구성된 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  3. 제 1 항에 있어서,
    상기 보간 필터는, 상기 화소단위 픽셀들과 상기 보간 위치 간의 거리에 기초하여 상기 평활도가 결정되는 필터 계수들로 구성된 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  4. 제 1 항에 있어서,
    상기 보간 필터들은, 상기 화소단위 픽셀들 중에서 상기 보간 위치에 인접하는 픽셀들과 상기 보간 위치 간의 거리에 기초하여, 상기 평활도가 결정되는 필터 계수들로 구성된 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  5. 제 2 항에 있어서,
    상기 보간 필터는, 상기 화소단위 픽셀들을 공간 도메인에서 보간하기 위하여, 상기 복수 개의 기저함수들을 이용한 변환 및 역변환을 위한 필터 및 윈도우 함수를 합성한 필터 계수들로 구성되고,
    상기 윈도우 함수는, 상기 보간 위치를 중심으로 대칭적인 형태인 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  6. 제 2 항에 있어서,
    상기 보간 필터는, 상기 화소단위 픽셀들을 공간 도메인에서 보간하기 위하여, 상기 복수 개의 기저함수들을 이용한 변환 및 역변환을 위한 필터에 평활도 파라미터를 합성한 필터 계수들로 구성되고,
    상기 평활도 파라미터는, 상기 평활도의 속도 및 상기 평활도의 범위 중 적어도 하나를 제어하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  7. 제 2 항에 있어서,
    상기 보간 필터는, 스플라인 함수인 기저함수에 기초하여, 상기 스플라인 함수의 경계 조건에 따라 상기 화소단위 픽셀들의 경계 픽셀들에서 최대로 평활화하기 위한 필터 계수들로 구성되는 것을 는 특징으로 하는 평활화를 고려한 영상 보간 방법.
  8. 제 2 항에 있어서,
    상기 보간 필터는, 다항식인 기저함수에 기초하여, 상기 보간 필터의 저주파 응답을 최대화하는 필터 계수들로 구성된 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  9. 제 1 항에 있어서,
    상기 보간 필터 선택 단계는, 상기 보간 필터들 중에서, 필터 계수들이 정수로 확대된 보간 필터를 선택하는 단계를 포함하고,
    상기 부화소단위의 픽셀값 생성 단계는, 상기 선택된 보간 필터를 이용하여 생성한 픽셀값을 상기 스케일링 비율에 기초하여 정규화하는 단계를 포함하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  10. 제 1 항에 있어서,
    상기 보간 필터 선택 단계는, 크로마 성분의 픽셀 보간을 위해, 상기 보간 필터들 중에서 루마 성분의 픽셀을 위한 보간 필터보다 평활도가 큰 보간 필터를 선택하는 단계를 포함하고,
    상기 부화소단위의 픽셀값 생성 단계는, 상기 크로마 성분의 픽셀 및 루마 성분의 픽셀별로 각각 선택된 서로 다른 보간 필터를 이용하여, 상기 부화소단위의 픽셀값을 생성하는 단계를 포함하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  11. 제 1 항에 있어서,
    상기 보간 필터들은, i) 필터 계수 { -1, 4, -10, 57, 19, -7, 3, -1 }로 구성된 8탭, 스케일링 비율 26, 1/4-화소 단위의 보간 필터, (ii) 필터 계수 { -1, 4, -11, 40, 40, -11, 4, -1 }로 구성된 8탭 스케일링 비율 26, 1/2-화소 단위의 보간 필터 , (iii) 필터 계수 { -3, 60, 8, -1 }로 구성된 4탭, 스케일링 비율 26, 1/8-화소 단위의 보간 필터, (iv) 필터 계수 { -4, 54, 16, -2 }로 구성된 4탭, 스케일링 비율 26, 1/4-화소 단위의 보간 필터, (v) 필터 계수 { -5, 46, 27, -4 }로 구성된 4탭, 스케일링 비율 26, 3/8-화소 단위의 보간 필터, (vi) 필터 계수 { -4, 36, 36, -4 }로 구성된 4탭, 스케일링 비율 26, 1/2-화소 단위의 보간 필터 중 적어도 하나를 포함하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  12. 제 1 항에 있어서, 상기 영상 보간 방법은,
    비디오 인코더에 의해, 입력 픽처의 블록별로, 상기 비디오 인코더에 저장된 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하고, 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하여 예측 부호화를 수행하고, 상기 예측 부호화에 따른 예측 결과에 대해 변환 및 양자화를 수행하는 단계; 및
    상기 양자화된 변환 계수 및 부호화 정보에 대해 엔트로피 부호화를 수행하고 생성된 비트스트림을 출력하는 단계를 포함하 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  13. 제 1 항에 있어서, 상기 영상 보간 방법은,
    비디오 디코더에 의해, 비디오의 부호화된 비트스트림을 수신하여, 엔트로피 복호화를 수행하고, 파싱하여, 부호화 정보와 상기 비디오의 픽처의 부호화된 데이터를 추출하는 단계; 및
    상기 픽처 중 현재 블록의 부호화된 데이터 중에서 양자화된 변환 계수에 대해 역양자화 및 역변환을 수행하고, 상기 비디오 디코더에 저장된 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하고, 상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하여 예측 복호화를 수행하여, 상기 픽처를 복원하는 단계를 포함하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  14. 영상 보간 장치에 있어서,
    화소단위들 사이에 위치하는 적어도 하나의 부화소단위의 픽셀값을 생성하기 위한 보간 필터들 중에서, 상기 부화소단위의 보간 위치 및 평활도에 기초하여 상이하게 보간 필터를 선택하는 필터 선택부; 및
    상기 선택된 보간 필터를 이용하여 화소단위 픽셀들의 픽셀값들을 보간하여, 상기 적어도 하나의 부화소단위의 픽셀값을 생성하는 보간부를 포함하는 것을 특징으로 하는 평활화를 고려한 영상 보간 방법.
  15. 제 1 항의 영상 보간 방법을 전산적으로 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.
PCT/KR2011/007220 2010-09-30 2011-09-30 평활화 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치 WO2012044105A2 (ko)

Priority Applications (13)

Application Number Priority Date Filing Date Title
CN201180057602.5A CN103238320B (zh) 2010-09-30 2011-09-30 通过使用平滑插值滤波器对图像进行插值的方法和装置
BR122021005436-3A BR122021005436B1 (pt) 2010-09-30 2011-09-30 Aparelho para compensação de movimento
MX2013003606A MX2013003606A (es) 2010-09-30 2011-09-30 Metodo y dispositivo para interpolar imagenes al utilizar filtro de interpolacion de alisado.
BR112013007203-2A BR112013007203B1 (pt) 2010-09-30 2011-09-30 Método de compensação de movimento
EP11829611.0A EP2624558A4 (en) 2010-09-30 2011-09-30 METHOD AND DEVICE FOR INTERPOLATING IMAGES USING INTERPOLATION AND LAUNDRY FILTER
US13/877,074 US9124902B2 (en) 2010-09-30 2011-09-30 Method and device for interpolating images by using a smoothing interpolation filter
EP23216198.4A EP4318277A3 (en) 2010-09-30 2011-09-30 Method and device for interpolating images by using a smoothing interpolation filter
JP2013531498A JP5654685B2 (ja) 2010-09-30 2011-09-30 動き補償方法及び動き補償装置
BR122020014075-5A BR122020014075B1 (pt) 2010-09-30 2011-09-30 Método de compensação de movimento
US14/632,155 US9179167B2 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,169 US9277247B2 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,176 US9253507B2 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,132 US9118933B1 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US38826410P 2010-09-30 2010-09-30
US61/388,264 2010-09-30
US201061426479P 2010-12-22 2010-12-22
US61/426,479 2010-12-22
US201161431909P 2011-01-12 2011-01-12
US61/431,909 2011-01-12
US201161450775P 2011-03-09 2011-03-09
US61/450,775 2011-03-09

Related Child Applications (5)

Application Number Title Priority Date Filing Date
US13/877,074 A-371-Of-International US9124902B2 (en) 2010-09-30 2011-09-30 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,132 Continuation US9118933B1 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,176 Continuation US9253507B2 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,155 Continuation US9179167B2 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter
US14/632,169 Continuation US9277247B2 (en) 2010-09-30 2015-02-26 Method and device for interpolating images by using a smoothing interpolation filter

Publications (2)

Publication Number Publication Date
WO2012044105A2 true WO2012044105A2 (ko) 2012-04-05
WO2012044105A3 WO2012044105A3 (ko) 2012-06-07

Family

ID=45893683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/007220 WO2012044105A2 (ko) 2010-09-30 2011-09-30 평활화 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치

Country Status (18)

Country Link
US (5) US9124902B2 (ko)
EP (7) EP2860980B1 (ko)
JP (7) JP5654685B2 (ko)
KR (7) KR101452861B1 (ko)
CN (6) CN104994381B (ko)
BR (2) BR122020014075B1 (ko)
CY (4) CY1119447T1 (ko)
DK (4) DK2996335T3 (ko)
ES (4) ES2640666T3 (ko)
HR (4) HRP20170917T1 (ko)
HU (4) HUE037725T2 (ko)
LT (4) LT2953355T (ko)
MX (5) MX2013003606A (ko)
PL (4) PL2860980T3 (ko)
PT (4) PT2996335T (ko)
RS (3) RS56473B1 (ko)
SI (4) SI2860980T1 (ko)
WO (1) WO2012044105A2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014107066A1 (ko) * 2013-01-04 2014-07-10 삼성전자 주식회사 위상차를 고려한 영상 업샘플링을 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
CN109845265A (zh) * 2016-10-19 2019-06-04 数字洞察力有限公司 使用自适应插值滤波器的视频编码方法及装置
US11722693B2 (en) 2016-02-01 2023-08-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Prediction image generation device, moving image decoding device, and moving image coding device

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121716A1 (ja) * 2010-03-30 2011-10-06 株式会社 東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
KR101682147B1 (ko) * 2010-04-05 2016-12-05 삼성전자주식회사 변환 및 역변환에 기초한 보간 방법 및 장치
JP5977235B2 (ja) * 2010-07-09 2016-08-24 サムスン エレクトロニクス カンパニー リミテッド 映像補間方法
JP5665508B2 (ja) * 2010-11-30 2015-02-04 キヤノン株式会社 画像処理装置及び方法、並びにプログラム及び記憶媒体
US9264725B2 (en) 2011-06-24 2016-02-16 Google Inc. Selection of phase offsets for interpolation filters for motion compensation
JP5886953B2 (ja) * 2011-06-28 2016-03-16 サムスン エレクトロニクス カンパニー リミテッド 非対称形の補間フィルタを利用して、映像を補間する方法及びその装置
KR101956284B1 (ko) * 2011-06-30 2019-03-08 엘지전자 주식회사 보간 방법 및 이를 이용한 예측 방법
US9883203B2 (en) * 2011-11-18 2018-01-30 Qualcomm Incorporated Adaptive overlapped block motion compensation
DE102011119177A1 (de) * 2011-11-23 2013-05-23 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Verfahren zum Erstellen eines ersten Parametersatzes
JP5911166B2 (ja) * 2012-01-10 2016-04-27 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置、及び画像表示装置
US8675102B2 (en) * 2012-06-08 2014-03-18 Apple Inc. Real time denoising of video
US20140078394A1 (en) * 2012-09-17 2014-03-20 General Instrument Corporation Selective use of chroma interpolation filters in luma interpolation process
AU2014227060B2 (en) * 2013-03-07 2017-04-06 Japan Oil, Gas And Metals National Corporation Image processing device, method for image processing, and image processing program
DE102013219737B4 (de) 2013-09-30 2019-05-09 Siemens Healthcare Gmbh Angiographisches Untersuchungsverfahren eines Gefäßsystems
JP2015144423A (ja) * 2013-12-25 2015-08-06 三星電子株式会社Samsung Electronics Co.,Ltd. 画像符号化装置、画像復号化装置、それらの方法、プログラム及び画像処理システム
WO2015149699A1 (en) * 2014-04-01 2015-10-08 Mediatek Inc. Method of adaptive interpolation filtering in video coding
KR102440941B1 (ko) 2015-03-03 2022-09-05 삼성전자주식회사 이미지 처리 정보에 따라 크기와 방향을 갖는 초기 위상을 계산할 수 있는 이미지 처리 장치들
KR102402671B1 (ko) 2015-09-09 2022-05-26 삼성전자주식회사 보간 필터의 연산 복잡도를 조절할 수 있는 영상 처리 장치, 영상 보간 방법 및 영상 부호화 방법
GB201516670D0 (en) * 2015-09-21 2015-11-04 Taranis Visual Method and system for interpolating data
CN108028937B (zh) 2015-09-25 2020-07-24 华为技术有限公司 视频运动补偿装置和方法
RU2696309C1 (ru) * 2015-09-25 2019-08-01 Хуавэй Текнолоджиз Ко., Лтд. Устройство и способ компенсации движения видео
WO2017052405A1 (en) * 2015-09-25 2017-03-30 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
AU2015410095C1 (en) 2015-09-25 2020-01-16 Huawei Technologies Co., Ltd. Adaptive sharpening filter for predictive coding
CN107925772B (zh) * 2015-09-25 2020-04-14 华为技术有限公司 利用可选插值滤波器进行视频运动补偿的装置和方法
MX2018006091A (es) 2015-11-17 2018-11-09 Awei Tech Co Ltd Metodo y aparato para filtracion adaptativa de muestras para codificacion de video.
US10009622B1 (en) 2015-12-15 2018-06-26 Google Llc Video coding with degradation of residuals
WO2018097700A1 (ko) * 2016-11-28 2018-05-31 한국전자통신연구원 필터링을 위한 방법 및 장치
CN116320494A (zh) 2016-11-28 2023-06-23 韩国电子通信研究院 用于滤波的方法和装置
WO2018132150A1 (en) * 2017-01-13 2018-07-19 Google Llc Compound prediction for video coding
CN110583021B (zh) * 2017-01-31 2023-06-02 夏普株式会社 用于执行平面帧内预测视频编码的系统和方法
US10499078B1 (en) * 2017-02-07 2019-12-03 Google Llc Implicit motion compensation filter selection
KR102511546B1 (ko) * 2017-02-24 2023-03-17 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10440396B2 (en) * 2017-03-28 2019-10-08 Qualcomm Incorporated Filter information sharing among color components
JP6981811B2 (ja) 2017-08-25 2021-12-17 株式会社ニューフレアテクノロジー パターン検査装置及びパターン検査方法
WO2019065537A1 (ja) * 2017-09-28 2019-04-04 シャープ株式会社 動き補償フィルタ装置、画像復号装置および動画像符号化装置
SG11202003260WA (en) * 2017-11-07 2020-05-28 Huawei Tech Co Ltd Interpolation filter for an inter prediction apparatus and method for video coding
KR102424189B1 (ko) * 2018-02-14 2022-07-21 후아웨이 테크놀러지 컴퍼니 리미티드 적응형 보간 필터
US20190273946A1 (en) * 2018-03-05 2019-09-05 Markus Helmut Flierl Methods and Arrangements for Sub-Pel Motion-Adaptive Image Processing
WO2019190342A1 (en) 2018-03-29 2019-10-03 Huawei Technologies Co., Ltd Image processing apparatus and method
TWI677233B (zh) * 2018-08-02 2019-11-11 瑞昱半導體股份有限公司 決定濾波器係數的方法
SG11202103441TA (en) * 2018-10-06 2021-05-28 Huawei Tech Co Ltd Method and apparatus for intra prediction using an interpolation filter
AU2020235190B2 (en) 2019-03-08 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Constraints on model-based reshaping in video processing
BR112021019260A2 (pt) 2019-03-28 2021-11-30 Huawei Tech Co Ltd Método e aparelho para suavização intra
CN117528068A (zh) 2019-04-18 2024-02-06 北京字节跳动网络技术有限公司 视频编解码中的跨分量模式中的选择性使用
EP3935855A4 (en) 2019-04-23 2022-09-21 Beijing Bytedance Network Technology Co., Ltd. METHOD OF CROSS-COMPONENT DEPENDENCE REDUCTION
EP3949395A4 (en) 2019-05-08 2022-06-29 Beijing Bytedance Network Technology Co., Ltd. Conditions for applicability of cross-component coding
CN117478908A (zh) 2019-06-22 2024-01-30 北京字节跳动网络技术有限公司 色度残差缩放的语法元素
CN110351482A (zh) * 2019-06-25 2019-10-18 杭州汇萃智能科技有限公司 图像预处理装置、方法和一种相机
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
JP6797247B2 (ja) * 2019-07-10 2020-12-09 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ビデオ動き補償用の装置および方法
JP2022548521A (ja) * 2019-09-23 2022-11-21 アリババ グループ ホウルディング リミテッド 参照ダウンサンプリングありの動き補償補間のためのフィルタ
US20210176486A1 (en) * 2019-12-09 2021-06-10 Alibaba Group Holding Limited Methods and apparatuses for motion compensation
EP4128755A4 (en) * 2020-04-29 2023-09-06 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR INTERPOLATION FILTERING UNDERSAMPLING
US20240171757A1 (en) * 2021-03-31 2024-05-23 Telefonaktiebolaget Lm Ericsson (Publ) Smooth surface prediction
US20230179763A1 (en) * 2021-12-06 2023-06-08 Tencent America LLC Interpolation Filters for Adaptive Motion Vector Difference Resolution
WO2023200135A1 (ko) * 2022-04-15 2023-10-19 현대자동차주식회사 크로마 성분에 대한 개선된 인루프필터를 이용하는 비디오 코딩을 위한 방법 및 장치

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07266331A (ja) * 1994-03-30 1995-10-17 Hitachi Chem Co Ltd 単結晶の切断方法
JP3637740B2 (ja) * 1997-08-25 2005-04-13 三菱住友シリコン株式会社 ワイヤソーおよびインゴット切断方法
JP3075269B2 (ja) 1998-10-13 2000-08-14 セイコーエプソン株式会社 画像データ補間方法、画像データ補間装置および画像データ補間プログラムを記録した媒体
US6768817B1 (en) 1999-09-03 2004-07-27 Truong, T.K./ Chen, T.C. Fast and efficient computation of cubic-spline interpolation for data compression
JP2003509748A (ja) * 1999-09-03 2003-03-11 チェン,ティー.シー. データ圧縮のための3次スプライン補間の高速で効率のよい計算方法
DE10055286A1 (de) * 2000-11-08 2002-05-23 Freiberger Compound Mat Gmbh Vorrichtung und Verfahren zum Trennen von Werkstoffen
DE10122628B4 (de) * 2001-05-10 2007-10-11 Siltronic Ag Verfahren zum Abtrennen von Scheiben von einem Werkstück
JP4120301B2 (ja) * 2002-04-25 2008-07-16 ソニー株式会社 画像処理装置およびその方法
SG140441A1 (en) * 2003-03-17 2008-03-28 St Microelectronics Asia Decoder and method of decoding using pseudo two pass decoding and one pass encoding
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
KR101038822B1 (ko) 2003-09-07 2011-06-03 마이크로소프트 코포레이션 인터레이스형 비디오의 코딩 및 디코딩
US8165389B2 (en) 2004-03-15 2012-04-24 Microsoft Corp. Adaptive interpolation with artifact reduction of images
US7502505B2 (en) 2004-03-15 2009-03-10 Microsoft Corporation High-quality gradient-corrected linear interpolation for demosaicing of color images
US7623575B2 (en) * 2005-01-05 2009-11-24 Lsi Corporation Method and apparatus for sub-pixel motion compensation
KR20070055212A (ko) 2005-11-25 2007-05-30 삼성전자주식회사 프레임 보간장치, 프레임 보간방법 및 움직임 신뢰성평가장치
CN100566413C (zh) * 2006-06-05 2009-12-02 华为技术有限公司 一种自适应插值处理方法及编解码模块
US9014280B2 (en) 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
JP2008118447A (ja) 2006-11-06 2008-05-22 Canon Inc 画像形成装置及び画像形成方法ならびにそのプログラム
CN101212672B (zh) * 2006-12-30 2011-01-05 安凯(广州)微电子技术有限公司 视频内容自适应的亚像素插值方法和装置
KR101369746B1 (ko) * 2007-01-22 2014-03-07 삼성전자주식회사 적응적 보간 필터를 이용한 영상 부호화, 복호화 방법 및장치
EP2048886A1 (en) * 2007-10-11 2009-04-15 Panasonic Corporation Coding of adaptive interpolation filter coefficients
KR101418116B1 (ko) * 2007-10-24 2014-07-09 고려대학교 산학협력단 프레임 보간 장치 및 그를 포함한 프레임 속도 상향 변환장치
JP4988627B2 (ja) * 2008-03-05 2012-08-01 ルネサスエレクトロニクス株式会社 フィルタ演算器及び動き補償装置
CN102057680A (zh) * 2008-07-04 2011-05-11 株式会社东芝 运动图像编码/解码方法和装置
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
US8761268B2 (en) * 2009-04-06 2014-06-24 Intel Corporation Selective local adaptive wiener filter for video coding and decoding
WO2011086672A1 (ja) * 2010-01-13 2011-07-21 株式会社 東芝 動画像符号化装置および復号装置
JP5977235B2 (ja) * 2010-07-09 2016-08-24 サムスン エレクトロニクス カンパニー リミテッド 映像補間方法
US20120134425A1 (en) * 2010-11-29 2012-05-31 Faouzi Kossentini Method and System for Adaptive Interpolation in Digital Video Coding
PL2658263T3 (pl) * 2010-12-22 2023-03-13 Lg Electronics Inc. Sposób predykcji wewnątrzramkowej i urządzenie wykorzystujące ten sposób
US20120230423A1 (en) * 2011-03-10 2012-09-13 Esenlik Semih Line memory reduction for video coding and decoding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2624558A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014107066A1 (ko) * 2013-01-04 2014-07-10 삼성전자 주식회사 위상차를 고려한 영상 업샘플링을 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
US9961365B2 (en) 2013-01-04 2018-05-01 Samsung Electronics Co., Ltd. Scalable video encoding method and apparatus using image up-sampling in consideration of phase-shift and scalable video decoding method and apparatus
US11722693B2 (en) 2016-02-01 2023-08-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Prediction image generation device, moving image decoding device, and moving image coding device
US11729419B2 (en) 2016-02-01 2023-08-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Prediction image generation device, moving image decoding device, and moving image coding device
US11770555B2 (en) 2016-02-01 2023-09-26 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Prediction image generation device, moving image decoding device, and moving image coding device
CN109845265A (zh) * 2016-10-19 2019-06-04 数字洞察力有限公司 使用自适应插值滤波器的视频编码方法及装置

Also Published As

Publication number Publication date
KR20150041763A (ko) 2015-04-17
CN103238320A (zh) 2013-08-07
ES2646306T3 (es) 2017-12-13
LT2860980T (lt) 2017-07-10
HUE037725T2 (hu) 2018-09-28
DK2953355T3 (da) 2017-06-26
EP4318277A3 (en) 2024-02-28
PT2996336T (pt) 2017-09-22
CY1119203T1 (el) 2018-02-14
JP2015188261A (ja) 2015-10-29
US9179167B2 (en) 2015-11-03
JP2013542666A (ja) 2013-11-21
RS56359B1 (sr) 2017-12-29
US20150237358A1 (en) 2015-08-20
HRP20171386T1 (hr) 2017-11-03
DK2996336T3 (en) 2017-10-02
KR101658808B1 (ko) 2016-09-22
CN103238320B (zh) 2016-06-01
PL2996336T3 (pl) 2017-11-30
KR20140146560A (ko) 2014-12-26
DK2996335T3 (da) 2017-11-20
JP6902937B2 (ja) 2021-07-14
CN105049843B (zh) 2018-02-06
PT2953355T (pt) 2017-06-26
EP2996335B1 (en) 2017-11-01
CY1119447T1 (el) 2018-03-07
KR20150041762A (ko) 2015-04-17
CN105072443A (zh) 2015-11-18
LT2953355T (lt) 2017-07-10
KR101452861B1 (ko) 2014-10-27
HUE036401T2 (hu) 2018-07-30
PL2953355T3 (pl) 2017-12-29
JP2017188943A (ja) 2017-10-12
US9124902B2 (en) 2015-09-01
PT2996335T (pt) 2017-11-14
LT2996336T (lt) 2017-09-25
RS56176B1 (sr) 2017-11-30
EP2624558A4 (en) 2015-03-25
KR20150041761A (ko) 2015-04-17
MX336877B (es) 2016-02-04
PL2996335T3 (pl) 2018-02-28
EP2953355A1 (en) 2015-12-09
MX339849B (es) 2016-06-15
EP2996335A1 (en) 2016-03-16
US20150237359A1 (en) 2015-08-20
CN104994381B (zh) 2019-01-04
MX2013003606A (es) 2013-04-24
HRP20170981T1 (hr) 2017-09-22
KR20120034057A (ko) 2012-04-09
KR101657537B1 (ko) 2016-09-19
CN105049844A (zh) 2015-11-11
SI2860980T1 (sl) 2017-08-31
CN104980738B (zh) 2017-04-12
JP2015188260A (ja) 2015-10-29
EP3276961A1 (en) 2018-01-31
ES2640666T3 (es) 2017-11-03
KR101658807B1 (ko) 2016-09-22
JP2015165726A (ja) 2015-09-17
US20150245058A1 (en) 2015-08-27
EP2624558A2 (en) 2013-08-07
PL2860980T3 (pl) 2017-09-29
EP2996336A1 (en) 2016-03-16
US20130182780A1 (en) 2013-07-18
CY1119672T1 (el) 2018-04-04
EP4318277A2 (en) 2024-02-07
US9253507B2 (en) 2016-02-02
US9118933B1 (en) 2015-08-25
EP2860980B1 (en) 2017-06-28
JP2015165727A (ja) 2015-09-17
JP2015057919A (ja) 2015-03-26
EP2996336B1 (en) 2017-09-13
WO2012044105A3 (ko) 2012-06-07
HRP20170917T1 (hr) 2017-09-22
SI2996335T1 (sl) 2017-12-29
EP2953355B1 (en) 2017-06-14
BR122021005436B1 (pt) 2022-08-23
HRP20171672T1 (hr) 2018-01-12
US9277247B2 (en) 2016-03-01
HUE034477T2 (en) 2018-02-28
KR101539235B1 (ko) 2015-07-27
BR122020014075B1 (pt) 2023-11-28
RS56473B1 (sr) 2018-01-31
SI2996336T1 (sl) 2017-10-30
CY1119450T1 (el) 2018-03-07
KR101658806B1 (ko) 2016-09-22
PT2860980T (pt) 2017-07-12
US20150237357A1 (en) 2015-08-20
KR20140122215A (ko) 2014-10-17
EP2860980A1 (en) 2015-04-15
ES2630107T3 (es) 2017-08-18
SI2953355T1 (sl) 2017-07-31
MX339848B (es) 2016-06-15
ES2629870T3 (es) 2017-08-16
LT2996335T (lt) 2017-11-27
KR20140096004A (ko) 2014-08-04
CN105072443B (zh) 2018-07-27
CN105049843A (zh) 2015-11-11
CN105049844B (zh) 2017-07-28
JP5654685B2 (ja) 2015-01-14
KR101707610B1 (ko) 2017-02-16
CN104980738A (zh) 2015-10-14
CN104994381A (zh) 2015-10-21
DK2860980T3 (en) 2017-07-17
HUE035494T2 (en) 2018-05-02
MX339850B (es) 2016-06-15

Similar Documents

Publication Publication Date Title
WO2012044105A2 (ko) 평활화 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치
WO2013002579A2 (ko) 비대칭형 보간 필터를 이용하여 영상을 보간하는 방법 및 그 장치
WO2017176030A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017171370A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017018664A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2013141596A1 (ko) 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 부호화 방법 및 그 장치, 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 복호화 방법 및 그 장치
WO2014107066A1 (ko) 위상차를 고려한 영상 업샘플링을 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
WO2017039117A1 (ko) 영상의 부호화/복호화 방법 및 이를 위한 장치
WO2018047995A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2012096539A2 (ko) 선택적 스캔 모드를 이용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2015009068A1 (ko) 비트 뎁스 및 컬러 포맷의 변환을 동반하는 업샘플링 필터를 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
WO2013002619A2 (ko) 고정소수점 변환을 위한 비트뎁스 조절을 수반하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2012023796A2 (ko) 가변적 트리 구조의 변환 단위를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법 및 그 장치
WO2019017651A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2011068360A2 (ko) 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
WO2014137175A1 (ko) 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 부호화 방법 및 그 장치, 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 복호화 방법 및 그 장치
WO2012044104A2 (ko) 계층적 구조의 심볼을 부호화하는 비디오 부호화 방법 및 그 장치, 계층적 구조의 심볼을 복호화하는 비디오 복호화 방법 및 그 장치
WO2019182292A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018084339A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2015093890A1 (ko) 인트라 예측을 수반한 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2012005521A2 (ko) 조절 가능한 루프 필터링을 이용한 비디오 부호화 방법 및 그 장치, 조절 가능한 루프 필터링을 이용한 비디오 복호화 방법 및 그 장치
WO2015137786A1 (ko) 스케일러블 비디오 부호화/복호화 방법 및 장치
WO2020060329A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2016195455A1 (ko) 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2020004978A1 (ko) 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11829611

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/003606

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2013531498

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13877074

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2011829611

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011829611

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013007203

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112013007203

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20130327