KR20140118958A - Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same - Google Patents

Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same Download PDF

Info

Publication number
KR20140118958A
KR20140118958A KR1020140111756A KR20140111756A KR20140118958A KR 20140118958 A KR20140118958 A KR 20140118958A KR 1020140111756 A KR1020140111756 A KR 1020140111756A KR 20140111756 A KR20140111756 A KR 20140111756A KR 20140118958 A KR20140118958 A KR 20140118958A
Authority
KR
South Korea
Prior art keywords
offset
reference frame
block
pixel
pixels
Prior art date
Application number
KR1020140111756A
Other languages
Korean (ko)
Other versions
KR101524664B1 (en
Inventor
김하윤
이영렬
문주희
김해광
전병우
김대연
한동훈
김기오
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020140111756A priority Critical patent/KR101524664B1/en
Publication of KR20140118958A publication Critical patent/KR20140118958A/en
Application granted granted Critical
Publication of KR101524664B1 publication Critical patent/KR101524664B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing

Abstract

The present invention relates to a method and an apparatus for creating a reference frame and a method and an apparatus for encoding/decoding video using the same. The present invention provides an apparatus for generating a reference frame, the apparatus including: an interpolation unit to interpolate a reference frame in units of a fractional pixel; a virtual encoder to determine a block mode of a current frame and a motion vector according to the block mode by using an interpolated reference frame; an offset calculator to calculate an offset for each pixel of the interpolated reference frame by using the block mode and the motion vector; and an offset adder to generate an offset interpolated reference frame by adding the offset for each pixel to each pixel of the interpolated reference frame. According to the present invention, by adding the offset calculated according to the block mode to the reference frame for the inter-prediction so that the reference frame used for the motion estimation and compensation becomes similar to the current frame to be encoded, motion can be more accurately predicted and encoding efficiency and compression efficiency can be improved.

Description

참조 프레임 생성 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치{Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same}[0001] The present invention relates to a reference frame generation method and apparatus, and a video encoding / decoding method and apparatus using the same. ≪ Desc /

본 발명은 참조 프레임 생성 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치에 관한 것이다. 더욱 상세하게는, 참조 프레임을 보간하고 가공하여 원본 프레임과 더욱 유사하게 생성하고 그를 이용하여 움직임 추정 및 보상을 통한 인터 예측을 수행하여 영상을 효율적으로 부호화하고 복호화하는 방법 및 장치에 관한 것이다.The present invention relates to a reference frame generation method and apparatus, and a method and apparatus for image coding / decoding using the same. More particularly, the present invention relates to a method and an apparatus for efficiently encoding and decoding an image by interpolating and processing a reference frame to produce an original frame more similar to the original frame, and performing inter prediction using motion estimation and compensation using the same.

MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)은 기존의 MPEG-4 Part 2와 H.263 표준안보다 더욱 우수하고 뛰어난 비디오 압축 기술을 개발하였다. 이 새로운 표준안은 H.264/AVC(Advanced video Coding)이라 하며, MPEG-4 Part 10 AVC와 ITU-T Recommendation H.264로 공동 발표되었다.The Moving Picture Experts Group (MPEG) and the Video Coding Experts Group (VCEG) have developed superior video compression techniques that are superior to the existing MPEG-4 Part 2 and H.263 standards. This new standard is called H.264 / AVC (Advanced Video Coding) and is jointly announced as MPEG-4 Part 10 AVC and ITU-T Recommendation H.264.

H.264/AVC(이하 'H.264'라 약칭함)에서는 인터 예측에 사용되는 참조 프레임을 보간하기 위해 6탭 필터와 평균값 필터를 사용하여 1/4 분수 화소 정밀도로 보간된 참조 프레임을 생성한다. 더욱 상세하게는, 1/2 분수 화소를 생성하기 위해 6탭 필터를 사용하며, 1/4 분수 화소를 생성하기 위해 평균값 필터를 사용한다.In H.264 / AVC (hereinafter abbreviated as H.264), a reference frame interpolated with 1/4 fractional pixel precision is generated using a 6-tap filter and an average value filter to interpolate reference frames used in inter prediction do. More specifically, a 6-tap filter is used to generate 1/2 fractional pixels, and an average filter is used to generate 1/4 fractional pixels.

H.264에서는 인터 예측을 수행할 때 전술한 바와 같이, 분수 화소 정밀도로 보간된 참조 프레임을 이용하여 1/4 분수 화소 정밀도로 움직임 예측과 보상을 수행하기 때문에, 정수 화소 정밀도를 갖는 참조 프레임만을 사용하는 이전의 방법에 비해 높은 압축 효율을 얻을 수 있다.In H.264, as described above, motion prediction and compensation are performed with 1/4 fractional pixel precision using a reference frame interpolated with fractional pixel precision, so that only a reference frame having integer pixel precision A higher compression efficiency can be obtained as compared with the previous method used.

하지만, 전술한 H.264와 같은 기존의 압축 기술에서는 고정된 필터만을 이용한 참조 프레임을 보간하기 때문에, 조명의 변화나 페이드 인(Fade-in), 페이드 아웃(Fade-out)과 같이 밝기가 시간적으로 변화하는 영상을 부호화할 때, 휘도 신호의 변화를 고려하지 못하여 움직임 예측을 효과적으로 수행하지 못하는 문제점이 있다.However, in the conventional compression technique such as H.264 described above, since the reference frame using only the fixed filter is interpolated, the brightness is changed in a temporal manner such as a change of illumination, a fade-in, and a fade- There is a problem that the motion prediction can not be performed effectively because the change of the luminance signal can not be considered.

전술한 문제점을 해결하기 위해 본 발명은, 예측에 활용할 참조 프레임을 부호화될 현재 프레임과 유사해지도록 하여 더욱 정확한 예측을 할 수 있고 그에 따라 부호화 효율 및 압축 효율을 향상시키는 데 주된 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a reference frame to be used for prediction similar to a current frame to be encoded, thereby enabling more accurate prediction and improving coding efficiency and compression efficiency.

전술한 목적을 달성하기 위해 본 발명의 일 실시예에 따르면, 참조 프레임 보간에 의해 인터 예측을 수행하는 영상 복호화 장치에 있어서, 부호화 데이터로부터 참조 프레임에 적용되는 오프셋을 추출하는 오프셋 추출부; 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들을 보간하는 보간부; 상기 보간된 화소들에 상기 추출된 오프셋을 적용하여 예측 블록을 생성하는 오프셋 가산부; 및 상기 부호화 데이터로부터 부호화된 잔차 신호를 추출하고, 추출된 잔차 신호를 복호화하여 잔차 블록을 복원하며, 상기 예측 블록과 상기 잔차 블록을 가산하여 상기 현재 블록을 복원하는 복호화부를 포함하는 것을 특징으로 하는 영상 복호화 장치를 제공한다.According to an aspect of the present invention, there is provided an apparatus for performing inter-prediction using reference frame interpolation, the apparatus comprising: an offset extraction unit for extracting an offset applied to a reference frame from encoded data; A interpolation unit interpolating pixels in the reference frame based on a motion vector of a current block; An offset adding unit for applying the extracted offset to the interpolated pixels to generate a prediction block; And a decoding unit that extracts the encoded residual signal from the encoded data, decodes the residual residual signal to recover a residual block, and adds the residual block to the predicted block to recover the current block. A video decoding apparatus is provided.

상기 복호화부는, 상기 잔차 블록의 부호화 기법에 근거하여, 상기 추출된 잔차 신호에 대하여, 역 변환 및 역 양자화를 모두 수행하지 않는 과정, 역 양자화를 수행하되 역 변환은 수행하지 않는 과정, 및 역 양자화 및 역 변환을 모두 수행하는 과정 중에서 하나를 선택함으로써 상기 잔차 블록을 복원한다.Wherein the decoding unit performs a process of not performing both inverse transform and inverse quantization on the extracted residual signal based on the coding technique of the residual block, a process of performing inverse quantization but not performing inverse transform, And performing inverse transform on the residual block, thereby restoring the residual block.

상기 오프셋은 상기 부호화 데이터에 슬라이스 단위로 포함될 수 있다.The offset may be included in the encoded data in units of slices.

상기 보간부는, 상기 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들은 1/4 분수 화소 단위까지 보간할 수 있다.The interpolation unit may interpolate pixels in the reference frame up to 1/4 fractional pixel unit based on the motion vector of the current block.

또한, 상기 보간부는 상기 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들에 대한 분수 단위 보간을 통해 제1 예측 화소들을 생성하고, 상기 오프셋 적용부는 상기 제1 예측 화소들에 상기 추출된 오프셋을 가산하여 상기 예측 블록을 구성하는 제2 예측 화소들을 생성할 수 있다.The interpolator generates first predictive pixels through fractional interpolation of pixels in the reference frame based on the motion vector of the current block, and the offset applying unit adds the extracted offset to the first predictive pixels, To generate second prediction pixels constituting the prediction block.

상기 잔차 블록의 부호화 기법은 상기 부호화 데이터에 포함된 정보에 근거하여 식별될 수 있다.The coding scheme of the residual block may be identified based on information included in the encoded data.

본 발명의 다른 실시예에 따르면, 참조 프레임 보간에 의해 인터 예측을 수행하는 영상 복호화 방법에 있어서, 부호화 데이터로부터 참조 프레임에 적용되는 오프셋을 추출하는 단계; 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내 화소들을 보간하고, 그 보간된 화소들에 상기 추출된 오프셋을 적용하여 예측 블록을 생성하는 단계; 부호화된 잔차 신호를 상기 부호화 데이터로부터 추출하는 단계; 상기 잔차 신호를 복호화하여 잔차 블록을 복원하는 단계; 및 상기 예측 블록과 상기 잔차 블록을 가산하여 상기 현재 블록을 복원하는 단계를 포함하는 영상 복호화 방법을 제공한다.According to another embodiment of the present invention, there is provided an image decoding method for performing inter-prediction by reference frame interpolation, comprising: extracting an offset applied to a reference frame from encoded data; Interpolating pixels in the reference frame based on a motion vector of a current block, and applying the extracted offset to the interpolated pixels to generate a prediction block; Extracting an encoded residual signal from the encoded data; Decoding the residual signal to restore a residual block; And reconstructing the current block by adding the prediction block and the residual block.

상기 잔차 블록을 복원하는 단계는, 상기 잔차 블록의 부호화 기법에 근거하여, 상기 잔차 신호에 대하여, 역 변환 및 역 양자화를 모두 수행하지 않는 단계, 역 양자화를 수행하되 역 변환은 수행하지 않는 단계, 및 역 양자화 및 역 변환을 모두 수행하는 단계 중에서 하나를 선택함으로써 상기 잔차 신호를 복호화한다.Wherein the step of reconstructing the residual block comprises the steps of performing neither inverse transform nor inverse quantization on the residual signal based on the residual block coding technique, performing inverse quantization but not inverse transform, And performing both of the inverse quantization and inverse transform to decode the residual signal.

상기 오프셋은 상기 부호화 데이터에 슬라이스 단위로 포함될 수 있다.The offset may be included in the encoded data in units of slices.

상기 예측 블록을 생성하는 단계는, 상기 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들을 1/4 분수 화소 단위까지 보간할 수 있다. 또한, 상기 예측 블록을 생성하는 단계는, 상기 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들에 대한 분수 단위 보간을 통해 제1 예측 화소들을 생성하는 단계; 및 상기 제1 예측 화소들에 상기 오프셋을 가산하여 상기 예측 블록을 구성하는 제2 예측 화소들을 생성하는 단계를 포함할 수 있다.The generating of the prediction block may interpolate pixels in the reference frame up to a quarter fractional pixel unit based on the motion vector of the current block. The generating of the prediction block may include generating first prediction pixels based on a motion vector of the current block through fractional interpolation of pixels in the reference frame, And generating second prediction pixels constituting the prediction block by adding the offset to the first prediction pixels.

상기 잔차 블록의 부호화 기법은 상기 부호화 데이터에 포함된 정보에 근거하여 식별될 수 있다.The coding scheme of the residual block may be identified based on information included in the encoded data.

이상에서 설명한 바와 같이 본 발명에 의하면, 인터 예측을 위한 참조 프레임에 블록 모드에 따라 산출되는 오프셋을 가산하여 움직임 추정 및 보상에 이용되는 참조 프레임을 부호화될 현재 프레임과 유사해지도록 함으로써, 더욱 정확한 예측을 할 수 있고 그에 따라 부호화 효율 및 압축 효율을 향상시킬 수 있다.As described above, according to the present invention, the reference frame used for motion estimation and compensation is added to the current frame to be encoded by adding the offset calculated according to the block mode to the reference frame for inter prediction, It is possible to improve coding efficiency and compression efficiency.

도 1은 분수 화소 단위로 보간된 참조 프레임과 정수 화소의 화소 위치에 대한 관계를 나타낸 예시도,
도 2는 본 발명의 일 실시예에 따른 영상 부호화 장치의 구성을 간략하게 나타낸 블록 구성도,
도 3은 블록 모드에 따른 각 화소에 대한 오프셋을 나타낸 예시도,
도 4는 현재 프레임에 대해 결정되는 블록 모드를 나타낸 예시도,
도 5는 인터 16x16 모드에 따른 각 화소에 대한 오프셋을 1/4 분수 화소 단위로 보간된 참조 프레임에 가산하는 과정을 나타낸 예시도,
도 6은 1/4 분수 화소 단위로 보간된 참조 프레임의 일부 화소를 나타낸 예시도,
도 7은 1/4 분수 화소 단위로 보간된 참조 프레임의 일부 화소에 인터 16x16 모드에 따른 각 화소에 대한 오프셋을 가산한 결과는 나타낸 예시도,
도 8은 본 발명의 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 순서도,
도 9는 본 발명의 일 실시예에 따른 참조 프레임 생성 방법을 설명하기 위한 순서도,
도 10은 본 발명의 일 실시예에 따른 영상 복호화 장치의 구성을 간략하게 나타낸 블록 구성도,
도 11은 본 발명의 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 순서도이다.
FIG. 1 is an exemplary view showing a relation between a reference frame interpolated on a fractional pixel basis and a pixel position of an integer pixel,
2 is a block diagram schematically illustrating a configuration of a video encoding apparatus according to an embodiment of the present invention.
3 is an exemplary diagram illustrating an offset for each pixel according to a block mode,
4 is an exemplary view showing a block mode determined for a current frame,
5 is a diagram illustrating a process of adding an offset for each pixel according to an inter 16x16 mode to an interpolated reference frame in units of 1/4 fractional pixels,
6 is a diagram illustrating an example of some pixels of a reference frame interpolated on a quarter-by-quarter fractional pixel basis,
FIG. 7 is a diagram illustrating a result of adding an offset for each pixel according to the inter 16 × 16 mode to some pixels of a reference frame interpolated on a quarter-by-quarter fractional pixel basis,
8 is a flowchart illustrating a method of encoding an image according to an embodiment of the present invention.
9 is a flowchart illustrating a method of generating a reference frame according to an embodiment of the present invention.
FIG. 10 is a block diagram of a video decoding apparatus according to an embodiment of the present invention.
11 is a flowchart illustrating an image decoding method according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; may be "connected," "coupled," or "connected. &Quot;

도 1은 분수 화소 단위로 보간된 참조 프레임과 정수 화소의 화소 위치에 대한 관계를 나타낸 예시도이다.FIG. 1 is an exemplary view showing a relationship between a reference frame interpolated on a fractional pixel basis and a pixel position of an integer pixel.

도 1을 참조하면, An, Bn, Cn, Dn, En, Fn는 정수 화소를 나타내며(단, n=1, 2, 3, 4, 5), b, h, j는 정수 화소를 6탭 필터링하여 생성한 1/2 분수 화소들이다. 6탭 필터링을 위한 6탭 필터의 계수는 (1, -5, 20, 20, -5, 1)/32이며, 수직 혹은 수평 방향으로 6개의 정수 화소에 6탭 필터를 적용하여 6탭 필터링함으로써 1/2 분수 화소를 생성한다. 예를 들어, 1/2 분수 화소 b는 수평 방향의 정수 화소인 C1, C2, C3, C4, C5, C6에 6탭 필터를 적용하여 얻을 수 있는데, 이를 수식으로 나타내면 수학식 1과 같이 나타낼 수 있다.1, 2, 3, 4, and 5, b, h, and j denote integer pixels by 6-tap filtering, / RTI > pixels. The coefficients of the 6-tap filter for 6-tap filtering are (1, -5, 20, 20, -5, 1) / 32 and 6-tap filtering is applied to 6 integer pixels in the vertical or horizontal direction 1/2 fractional pixel. For example, the 1/2 fractional pixel b can be obtained by applying a 6-tap filter to the integer pixels in the horizontal direction of C1, C2, C3, C4, C5, and C6. have.

Figure pat00001
Figure pat00001

여기서, round()는 정수로의 반올림 연산을 나타낸다. b, h, j를 제외한 나머지 1/4 분수 화소들(a, c, d, e, f, g, i, k, l, m, n, o)은 정수 화소와 1/2 분수 화소를 평균값 필터링하여 생성된다. 예를 들어, 1/4 분수 화소 a는 정수 화소 C3과 1/2 분수 화소 b를 평균값 필터링함으로써 선형적으로 보간하여 생성된다. 이를 수식으로 나타내면, 수학식 2와 같이 나타낼 수 있다.Here, round () represents a rounding operation to an integer. (a, c, d, e, f, g, i, k, l, m, n, o) except for b, h, And is generated by filtering. For example, the 1/4 fractional pixel a is generated by linearly interpolating the integer pixel C3 and the 1/2 fractional pixel b by filtering the average value. This can be expressed by the following equation (2).

Figure pat00002
Figure pat00002

H.264와 같은 압축 기술에서는 전술한 바와 같이, 정수 화소들을 이용하여 1/2 분수 화소를 생성하고, 정수 화소와 1/2 분수 화소를 이용하여 1/4 분수 화소를 생성하는 과정을 거쳐, 도 1에 나타낸 바와 같은 1/4 분수 화소 단위로 보간된 참조 프레임을 생성하고, 보간된 참조 프레임을 이용하여 인터 예측을 위한 움직임 예측을 수행한다.In the compression technique such as H.264, as described above, a 1/2 fractional pixel is generated using integer pixels, a 1/4 fractional pixel is generated using an integer pixel and a 1/2 fractional pixel, A reference frame interpolated in 1/4 fractional pixel units as shown in FIG. 1 is generated, and motion estimation for inter prediction is performed using the interpolated reference frame.

도 2는 본 발명의 일 실시예에 따른 영상 부호화 장치의 구성을 간략하게 나타낸 블록 구성도이다.2 is a block diagram of a video encoding apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 부호화 장치(200)는 참조 프레임 생성부(210), 부호화부(220) 및 부호화 데이터 생성부(230)를 포함하여 구성될 수 있다. 이러한 영상 부호화 장치(200)는 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 이동통신 단말기(Mobile Communication Terminal) 등일 수 있으며, 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미한다.2, an image encoding apparatus 200 according to an exemplary embodiment of the present invention may include a reference frame generator 210, an encoder 220, and an encoded data generator 230. Referring to FIG. The image encoding apparatus 200 may be a personal computer (PC), a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a PlayStation Portable ), A mobile communication terminal, and the like, and may be a communication device such as a communication modem for performing communication with various devices or wired / wireless communication networks, a memory for storing various programs for encoding an image and data, a program And a microprocessor for calculating and controlling the microprocessor.

참조 프레임 생성부(210)는 분수 화소 단위로 보간된 참조 프레임에 각 화소에 대한 오프셋을 가산하여 오프셋 보간 참조 프레임을 생성한다. 이러한 참조 프레임 생성부는 도시한 바와 같이, 영상 부호화 장치(200) 내에 하나의 구성 요소로서 구현될 수도 있지만, 독립적인 하나의 장치 즉, 본 발명의 일 실시예에 따른 참조 프레임 생성 장치로서 구현될 수도 있으며, 보간부(212), 가상 부호화부(214), 오프셋 산출부(216) 및 오프셋 가산부(218)를 포함하여 구성될 수 있다.The reference frame generation unit 210 generates an offset interpolation reference frame by adding an offset for each pixel to a reference frame interpolated by a fractional pixel unit. The reference frame generating unit may be implemented as one component in the image encoding apparatus 200, but may be implemented as an independent apparatus, that is, as a reference frame generating apparatus according to an embodiment of the present invention And includes an interpolation unit 212, a virtual encoding unit 214, an offset calculation unit 216, and an offset addition unit 218.

보간부(212)는 참조 프레임을 분수 화소 단위로 보간한다. 즉, 보간부(212)는 부호화부(220)로부터 출력되는 참조 프레임을, 도 1을 통해 전술한 바와 같이, 분수 화소 단위로 보간하여 보간된 참조 프레임을 출력한다. 이때, 보간부(212)는 참조 프레임을 보간할 때 1/2 분수 화소 단위로 보간할 수도 있고 1/4 분수 화소 단위로 보간할 수도 있다.The interpolator 212 interpolates the reference frame in fractional pixel units. That is, the interpolator 212 interpolates the reference frame output from the encoder 220 in units of fractional pixels, as described above with reference to FIG. 1, and outputs the interpolated reference frame. At this time, the interpolation unit 212 may interpolate the reference frame at 1/2 fractional pixel unit or the 1/4 fractional pixel unit at the interpolation of the reference frame.

가상 부호화부(214)는 보간된 참조 프레임을 이용하여 현재 프레임의 블록 모드와 현재 프레임의 블록 모드에 따른 움직임 벡터를 결정한다. 즉, 가상 부호화부(214)는 보간부(212)로부터 출력되는 보간된 참조 프레임을 이용하여 현재 프레임의 블록 모드를 결정하고, 결정된 블록 모드에 따라 현재 부호화하고자 하는 현재 블록의 움직임을 추정하여 움직임 벡터를 결정한다. 여기서, 가상 부호화부(214)는 인터 예측 부호화를 수행하지만 부호화 데이터와 참조 프레임을 생성하여 출력하지는 않고, 현재 프레임의 블록 모드와 블록 모드에 따른 움직임 벡터만을 결정하여 출력할 수 있다.The virtual encoding unit 214 determines a motion vector according to the current block mode and the current block mode using the interpolated reference frame. That is, the virtual encoding unit 214 determines the block mode of the current frame using the interpolated reference frame output from the interpolation unit 212, estimates the motion of the current block to be currently encoded according to the determined block mode, The vector is determined. Here, although the virtual encoding unit 214 performs inter-prediction encoding, it does not generate and output encoded data and a reference frame, and can determine and output only a motion vector according to the current frame block mode and the block mode.

또한, 가상 부호화부(214)는 율-왜곡 최적화(RDO: Rate-Distortion Optimization)를 이용하여 기 설정된 복수 개의 블록 모드 중에서 하나의 블록 모드를 결정함으로써, 현재 프레임의 블록 모드를 결정할 수 있다. 또한, 가상 부호화부(214)는 율-왜곡 최적화, 경계 화소 정합, 인접 화소 정합 등 다양한 방법을 이용하여 블록 모드에 따른 움직임 벡터를 결정할 수 있다. 여기서, 복수 개의 블록 모드는, H.264/AVC 표준에 따라, SKIP 모드, 인터 16x16 모드, 인터 16x8 모드, 인터 8x16 모드, 인터 8x8 모드, 인터 8x4 모드, 인터 4x8 모드, 인터 4x4 모드, 인트라 16x16 모드, 인터 4x4 모드 등이 될 수도 있지만, 반드시 이에 한정되지 않고 다양한 블록 모드일 수 있다.In addition, the virtual encoding unit 214 can determine a block mode of the current frame by determining one block mode among a plurality of predetermined block modes using Rate-Distortion Optimization (RDO). In addition, the virtual encoding unit 214 may determine a motion vector according to the block mode using various methods such as rate-distortion optimization, edge pixel matching, and adjacent pixel matching. Here, the plurality of block modes are SKIP mode, inter 16x16 mode, inter 16x8 mode, inter 8x16 mode, inter 8x8 mode, inter 8x4 mode, inter 4x8 mode, inter 4x4 mode, Mode, an inter 4x4 mode, and the like. However, the present invention is not limited to this and may be various block modes.

오프셋 산출부(216)는 블록 모드와 움직임 벡터를 이용하여 보간된 참조 프레임의 각 화소에 대한 오프셋을 산출한다. 즉, 오프셋 산출부(216)는 가상 부호화부(216)로부터 출력되는 현재 프레임의 블록 모드와 현재 프레임의 블록 모드에 따른 움직임 벡터를 이용하여 보간부(212)로부터 출력되는 보간된 참조 프레임의 각 화소에 대한 오프셋을 산출한다.The offset calculator 216 calculates an offset for each pixel of the reference frame interpolated using the block mode and the motion vector. That is, the offset calculator 216 calculates the offset of the interpolated reference frame output from the interpolator 212 using the block mode of the current frame output from the virtual encoding unit 216 and the motion vector of the current frame, And calculates an offset for the pixel.

여기서, 오프셋 산출부(216)는 블록 모드에 따른 블록의 각 화소의 화소값과 보간된 참조 프레임에서 블록의 움직임 벡터에 의해 지시되는 블록의 각 화소의 화소값의 차이를 각 화소에 대한 오프셋으로서 산출할 수 있다. 블록 모드에 따른 각 화소에 대한 오프셋을 예시적으로 나타낸 도 3을 참조하면, 보간부(212)에 의해 참조 프레임이 1/4 분수 화소 단위로 보간되는 경우, 보간된 참조 프레임은 3A와 같이 하나의 화소(I)마다 15 개의 분수 화소(a 내지 o)가 생성될 수 있다. 이때, 가상 부호화부(214)에 의해 결정된 현재 프레임의 블록 모드 중 하나의 블록 모드가 인터 16x16 모드라면, 인터 16x16 모드로 결정된 블록 모드에 따른 각 화소의 오프셋은, 인터 16x16 모드로 결정된 블록의 각 화소(하나의 정수 화소와 15 개의 분수 화소)의 화소값과 보간된 참조 프레임에서 인터 16x16 모드로 결정된 해당 블록의 움직임 벡터가 지시하는 블록의 각 화소(하나의 정수 화소와 15 개의 분수 화소)의 화소값의 차이가 될 수 있다. 인터 16x16 모드로 결정된 블록 모드에 따른 화소의 오프셋은 3B와 같이 나타낼 수 있다. 결정된 블록 모드가 인터 8x8 모드라면, 인터 8x8 모드로 결정된 블록 모드에 따른 화소의 오프셋은 인터 16x16 모드의 경우와 동일한 방법으로 계산될 수 있으며, 3C와 같이 나타낼 수 있다. 이때, 각 화소에 대한 오프셋은, 전술한 바와 같이 보간된 참조 프레임의 각 화소에 대해 오프셋이 각각 산출될 수 있지만, 프레임 단위로 산출되거나 블록 단위로 산출될 수도 있다.Here, the offset calculator 216 calculates the difference between the pixel value of each pixel of the block according to the block mode and the pixel value of each pixel of the block indicated by the motion vector of the block in the interpolated reference frame, as an offset for each pixel Can be calculated. Referring to FIG. 3, which illustrates an offset for each pixel according to a block mode, when the reference frame is interpolated by the interpolation unit 212 in units of 1/4 fractional pixels, Fifteen fractional pixels (a to o) may be generated per pixel (I). In this case, if one of the block modes of the current frame determined by the virtual encoding unit 214 is the inter 16x16 mode, the offset of each pixel according to the block mode determined to be the inter 16x16 mode is the angle of the block determined in the inter 16x16 mode (One integer pixel and 15 fractional pixels) of the block indicated by the motion vector of the corresponding block determined in the inter 16x16 mode in the interpolated reference frame It may be a difference in pixel value. The offset of the pixel according to the block mode determined in the inter 16x16 mode can be expressed as 3B. If the determined block mode is the inter 8x8 mode, the offset of the pixel according to the block mode determined as the inter 8x8 mode can be calculated in the same manner as in the inter 16x16 mode, and can be expressed as 3C. At this time, the offset for each pixel can be calculated on a frame-by-frame basis or on a block-by-block basis, although offsets can be calculated for each pixel of the interpolated reference frame as described above.

프레임 단위로 산출되는 경우, 각 화소에 대한 오프셋은 보간된 참조 프레임 내에서 대응하는 위치의 하나 이상의 화소에 대한 오프셋을 평균한 값일 수 있다. 예를 들어, 도 1에 나타낸 보간된 참조 프레임의 정수 화소 C3에 대한 오프셋은 보간된 참조 프레임 내의 각 정수 화소 A1 내지 A5, B1 내지 B6, C1, C2, C4 내지 C6, E1 내지 E6, F1 내지 F6에 대한 오프셋을 평균하여 구할 수 있으며, 이 경우 보간된 참조 프레임 내의 각 정수 화소에 대한 오프셋은 동일할 수 있다. 마찬가지로 도 1에 나타낸 보간된 참조 프레임의 분수 화소 a 내지 o에 대한 오프셋도 각 정수 화소로부터 보간되어 생성된 각 분수 화소에 대한 오프셋의 평균값으로 구할 수 있으며, 이 경우 보간된 참조 프레임 내의 각 분수 화소에 대한 오프셋은 그 위치에 따라 동일할 수 있다.If calculated in frame units, the offset for each pixel may be the average of the offsets for one or more pixels in the corresponding position in the interpolated reference frame. For example, the offset for the integer pixel C3 of the interpolated reference frame shown in FIG. 1 is determined for each integer pixel A1 to A5, B1 to B6, C1, C2, C4 to C6, E1 to E6, F6, in which case the offsets for each integer pixel in the interpolated reference frame may be the same. Similarly, the offset for the fractional pixels a to o of the interpolated reference frame shown in FIG. 1 can be obtained as an average value of the offsets for each fractional pixel generated by interpolation from each integer pixel. In this case, May be the same depending on the position.

블록 단위로 산출되는 경우, 각 화소에 대한 오프셋은 보간된 참조 프레임의 블록 모드에 따른 블록 내에서 대응하는 위치의 하나 이상의 화소에 대한 오프셋을 평균한 값일 수 있다. 예를 들어, 도 1에 나타낸 보간된 참조 프레임의 정수 화소 C3이 다른 정수 C4 내지 C6, D3 내지 D6, E3 내지 E6, F3 내지 F6와 동일한 블록에 포함되어 있다고 가정하면, C3에 대한 오프셋은 해당 블록 내의 각 정수 화소 C4 내지 C6, D3 내지 D6, E3 내지 E6, F3 내지 F6에 대한 오프셋을 평균하여 구할 수 있으며, 이 경우 해당 블록 내의 각 정수 화소에 대한 오프셋은 동일할 수 있다. 마찬가지로 도 1에 나타낸 보간된 참조 프레임의 분수 화소 a 내지 o에 대한 오프셋도 해당 블록 내의 각 정수 화소로부터 보간되어 생성된 각 분수 화소에 대한 오프셋의 평균값으로 구할 수 있으며, 이 경우 해당 블록 내의 각 분수 화소에 대한 오프셋은 그 위치에 따라 동일할 수 있다.If calculated in block units, the offset for each pixel may be an average of the offsets for one or more pixels at corresponding locations in the block according to the block mode of the interpolated reference frame. For example, assuming that the integer pixel C3 of the interpolated reference frame shown in FIG. 1 is included in the same block as the other constants C4 through C6, D3 through D6, E3 through E6, and F3 through F6, The offset for each integer pixel C4 to C6, D3 to D6, E3 to E6, and F3 to F6 in the block can be obtained by averaging the offset for each integer pixel in the block. Similarly, the offset for the fractional pixels a to o of the interpolated reference frame shown in FIG. 1 can also be obtained as an average value of the offsets for each fractional pixel generated by interpolation from each integer pixel in the corresponding block. In this case, The offset for a pixel can be the same depending on its position.

따라서, 3B 및 3C에 나타낸 블록 모드에 따른 각 화소에 대한 오프셋은, 오프셋이 화소 단위, 블록 단위 및 프레임 단위 중 어느 단위로 산출되는지 여부에 따라, 보간된 참조 프레임의 각 화소에 대해 각각 산출되거나 보간된 참조 프레임 내의 각 화소에 대해 동일하게 산출되거나 보간된 참조 프레임의 블록 내의 각 화소에 대해 동일하게 산출될 수 있다.Accordingly, the offsets for the respective pixels according to the block mode shown in 3B and 3C are calculated for each pixel of the interpolated reference frame, respectively, depending on whether the offset is calculated in units of pixels, blocks, or frames Can be calculated for each pixel in the interpolated reference frame and can be computed identically for each pixel in the block of the interpolated reference frame.

또한, 오프셋 산출부(216)는 블록 모드별로 각 화소에 대한 오프셋을 산출하거나 블록 모드의 집합별로 각 화소에 대한 오프셋을 산출할 수 있다. 즉, 오프셋 산출부(216)는 블록 모드가 동일하더라도 블록 모드에 따라 결정되는 블록마다 각 화소에 대한 오프셋을 산출하거나 블록 모드가 동일한 블록들을 집합으로 선정하여 해당 블록들에 대해선 전술한 방식으로 각 화소에 대한 오프셋을 산출할 수 있다.In addition, the offset calculator 216 may calculate an offset for each pixel in each block mode, or may calculate an offset for each pixel in a set of block modes. That is, even if the block mode is the same, the offset calculator 216 calculates the offset for each pixel for each block determined according to the block mode, or selects blocks having the same block mode as a set, The offset for the pixel can be calculated.

현재 프레임에 대해 결정되는 블록 모드를 예시적으로 나타낸 도 4를 참조하면, 가상 부호화부(214)는 보간된 참조 프레임을 이용하여 현재 프레임의 블록 모드를 36 개의 블록 모드로 결정할 수 있다. 도 4에서, 10 개의 A 블록(410)은 인터 16x16 모드로 결정된 블록을 나타내며, 10 개의 B 블록(420)은 인터 8x8 모드로 결정된 블록을 나타내며, 16 개의 C 블록(430)은 인터 4x4 모드로 결정된 블록을 나타낸다.Referring to FIG. 4 illustrating a block mode determined for the current frame, the virtual encoding unit 214 may determine a block mode of the current frame to be a 36-block mode using the interpolated reference frame. In FIG. 4, 10 A blocks 410 indicate blocks determined as inter 16x16 mode, 10 B blocks 420 indicate blocks determined as inter 8x8 mode, and 16 C blocks 430 indicate inter 4x4 mode ≪ / RTI >

블록 모드별로 각 화소에 대한 오프셋을 산출하는 경우, 오프셋 산출부(216)는 36 개의 모든 블록 모드 각각에 대해 각 화소에 대한 오프셋을 산출하거나 동일한 블록 모드를 갖는 블록 모드별로 각 화소에 대한 오프셋을 산출할 수 있다. 즉, 오프셋 산출부(216)는 10 개의 인터 16x16 모드에 따른 각 화소에 대한 오프셋, 10 개의 인터 8x8 모드에 따른 각 화소에 대한 오프셋과 16 개의 인터 4x4 모드에 따른 각 화소에 대한 오프셋을 산출할 수도 있으며, 1 개의 인터 16x16 모드에 따른 각 화소에 대한 오프셋, 1 개의 인터 8x8 모드에 따른 각 화소에 대한 오프셋 및 1 개의 인터 4x4 모드에 따른 각 화소에 대한 오프셋을 포함하는 3 개의 블록 모드에 따른 각 화소에 대한 오프셋을 산출할 수도 있다.When calculating the offset for each pixel in each block mode, the offset calculating unit 216 calculates an offset for each pixel for each of all 36 block modes, or calculates an offset for each pixel for each block mode having the same block mode Can be calculated. That is, the offset calculating unit 216 calculates an offset for each pixel according to 10 inter 16x16 modes, an offset for each pixel according to 10 inter 8x8 modes, and an offset for each pixel according to 16 inter 4x4 modes And may be based on three block modes including an offset for each pixel according to one inter 16x16 mode, an offset for each pixel according to one inter 8x8 mode, and an offset for each pixel according to one inter 4x4 mode The offset for each pixel may be calculated.

블록 모드의 집합별로 각 화소에 대한 오프셋을 산출하는 경우, 오프셋 산출부(216)는 복수 개의 블록 모드를 임의의 집합으로 합쳐서 블록 모드의 집합을 선정하고, 선정된 블록 모드의 집합별로 각 화소에 대한 오프셋을 산출할 수 있다. 즉, 오프셋 산출부(216)는 인터 16x16 모드로 결정된 A 블록(410)들을 하나의 블록 모드의 집합(440)으로 선정하고 인터 8x8 모드로 결정된 B 블록(430)들과 인터 4x4 모드로 결정된 C 블록(450)들을 다른 블록 모드의 집합(450)으로 선정하여 각 블록 모드의 집합(440, 450)별로 각 화소에 대한 오프셋을 산출할 수 있다.In the case of calculating an offset for each pixel by a set of block modes, the offset calculating unit 216 selects a set of block modes by combining a plurality of block modes into an arbitrary set, The offset can be calculated. That is, the offset calculator 216 selects the A blocks 410 determined as the inter 16x16 mode as a set 440 of one block mode, and determines the B blocks 430 determined in the inter 8x8 mode and the C The blocks 450 can be selected as the set 450 of other block modes and the offset for each pixel can be calculated for each set of block modes 440 and 450.

도 4에 나타낸 현재 프레임의 각 블록 모드(410 내지 430)와 블록 모드의 집합(440, 450)은 예시적으로 나타낸 것일 뿐, 이와 다른 다양한 방식으로 블록 모드 또는 블록 모드의 집합이 결정될 수 있다.Each of the block modes 410 to 430 and the set of block modes 440 and 450 of the current frame shown in FIG. 4 is merely an example, and a block mode or a set of block modes can be determined in various other ways.

오프셋 가산부(218)는 각 화소에 대한 오프셋을 보간된 참조 프레임의 각 화소에 가산하여 오프셋 보간 참조 프레임을 생성한다. 즉, 오프셋 가산부(218)는 오프셋 산출부(216)로부터 출력되는 보간된 참조 프레임의 각 화소에 대한 오프셋을 보간부(212)로부터 출력되는 보간된 참조 프레임의 동일한 위치에 있는 각 화소에 가산하여 오프셋 보간 참조 프레임을 생성하여 출력한다.The offset adder 218 adds the offset for each pixel to each pixel of the interpolated reference frame to generate an offset interpolated reference frame. That is, the offset addition unit 218 adds the offset for each pixel of the interpolated reference frame output from the offset calculation unit 216 to each pixel at the same position of the interpolated reference frame output from the interpolation unit 212 And generates and outputs an offset interpolation reference frame.

인터 16x16 모드에 따른 각 화소에 대한 오프셋을 1/4 분수 화소 단위로 보간된 참조 프레임에 가산하는 과정을 예시적으로 나타낸 도 5를 참조하면, 오프셋 가산부(218)는 도 4에 나타낸 인터 16x16 모드로 결정된 A 블록(410)에 도 3의 3B에 나타낸 인터 16x16 모드에 따른 각 화소에 대한 오프셋을 가산하여 인터 16x16 모드를 위한 오프셋 보간 참조 프레임을 생성할 수 있다. 도 5에서는 설명의 편의를 위해, 인터 16x16 모드로 결정된 A 블록(410)의 16 개의 정수 화소와 각 정수 화소에 대한 15 개의 분수 화소만을 나타내었다.Referring to FIG. 5 exemplarily showing a process of adding an offset for each pixel according to the inter 16x16 mode to an interpolated reference frame in 1/4 fractional pixel units, the offset addition unit 218 adds the offset 16x16 An offset interpolation reference frame for the inter 16x16 mode can be generated by adding the offset for each pixel according to the inter 16x16 mode shown in FIG. 3B to the A block 410 determined as the mode. 5, only sixteen integer pixels of the A block 410 determined as the inter 16x16 mode and fifteen fractional pixels for each integer pixel are shown for convenience of explanation.

예를 들어, 도 5에 도시한 참조 프레임에서 인터 16x16 모드로 결정된 A 블록(410)의 일부의 화소들(510, 520, 530)이 도 6에 도시한 바와 같다면, 도 6에 도시한 일부의 화소들(510, 520, 530)에 도 3의 3B에 나타낸 인터 16x16 모드에 따른 각 화소에 대한 오프셋을 가산하여, 도 7에 나타낸 바와 같이 오프셋 보간 참조 프레임의 각 화소(710, 720, 730)를 생성할 수 있다. 도 6에서, I1 내지 I3은 정수 화소를 나타내고 나머지 화소는 모두 분수 화소를 나타낸다. 도시한 바와 같이, 인터 16x16 모드로 결정된 A 블록(410)의 일부의 화소들(510, 520, 530)의 각 정수 화소에는 인터 16x16 모드에 따른 각 화소에 대한 오프셋 중 정수 화소에 대한 오프셋이 가산되고, 나머지 화소에는 동일한 위치의 나머지 화소에 대한 오프셋이 가산될 수 있다.For example, if the pixels 510, 520, and 530 of the A block 410 determined as the inter 16x16 mode in the reference frame shown in FIG. 5 are as shown in FIG. 6, 730 of the offset interpolation reference frame as shown in FIG. 7 by adding the offset for each pixel according to the inter 16x16 mode shown in FIG. 3B to the pixels 510, 520, and 530 of the offset interpolation reference frame Can be generated. In Fig. 6, I1 to I3 represent integer pixels and all the remaining pixels represent fractional pixels. As shown, each integer pixel of the pixels 510, 520, and 530 of the A block 410 determined as the inter 16x16 mode has an offset for an integer pixel among the offsets for each pixel according to the inter 16x16 mode, And the offset for the remaining pixels in the same position can be added to the remaining pixels.

또한, 오프셋 가산부(218)는 블록 모드별로 오프셋 보간 참조 프레임을 생성할 수도 있고, 블록 모드의 집합별로 오프셋 보간 참조 프레임을 생성할 수도 있다. 즉, 오프셋 가산부(218)는 오프셋 산출부(216)로부터 출력되는 블록 모드에 따른 각 화소에 대한 오프셋을 이용하여 오프셋 보간 참조 프레임을 생성하는 데, 오프셋 산출부(216)에서 블록 모드별로 각 화소에 대한 오프셋을 산출한 경우, 블록 모드별로 블록 모드의 개수 또는 모든 블록 모드의 개수만큼 오프셋 보간 참조 프레임을 생성할 수 있으며, 오프셋 산출부(216)에서 블록 모드의 집합별로 각 화소에 대한 오프셋을 산출한 경우 블록 모드의 집합별로 블록 모드의 집합의 개수만큼 오프셋 보간 참조 프레임을 생성할 수 있다.The offset addition unit 218 may generate an offset interpolation reference frame for each block mode or an offset interpolation reference frame for each block mode. That is, the offset addition unit 218 generates an offset interpolation reference frame using the offset for each pixel according to the block mode output from the offset calculation unit 216, and the offset calculation unit 216 calculates The offset calculating unit 216 may generate an offset interpolation reference frame by the number of block modes or the number of all the block modes for each block mode, The offset interpolation reference frame can be generated by the number of sets of the block mode for each set of the block modes.

부호화부(220)는 오프셋 보간 참조 프레임을 이용하여 생성한 현재 블록의 잔차 블록을 부호화한다. 즉, 부호화부(220)는 참조 프레임 생성부(210)의 오프셋 가산부(218)로부터 출력되는 오프셋 보간 참조 프레임을 이용하여 현재 블록을 인터 예측 부호화하는데, 오프셋 보간 참조 프레임을 이용하여 현재 블록을 예측하여 생성한 예측 블록과 현재 블록을 감산하여 생성한 잔차 블록을 부호화한다.The encoding unit 220 encodes the residual block of the current block generated using the offset interpolation reference frame. That is, the encoding unit 220 inter-predictively encodes the current block using the offset interpolation reference frame output from the offset addition unit 218 of the reference frame generation unit 210, and uses the offset interpolation reference frame to convert the current block And the residual block generated by subtracting the prediction block generated by the prediction from the current block is encoded.

이를 위해, 부호화부(220)는 현재 블록의 각 화소의 화소값(Pixel Value)을 예측하여 예측된 각 화소의 예측 화소값(Predicted Pixel Value)을 갖는 예측 블록(Predicted Block)을 생성할 수 있다. 부호화부(220)는 현재 블록의 각 화소의 화소값과 예측 블록의 각 화소의 예측 화소값의 차이를 계산하여 블록 형태의 잔차 신호(Residual Signal)를 갖는 잔차 블록을 생성할 수 있다.For this purpose, the encoding unit 220 may generate a predicted block having a predicted pixel value of each predicted pixel by predicting a pixel value of each pixel of the current block . The encoding unit 220 may generate a residual block having a block residual signal by calculating a difference between a pixel value of each pixel of the current block and a predicted pixel value of each pixel of the prediction block.

또한, 부호화부(220)는 잔차 블록을 변환 및 양자화하여 양자화된 잔차 블록을 출력할 수 있는데, 잔차 블록의 잔차 신호를 주파수 영역으로 변환하여 잔차 블록의 각 화소값을 주파수 계수로 변환하고, 주파수 계수를 갖는 잔차 블록을 양자화(Quantization)한다. 여기서, 부호화부(220)는 하다마드 변환(Hadamard Transform), 이산 코사인 변환 기반 변환(DCT based Transform: Discrete Cosine Transform Based Transform) 등과 같은 공간축의 화상 신호를 주파수축으로 변환하는 다양한 변환 기법을 이용하여 잔차 신호를 주파수 영역으로 변환할 수 있는데, 주파수 영역으로 변환된 잔차 신호가 주파수 계수가 된다.The encoding unit 220 transforms and quantizes the residual block to output a quantized residual block. The residual signal of the residual block is converted into a frequency domain, and each pixel value of the residual block is converted into a frequency coefficient. And quantizes residual blocks having coefficients. Here, the encoding unit 220 may use a variety of transformation techniques for transforming image signals on a spatial axis, such as a Hadamard Transform (DCT) and a Discrete Cosine Transform Based Transform (DCT) The residual signal can be transformed into the frequency domain, and the residual signal transformed into the frequency domain becomes the frequency coefficient.

또한, 부호화부(220)는 변환된 잔차 블록을 데드존 균일 경계 양자화(DZUTQ: Dead Zone Uniform Threshold Quantization, 이하 'DZUTQ'라 칭함), 양자화 가중치 매트릭스(Quantization Weighted Matrix) 또는 이를 개량한 양자화 기법 등을 사용하여 양자화할 수 있다. 한편, 부호화부(220)는 전술한 바와 같이, 잔차 블록을 변환하고 양자화할 수도 있지만, 잔차 블록의 잔차 신호를 변환하여 주파수 계수를 갖는 잔차 블록을 생성하고 양자화 과정을 수행하지 않을 수 있으며, 잔차 블록의 잔차 신호를 주파수 계수로 변환하지 않고 양자화 과정만을 수행할 수 있을 뿐만 아니라, 심지어는 변환과 양자화 과정을 모두 수행하지 않을 수 있다.The encoding unit 220 encodes the transformed residual block into a dead zone uniform dead band quantization (DZUTQ), a quantization weighted matrix or a quantization technique Can be quantized. As described above, the encoding unit 220 may transform and quantize the residual block, but may generate residual blocks having frequency coefficients by converting the residual signals of the residual blocks and may not perform the quantization process, Not only the quantization process can be performed without converting the residual signal of the block into the frequency coefficient, and even the conversion and the quantization process can not be performed.

또한, 부호화부(220)는 잔차 블록의 양자화 주파수 계수, 주파수 계수 또는 잔차 신호를 지그재그 스캔과 같은 다양한 스캔 방식에 따라 스캔하여 양자화 주파수 계수열, 주파수 계수열 또는 신호열을 생성하고 엔트로피 부호화(Entropy Coding) 기법 등 다양한 부호화 기법을 이용하여 부호화할 수 있다.The encoding unit 220 scans the quantization frequency coefficient, the frequency coefficient, or the residual signal of the residual block according to various scan methods such as zigzag scanning to generate a quantization frequency coefficient sequence, a frequency coefficient sequence, or a signal sequence, and performs entropy coding ) Technique and the like.

또한, 부호화부(220)는 양자화된 잔차 블록을 역 양자화(Inverse Quantization)하고 역 변환(Inverse Transform)하여 잔차 블록을 복원할 수 있다. 즉, 부호화부(220)는 앙자화된 잔차 블록의 양자화 주파수 계수들을 역 양자화하여 주파수 계수를 갖는 잔차 블록을 생성하고, 역 양자화된 잔차 블록을 역 변환하여 화소값을 갖는 잔차 블록 즉, 복원된 잔차 블록을 생성한다. 여기서, 복호화부(220)는 전술한 변환 방식과 양자화 방식을 역으로 사용하여 역 변환 및 역 양자화할 수 있다. 또한, 부호화부(220)는 변환만을 수행하고 양자화를 수행하지 않은 경우, 역 변환만을 수행하고 역 양자화를 수행하지 않으며, 양자화만을 수행하고 변환을 수행하지 않은 경우에는 역 양자화만을 수행하고 역 변환을 수행하지 않을 수 있다. 만약, 부호화부(220)에서 변환 및 양자화를 모두 수행하지 않은 경우, 역 변환 및 역 양자화를 모두 수행하지 않을 수 있다.The encoding unit 220 may inverse quantize and inverse transform the quantized residual block to recover the residual block. That is, the encoding unit 220 dequantizes the quantized frequency coefficients of the coarse residual block to generate a residual block having a frequency coefficient, and inversely transforms the dequantized residual block to generate a residual block having a pixel value, And generates a residual block. Here, the decoding unit 220 can perform inverse transform and inverse quantization using the transformation method and the quantization method described above inversely. In addition, when the encoding unit 220 performs only the conversion and does not perform the quantization, only the inverse transform is performed and the inverse quantization is not performed. In the case where the quantization is not performed, only the inverse quantization is performed, It may not be performed. If the encoding unit 220 does not perform both the transformation and the quantization, it may not perform both the inverse transformation and the inverse quantization.

또한, 부호화부(220)는 예측된 예측 블록과 복원된 잔차 블록을 가산하여 현재 블록을 복원할 수 있으며, 복원된 현재 블록을 프레임 단위로 저장하여 참조 프레임을 출력할 수 있으며, 부호화부(220)는 블록 모드와 움직임 벡터를 부호화하여 출력할 수 있다.Also, the encoding unit 220 can restore the current block by adding the predicted prediction block and the reconstructed residual block, and can output the reference frame by storing the reconstructed current block on a frame-by-frame basis. The encoding unit 220 Can encode and output the block mode and the motion vector.

부호화 데이터 생성부(230)는 참조 프레임의 각 화소에 대한 오프셋을 부호화하고, 부호화된 잔차 블록과 부호화된 각 화소에 대한 오프셋을 포함하는 부호화 데이터를 생성한다. 즉, 부호화 데이터 생성부(230)는 오프셋 산출부(216)로부터 출력되는 참조 프레임의 각 화소에 대한 오프셋을 부호화하고, 부호화부(220)로부터 출력되는 부호화된 잔차 블록과 부호화된 각 화소에 대한 오프셋을 포함하는 부호화 데이터를 생성하고 출력한다.The encoded data generation unit 230 encodes the offset for each pixel of the reference frame and generates encoded data including the encoded residual block and the offset for each encoded pixel. That is, the encoded data generation unit 230 encodes the offset for each pixel of the reference frame output from the offset calculation unit 216, and outputs the encoded residual block output from the encoding unit 220 and the And generates and outputs encoded data including an offset.

또한, 부호화 데이터 생성부(230)는, 참조 프레임의 각 화소에 대한 오프셋이 프레임 단위로 산출되는 경우, 부호화된 각 화소에 대한 오프셋을 부호화 데이터의 프레임 헤더 또는 슬라이스 헤더에 포함시킬 수 있으며, 참조 프레임의 각 화소에 대한 오프셋이 블록 단위로 산출되는 경우, 부호화된 각 화소에 대한 오프셋을 부호화 데이터의 블록 헤더에 포함시킬 수 있다. 부호화 데이터 생성부(230)는 부호화부(220)로부터 출력되는 부호화된 블록 모드와 부호화된 움직임 벡터를 부호화 데이터에 추가로 포함시킬 수 있다.When the offset for each pixel of the reference frame is calculated on a frame-by-frame basis, the encoded data generation unit 230 may include an offset for each encoded pixel in the frame header or slice header of the encoded data, When an offset for each pixel of a frame is calculated in units of blocks, an offset for each encoded pixel can be included in the block header of the encoded data. The encoded data generation unit 230 may further include the encoded block mode and the encoded motion vector output from the encoding unit 220 in the encoded data.

도 8은 본 발명의 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating an image encoding method according to an embodiment of the present invention.

영상 부호화 장치(200)는 참조 프레임을 분수 화소 단위로 보간하고 보간된 참조 프레임에 참조 프레임의 각 화소에 대한 오프셋을 가산하여 오프셋 가산 참조 프레임을 생성한다(S810).The image encoding apparatus 200 generates an offset-added reference frame by interpolating the reference frame in units of fractional pixels and adding the offset to each pixel of the reference frame to the interpolated reference frame (S810).

영상 부호화 장치(200)는 오프셋 가산 참조 프레임을 이용하여 현재 블록을 예측하여 현재 블록의 잔차 블록을 생성하고 부호화한다(S820). 즉, 영상 부호화 장치(200)는 통상적인 참조 프레임이나 보간된 참조 프레임이 아닌 보간된 참조 프레임에 참조 프레임의 각 화소에 대한 오프셋이 가산된 오프셋 가산 참조 프레임을 이용하여 현재 블록의 움직임을 추정 및 보상함으로써 예측한 예측 블록과 현재 블록을 감산하여 잔차 블록을 생성하고 부호화한다.The image encoding apparatus 200 generates and codes a residual block of the current block by predicting the current block using the offset-added reference frame (S820). That is, the image encoding apparatus 200 estimates the motion of the current block using an offset-added reference frame in which the offset for each pixel of the reference frame is added to the interpolated reference frame, rather than the normal reference frame or the interpolated reference frame, And the residual block is generated by subtracting the predicted prediction block from the current block and encoded.

영상 부호화 장치(200)는 부호화된 잔차 블록과 부호화된 오프셋을 포함하는 부호화 데이터를 생성하고 출력한다(S830).The image encoding apparatus 200 generates and outputs encoded data including the encoded residual block and the encoded offset (S830).

도 9는 본 발명의 일 실시예에 따른 참조 프레임 생성 방법을 설명하기 위한 순서도이다.9 is a flowchart illustrating a method of generating a reference frame according to an embodiment of the present invention.

참조 프레임 생성부(210)는 이미 부호화되고 복호화됨으로써 복원되어 저장된 참조 프레임을 다양한 필터 등을 이용하여 분수 화소 단위로 보간하고(S910), 보간된 참조 프레임을 이용하여 부호화 과정을 수행하여 현재 프레임의 블록 모드와 블록 모드에 따른 움직임 벡터를 결정하며(S920), 각 블록 모드에 따른 참조 프레임의 각 화소에 대한 오프셋을 산출하여(S930), 산출된 각 블록 모드에 따른 참조 프레임의 각 화소에 대한 오프셋을 보간된 참조 프레임에 가산함으로써 오프셋 보간 참조 프레임을 생성한다(S940).The reference frame generation unit 210 interpolates the reference frame reconstructed and decoded by the reference frame generation unit 210 using a variety of filters and the like in units of fractional pixels (S910), performs an encoding process using the interpolated reference frame, A motion vector according to the block mode and the block mode is determined (S920), an offset for each pixel of the reference frame according to each block mode is calculated (S930) An offset interpolation reference frame is generated by adding the offset to the interpolated reference frame (S940).

이상에서 전술한 바와 같이, 영상 부호화 장치(200)에 의해 부호화 데이터로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등의 통신 인터페이스를 통해 후술할 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 영상으로 복원되고 재생될 수 있다.As described above, the image encoded with the encoded data by the image encoding apparatus 200 can be transmitted through the wired / wireless communication network such as the Internet, the local area wireless communication network, the wireless LAN network, the WiBro network, the mobile communication network, , A universal serial bus (USB), or the like, to be transmitted to a video decoding apparatus to be described later, decoded by the video decoding apparatus, and restored and reproduced as an image.

도 10은 본 발명의 일 실시예에 따른 영상 복호화 장치의 구성을 간략하게 나타낸 블록 구성도이다.FIG. 10 is a block diagram of a video decoding apparatus according to an embodiment of the present invention. Referring to FIG.

본 발명의 일 실시예에 따른 영상 복호화 장치(1000)는 오프셋 추출부(1010), 참조 프레임 생성부(1020) 및 복호화부(1030)를 포함하여 구성될 수 있다. 이러한 영상 복호화 장치(1000)는 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 이동통신 단말기(Mobile Communication Terminal) 등일 수 있으며, 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 복호화하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미한다.The apparatus 1000 for decoding an image according to an exemplary embodiment of the present invention may include an offset extraction unit 1010, a reference frame generation unit 1020, and a decoding unit 1030. The video decoding apparatus 1000 may be a personal computer (PC), a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a PlayStation Portable ), A mobile communication terminal, and the like, and may be a communication device such as a communication modem for performing communication with various devices or wired / wireless communication networks, a memory for storing various programs and data for decrypting video, a program And a microprocessor for calculating and controlling the microprocessor.

오프셋 추출부(1010)는 부호화 데이터로부터 부호화된 각 화소에 대한 오프셋을 추출하고 복호화하여 각 화소에 대한 오프셋을 복원한다. 여기서, 오프셋 추출부(1010)는 부호화된 각 화소에 대한 오프셋을 부호화 데이터의 프레임 헤더 또는 슬라이스 헤더로부터 추출하거나 부호화된 각 화소에 대한 오프셋을 부호화 데이터의 블록 헤더로부터 추출할 수 있다.The offset extraction unit 1010 extracts and decodes an offset for each pixel encoded from the encoded data, and restores an offset for each pixel. Here, the offset extraction unit 1010 may extract an offset for each encoded pixel from a frame header of the encoded data or a slice header, or may extract an offset for each encoded pixel from the block header of the encoded data.

참조 프레임 생성부(1020)는 분수 화소 단위로 보간된 참조 프레임에 추출된 각 화소에 대한 오프셋을 가산하여 오프셋 보간 참조 프레임을 생성한다. 이를 위해, 참조 프레임 생성부(1020)는 도시한 바와 같이, 복호화부(1030)로부터 출력되는 참조 프레임을 분수 화소 단위로 보간하여 보간된 참조 프레임을 생성하고 출력하는 보간부(1022) 및 오프셋 추출부(1010)로부터 출력되는 각 화소에 대한 오프셋을 보간부(1022)로부터 출력되는 보간된 참조 프레임의 각 화소에 가산하여 오프셋 보간 참조 프레임을 생성하여 출력하는 오프셋 가산부(1024)를 포함하여 구성될 수 있다. 여기서, 보간부(1022)와 오프셋 가산부(1024)는 도 2를 통해 전술한 보간부(212)와 오프셋 가산부(218)와 동일 또는 유사한 방법으로 보간된 참조 프레임을 생성하고 참조 프레임에 각 화소에 대한 오프셋을 가산하므로 이에 대한 상세한 설명은 생략한다.The reference frame generation unit 1020 generates an offset interpolation reference frame by adding offsets of the extracted pixels to the reference frame interpolated by the fractional pixel unit. To this end, the reference frame generation unit 1020 includes an interpolation unit 1022 for interpolating reference frames output from the decoding unit 1030 on a fractional pixel basis to generate and output interpolated reference frames, And an offset addition unit (1024) for adding an offset for each pixel output from the interpolation unit (1010) to each pixel of the interpolated reference frame output from the interpolation unit (1022) to generate and output an offset interpolation reference frame, . Here, the interpolation section 1022 and the offset addition section 1024 generate interpolated reference frames in the same or similar manner as the interpolation section 212 and the offset addition section 218 described above with reference to FIG. 2, The offset for the pixel is added, and thus a detailed description thereof will be omitted.

다만, 오프셋 추출부(1010)는 부호화 데이터로부터 블록 모드에 대한 정보를 추가로 추출하여 출력하거나 추출된 블록 모드에 대한 정보가 부호화되었다면 복호화하여 출력할 수 있는데, 오프셋 가산부(1024)는 오프셋 추출부(1010)로부터 출력되는 블록 모드에 대한 정보에 따른 블록 모드에 따라 보간된 참조 프레임에 각 화소에 대한 오프셋을 가산할 수 있다. 즉, 오프셋 가산부(1024)는 블록 모드별로 오프셋 보간 참조 프레임을 생성할 수 있으며, 블록 모드의 집합별로 오프셋 보간 참조 프레임을 생성할 수 있다. 이 경우, 블록 모드의 개수만큼 또는 블록 모드의 집합의 개수만큼 오프셋 보간 참조 프레임이 생성될 수 있다.However, the offset extraction unit 1010 may further extract and output information on the block mode from the encoded data or may decode and output information on the extracted block mode if the information is coded. The offset addition unit 1024 may perform offset extraction The offset for each pixel can be added to the interpolated reference frame according to the block mode according to the information about the block mode output from the block 1010. [ That is, the offset addition unit 1024 can generate an offset interpolation reference frame for each block mode, and generate an offset interpolation reference frame for each block mode set. In this case, an offset interpolation reference frame can be generated by the number of block modes or by the number of sets of block modes.

또한, 오프셋 가산부(1024)는, 오프셋 추출부(1010)가 프레임 헤더 또는 슬라이스 헤더로부터 부호화된 각 화소에 대한 오프셋을 추출한 경우, 복원된 각 화소에 대한 오프셋을 보간된 참조 프레임에 프레임 단위로 가산할 수 있으며, 오프셋 추출부(1010)가 블록 헤더로부터 부호화된 각 화소에 대한 오프셋을 추출한 경우, 추출된 각 화소에 대한 오프셋을 보간된 참조 프레임에 블록 단위로 가산할 수 있다.When the offset extracting unit 1010 extracts an offset for each pixel encoded from the frame header or the slice header, the offset adding unit 1024 adds the offset for each pixel restored to the interpolated reference frame on a frame basis When the offset extracting unit 1010 extracts the offset for each pixel encoded from the block header, the offset for each extracted pixel can be added to the interpolated reference frame on a block-by-block basis.

복호화부(1030)는 부호화 데이터에 포함된 부호화된 잔차 블록을 복호화하여 잔차 블록을 복원하고 오프셋 보간 참조 프레임을 이용하여 생성한 현재 블록의 예측 블록과 복원된 잔차 블록을 가산하여 현재 블록을 복원한다. 즉, 복호화부(1030)는 오프셋 추출부(1010)로부터 출력되는 (부호화된 각 화소에 대한 오프셋이 추출된) 부호화 데이터에 포함된 부호화된 잔차 블록을 복호화하여 잔차 블록을 복원하고, 참조 프레임 생성부(1020)로부터 출력되는 오프셋 보간 참조 프레임을 이용하여 현재 블록의 움직임을 보상하여 예측 블록을 생성하고 복원된 잔차 블록과 가산하여 현재 블록을 복원하고 출력한다. 이와 같이 출력되는 현재 블록은 프레임 단위로 저장되어 복원 영상으로서 출력되거나 참조 프레임을 출력될 수 있다.The decoding unit 1030 decodes the encoded residual block included in the encoded data, restores the residual block, and restores the current block by adding the restored residual block to the prediction block of the current block generated using the offset interpolation reference frame . That is, the decoding unit 1030 decodes the encoded residual block included in the encoded data (the offset of each encoded pixel is extracted) output from the offset extracting unit 1010, restores the residual block, A motion compensating unit for compensating a motion of a current block using an offset interpolation reference frame output from the motion compensating unit and generating a predicted block and adding the compensated residual block to the reconstructed residual block. The current block output in this way can be stored in units of frames and output as a reconstructed image or a reference frame.

여기서, 복호화부(1030)는 부호화된 잔차 블록을 복호화하는 데 있어서, 도 2를 통해 전술한 부호화부(220)가 잔차 블록을 부호화하는 부호화 기법을 이용할 수 있으며, 복호화된 잔차 블록을 복원하는 데 있어서, 역 양자화 및 역 변환 등이 수행될 수 있으며, 이는 도 2를 통해 전술한 부호화부(220)에서 수행하는 역 양자화 및 역 변환과 동일 또는 유사할 수 있고 본 발명의 기술분야에서 통상의 지식을 가진자라면 도 2를 통해 전술한 바로 복호화부(1030)를 구현할 수 있으므로, 이에 대한 상세한 설명은 생략한다.Here, in decoding the encoded residual block, the decoding unit 1030 can use a coding scheme for coding the residual block by the encoding unit 220 described above with reference to FIG. 2, and restores the decoded residual block Inverse quantization and inverse transform may be performed, and it may be the same as or similar to the inverse quantization and inverse transform performed by the encoding unit 220 described above with reference to FIG. 2, It is possible to implement the decryption unit 1030 directly as described above with reference to FIG. 2, so that a detailed description thereof will be omitted.

도 11은 본 발명의 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 순서도이다.11 is a flowchart illustrating an image decoding method according to an embodiment of the present invention.

유무선 통신망 또는 케이블 등을 통해 영상에 대한 부호화 데이터를 수신하여 저장한 영상 복호화 장치(1000)는 사용자의 선택 또는 실행 중인 다른 프로그램의 알고리즘에 따라 영상을 재생하기 위해, 영상을 복호화하여 복원한다.The video decoding apparatus 1000 receives encoded video data through a wired / wireless communication network or a cable and stores the decoded video data in order to reproduce the video according to a user's selection or algorithm of another program being executed.

이를 위해, 영상 복호화 장치(1000)는 부호화 데이터로부터 부호화된 각 화소에 대한 오프셋을 추출하고 복호화하여 각 화소에 대한 오프셋을 복원하고(S1110), 참조 프레임을 분수 화소 단위로 보간한 보간된 참조 프레임의 각 화소에 복원된 각 화소에 대한 오프셋을 가산하여 오프셋 보간 참조 프레임을 생성한다(S1120). 또한, 영상 복호화 장치(1000)는, 부호화 데이터에 포함된 부호화된 잔차 블록을 복호화하여 잔차 블록을 복원하며(S1130), 오프셋 보간 참조 프레임을 이용하여 현재 블록의 움직임을 보상함으로써 현재 블록의 예측 블록을 생성하며(S1140), 복원된 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원한다(S1150). 이와 같이 복원된 현재 블록을 프레임 단위로 누적되어 복원 영상으로서 출력된다.For this, the image decoding apparatus 1000 extracts and decodes an offset for each pixel encoded from the encoded data, restores the offset for each pixel (S1110), and outputs the interpolated reference frame The offset interpolation reference frame is generated by adding the offset of each pixel restored to each pixel of the frame (S1120). Also, the image decoding apparatus 1000 decodes the encoded residual block included in the encoded data to recover the residual block (S1130), compensates for the motion of the current block using the offset interpolation reference frame, (S1140), and restores the current block by adding the restored residual block and the prediction block (S1150). The restored current block is accumulated in units of frames and output as a restored image.

이상에서는 본 발명의 일 실시예를 통해, 영상 부호화 장치(200)가 오프셋 보간 참조 프레임을 생성하는 것으로 설명했지만, 본 발명은 이러한 실시예에 반드시 한정되지 않으며, 후술하는 다른 실시예와 같이 참조 프레임을 화소 단위로 보간한 후 화소 단위로 오프셋을 산출하고 보간된 참조 프레임에 가산하여 인터 예측을 수행할 수 있다.In the above description, the image encoding apparatus 200 generates the offset interpolation reference frame through the embodiment of the present invention. However, the present invention is not limited to such an embodiment, Interpolation is performed on a pixel-by-pixel basis, an offset is calculated on a pixel-by-pixel basis, and the inter-prediction is performed by adding the offset to the interpolated reference frame.

이러한 본 발명의 다른 실시예에 따른 영상 부호화 방법은 참조 프레임의 화소들을 이용하여 분수 화소 단위로 보간된 화소들을 생성하고, 보간된 화소들에 오프셋을 가산하며, 보간되어 오프셋이 가산된 화소들을 이용하여 현재 블록을 인터 예측 부호화를 수행하며, 오프셋을 부호화하고 부호화된 오프셋 및 인터 예측 부호화된 현재 블록을 포함하는 부호화 데이터를 출력함으로써, 영상을 부호화할 수 있다. 여기서, 오프셋은 현재 블록의 블록 모드에 따라 산출될 수 있으며, 정수 화소의 위치 또는 분수 화소의 위치에 따라 결정될 수 있다.According to another aspect of the present invention, there is provided an image encoding method comprising: generating pixels interpolated on a fractional pixel basis using pixels of a reference frame, adding an offset to interpolated pixels, interpolating and adding offset- And performs encoding of the current block, encoding the offset, and outputting the encoded data including the encoded offset and the inter prediction encoded current block, thereby encoding the image. Here, the offset can be calculated according to the block mode of the current block, and can be determined according to the position of the integer pixel or the position of the fractional pixel.

또한, 본 발명의 다른 실시예에 따른 영상 복호화 방법은, 부호화 데이터로부터 부호화된 잔차 블록과 부호화된 오프셋을 추출하고, 부호화된 잔차 블록과 부호화된 오프셋을 복호화하여 잔차 블록과 오프셋을 복원하며, 참조 프레임의 화소들을 이용하여 분수 화소 단위로 보간된 화소들을 생성하여, 보간된 화소들에 복원된 오프셋을 가산하며, 보간되어 오프셋이 가산된 화소들을 이용하여 현재 블록을 인터 예측하여 생성한 예측 블록과 복원된 잔차 블록을 가산하여 현재 블록을 복원함으로써, 영상을 복호화할 수 있다. 여기서, 오프셋은 현재 블록의 블록 모드에 따라 산출될 수 있으며, 정수 화소의 위치 또는 분수 화소의 위치에 따라 결정될 수 있다.According to another aspect of the present invention, there is provided a method of decoding an image, the method comprising: extracting a coded residual block and a coded offset from coded data; decoding the coded residual block and the coded offset to recover an offset and a residual block; A predicted block generated by interleaving the current block using the pixels interpolated and added with the offset, adding the restored offset to the interpolated pixels, generating the interpolated pixels by the fractional pixel unit using the pixels of the frame, By adding the reconstructed residual block to reconstruct the current block, the image can be decoded. Here, the offset can be calculated according to the block mode of the current block, and can be determined according to the position of the integer pixel or the position of the fractional pixel.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, the terms "comprises", "comprising", or "having" described above mean that a component can be implanted unless otherwise specifically stated, But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

이상에서 설명한 바와 같이 본 발명은 영상을 효율적으로 부호화하고 복호화하는 방법 및 장치와 관련된 분야에 적용되어, 인터 예측을 위한 참조 프레임에 블록 모드에 따라 산출되는 오프셋을 가산하여 움직임 추정 및 보상에 이용되는 참조 프레임을 부호화될 현재 프레임과 유사해지도록 함으로써, 더욱 정확한 예측을 할 수 있고 그에 따라 부호화 효율 및 압축 효율을 향상시킬 수 있는 효과를 발생하는 매우 유용한 발명이다.
As described above, the present invention is applied to a field related to a method and an apparatus for efficiently encoding and decoding an image, and it is an object of the present invention to provide a method and apparatus for efficiently encoding and decoding an image, By making the reference frame similar to the current frame to be encoded, it is a very useful invention that can produce a more accurate prediction and thereby improve coding efficiency and compression efficiency.

Claims (6)

참조 프레임 보간에 의해 인터 예측을 수행하는 영상 복호화 장치에 있어서,
부호화 데이터로부터 참조 프레임에 적용되는 오프셋을 추출하는 오프셋 추출부;
현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들을 보간하는 보간부;
상기 보간된 화소들에 상기 추출된 오프셋을 적용하여 예측 블록을 생성하는 오프셋 가산부; 및
상기 부호화 데이터로부터 부호화된 잔차 신호를 추출하고, 추출된 잔차 신호를 복호화하여 잔차 블록을 복원하며, 상기 예측 블록과 상기 잔차 블록을 가산하여 상기 현재 블록을 복원하는 복호화부
를 포함하는 것을 특징으로 하는 영상 복호화 장치.
An image decoding apparatus for performing inter prediction by reference frame interpolation,
An offset extracting unit for extracting an offset applied to the reference frame from the encoded data;
A interpolation unit interpolating pixels in the reference frame based on a motion vector of a current block;
An offset adding unit for applying the extracted offset to the interpolated pixels to generate a prediction block; And
A decoding unit which extracts a coded residual signal from the coded data, restores the residual block by decoding the residual signal, and restores the current block by adding the prediction block and the residual block,
And an image decoding unit for decoding the image.
제1항에 있어서,
상기 오프셋은 상기 부호화 데이터에 슬라이스 단위로 포함되는 것을 특징으로 하는 영상 복호화 장치.
The method according to claim 1,
Wherein the offset is included in the encoded data in units of slices.
제1항에 있어서, 상기 보간부는,
상기 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들은 1/4 분수 화소 단위까지 보간하는 것을 특징으로 하는 영상 복호화 장치.
The apparatus according to claim 1,
And interpolates pixels in the reference frame up to 1/4 fractional pixel units based on the motion vector of the current block.
제1항에 있어서,
상기 보간부는 상기 현재 블록의 움직임 벡터에 근거하여 상기 참조 프레임 내의 화소들에 대한 분수 단위 보간을 통해 제1 예측 화소들을 생성하고,
상기 오프셋 적용부는 상기 제1 예측 화소들에 상기 추출된 오프셋을 가산하여 상기 예측 블록을 구성하는 제2 예측 화소들을 생성하는 것을 특징으로 하는 영상 복호화 장치.
The method according to claim 1,
Wherein the interpolator generates first prediction pixels through fractional interpolation of pixels in the reference frame based on the motion vector of the current block,
Wherein the offset applying unit generates second prediction pixels constituting the prediction block by adding the extracted offset to the first prediction pixels.
제1항에 있어서, 상기 복호화부는,
상기 잔차 블록의 부호화 기법에 근거하여, 상기 추출된 잔차 신호에 대하여, 역 변환 및 역 양자화를 모두 수행하지 않는 과정, 역 양자화를 수행하되 역 변환은 수행하지 않는 과정, 및 역 양자화 및 역 변환을 모두 수행하는 과정 중에서 하나를 선택함으로써 상기 잔차 블록을 복원하는 것을 특징으로 하는 영상 복호화 장치.
2. The decoding apparatus according to claim 1,
Performing inverse quantization and inverse quantization on the extracted residual signal based on the coding technique of the residual block, performing a process of performing inverse quantization but not performing inverse transformation on the extracted residual signal, And reconstructing the residual block by selecting one of the steps of performing all of the reconstructed residual blocks.
제5항에 있어서,
상기 잔차 블록의 부호화 기법은 상기 부호화 데이터에 포함된 정보에 근거하여 식별되는 것을 특징으로 하는 영상 복호화 장치.
6. The method of claim 5,
Wherein the coding scheme of the residual block is identified based on information included in the encoded data.
KR1020140111756A 2014-08-26 2014-08-26 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same KR101524664B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140111756A KR101524664B1 (en) 2014-08-26 2014-08-26 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140111756A KR101524664B1 (en) 2014-08-26 2014-08-26 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR20140038197A Division KR101479525B1 (en) 2014-03-31 2014-03-31 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020150011885A Division KR101533435B1 (en) 2015-01-26 2015-01-26 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR1020150011890A Division KR101533441B1 (en) 2015-01-26 2015-01-26 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same

Publications (2)

Publication Number Publication Date
KR20140118958A true KR20140118958A (en) 2014-10-08
KR101524664B1 KR101524664B1 (en) 2015-06-04

Family

ID=51991541

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140111756A KR101524664B1 (en) 2014-08-26 2014-08-26 Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same

Country Status (1)

Country Link
KR (1) KR101524664B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636334A (en) * 2019-08-23 2019-12-31 西安万像电子科技有限公司 Data transmission method and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100393063B1 (en) * 2001-02-15 2003-07-31 삼성전자주식회사 Video decoder having frame rate conversion and decoding method
US7903742B2 (en) * 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636334A (en) * 2019-08-23 2019-12-31 西安万像电子科技有限公司 Data transmission method and system
CN110636334B (en) * 2019-08-23 2022-12-09 西安万像电子科技有限公司 Data transmission method and system

Also Published As

Publication number Publication date
KR101524664B1 (en) 2015-06-04

Similar Documents

Publication Publication Date Title
KR101441903B1 (en) Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR101830352B1 (en) Method and Apparatus Video Encoding and Decoding using Skip Mode
KR101377660B1 (en) Motion Vector Encoding/Decoding Method and Apparatus Using Multiple Motion Vector Estimation and Video Encoding/Decoding Method and Apparatus Using Same
KR20130003816A (en) Method and apparatus for encoding and decoding video
US9420281B2 (en) Method and apparatus for encoding/decoding video using high-precision filter
KR101418104B1 (en) Motion Vector Coding Method and Apparatus by Using Motion Vector Resolution Combination and Video Coding Method and Apparatus Using Same
WO2012173109A1 (en) Video encoding device, video decoding device, video encoding method, video decoding method, video encoding program, video decoding program
KR101768865B1 (en) Video Coding Method and Apparatus Using Weighted Prediction
KR101700410B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR101524664B1 (en) Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR101533435B1 (en) Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR101533441B1 (en) Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR101479525B1 (en) Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR101590493B1 (en) Method and Apparatus for Encoding and Decoding Video by Using Inter Prediction
KR101537767B1 (en) Video Encoding/Decoding Method and Apparatus Using Arbitrary Pixel in Subblock
KR101483495B1 (en) Video Encoding/Decoding Method and Apparatus Using Arbitrary Pixel in Subblock
KR101575605B1 (en) Method and Apparatus for Encoding and Decoding Motion Vector in Plural Number of Reference Pictures and Video Encoding/Decoding Method and Apparatus Using Same
KR101575635B1 (en) Method and Apparatus for Encoding and Decoding Motion Vector in Plural Number of Reference Pictures and Video Encoding/Decoding Method and Apparatus Using Same
KR101379189B1 (en) Video Coding Method and Apparatus by Using Filtering Motion Compensation Frame
KR101441889B1 (en) Apparatus and Method for Encoding and Decoding Motion Vector
KR101582504B1 (en) Method and Apparatus for Encoding and Decoding Video by Using Inter Prediction
KR101575636B1 (en) Motion Vector Encoding/Decoding Method and Apparatus Using Multiple Motion Vector Estimation and Video Encoding/Decoding Method and Apparatus Using Same
KR101700411B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR101456973B1 (en) Video Coding Method and Apparatus Using Weighted Prediction
KR20140136906A (en) Video Encoding/Decoding Method and Apparatus Using Arbitrary Pixel in Subblock

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190502

Year of fee payment: 5