KR20120129629A - Method of motion estimation and compensation using in-loop preprocessing filtering - Google Patents

Method of motion estimation and compensation using in-loop preprocessing filtering Download PDF

Info

Publication number
KR20120129629A
KR20120129629A KR1020110047996A KR20110047996A KR20120129629A KR 20120129629 A KR20120129629 A KR 20120129629A KR 1020110047996 A KR1020110047996 A KR 1020110047996A KR 20110047996 A KR20110047996 A KR 20110047996A KR 20120129629 A KR20120129629 A KR 20120129629A
Authority
KR
South Korea
Prior art keywords
filter set
preprocessing
filter
reference frame
motion estimation
Prior art date
Application number
KR1020110047996A
Other languages
Korean (ko)
Other versions
KR101247024B1 (en
Inventor
정제창
이혁
장진익
김영준
홍성민
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020110047996A priority Critical patent/KR101247024B1/en
Publication of KR20120129629A publication Critical patent/KR20120129629A/en
Application granted granted Critical
Publication of KR101247024B1 publication Critical patent/KR101247024B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: A motion estimation and compensation method is provided to compensate blur and deblur phenomenon by adding a preprocessing process inside a video compression encoder and a decoder. CONSTITUTION: A video encoder estimates variation degree of image information between a current frame and a reference frame(S110). The video encoder configures a pre-processing filter group including an LPF(Low Pass Filter) group and an adaptive filter group(S120). The video encoder applies the pre-processing filter group to the reference frame(S130). The video encoder performs motion estimation and compensation by using the pre-processed reference frame(S140). [Reference numerals] (AA) Start; (BB) End; (S110) Estimating variation degree of image information between a current frame and a reference frame; (S120) Configuring a pre-processing filter group; (S130) Applying the pre-processing filter group to the reference frame; (S140) Motion estimation and compensation

Description

루프 내 전처리 필터링을 이용한 움직임 추정 및 보상 방법{Method of motion estimation and compensation using in-loop preprocessing filtering}Method of motion estimation and compensation using in-loop preprocessing filtering

본 발명은 동영상 부호화 및 복호화에 관한 것으로, 더욱 상세하게는 동영상 부호화 및 복호화 과정에 있어서 루프 내 전처리 필터링을 이용하여 움직임 추정 및 보상의 정밀도를 높이고 이를 통하여 동영상 압축의 효율을 향상시킬 수 있는 움직임 추정 및 보상 방법에 관한 것이다.The present invention relates to video encoding and decoding, and more particularly, to estimation of motion estimation and motion compensation by using preprocessing filtering in a loop in video encoding and decoding, thereby improving the efficiency of video compression. And a compensation method.

전화와 팩시밀리에서부터 시작하여 근래의 DMB, 휴대전화, 인터넷 통신망에서 다루는 정보 미디어는 점차 대용량화로 진전되고 있다. 이에 따라, 고속의 멀티미디어 데이터 통신에 대한 관심과 요구가 증대되고 있으며, 유?무선 데이터 송수신의 전송속도가 비약적으로 향상됨에 따라 데이터 크기가 큰 동영상 데이터까지도 유?무선 통신 네트워크를 통해 실시간으로 송수신할 수 있게 되었다. Starting with telephones and facsimiles, information media dealing with modern DMB, mobile phones, and Internet communication networks are becoming more and more large. Accordingly, interest and demand for high-speed multimedia data communication are increasing, and as the transmission speed of wired / wireless data transmission and reception is greatly improved, even video data having a large data size can be transmitted and received in real time through a wired / wireless communication network. It became possible.

최근에는 스마트폰과 스마트TV의 등장으로 인하여 유?무선 통신 네트워크를 통한 동영상 데이트의 이용이 폭발적으로 증가하고 있는 추세이다. 동영상 데이터는 일반 텍스트 데이터에 비하여 정보 전달 능력이 뛰어난 반면에 용량이 매우 크기 때문에 제한된 대역폭을 가진 네트워크 채널에서 데이터를 전송하거나 재생 및 저장하는데 어려움이 존재한다. 또한, 어플리케이션의 요구에 따라서 방대한 동영상 정보가 적절히 처리되어야 하므로, 동영상을 처리하기 위한 시스템 또한 높은 사양이 요구된다. Recently, with the advent of smart phones and smart TVs, the use of video dating through wired / wireless communication networks is exploding. Video data has a higher information transfer capability than plain text data, but has a large capacity, making it difficult to transmit, play, and store data in a network channel having limited bandwidth. In addition, since a large amount of moving picture information must be appropriately processed according to an application request, a system for processing moving pictures also requires high specifications.

이러한 문제점들을 해결하기 위하여, 동영상 데이터를 작은 정보로 압축시키는 기술인 동영상 부호화 알고리즘이 활발히 연구되어 오고 있다. 현재까지 연구된 동영상 압축과 관련된 대표적인 국제 표준에는 ISO/IEC의 엠펙(MPEG) 시리즈와 ITU-T의 H.26x 시리즈가 있다.In order to solve these problems, video encoding algorithms, which are techniques for compressing video data into small information, have been actively studied. Representative international standards related to video compression studied to date include ISO / IEC's MPEG series and ITU-T's H.26x series.

동영상 데이터는 시간적 (temporal), 공간적(spatial), 통계적(statistical) 중복성을 가지는 것을 특징으로 한다. 시간적 중복성은 연속되는 프레임간의 중복성을 의미하며, 연속되는 프레임의 화소값 들은 매우 높은 상관도를 가진다. 공간적 중복성은 프레임 내에 존재하는 중복성을 의미하며, 하나의 화소의 밝기값은 이웃하는 화소들의 밝기값과 높은 상관도를 가진다. 마지막으로, 통계적 중복성은 부호화된 데이터들 간의 중복성을 의미하는데, 화소들의 밝기값의 확률 분포에 의한 중복성을 말한다.The video data is characterized by having temporal, spatial, and statistical redundancy. Temporal redundancy means redundancy between successive frames, and pixel values of successive frames have a very high correlation. Spatial redundancy means redundancy existing in a frame, and the brightness value of one pixel has a high correlation with the brightness value of neighboring pixels. Finally, statistical redundancy means redundancy between coded data, which means redundancy by probability distribution of brightness values of pixels.

동영상 부호화를 위하여, 상기 3가지 중복성을 제거함으로써 방대한 양의 동영상 데이터를 보다 작은 양의 데이터로 압축할 수 있다. 예를 들어, 움직임 추정 및 보상 기술은 시간적 중복성을 제거하며, 변환 부호화 기술과 양자화 기술은 공간적 중복성을 제거한다. 가변장 부호화 등과 같은 엔트로피 부호화 기술은 통계적 중복성을 제거하기 위한 목적으로 동영상 코덱의 국제 표준에 채택되어 사용된다.For video encoding, by removing the three redundancies it is possible to compress a large amount of video data into a smaller amount of data. For example, motion estimation and compensation techniques remove temporal redundancy, and transform coding and quantization techniques remove spatial redundancy. Entropy coding techniques, such as variable length coding, are adopted and used in international standards for video codecs for the purpose of removing statistical redundancy.

국제 표준화 기구 중 MPEG 표준에서는 화면내 부호화(intra coded frame : I 프레임), 예측부호화(predictive coded frame : P 프레임), 양방향 예측부호화(bi-directionally-predicitve coded frame : B 프레임)의 세가지 형태의 예측 부호화 방식을 사용하며, P 프레임 및 B 프레임은 움직임 추정 및 보상 기술을 이용하여 높은 압축 효율을 달성한다.Among the international standards organizations, the MPEG standard has three types of prediction: intra coded frame (I frame), predictive coded frame (P frame), and bi-directionally-predicitve coded frame (B frame). A coding scheme is used, and P frames and B frames achieve high compression efficiency by using motion estimation and compensation techniques.

I 프레임은 다른 프레임의 참조없이 화면 내부의 이웃하는 픽셀값을 이용하여 부호화된다. P 프레임은 과거의 I 프레임이나 P 프레임을 참조하여 부호화된다. 과거의 I 프레임이나 P 프레임에서 블록 단위로 움직음 정보를 추정하여 예측된 움직임 벡터와 예측 블록을 이용하여 움직임 보상을 수행하고, 움직임 보상 후 블록의 차분 신호와 차분 움직임 벡터를 부호화하여 시간적 중복도를 줄이고 높은 압축률을 달성할 수 있다.An I frame is encoded using neighboring pixel values within the screen without reference to other frames. P frames are encoded with reference to past I frames or P frames. Motion compensation is performed using the predicted motion vector and the predictive block by estimating the motion information in units of blocks in the past I frame or P frame, and the temporal redundancy by encoding the differential signal and the differential motion vector of the block after motion compensation. Can achieve high compression ratio.

B 프레임은 과거의 I 프레임과 P 프레임 뿐만 아 니라, 미래의 I 프레임과 P 프레임도 참조하여 예측을 수행한다. B 프레임은 P 프레임과 마찬가지로 움직임 추정 및 보상기술을 이용한다. 그러나 참조 프레임을 두 개 사용하고, 이 중에서 보다 우수한 예측 성능을 선택하므로 압축률이 가장 높다. 그러나 B 프레임은 다른 프레임을 위한 참조 프레임이 되지는 않는다. 이러한 I 및 P 픽처들은 참조 프레임들로 불린다.The B frame performs prediction by referring not only to past I frames and P frames, but also to future I frames and P frames. The B frame uses the motion estimation and compensation technique like the P frame. However, the compression rate is the highest because two reference frames are used and a better prediction performance is selected among them. However, the B frame does not become a reference frame for other frames. These I and P pictures are called reference frames.

시간적 중복성을 제거하기 위한 움직임 추정 및 보상방법은 크게 화소 순환 알고리즘(Pixel Recursive Algorithm, PRA)과 블록 정합 알고리즘(Block Matching Algorithm, BMA)으로 나눌 수 있다. 이 중에서 데이터 흐름의 규칙성, 계산의 복잡도, 하드웨어 구현을 고려하여 대부분의 동영상 코덱 기술에서는 블록 정합 알고리즘을 널리 사용하고 있다. 블록 정합 알고리즘은 하나의 프레임을 임의의 M×N 크기의 블록이나 또는 이 보다 작은 임의의 크기의 탐색 블록(Searching Block)으로 나누고, 블록단위로 참조 프레임의 정해진 탐색 영역 안에서 최소의 오차값을 가지는 정합블록을 찾아내는 절차를 가리킨다. 이러한 블록 정합 알고리즘에 따라서 선택한 정합블록의 위치를 가리키는 값을 움직임 벡터(MV)라고 하며, 동영상 부호화에서는 상기 정합블록과 현재 블록과의 차이값과 움직임 벡터만을 부호화하여 데이터의 중복성을 제거한다. Motion estimation and compensation methods for removing temporal redundancy can be broadly classified into a pixel recursive algorithm (PRA) and a block matching algorithm (BMA). Among these, most video codec technologies use block matching algorithms in consideration of the regularity of data flow, computational complexity, and hardware implementation. The block matching algorithm divides a frame into an arbitrary M × N sized block or a smaller sized Searching Block, and has a minimum error value within a predetermined search area of the reference frame in units of blocks. Refers to a procedure for finding a matching block. The value indicating the position of the matching block selected according to the block matching algorithm is called a motion vector (MV). In video encoding, only the difference value and the motion vector of the matching block and the current block are encoded to remove redundancy of data.

블록 정합 알고리즘에서는 일반적으로 정합블록을 탐색하기 위하여 정합 오차(Matching Error)를 최소로 하는 블록을 탐색하며, 정합 오차로는 예컨대 현재 블록과 참조 프레임의 탐색 블록을 구성하는 모든 화소에 대한 절대차의 합(Sum of Absolute Difference, SAD)을 이용한다. MxN 크기의 블록에 대하여 BMA에 사용되는 SAD값은 다음 수학식 1과 같이 나타내진다.
The block matching algorithm generally searches for a block that minimizes a matching error in order to search for a matching block. The matching error includes, for example, the absolute difference between all pixels constituting the search block of the current block and the reference frame. Sum of Absolute Difference (SAD) is used. The SAD value used for the BMA for the MxN size block is represented by Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001

Figure pat00001

여기서 Fn은 n번째 프레임을 의미 하며, Fn은 현재 프레임을 의미하고 Fn -1은 현재 프레임에 인접한 이전 프레임을 의미한다. (x,y)는 블록의 좌상단 모서리에 있는 화소의 좌표를 나타내며, i와j 는 각각 블록에 포함된 화소의 수평방향 인덱스와 수직방향 인덱스를 나타낸다. mvx와 mvy는 각각 수평방향 움직임 벡터와 수직방향 움직임 벡터를 나타낸다. SAD는 두 블록 내의 같은 위치에 있는 화소들의 차 절대값을 모두 더한 값이며, SAD값이 작을수록 두 블록은 유사한 것으로 판단하며, 탐색 영역 내에서 가장 작은 SAD값을 가지는 블록을 정합 블록으로 정한다.Here, F n means the nth frame, F n means the current frame and F n -1 means the previous frame adjacent to the current frame. (x, y) represents the coordinates of the pixel at the upper left corner of the block, and i and j represent the horizontal and vertical indexes of the pixels included in the block, respectively. mv x and mv y represent a horizontal motion vector and a vertical motion vector, respectively. SAD is a value obtained by adding up the absolute difference values of pixels at the same position in two blocks. As the SAD value is smaller, the two blocks are determined to be similar, and a block having the smallest SAD value in the search area is defined as a matching block.

영상은 3차원 정보를 2차원 평면에 기록하기 때문에 실제와 동일한 움직임을 추정하기 어려우며, 회전이나 확대 및 축소된 움직임을 추정하기 위해서는 높은 계산량을 필요로 하기 때문에 동영상 부호화 표준에서는 평행이동 움직임을 가정하여 움직임 추정 및 보상 기술을 사용한다. 움직임 추정 및 보상 효율을 향상시키기 위한 방법으로 공간적 샘플링 보상 방법과 시간적 샘플링 보상 방법이 있다. 영상은 공간적으로 정수 단위의 화소를 샘플링 하게 되며, 공간적 샘플링으로 인한 정보손실을 보상하기 위하여 부화소 단위 움직임 추정 기술이 제안되었다. MPEG-2에서는 참조 프레임을 2배로 보간하여 움직임 추정을 수행하며, H.264/AVC에서는 참조 프레임을 4배로 보간하여 움직임 추정을 수행한다. 또한, 기존의 움직임 추정 기술은 정적인 배경화면이나 천천히 움직이는 물체의 움직임을 추정하는 경우에는 높은 예측 효율을 보이지만, 영상의 변화가 급격하게 진행되는 경우에는 예측 효율이 크게 떨어지게 된다. 예를 들어, 물체가 빠르게 움직이거나 카메라의 초점이 변하는 경우 블러(blur) 및 디블러(de-blur) 현상이 일어나게 되며, 이는 SAD값을 크게 증가시키게 된다. 따라서, 시간적 샘플링으로 인한 영상 데이터의 변화 및 손실을 보상하기 위하여 참조 프레임에 전처리필터를 적용하는 움직임 추정 기술이 제안되었다. 시간적 샘플링 과정을 보상하기 위한 알고리즘으로는 다수의 저역 통과 필터를 이용한 블러 보상 알고리즘, 적응적 필터를 이용한 초점 변화 보상 알고리즘 등이 있다. 상기 알고리즘들은 현재 프레임과 참조 프레임 사이의 열화 현상을 보상하기 위하여 참조 프레임에 전처리 필터를 적용한 후 전처리 필터가 적용된 참조 프레임에서 움직임 추정을 수행한다.Since images record three-dimensional information in a two-dimensional plane, it is difficult to estimate the same motion as in reality, and since the high computational amount is required to estimate the rotation, enlargement, and reduced movement, the video coding standard assumes parallel movement. Use motion estimation and compensation techniques. As methods for improving motion estimation and compensation efficiency, there are a spatial sampling compensation method and a temporal sampling compensation method. Images are spatially sampled in integer units, and subpixel motion estimation techniques have been proposed to compensate for information loss due to spatial sampling. In MPEG-2, motion estimation is performed by doubling the reference frame twice. In H.264 / AVC, motion estimation is performed by interpolating the reference frame four times. In addition, the conventional motion estimation technique shows a high prediction efficiency when estimating the motion of a static background or a slowly moving object, but the prediction efficiency is greatly decreased when the image changes rapidly. For example, blur or de-blur occurs when an object moves quickly or the camera's focus changes, which greatly increases the SAD value. Therefore, a motion estimation technique has been proposed to apply a preprocessing filter to a reference frame to compensate for the change and loss of image data due to temporal sampling. Algorithms for compensating temporal sampling processes include a blur compensation algorithm using a plurality of low pass filters and a focus change compensation algorithm using an adaptive filter. The algorithms apply a preprocessing filter to a reference frame to compensate for degradation between the current frame and the reference frame, and then perform motion estimation on the reference frame to which the preprocessing filter is applied.

시간적 샘플링 방법을 보상하기 위한 알고리즘 중 다수의 저역통과필터를 이용하여 블러를 보상하여 움직임 추정 방법은 한 장의 프레임에 하나의 전처리 필터만 명시하기 때문에 전역적인 블러 현상에만 유효하다. 실제 영상에서 블러현상이 지역적으로 발생하거나, 영상이 선명해 지는 경우에는 저역통과 필터로 화질열화를 보상하여 움직임 예측 효율을 높이는 방법을 사용 할 수 없게 된다. Among the algorithms for compensating temporal sampling methods, many low-pass filters are used to compensate for the blur, and the motion estimation method is effective only for global blur because only one preprocessing filter is specified in one frame. When blur occurs locally in a real image or the image becomes clear, a method of improving motion prediction efficiency by compensating for image quality degradation with a low pass filter cannot be used.

적응적 필터를 사용하는 알고리즘은 지역적인 블러 현상과 디블러 현상을 각각 보상할 수 있지만, 블러와 디블러 영역을 구분하는데 많은 계산양을 필요로 하며, 각각의 적응적 필터계수를 양자화 하여 추가로 복호화기에 전송해 주어야 한다. 따라서 적응적 필터의 개수가 증가할수록 추가로 전송해야 할 데이터양이 증가하게 되며, 이로 인하여 압축 효율이 떨어지게 된다.Algorithms using adaptive filters can compensate for local blur and deblur respectively, but it requires a lot of computation to distinguish between blur and deblur areas, and each adaptive filter coefficient is further quantized. Must be sent to the decoder. Therefore, as the number of adaptive filters increases, the amount of additional data to be transmitted increases, thereby reducing the compression efficiency.

또한 두 필터 집합의 개별 성능을 비교하면, 저역 통과필터 집합은 고해상도 영상에서 그 효율이 적응적 필터집합에 비하여 떨어진다. 반면에 적응적 필터 집합은 양자화 파라메타 값이 큰 압축 환경에서 저역통과 필터 집합에 비하여 압축 효율이 떨어진다는 문제점이 있다.In addition, comparing the individual performances of the two filter sets, the low-pass filter set is less efficient than the adaptive filter set in the high resolution image. On the other hand, the adaptive filter set has a problem that the compression efficiency is lower than that of the low pass filter set in a compression environment having a large quantization parameter value.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 현재 프레임과 이전 프레임의 영상데이터의 통계적 특성을 이용하여 인접 영상간의 변화를 보상할 수 있는 필터를 추정하고 참조 프레임에 전처리 필터링을 수행하여 영상 정보가 급격히 변화하는 경우에도 높은 성능을 유지할 수 있는 동영상 부호화시의 움직임 추정 및 보상 방법을 제공하는데 있다.An object of the present invention for solving the above problems, by using the statistical characteristics of the image data of the current frame and the previous frame to estimate the filter that can compensate for the change between the adjacent image and performing preprocessing filtering on the reference frame image The present invention provides a motion estimation and compensation method during video encoding that can maintain high performance even when information changes rapidly.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 참조 프레임에 전처리 필터링을 수행하여 영상 정보가 급격히 변화하는 경우에도 높은 성능을 유지할 수 있는 움직임 추정 및 보상방법을 이용한 동영상 복호화시의 움직임 추정 및 보상 방법을 제공하는데 있다.Another object of the present invention for solving the above problems is, by performing a pre-processing filtering on the reference frame, motion estimation during video decoding using a motion estimation and compensation method that can maintain high performance even if the image information changes rapidly And to provide a compensation method.

상기 목적을 달성하기 위한 본 발명은, 동영상 부호화를 위한 움직임 추정 및 보상 방법으로서, 현재 프레임과 참조 프레임을 이용하여 현재 프레임과 참조 프레임간의 영상 정보의 변화 정도를 추정하는 단계, 상기 추정된 영상 정보의 변화 정도에 기반하여 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함하여 전처리 필터 집합을 구성하는 단계, 상기 전처리 필터 집합을 상기 참조 프레임에 적용하여 전처리 과정을 수행하는 단계 및 상기 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 추정 및 보상을 수행하는 단계를 포함한 움직임 추정 및 보상 방법을 제공한다.According to an aspect of the present invention, there is provided a motion estimation and compensation method for video encoding, comprising: estimating a degree of change of image information between a current frame and a reference frame by using a current frame and a reference frame, the estimated image information Constructing a preprocessing filter set including at least one of a low pass filter set and an adaptive filter set based on a degree of change of, applying the preprocessing filter set to the reference frame, performing a preprocessing process, and the preprocessing process A motion estimation and compensation method including performing motion estimation and compensation using the performed reference frame is provided.

여기에서, 상기 영상 정보의 변화를 추정하는 단계는 영상의 블러(blur) 정도를 추정하여 상기 영상 정보의 변화 정도를 추정하도록 구성될 수 있다. Here, the estimating of the change of the image information may be configured to estimate the degree of blur of the image by estimating the degree of blur of the image.

여기에서, 상기 영상 정보의 변화를 추정하는 단계는 상기 참조 프레임 내부의 모든 블록의 움직임 벡터 크기의 평균을 산출하고, 이에 기반하여 상기 영상 정보의 변화 정도를 추정하도록 구성될 수 있다.The estimating of the change of the image information may be configured to calculate an average of motion vector magnitudes of all blocks in the reference frame and to estimate the degree of change of the image information based on the average.

여기에서, 상기 전처리 필터 집합을 구성하는 단계는 상기 추정된 영상 정보의 변화 정도가 큰 경우에 저역 필터 집합과 적응적 필터 집합을 함께 이용하여 상기 전처리 필터 집합을 구성하도록 구성될 수 있다.The configuring of the preprocessing filter set may be configured to configure the preprocessing filter set by using a low pass filter set and an adaptive filter set when the estimated degree of change of the image information is large.

여기에서, 상기 전처리 필터 집합을 구성하는 단계는 상기 추정된 영상 정보의 변화가 작고 적응적 필터 집합의 비용 함수가 소정의 비용 함수 임계값을 초과하지 않는 경우에 적응적 필터 집합을 이용하여 상기 전처리 필터 집합을 구성하도록 구성될 수 있다.Here, the configuring of the preprocessing filter set may be performed by using the prefilter using the adaptive filter set when the estimated change of the image information is small and the cost function of the adaptive filter set does not exceed a predetermined cost function threshold. It can be configured to construct a filter set.

여기에서, 상기 전처리 필터 집합을 구성하는 단계는 상기 추정된 영상 정보의 변화가 작고 적응적 필터 집합의 비용 함수가 소정의 비용 함수 임계값을 초과하는 경우에는, 적응적 필터와 저역 필터의 상관 계수를 계산하여 상관 계수의 평균값이 소정의 비용함수 임계값보다 크다면 저역 통과 필터만을 이용하여 상기 전처리 필터 집합을 구성하도록 구성될 수 있다.Here, in the configuring of the preprocessing filter set, if the change of the estimated image information is small and the cost function of the adaptive filter set exceeds a predetermined cost function threshold, a correlation coefficient between the adaptive filter and the low pass filter is included. If the average value of the correlation coefficient is greater than the predetermined cost function threshold value can be configured to configure the pre-processing filter set using only the low pass filter.

여기에서, 상기 전처리 필터 집합을 구성하는 단계에서 상기 저역 통과 필터 집합은 가우시안 저역 통과 필터(GLPF; Gaussian Low Pass Filter)들로 구성될 수 있으며, 이때, 상기 저역 통과 필터 집합은 N(N은 자연수)*N의 정사각 형태 필터, N*1의 수직 방향 필터, 1*N의 수평 방향 필터 및 대각 방향 필터 중 적어도 둘 이상을 포함하여 구성될 수 있다.The low pass filter set may include Gaussian Low Pass Filters (GLPF) in the preprocessing filter set, wherein the low pass filter set is N (N is a natural number). At least two or more of a square filter of * N, a vertical filter of N * 1, a horizontal filter of 1 * N and a diagonal filter.

여기에서, 상기 전처리 필터 집합을 구성하는 단계에서 상기 적응적 필터 집합은 현재 프레임과 참조 프레임에 대하여 정합 오차를 최소로 하는 최소 제곱 오차 필터를 포함하여 구성될 수 있으며, 이때, 상기 적응적 필터 집합은 상기 동영상 부호화가 단일 패스 부호화로 진행될 경우에는 현재 프레임보다 이전에 부호화된 프레임에서 계산된 적응적 필터들로 구성되며, 상기 동영상 부호화가 다중 패스 부호화로 진행될 경우에는 현재 프레임보다 이전에 부호화된 프레임에서 계산된 적응적 필터들과 현재 프레임에서 계산된 적응적 필터들로 구성될 수 있다.In the configuring of the preprocessing filter set, the adaptive filter set may include a least square error filter that minimizes a matching error with respect to a current frame and a reference frame, wherein the adaptive filter set Is composed of adaptive filters calculated on a frame encoded before the current frame when the video encoding is performed by single pass encoding, and a frame encoded before the current frame when the video encoding is multi-pass encoded. It may be composed of adaptive filters calculated at and adaptive filters calculated at the current frame.

여기에서, 상기 전처리 과정을 수행하는 단계는 상기 참조 프레임의 영역별로 상기 전처리 필터 집합에 속한 전저리 필터를 선택적으로 적용하여 전처리 과정을 수행하도록 구성될 수 있다.The performing of the preprocessing process may be configured to selectively apply a pre-processing filter belonging to the preprocessing filter set for each region of the reference frame to perform the preprocessing process.

상기 다른 목적을 달성하기 위한 본 발명은, 부호화된 동영상의 복호화를 위한 움직임 추정 및 보상 방법으로서, 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함한 전처리 필터 집합의 구성 정보를 입수하는 단계, 상기 전처리 필터 집합의 구성 정보를 참조하여 구성된 전처리 필터 집합을 참조 프레임에 적용하여 전처리 과정을 수행하는 단계 및 상기 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 보상을 수행하는 단계를 포함한 움직임 추정 및 보상 방법을 제공한다.According to another aspect of the present invention, there is provided a motion estimation and compensation method for decoding an encoded video, the method comprising: obtaining configuration information of a preprocessing filter set including at least one of a low pass filter set and an adaptive filter set, Applying a preprocessing filter set configured by referring to the configuration information of the preprocessing filter set to a reference frame to perform a preprocessing process and performing motion compensation using the reference frame on which the preprocessing process is performed Provide a method.

여기에서, 상기 전처리 필터 집합의 구성 정보를 입수하는 단계에서 상기 전처리 필터 집합의 구성 정보는 슬라이스 헤더(slice header)에 포함되어 입수될 수 있다.Herein, in the obtaining of configuration information of the preprocessing filter set, configuration information of the preprocessing filter set may be included in a slice header and obtained.

여기에서, 상기 전처리 과정을 수행하는 단계는 상기 구성된 전처리 필터 집합으로부터 상기 참조 프레임의 부호화시에 적용된 전처리 필터의 종류를 파악하고 파악된 전처리 필터를 상기 구성된 전처리 필터 집합으로부터 선택하여 상기 참조 프레임에 대하여 적용하도록 구성될 수 있다. 이때, 상기 전처리 과정을 수행하는 단계는 상기 참조 프레임의 영역별로 상기 전처리 필터 집합에 속한 전저리 필터를 선택적으로 적용하여 전처리 과정을 수행하도록 구성될 수 있다.In the performing of the preprocessing process, the preprocessing filter applied to the encoding of the reference frame may be identified from the configured preprocessing filter set, and the identified preprocessing filter may be selected from the configured preprocessing filter set for the reference frame. It can be configured to apply. In this case, the performing of the preprocessing process may be configured to perform a preprocessing process by selectively applying a preprocessing filter belonging to the preprocessing filter set for each region of the reference frame.

상기와 같은 본 발명에 따른 루프 내 전처리 필터링을 이용한 움직임 추정 및 보상 방법은 동영상 압축 부호화기와 복호화기 내부에 움직임 추정 이전에 전처리 과정을 추가로 수행함에 따라 블러 및 디블러 현상을 보상하여 움직임 추정 및 보상의 정밀도를 높일 수 있다. The motion estimation and compensation method using intra-loop preprocessing filtering according to the present invention as described above further performs a preprocessing process before motion estimation in a video compression encoder and decoder, thereby compensating for the blur and deblur phenomenon. The accuracy of compensation can be increased.

따라서 부호화 과정에서 비트율을 크게 감소시켜 동영상 압축 효율을 높일 수 있다. 특히 객체의 움직임이 많고, 카메라가 자주 움직이는 스포츠 영상을 압축하는데 있어 뛰어난 성능을 보일 수 있다.Therefore, the video compression efficiency can be improved by greatly reducing the bit rate in the encoding process. In particular, it can show an excellent performance in compressing sports images with a lot of movement of objects and frequently moving cameras.

도 1은 본 발명에 따른 동영상 부호화시의 움직임 추정 및 보상 방법의 실시예를 설명하기 위한 순서도이다.
도 2는 본 발명의 실시예에 따른 영상의 변화 정도 등급화의 개념을 설명하기 위한 개념도이다.
도 3은 본 발명에 따른 실시예에서 단일 패스 부호화 경우의 적응적 필터 집합 구성 방법을 설명하기 위한 개념도이다.
도 4는 본 발명에 따른 실시예에서 전처리 필터 집합을 구성하는 방법을 설명하기 위한 순서도이다.
도 5는 본 발명에 따른 동영상 복호화시의 움직임 추정 및 보상 방법의 실시예를 설명하기 위한 순서도이다.
도 6은 본 발명에 따른 루프 내 전처리 필터가 적용된 동영상 부호화기의 실시예를 설명하기 위한 블록도이다.
도 7은 본 발명에 따른 루프 내 전처리 필터가 적용된 동영상 복호화기의 실시예를 설명하기 위한 블록도이다.
1 is a flowchart illustrating an embodiment of a motion estimation and compensation method in video encoding according to the present invention.
2 is a conceptual diagram illustrating a concept of grading degree of change of an image according to an exemplary embodiment of the present invention.
3 is a conceptual diagram illustrating a method for constructing an adaptive filter set in the case of single pass coding according to an embodiment of the present invention.
4 is a flowchart illustrating a method of configuring a preprocessing filter set in an embodiment according to the present invention.
5 is a flowchart illustrating an embodiment of a motion estimation and compensation method in video decoding according to the present invention.
6 is a block diagram illustrating an embodiment of a video encoder to which an in-loop preprocessing filter is applied according to the present invention.
7 is a block diagram illustrating an embodiment of a video decoder to which an in-loop preprocessing filter is applied according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하에서 후술할 영상 부호화 장치(Video Encoding Apparatus), 영상 복호화 장치(Video Decoding Apparatus)는 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone), TV 등과 같은 사용자 단말기이거나 응용 서버와 서비스 서버 등 서버 단말기일 수 있으며, 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화 또는 복호화를 위해 화면간 또는 화면내 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다.A video encoding apparatus (Video Encoding Apparatus), a video decoding apparatus (Video Decoding Apparatus) to be described below is a personal computer (PC), notebook computer, personal digital assistant (PDA), portable multimedia player (PMP) It may be a user terminal such as a portable multimedia player (PSP), a PlayStation Portable (PSP), a wireless communication terminal, a smart phone, a TV, or a server terminal such as an application server or a service server. Communication device, such as a communication modem for communicating with various devices or a wired / wireless communication network, memory for storing various programs and data for inter- or intra-prediction for encoding or decoding an image, or for encoding or decoding an image, and executing a program Microprocessor for operation and control It can mean a variety of devices.

또한, 영상 부호화 장치에 의해 비트스트림으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 영상으로 복원되고 재생될 수 있다.In addition, the image encoded in the bitstream by the video encoding apparatus is real-time or non-real-time through the wired or wireless communication network, such as the Internet, local area wireless communication network, wireless LAN network, WiBro network, mobile communication network, or the like, or a cable, universal serial bus (USB: Universal) It may be transmitted to an image decoding apparatus through various communication interfaces such as a serial bus, and may be decoded by the image decoding apparatus to restore and reproduce the image.

통상적으로 동영상은 일련의 픽처(Picture)로 구성될 수 있으며, 각 픽처들은 프레임 또는 블록(Block)과 같은 소정의 영역으로 분할될 수 있다. 영상의 영역이 블록으로 분할되는 경우에는 분할된 블록은 부호화 방법에 따라 크게 화면내 블록(Intra Block), 인터 블록(Inter Block)으로 분류될 수 있다. 화면내 블록은 화면내 예측 부호화(Intra Prediction Coding) 방식을 사용하여 부호화되는 블록을 뜻하는데, 화면내 예측 부호화란 현재 부호화를 수행하는 현재 픽처 내에서 이전에 부호화되고 복호화되어 복원된 블록들의 화소를 이용하여 현재 블록의 화소를 예측함으로써 예측 블록을 생성하고 현재 블록의 화소와의 차분값을 부호화하는 방식이다. 인터 블록은 인터 예측 부호화(Inter Prediction Coding)를 사용하여 부호화되는 블록을 뜻하는데, 인터 예측 부호화란 하나 이상의 과거 픽처 또는 미래 픽처를 참조하여 현재 픽처 내의 현재 블록을 예측함으로써 예측 블록을 생성하고 현재 블록과의 차분값을 부호화하는 방식이다. 여기서, 현재 픽처를 부호화하거나 복호화하는데 참조되는 프레임을 참조 프레임(Reference Frame)이라고 한다.
In general, a video may be composed of a series of pictures, and each picture may be divided into a predetermined area such as a frame or a block. When a region of an image is divided into blocks, the divided blocks may be classified into intra blocks and inter blocks according to an encoding method. An intra picture block refers to a block that is encoded by using an intra prediction coding method. An intra picture prediction encoding indicates a pixel of blocks previously encoded, decoded, and reconstructed in a current picture that performs current encoding. A prediction block is generated by predicting pixels of the current block using the prediction block, and a difference value with the pixels of the current block is encoded. An inter block refers to a block that is encoded using inter prediction coding. Inter prediction coding generates a prediction block by predicting a current block within a current picture by referring to one or more past or future pictures, and then generates a current block. This is a method of encoding the difference value with. Here, a frame referred to for encoding or decoding the current picture is referred to as a reference frame.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

한편 이하의 실시예는 본 발명의 성능을 확인하기 위하여 H.264/AVC 코덱을 기준으로 설명된 것이나, 본 발명의 기술적 사상은 H.264/AVC 이외의 움직임 추정 및 보상 방법이 적용되는 동영상 압축 기술에 폭넓게 적용이 가능하다. 예컨대, H.264/AVC의 차기 동영상 압축 표준으로 표준화가 진행중인 HEVC(High-Efficiency Video Coding) 등에도 적용이 가능하다.
Meanwhile, the following embodiments are described based on the H.264 / AVC codec to confirm the performance of the present invention. However, the technical idea of the present invention is a video compression to which a motion estimation and compensation method other than H.264 / AVC is applied. It is widely applicable to the technology. For example, high-efficiency video coding (HEVC), which is being standardized as the next video compression standard of H.264 / AVC, can be applied.

본 발명에 따른 움직임 추정 및 보상 방법Motion estimation and compensation method according to the present invention

도 1은 본 발명에 따른 동영상 부호화시의 움직임 추정 및 보상 방법의 실시예를 설명하기 위한 순서도이다.1 is a flowchart illustrating an embodiment of a motion estimation and compensation method in video encoding according to the present invention.

도 1을 참조하면, 본 발명에 따른 움직임 추정 및 보상 방법의 실시예는 현재 프레임과 참조 프레임을 이용하여 현재 프레임과 참조 프레임간의 영상 정보의 변화 정도를 추정하는 단계(S110), 상기 추정된 영상 정보의 변화 정도에 기반하여 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함하여 전처리 필터 집합을 구성하는 단계(S120), 상기 전처리 필터 집합을 상기 참조 프레임에 적용하여 전처리 과정을 수행하는 단계(S130) 및 상기 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 추정 및 보상을 수행하는 단계(S140)를 포함하여 구성될 수 있다.Referring to FIG. 1, an embodiment of the motion estimation and compensation method according to the present invention includes estimating a degree of change of image information between a current frame and a reference frame using a current frame and a reference frame (S110). Configuring a preprocessing filter set including at least one of a low pass filter set and an adaptive filter set based on a degree of change of information (S120), and performing a preprocessing process by applying the preprocessing filter set to the reference frame. And a step (S140) of performing motion estimation and compensation using the reference frame on which the preprocessing process is performed.

먼저, 단계(S110)는 현재 프레임과 참조 프레임을 이용하여 현재 프레임과 참조 프레임간의 영상 정보의 변화 정도를 추정하는 단계이며, 현재 프레임과 참조 프레임의 영상 정보의 변화 정도를 추정하는 데는 여러 가지의 영상 특징 정보들이 활용될 수 있다. First, step S110 is a step of estimating the degree of change of the image information between the current frame and the reference frame using the current frame and the reference frame. Image characteristic information may be utilized.

예컨대, 본 실시예에서는 현재 프레임의 블러(blur) 강도와 참조 프레임의 움직임 벡터의 평균 크기의 두 가지 영상정보를 이용하여 영상 정보 변화 정도를 추정하는 방식을 예로 들어 설명한다. For example, in the present embodiment, a method of estimating the degree of change of image information using two pieces of image information, namely, a blur intensity of a current frame and an average size of a motion vector of a reference frame, will be described as an example.

첫째, 영상의 블러를 추정하기 위하여 H. Tong, M. Li, H. Zhang, and C. Zhang, “Blur detection for digital images using wavelet transform,” in Proc. IEEE ICME, vol. 1, pp. 17-20, Jun. 2004. 논문의 방법이 활용될 수 있다. 상기 블러 탐지 알고리즘에서는 블러를 추정하기 위하여 Per와 BlurExtent 라는 척도가 사용되며, 본 발명의 실시예에서는 두 변수를 결합하여 영상의 블러를 측정하기 위하여 아래와 같이 가중치 블러 척도(Weighted blur extent, 이하 WBE)로 변형하여 사용될 수 있다. 이와 같은 가중치 블러 척도의 계산 방법은 하기 수학식 2에 의해서 표현될 수 있다.
First, H. Tong, M. Li, H. Zhang, and C. Zhang, “Blur detection for digital images using wavelet transform,” in Proc. IEEE ICME, vol. 1, pp. 17-20, Jun. 2004. The method of the paper can be used. In the blur detection algorithm, the scales of Per and BlurExtent are used to estimate the blur. In the embodiment of the present invention, a weighted blur extent (WBE) is described below to measure the blur of an image by combining two variables. It can be used to transform. Such a calculation method of the weight blur scale may be expressed by Equation 2 below.

[수학식 2]&Quot; (2) "

Figure pat00002

Figure pat00002

여기서 w는 가중치 값을 의미하며, T는 임계값을 나타낸다. Here w denotes a weight value and T denotes a threshold value.

둘째, 프레임 내부의 모든 블록의 움직임 벡터의 크기의 평균(Mean of Motion Vectors, 이하 MMV)을 이용한다. 각 블록의 움직임 벡터의 크기는 하기와 같은 수학식 3에 의해서 표현되어진다.
Second, the mean of motion vectors (MMV) of the motion vectors of all the blocks in the frame is used. The magnitude of the motion vector of each block is represented by Equation 3 below.

[수학식 3]&Quot; (3) "

Figure pat00003

Figure pat00003

여기서 MV는 블록의 움직임벡터의 크기를 나타낸다. mvx는 블록의 수평 움직임 벡터 성분을 나타내며, mvy는 블록의 수직 움직임 벡터 성분을 나타낸다. 모든 블록의 움직임 벡터 크기의 평균값을 MMV로 하여 해당 프레임의 움직임 활동의 척도로 사용한다.Here, MV represents the magnitude of the motion vector of the block. mv x represents the horizontal motion vector component of the block, and mv y represents the vertical motion vector component of the block. The average value of the motion vector magnitudes of all blocks is MMV and used as a measure of motion activity of the corresponding frame.

따라서, 현재 프레임과 참조 프레임 사이의 변화 정도를 추정하기 위해서 상술된 두 가지 척도를 이용될 수 있다. 또한, 본 발명의 실시예에서는 영상의 변화 정도를 등급화하여 후술될 전처리 필터 집합의 구성을 등급에 따라서 다르게 가져가게 된다.
Thus, the two measures described above may be used to estimate the degree of change between the current frame and the reference frame. In addition, in the embodiment of the present invention, the degree of change of the image is graded to take the configuration of the preprocessing filter set to be described later according to the grade.

도 2는 본 발명의 실시예에 따른 영상의 변화 정도 등급화의 개념을 설명하기 위한 개념도이다.2 is a conceptual diagram illustrating a concept of grading degree of change of an image according to an exemplary embodiment of the present invention.

도 2를 참조하면, 본 발명에 따른 실시예에서는 상술된 두가지 척도를 이용하여 두 영상 변화의 정도(Degree of Scene Change, 이하 DoSC)의 등급을 매기도록 구성될 수 있다. Referring to FIG. 2, an embodiment according to the present invention may be configured to grade two degree of scene changes (hereinafter referred to as DoSCs) by using the aforementioned two measures.

여기에서 MMVn - 1(210)는 참조 프레임의 움직임 벡터 크기의 평균을 나타내며, WBEn(220)는 현재 프레임의 블러의 정도를 나타낸다. 여기서 L1, L2, L3는 DoSC의 강도의 등급을 의미하며 L1, L2, L3 순으로 높다. γ1212 는 DoSC 평면을 나누기 위한 임계값들이다. Here, MMV n - 1 210 represents the average of the motion vector magnitude of the reference frame, and WBE n 220 represents the degree of blur of the current frame. Where L1, L2, and L3 are the grades of DoSC's strength and are high in the order of L1, L2, and L3. γ 1 , γ 2 , μ 1 , μ 2 are thresholds for dividing the DoSC plane.

MMV는 참조 프레임의 탐색 영역의 크기에 따라서 그 범위가 변화할 수 있다. 따라서, 탐색 범위(Search Range, 이하 SR)를 이용하여 μ1=0.5×SR and μ2=0.125×SR 로 정한다. The range of the MMV may vary depending on the size of the search region of the reference frame. Therefore, μ 1 = 0.5 × SR and μ 2 = 0.125 × SR are determined using a search range (SR).

WBE는 프레임의 크기에 따라서 그 값이 변화 할 수 있다. 따라서, γ1와 γ2는 아래의 수학식 4에서와 같이 결정될 수 있다.
WBE can change its value depending on the size of the frame. Accordingly, γ 1 and γ 2 may be determined as in Equation 4 below.

[수학식 4]&Quot; (4) "

Figure pat00004

Figure pat00004

여기서 W와 H는 각각 현재 프레임의 폭과 높이를 나타내며, M과 N은 정규화를 위해 정의된 프레임의 폭과 높이이다. α1과 α2는 비례 상수이다. 실험에 사용된 M, N, α1, α2값은 각각 832, 480, 1.5, 3.0으로 정하였다.
Where W and H represent the width and height of the current frame, respectively, and M and N are the width and height of the frame defined for normalization. α 1 and α 2 are proportional constants. M, N, α 1 , α 2 values used in the experiment were set to 832, 480, 1.5 and 3.0, respectively.

다음으로, 단계(S120)는 상기 단계(S110)에서 추정된 영상 정보의 변화 정도에 기반하여 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함하여 전처리 필터 집합을 구성하는 단계이다.Next, step S120 is a step of constructing a preprocessing filter set including at least one of a low pass filter set and an adaptive filter set based on the degree of change of the image information estimated in step S110.

전처리 필터 집합은 추정된 영상 정보 변화의 등급을 이용하여 영상 정보 변화를 가장 잘 반영할 수 있는 후보 필터들을 선정하여 구성될 수 있다. 전처리 필터 집합을 구성하는 저역 통과 필터 집합과 적응적 필터 집합은 아래와 같이 설명된다.
The preprocessing filter set may be configured by selecting candidate filters that can best reflect the change of the image information by using the estimated grade of the change of the image information. The low pass filter set and the adaptive filter set constituting the preprocessing filter set are described as follows.

첫 번째 필터 집합은 저역 통과 필터 집합이다. 저역 필터의 강도는 현재 프레임의 블러의 강도와 참조 프레임의 움직임 벡터의 크기 두 가지 영상정보를 이용한 영상 정보 변화 정도에 따라 결정된다. The first filter set is a low pass filter set. The strength of the low pass filter is determined according to the degree of change of the image information using two kinds of image information, the intensity of the blur of the current frame and the size of the motion vector of the reference frame.

저역 통과 필터 집합은 NxN 크기의 정사각 형태의 필터와, Nx1 크기의 수직 방향 필터, 1xN 크기의 수평방향 필터, 그리고 대각 방향 저역통과 필터등으로 구성 될 수 있다. The low pass filter set may be composed of an NxN square filter, an Nx1 vertical filter, a 1xN horizontal filter, and a diagonal lowpass filter.

저역 필터 집합을 생성하기 위하여 하기 수학식 5와 같은 가우시안 함수가 이용될 수 있다.
A Gaussian function such as Equation 5 may be used to generate a low-pass filter set.

[수학식 5] [Equation 5]

Figure pat00005

Figure pat00005

가우시안 저역 통과 필터(Gaussian Low Pass Filter, 이하 GLPF)의 종류는, NxN 필터를 GLPFNxN, Nx1 필터를 GLPFNx1, 1xN 필터를 GLPF1xN로 표현하도록 한다. The Gaussian Low Pass Filter (GLPF) is a type such that the NxN filter is represented by GLPF NxN , the Nx1 filter is represented by GLPF Nx1 , and the 1xN filter is represented by GLPF 1xN .

저역통과 필터 집합은 적어도 두 종류 이상의 필터집합으로 구성된다. 이때, 가우시안 함수의 평균과 분산의 예는 N을 3으로 하는 GLPF는 가우시안 함수의 평균을 0, 분산을 1.5로 계수를 결정하며, N을 5로 하는 GLPF는 가우시안 함수의 평균을 0, 분산을 2로 계수를 결정할 수 있다.
The lowpass filter set is composed of at least two filter sets. In this example, the mean and variance of the Gaussian function are GLPF with N as 3 and the coefficient with Gaussian as 0 and variance as 1.5. The coefficient can be determined by two.

두 번째 필터 집합은 적응적 필터(Adaptive Pre-Filer; 이하 APF) 집합이다. 적응적 필터는 위하여 현재 프레임과 참조 프레임에 대하여 정합 오차를 최소로 하는 최소 제곱 오차 필터를 계산하여 구성될 수 있다. 최소 제곱 오차를 계산할 때 오프셋 텀(offset term)으로 0차항을 추가하여 계산한다.The second filter set is an adaptive filter (APF) set. The adaptive filter may be configured by calculating a least square error filter that minimizes matching error with respect to the current frame and the reference frame. When calculating the least squared error, it is calculated by adding a zero-order term as an offset term.

도 3은 본 발명에 따른 실시예에서 적응적 필터 집합 구성 방법을 설명하기 위한 개념도이다.3 is a conceptual diagram illustrating a method for constructing an adaptive filter set in an embodiment according to the present invention.

도 3을 참조하면, 현재 프레임(310)의 적응적 필터 계수(APFt -1)와 부호화가 끝난 이전 프레임(현재 프레임의 과거 프레임 또는 미래 프레임, H.264/AVC에서는 현재 프레임의 미래 프레임이 먼저 부호화가 될 수도 있기 때문; 도 3에서는 현재 프레임의 과거 프레임; 311, 312, 313)에서 계산된 적응적 필터들(APFt -2 또는 APFt -3)의 계수는 높은 상관도를 가지기 때문에 단일 패스 부호화와 다중 패스 부호화중 하나를 선택하여 적응적 필터 집합을 정할 수 있다(두가지 실시예 가능). Referring to FIG. 3, the adaptive filter coefficient (APF t −1 ) of the current frame 310 and the encoded previous frame (past or future frame of the current frame, future frames of the current frame in H.264 / AVC) In FIG. 3, since the coefficients of the adaptive filters (APF t- 2 or APF t- 3 ) calculated in the past frame of the current frame; 311, 312, and 313 have a high correlation, An adaptive filter set may be determined by selecting one of single pass coding and multiple pass coding (two embodiments are possible).

만약 단일 패스 부호화를 수행하는 경우, 적응적 필터 집합은 부호화가 끝난 이전 프레임들(311, 312, 313)에서 계산된 적응적 필터들(APFt -2 또는 APFt -3)로 구성된다. If single pass coding is performed, the adaptive filter set is composed of adaptive filters (APF t -2 or APF t -3 ) calculated in the previous frames 311, 312, 313 after encoding.

만약 다중 패스 부호화를 수행하는 경우, 적응적 필터 집합은 현재 프레임에 대하여 계산된 적응적 필터(APFt -1)와 부호화가 끝난 이전 프레임들에서 계산된 적응적 필터들(APFt -2 또는 APFt -3)로 구성된다. 즉, 도 3을 참조하면, 이전 프레임에서 계산된 적응적 전처리 필터(Adaptive pre-filter, 이하 APF)를 이용하여 적응적 필터 집합을 구성하며, 적응적 필터집합을 구성하기 위하여 가장 최근에 계산된 2개의 APF를 사용한다.If multi-pass coding is performed, the adaptive filter set includes the adaptive filter (APF t -1 ) calculated for the current frame and the adaptive filters (APF t -2 or APF) calculated in the previous frames. t -3 ). That is, referring to FIG. 3, an adaptive filter set is constructed by using an adaptive pre-filter (APF) calculated in a previous frame, and the most recently calculated to construct an adaptive filter set. Use two APFs.

적응적 필터 계수를 계산하기 위해서는 예로서 Y. Ye, G. Motta, and M. Karczewicz,“Enhanced adaptive interpolation filters for video coding,” in Proc. IEEE DCC, pp. 432-444, Mar. 2010. 논문에 제시된 방법이 적용될 수 있다.
To calculate adaptive filter coefficients, see, eg, Y. Ye, G. Motta, and M. Karczewicz, “Enhanced adaptive interpolation filters for video coding,” in Proc. IEEE DCC, pp. 432-444, Mar. 2010. The method presented in the paper can be applied.

전처리 필터 집합에 포함된 필터의 수가 증가할수록, 필터의 종류를 표시하기 위한 추가 비트의 양도 증가하기 때문에, 슬라이스 헤더에 혼합 전처리 필터 집합의 개수를 미리 정의하여 전송한다.Since the number of additional bits for indicating the type of filter increases as the number of filters included in the preprocessing filter set increases, the number of mixed preprocessing filter sets is previously defined in the slice header and transmitted.

전처리 필터 집합은 영상의 변화 정도에 따라 다음과 같이 적응적으로 구성될 수 있다. The preprocessing filter set may be adaptively configured as follows according to the degree of change of the image.

첫째, 만약 현재 프레임의 영상 정보 특징이 참조 프레임에 비하여 크게 변화하였다고 판단이 되면 저역 필터 집합과 적응적 필터 집합을 모두 이용하여 전처리 필터 집합을 구성한다. 영상의 변화의 정도와 현재 프레임의 블러의강도에 따라 저역 통과필터 집합을 정의하고, 전처리 필터 집합에 추가한다. 적응적 필터 집합에서는 가장 최근에 계산된 적응적 필터부터 전처리 필터 집합에 추가한다. 미리 정의된 전처리 필터의 개수만큼 추가 되면 필터 집합 구성을 마친다. First, if it is determined that the image information feature of the current frame is significantly changed compared to the reference frame, the preprocessing filter set is configured by using both the low pass filter set and the adaptive filter set. The low pass filter set is defined according to the degree of image change and the intensity of the blur of the current frame, and added to the preprocessing filter set. In the adaptive filter set, the most recently calculated adaptive filter is added to the preprocessing filter set. When the number of predefined preprocessing filters is added, the filter set is completed.

둘째, 만약 현재프레임의 영상 정보 특성이 참조 프레임에 비하여 변화가 적다고 판단이 되고 적응적 필터의 비용함수가 비용함수 임계값을 초과하지 않아서 적응적 필터가 이용 가능하다면, 적응적 필터 집합만을 이용하여 전처리 필터 집합을 구성한다. Second, if it is judged that the image information characteristic of the current frame is less changed than the reference frame, and the adaptive filter is available because the cost function of the adaptive filter does not exceed the cost function threshold, only the adaptive filter set is used. To configure the set of preprocessing filters.

셋째, 만약 현재프레임의 영상 정보 특성이 참조 프레임에 비하여 변화가 적고 적응적 필터의 비용함수가 비용함수 임계값을 초과하여 이용가능하지 않다면, 적응적 필터와 저역통과 필터들의 상관계수를 계산하여 상관계수의 평균값을 미리 정의된 상관계수 임계값과 비교한다. 이때, 상관계수 임계값보다 적응적 필터와 저역통과 필터들의 상관계수의 평균값이 크다면 저역통과필터만을 이용하여 혼합 전처리필터를 구성하고, 그렇지 않다면 전처리 과정을 생략한다.Third, if the image information characteristic of the current frame is less changed than the reference frame and the cost function of the adaptive filter is not available beyond the cost function threshold, the correlation coefficient between the adaptive filter and the lowpass filter is calculated and correlated. The mean value of the coefficients is compared with a predefined correlation coefficient threshold. In this case, if the mean value of the correlation coefficients of the adaptive filter and the low pass filter is larger than the correlation coefficient threshold, the mixed preprocessing filter is configured using only the low pass filter, otherwise the preprocessing process is omitted.

즉, 적응적 필터계수는 높은 양자화 파라메타를 가지는 부호화 과정에서 압축 효율에 영향을 미칠 수 있다. 따라서, 적응적 필터 계수의 비용함수를 이용하여 적응적 필터의 사용 여부를 결정 한다. 만약 적응적 필터 계수의 율-왜곡 함수를 전체 블록의 수로 나눈 값이 비용함수 임계값 λ 를 넘으면 적응적 필터는 사용하지 않는다. λ는 30을 사용한다. 즉, 만약 적응적 필터 계수의 율-왜곡 함수를 프레임의 크기로 정규화한 값이 비용함수 임계값를 넘으면 적응적 필터는 오프 되게 된다.
That is, the adaptive filter coefficient may affect the compression efficiency in the encoding process having a high quantization parameter. Therefore, the cost function of the adaptive filter coefficient is used to determine whether to use the adaptive filter. If the ratio-distortion function of the adaptive filter coefficients divided by the total number of blocks exceeds the cost function threshold λ, the adaptive filter is not used. λ is 30. In other words, if the rate-distortion function of the adaptive filter coefficients is normalized to the size of the frame, the adaptive filter is turned off.

이하에서는 상술된 추정된 영상의 변화 정도를 이용한 전처리 필터 집합의 구성 방법을 보다 구체적인 실시예로서 설명하기로 한다. Hereinafter, a method of configuring the preprocessing filter set using the above-described degree of change of the image will be described as a specific embodiment.

도 4는 본 발명에 따른 실시예에서 전처리 필터 집합을 구성하는 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of configuring a preprocessing filter set in an embodiment according to the present invention.

즉, 도 4를 통하여 설명되는 순서도는 도 1의 단계(S120)를 보다 구체적으로 설명하기 위한 것이다.That is, the flowchart described with reference to FIG. 4 is for explaining step S120 of FIG. 1 in more detail.

먼저, 가능한 전처리 필터 집합의 경우의 수는 하기 표1과 같이 미리 정의될 수 있다. 예컨대 6개의 전처리 필터 집합으로 정의된다.
First, the number of possible preprocessing filter sets may be predefined as shown in Table 1 below. For example, six sets of preprocessing filters are defined.

전처리 필터집합 타입Pretreatment filter set type MPF setMPF set Θ1 Θ 1 {GLPF3 ×3,GLPF3 ×1,GLPF1 ×3,GLPF5 ×5}{GLPF 3 × 3 , GLPF 3 × 1 , GLPF 1 × 3 , GLPF 5 × 5 } Θ2 Θ 2 {GLPF5 ×5,GLPF5 ×1,GLPF1 ×5,GLPF3 ×3}{GLPF 5 × 5 , GLPF 5 × 1 , GLPF 1 × 5 , GLPF 3 × 3 } Θ3 Θ 3 {GLPF3 ×3,GLPF3 ×1,GLPF1 ×3,APFt -1}{GLPF 3 × 3 , GLPF 3 × 1 , GLPF 1 × 3 , APF t -1 } Θ4 Θ 4 {GLPF5 ×5,GLPF5 ×1,GLPF1 ×5,APFt -1}{GLPF 5 × 5 , GLPF 5 × 1 , GLPF 1 × 5 , APF t -1 } Θ5 Θ 5 {APFt -1, APFt -2}{APF t -1 , APF t -2 } Θ6 Θ 6 {GLPF3 ×3,GLPF3 ×1,GLPF1 ×3}{GLPF 3 × 3 , GLPF 3 × 1 , GLPF 1 × 3 }

만약 DoSC 값이 L2 또는 L3이면 저역 필터 집합 과 적응적 필터 집합을 이용하여 도 4와 같은 순서를 따라 혼합 전처리 필터를 결정한다. If the DoSC value is L2 or L3, the mixed preprocessing filter is determined in the order shown in FIG. 4 using the low pass filter set and the adaptive filter set.

만약 DoSC 값이 L1이고 적응적 필터가 이용 가능하다면, 적응적 필터 집합만을 이용하여 혼합 전처리 필터를 구성한다(S410).
If the DoSC value is L1 and the adaptive filter is available, the mixed preprocessing filter is configured using only the adaptive filter set (S410).

만약 DoSC 값이 L1이고 적응적 필터가 이용 가능하지 않다면, 적응적 필터와 저역통과 필터들의 상관계수를 계산하여 상관계수의 평균값이 미리 정의된 상관계수 임계값과 비교한다. 이 때, 상관계수 임계값보다 적응적 필터와 저역통과 필터들의 상관계수의 평균값이 크다면 저역통과필터만을 이용하여 혼합 전처리필터를 구성(S420)하고, 그렇지 않다면 전처리 과정을 생략한다(S430).
If the DoSC value is L1 and no adaptive filter is available, the correlation coefficients of the adaptive and lowpass filters are calculated and the mean of the correlation coefficients is compared with the predefined correlation coefficient threshold. At this time, if the average value of the correlation coefficient between the adaptive filter and the low pass filter is greater than the correlation coefficient threshold, the mixed preprocessing filter is configured using only the low pass filter (S420), otherwise the preprocessing process is omitted (S430).

다음으로, 단계(S130)는 상기 단계(S120)을 통하여 결정된 전처리 필터 집합을 상기 참조 프레임에 적용하여 전처리 과정을 수행하는 단계이다. 즉, 단계(S120)을 거쳐서 구성된 전처리 필터 집합을 이용하여 참조 프레임에 대해 전처리 과정을 거친 후 참조 프레임 버퍼에 추가하게 된다.Next, step S130 is a step of performing a preprocessing process by applying the preprocessing filter set determined through the step S120 to the reference frame. In other words, after the pre-processing process is performed on the reference frame using the pre-processing filter set configured through step S120, the reference frame buffer is added to the reference frame buffer.

한편, 두 영상간의 영상 데이터의 변화는 지역마다 다르게 나타날 수 있기 때문에 매크로 블록 단위로 RD-cost를 최소로 하는 전처리 필터를 결정하고 전처리 필터 집합에서 선택적으로 상기 전처리 필터를 참조 프레임의 영역별(예컨대, 매크로 블록 단위 또는 임의의 크기의 블록 단위)로 적용하여 전처리 과정을 수행하도록 구성될 수있다. 이 경우에는 부호화 과정에서 사용된 전처리 필터의 종류를 명시하기 위하여 참조 프레임의 영역별(예컨대, 매크로 블록 단위 또는 임의의 크기의 블록 단위)로 적용된 전처리 필터를 지정하기 위한 추가 비트를 복호화기에 전송하도록 구성될 수 있다.On the other hand, since the change of the image data between two images may be different for each region, the preprocessing filter that minimizes the RD-cost is determined in units of macroblocks, and the preprocessing filter is selectively selected from the preprocessing filter set for each region of a reference frame (eg, It can be configured to perform the preprocessing process by applying, in macroblock units or blocks of any size). In this case, in order to specify the type of preprocessing filter used in the encoding process, an additional bit for specifying a preprocessing filter applied on a region basis of a reference frame (for example, in a macroblock unit or an arbitrary block size) is transmitted to the decoder. Can be configured.

마지막으로, 단계(S140)에서는 단계(S130)를 통하여 전처리된 참조 프레임을 이용하여 현재 프레임에 대한 움직임 추정 및 보상을 실시하게 된다. 단계(S140)에서의 움직임 추정 및 보상은 종래의 동영상 부호화에 적용되는 움직임 추정 및 보상 방법이 적용될 수 있다.
Finally, in step S140, motion estimation and compensation for the current frame are performed using the reference frame preprocessed through step S130. Motion estimation and compensation in step S140 may be a motion estimation and compensation method applied to conventional video encoding.

한편, 이상과 같이 도 1을 통하여 설명된 움직임 추정 및 보상 방법에서의 참조 프레임에 대한 전처리 필터링은 부호화과정에 대한 것이며, 복호화과정에서도 움직임 추정 및 보상을 하기 위해 참조 프레임에 대해서 부호화 과정에서 적용된 전처리 필터링과 동일한 필터링이 수행되어야 할 것이다.Meanwhile, as described above, the preprocessing filtering on the reference frame in the motion estimation and compensation method described with reference to FIG. 1 is related to the encoding process, and the preprocessing applied to the reference frame in the encoding process to perform the motion estimation and compensation also in the decoding process. The same filtering as filtering should be performed.

도 5는 본 발명에 따른 동영상 복호화시의 움직임 추정 및 보상 방법의 실시예를 설명하기 위한 순서도이다.5 is a flowchart illustrating an embodiment of a motion estimation and compensation method in video decoding according to the present invention.

도 5를 참조하면, 본 발명에 따른 동영상 복호화시의 움직임 추정 및 보상 방법의 실시예는, 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함한 전처리 필터 집합의 구성 정보를 입수하는 단계(S510), 상기 전처리 필터 집합의 구성 정보를 참조하여 구성된 전처리 필터 집합을 참조 프레임에 적용하여 전처리 과정을 수행하는 단계(S520) 및 상기 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 보상을 수행하는 단계(S530)를 포함하여 구성될 수 있다.Referring to FIG. 5, according to an embodiment of the motion estimation and compensation method during video decoding, acquiring configuration information of a preprocessing filter set including at least one of a low pass filter set and an adaptive filter set (S510). ), Performing a preprocessing process by applying a preprocessing filter set configured by referring to the configuration information of the preprocessing filter set to a reference frame (S520), and performing motion compensation using the reference frame on which the preprocessing process is performed ( S530) can be configured to include.

도 5를 통하여 설명되는 동영상 복호화시의 움직임 추정 및 보상 방법은 도 1을 통하여 부호화된 동영상을 복호화하는 과정 중에 적용될 수 있다. 즉, 도 1을 통하여 설명된 본 발명에 따른 움직임 추정 및 보상 방법이 동영상 부호화 과정에 적용되는 과정에서 적용된 전처리 필터 집합의 구성과 참조 프레임마다(또는 참조 프레임의 영역별로) 적용된 전처리 필터의 종류를 전달받아 부호화과정에서 적용된 전처리 필터와 동일한 전처리 필터를 복호화 과정에서 참조 프레임에 적용하도록 하는 것이 도 5에서 설명된 동영상 복호화시의 움직임 추정 및 보상 방법의 특징이다.The motion estimation and compensation method during video decoding described with reference to FIG. 5 may be applied during a process of decoding a video encoded through FIG. 1. That is, the configuration of the preprocessing filter set applied in the process of applying the motion estimation and compensation method according to the present invention described with reference to FIG. 1 and the type of the preprocessing filter applied for each reference frame (or for each region of the reference frame). A feature of the motion estimation and compensation method during video decoding described with reference to FIG. 5 is to apply the same preprocessing filter to the reference frame during the decoding process.

먼저, 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함한 전처리 필터 집합의 구성 정보를 입수하는 단계(S510)는 복호화기가 부호화 과정에서 적용된 전처리 필터 집합의 구성 정보를 부호화기로부터 입수하는 단계이다. 전처리 필터 집합의 구성 정보는 슬라이스 헤더(slice header)에 포함되어 부호화기로부터 입수되도록 구성될 수 있으며, 전처리 필터 집합의 구성 정보는 예컨대 표 1에서 예시한 바와 같이, 필터 집합의 타입, 필요시 필터의 계수값, 가우시안 저역 통과 필터의 경우라면 가우시안 함수의 평균과 분산값 등을 포함하여 구성될 수 있다. First, obtaining configuration information of a preprocessing filter set including at least one of a low pass filter set and an adaptive filter set (S510) is a step in which a decoder obtains configuration information of a preprocessing filter set applied in an encoding process from an encoder. The configuration information of the preprocessing filter set may be configured to be obtained from an encoder by being included in a slice header. The configuration information of the preprocessing filter set may include, for example, the type of the filter set, the filter of the filter if necessary, as illustrated in Table 1. In the case of a coefficient value, a Gaussian low pass filter, and the like, the mean and variance values of the Gaussian function may be included.

한편, 전처리 필터 집합을 구성하는 저역 통과 필터 집합 및 적응적 필터 집합에 대해서는 도 1에서 설명된 동영상 부호화에 적용된 본 발명에 따른 방법의 단계(S120)에서 설명된 바 있으므로 자세한 설명은 생략된다.Meanwhile, the low pass filter set and the adaptive filter set constituting the preprocessing filter set are described in step S120 of the method according to the present invention applied to the video encoding described with reference to FIG.

다음으로, 전처리 과정을 수행하는 단계(S520)는 단계(S510)에서 입수한 전처리 필터 집합의 구성 정보를 참조하여 구성된 전처리 필터 집합을 참조 프레임에 적용하여 전처리 필터링을 참조 프레임에 대하여 수행하는 단계이다.Next, the performing of the preprocessing step (S520) is a step of performing the preprocessing filtering on the reference frame by applying the preprocessing filter set configured by referring to the configuration information of the preprocessing filter set obtained in step S510 to the reference frame. .

즉 전처리 과정을 수행하는 단계(S520)는 단계(S510)에서 입수한 전처리 필터 집합의 구성 정보를 참조하여 구성된 전처리 필터 집합으로부터 상기 참조 프레임의 부호화시에 적용된 전처리 필터의 종류를 파악하고 파악된 전처리 필터를 상기 구성된 전처리 필터 집합으로부터 선택하여 상기 참조 프레임에 대하여 적용하여 전처리 필터링을 수행하는 단계이다. 이때, 상기 참조 프레임에 대한 전처리 필터링은 상기 참조 프레임의 영역별(예컨대, 매크로블록 단위 또는 임의의 크기의 블록 단위)로 상기 전처리 필터 집합에 속한 전저리 필터를 선택적으로 적용하여 전처리 과정을 수행하도록 구성될 수 있다. 한편 상기 참조 프레임 또는 참조 프레임의 영역별로 적용되어야 하는 전처리 필터의 종류를 지정하는 비트는 부호화기로부터 참조 프레임 또는 참조 프레임의 영역별로 지정하여 전달되도록 구성될 수 있다.That is, the performing of the preprocessing process (S520) identifies the type of the preprocessing filter applied at the time of encoding the reference frame from the preprocessing filter set configured by referring to the configuration information of the preprocessing filter set acquired in the step S510, and grasps the identified preprocessing. A filter is selected from the configured preprocessing filter set and applied to the reference frame to perform preprocessing filtering. In this case, the preprocessing filtering on the reference frame may be performed by selectively applying a preprocessing filter belonging to the preprocessing filter set on a region-by-region basis (for example, in a macroblock unit or a block of an arbitrary size). Can be configured. Meanwhile, a bit for designating a type of preprocessing filter to be applied for each reference frame or region of a reference frame may be configured to be transmitted by being specified for each reference frame or region of a reference frame from an encoder.

마지막으로, 단계(S530)는 상기 단계(S520)에서 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 보상을 수행하는 단계이다. 즉, 단계(S530)에서는 단계(S520)를 통하여 전처리 필터링된 참조 프레임을 이용하여 현재 프레임에 대한 움직임 추정 및 보상을 실시하게 되며, 단계(S530)에서의 움직임 추정 및 보상은 종래의 동영상 부호화에 적용되는 움직임 추정 및 보상 방법이 적용될 수 있다.
Finally, step S530 is a step of performing motion compensation using a reference frame on which the preprocessing process is performed in step S520. That is, in step S530, motion estimation and compensation are performed on the current frame using the preprocessed reference frame through step S520. In step S530, motion estimation and compensation are performed on the conventional video encoding. Applied motion estimation and compensation methods may be applied.

본 발명에 따른 루프 내 전처리 In-loop pretreatment according to the invention 필터링이Filtering 적용된  applied 부호화기Encoder 및 복호화기 And decoder

도 6은 본 발명에 따른 루프 내 전처리 필터가 적용된 동영상 부호화기의 실시예를 설명하기 위한 블록도이다.6 is a block diagram illustrating an embodiment of a video encoder to which an in-loop preprocessing filter is applied according to the present invention.

도 6을 참조하면, 본 발명에 따른 동영상 부호화기(600)는 프레임내(intra-frame) 예측과 프레임간(inter-frame) 예측을 분기하는 예측 분기부(610), 프레임내 예측을 수행하는 인트라 예측부(620), 프레임간 예측을 위해서 움직임 추정 및 보상을 수행하는 움직임 추정 및 보상부(630), 변환부(614), 양자화부(642), 엔트로피 부호화부(643), 역변환부(645), 역양자화부(644), 참조 프레임 버퍼(650) 및 참조 프레임에 대한 전처리 필터링을 수행하기 위한 루프 내 전처리 필터(660)를 포함하여 구성될 수 있다. Referring to FIG. 6, the video encoder 600 according to the present invention includes a prediction branch unit 610 for branching intra-frame prediction and inter-frame prediction, and intra to perform intra-frame prediction. The prediction unit 620, a motion estimation and compensation unit 630 that performs motion estimation and compensation for inter-frame prediction, a transformer 614, a quantizer 642, an entropy encoder 643, and an inverse transformer 645. ), An inverse quantization unit 644, a reference frame buffer 650, and an in-loop preprocessing filter 660 for performing preprocessing filtering on the reference frame.

이때, 루프 내 전처리 필터(660)를 제외한 구성요소들은 종래 동영상 부호화기의 구성요소들과 동일한 역할을 수행하므로 자세한 설명은 생략된다. 본 발명에 따른 루프 내 전처리 필터가 적용된 움직임 추정 및 보상은 상술된 루프 내 전처리 필터(660)와 루프 내 전처리 필터(660)를 거친 참조 프레임과 현재 프레임을 이용하여 움직임 추정 및 보상을 수행하는 움직임 추정 및 보상부(630)에서 이루어지게 된다.In this case, the components except for the preprocessing filter 660 in the loop play the same role as the components of the conventional video encoder, and thus detailed description thereof will be omitted. The motion estimation and compensation to which the in-loop preprocessing filter according to the present invention is applied is a motion for performing motion estimation and compensation using the reference frame and the current frame which have passed through the pre-loop preprocessing filter 660 and the in-loop preprocessing filter 660. The estimation and compensation unit 630 is made.

구체적으로는, 본 발명에 따른 동영상 부호화기는 도 1을 통하여 설명된 본 발명에 따른 루프 내 전처리 필터가 적용된 움직임 추정 및 보상 방법이 루프 내 전처리 필터(660)에서 단계(S110) 내지 단계(S130)가 수행되어지도록 구성되고, 움직임 추정 및 보상부(630)에서 단계(S140)가 수행되어지도록 구성될 수 있다.Specifically, the video encoder according to the present invention is a motion estimation and compensation method to which the preprocessing filter in the loop according to the present invention described with reference to FIG. 1 is performed in steps S110 to S130 in the preprocessing filter 660 in the loop. Is configured to be performed, and in the motion estimation and compensation unit 630, step S140 may be performed.

도 7은 본 발명에 따른 루프 내 전처리 필터가 적용된 동영상 복호화기의 실시예를 설명하기 위한 블록도이다.7 is a block diagram illustrating an embodiment of a video decoder to which an in-loop preprocessing filter is applied according to the present invention.

도 7을 참조하면, 본 발명에 따른 동영상 복호화기는 엔트로피 복호화부(711), 역양자화부(712), 역변환부(713), 프레임내(intra-frame) 예측과 프레임간(inter-frame) 예측을 분기하는 예측 분기부(720), 프레임내 예측을 수행하는 인트라 예측부(730), 프레임간 예측을 위해서 움직임 보상을 수행하는 움직임 보상부(740), 참조 프레임 버퍼(760) 및 참조 프레임에 대한 전처리 필터링을 수행하기 위한 루프 내 전처리 필터(750)를 포함하여 구성될 수 있다.Referring to FIG. 7, the video decoder according to the present invention includes an entropy decoder 711, an inverse quantizer 712, an inverse transform unit 713, intra-frame prediction, and inter-frame prediction. The prediction branching unit 720 for branching the intra prediction, the intra prediction unit 730 for performing intra-frame prediction, the motion compensation unit 740 for performing motion compensation for inter-frame prediction, the reference frame buffer 760 and the reference frame. And a preprocessing filter 750 in a loop to perform preprocessing filtering on.

이때, 루프 내 전처리 필터(750)를 제외한 구성요소들은 종래 동영상 복호화기의 구성요소들과 동일한 역할을 수행하므로 자세한 설명은 생략된다. 본 발명에 따른 루프 내 전처리 필터가 적용된 움직임 보상은 상술된 루프 내 전처리 필터(750)와 루프 내 전처리 필터(750)를 거친 참조 프레임을 이용하여 움직임 벡터 정보를 토대로 현재 프레임에 대한 예측 프레임을 생성하는 움직임 보상부(740)에서 수행되게 된다. 또한, 움직임 보상부(740)에서 생성된 예측 프레임은 엔트로피 복호화부(711), 역양자화부(712) 및 역변환부(713)를 거쳐서 생성되는 차 프레임에 합산되어 현재 프레임을 생성하게 된다.In this case, the components except for the preprocessing filter 750 in the loop play the same role as the components of the conventional video decoder, and thus, detailed description thereof will be omitted. The motion compensation to which the in-loop preprocessing filter is applied according to the present invention generates a prediction frame for the current frame based on the motion vector information by using the reference frames that have passed through the in-loop preprocessing filter 750 and the in-loop preprocessing filter 750. The motion compensator 740 is performed. In addition, the prediction frame generated by the motion compensator 740 is added to the difference frame generated through the entropy decoder 711, the inverse quantizer 712, and the inverse transform unit 713 to generate a current frame.

구체적으로는, 본 발명에 따른 동영상 복호화기는 도 5를 통하여 설명된 본 발명에 따른 루프 내 전처리 필터가 적용된 움직임 추정 및 보상 방법이 루프 내 전처리 필터(750)에서 단계(S510) 및 단계(S520)를 수행하도록 구성되고, 움직임 보상부(740)에서 단계(S530)를 수행하도록 구성될 수 있다.Specifically, in the video decoder according to the present invention, the motion estimation and compensation method to which the preprocessing filter is applied according to the present invention described with reference to FIG. 5 is performed in the preprocessing filter 750 in the loop (S510 and S520). It may be configured to perform the operation, and may be configured to perform the step (S530) in the motion compensation unit 740.

한편, 도 6 및 도 7에서는 루프 내 전처리 필터와 움직임 추정 및 보상부를 별도의 구성요소로서 도시하고 있으나, 이는 기능적 구분을 위한 표현이며, 하나의 구성요소로서 구현될 수 있음은 당업자에게 있어 자명하다. 또한, 루프 내 전처리 필터와 움직임 추정 및 보상부는 전체 동영상 부호화기와 함께 ASIC(Application Specific Integrated Circuit)내의 일부 구성요소 또는 중앙처리장치에 의해서 독출되어 실행될 수 있는 소프트웨어 코드로서 구현될 수 있음도 당업자에게 있어 자명할 것이다.
Meanwhile, although FIGS. 6 and 7 illustrate the preprocessing filter and the motion estimation and compensation unit in the loop as separate components, this is a representation for functional division and may be implemented as one component. . In addition, it will be appreciated by those skilled in the art that the preprocessing filter and the motion estimation and compensation unit in the loop may be implemented as software code that can be read and executed by some component or central processing unit in an application specific integrated circuit (ASIC) together with the entire video encoder. Will be self explanatory.

H.264/H.264 / AVCAVC 참조 소프트웨어에 의한 시뮬레이션 결과 Simulation result by reference software

하기 표 2는 본 발명에 따른 움직임 추정 및 보상 방법의 성능을 확인하기 위하여 상술된 실시예를 H.264/AVC 참조 소프트웨어에 구현한 결과이다. Table 2 below shows the results of implementing the above-described embodiment in the H.264 / AVC reference software to confirm the performance of the motion estimation and compensation method according to the present invention.

성능을 비교하기 위하여 H.264/AVC High profile를 기준으로 하였다. 표의 BD-PSNR은 H.264/AVC High profile 대비 평균 PSNR의 차이를 나타낸 것이고, BD-RATE는 H.264/AVC High profile 대비 평균 Bit-rate 차이를 나타낸 것이다.
In order to compare the performance, H.264 / AVC high profile was used as a reference. The BD-PSNR in the table shows the difference in the average PSNR compared to the H.264 / AVC high profile, and the BD-RATE shows the difference in the average bit-rate compared to the H.264 / AVC high profile.

SizeSize SequenceSequence BD-rateBD-rate BD-PSNRBD-PSNR CIFCIF ForemanForeman -1.768-1.768 0.0760.076 MobileMobile -0.089-0.089 0.0040.004 FootballFootball -5.369-5.369 0.2700.270 CoastgaurdCoastgaurd -3.482-3.482 0.1460.146 CIF AverageCIF Average -2.677-2.677 0.1240.124 WVGAWVGA RaceHorsesRaceHorses -1.811-1.811 0.0820.082 BqmallBqmall -2.747-2.747 0.1220.122 BastketballdrillBashketballdrill -4.150-4.150 0.1630.163 Keiba3Keiba3 -3.462-3.462 0.1530.153 Nuts5Nuts5 -3.788-3.788 0.1210.121 WVGA AverageWVGA Average -3.192-3.192 0.1280.128 HDHD RavenRaven -15.548-15.548 0.6720.672 NightNight -5.098-5.098 0.1970.197 CityCity -11.745-11.745 0.3940.394 BigshipBigship -9.640-9.640 0.2750.275 HD AverageHD Average -10.508-10.508 0.3840.384

상기 표 2를 참조하면, 모든 해상도와 모든 샘플 시퀀스에 있어서 비트율의 감소(음의 BD-rate)와 화질의 향상(양의 BD-PSNR)을 얻을 수 있음을 확인 가능하며, Referring to Table 2, it can be confirmed that the bit rate reduction (negative BD-rate) and the image quality improvement (positive BD-PSNR) can be obtained at all resolutions and all sample sequences.

이 결과는 본 발명이 기존의 방법에 비해 높은 비트율 감소를 달성함으로써 압축효율을 향상 시킬수 있다는 것을 증명한다.
This result demonstrates that the present invention can improve the compression efficiency by achieving a higher bit rate reduction than the conventional method.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

600: 동영상 부호화기
610: 예측 분기부
620: 인트라 예측부
630: 움직임 추정 및 보상부
641: 변환부
642: 양자화부
643: 엔트로피 부호화부
644: 역양자화부
645: 역변환부
650: 참조 프레임 버퍼
660: 루프 내 전처리 필터
600: video encoder
610: prediction branch
620: intra prediction unit
630: motion estimation and compensation unit
641: conversion unit
642: quantization unit
643: entropy encoder
644: inverse quantization
645: inverse transform unit
650: reference frame buffer
660: preprocessing filter in loop

Claims (18)

동영상 부호화를 위한 움직임 추정 및 보상 방법으로서,
현재 프레임과 참조 프레임을 이용하여 현재 프레임과 참조 프레임간의 영상 정보의 변화 정도를 추정하는 단계;
상기 추정된 영상 정보의 변화 정도에 기반하여 저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함하여 전처리 필터 집합을 구성하는 단계;
상기 전처리 필터 집합을 상기 참조 프레임에 적용하여 전처리 과정을 수행하는 단계; 및
상기 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 추정 및 보상을 수행하는 단계를 포함한 움직임 추정 및 보상 방법.
As a motion estimation and compensation method for video encoding,
Estimating a degree of change of image information between the current frame and the reference frame using the current frame and the reference frame;
Constructing a pre-filter set including at least one of a low pass filter set and an adaptive filter set based on the estimated degree of change of the image information;
Performing a preprocessing process by applying the preprocessing filter set to the reference frame; And
And performing motion estimation and compensation using a reference frame on which the preprocessing is performed.
제 1 항에 있어서,
상기 영상 정보의 변화를 추정하는 단계는 영상의 블러(blur) 정도를 추정하여 상기 영상 정보의 변화 정도를 추정하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
The estimating of the change of the image information may include estimating the degree of blur of the image to estimate the degree of change of the image information.
제 1 항에 있어서,
상기 영상 정보의 변화를 추정하는 단계는 상기 참조 프레임 내부의 모든 블록의 움직임 벡터 크기의 평균을 산출하고, 이에 기반하여 상기 영상 정보의 변화 정도를 추정하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
And estimating a change in the image information comprises calculating an average of motion vector sizes of all blocks in the reference frame and estimating a change degree of the image information based on the average.
제 1 항에 있어서,
상기 전처리 필터 집합을 구성하는 단계는 상기 추정된 영상 정보의 변화 정도가 큰 경우에 저역 필터 집합과 적응적 필터 집합을 함께 이용하여 상기 전처리 필터 집합을 구성하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
The configuring of the preprocessing filter set comprises configuring the preprocessing filter set by using a low pass filter set and an adaptive filter set when the estimated degree of change of the image information is large.
제 1 항에 있어서,
상기 전처리 필터 집합을 구성하는 단계는 상기 추정된 영상 정보의 변화가 작고 적응적 필터 집합의 비용 함수가 소정의 비용 함수 임계값을 초과하지 않는 경우에 적응적 필터 집합을 이용하여 상기 전처리 필터 집합을 구성하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
The configuring of the preprocessing filter set may include configuring the preprocessing filter set by using an adaptive filter set when the change of the estimated image information is small and the cost function of the adaptive filter set does not exceed a predetermined cost function threshold. Motion estimation and compensation method characterized in that the configuration.
제 1 항에 있어서,
상기 전처리 필터 집합을 구성하는 단계는 상기 추정된 영상 정보의 변화가 작고 적응적 필터 집합의 비용 함수가 소정의 비용 함수 임계값을 초과하는 경우에는, 적응적 필터와 저역 필터의 상관 계수를 계산하여 상관 계수의 평균값이 소정의 비용함수 임계값보다 크다면 저역 통과 필터만을 이용하여 상기 전처리 필터 집합을 구성하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
The configuring of the preprocessing filter set may include calculating correlation coefficients of the adaptive filter and the low pass filter when the estimated change of the image information is small and the cost function of the adaptive filter set exceeds a predetermined cost function threshold. And if the mean value of the correlation coefficient is greater than a predetermined cost function threshold, constructing the preprocessing filter set using only a low pass filter.
제 1 항에 있어서,
상기 전처리 필터 집합을 구성하는 단계에서 상기 저역 통과 필터 집합은 가우시안 저역 통과 필터(GLPF; Gaussian Low Pass Filter)들로 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
And in the configuring of the preprocessing filter set, the low pass filter set comprises Gaussian Low Pass Filters (GLPF).
제 7 항에 있어서,
상기 저역 통과 필터 집합은 N(N은 자연수)*N의 정사각 형태 필터, N*1의 수직 방향 필터, 1*N의 수평 방향 필터 및 대각 방향 필터 중 적어도 둘 이상을 포함하여 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 7, wherein
The low pass filter set includes at least two of N (N is a natural number) * N square filter, N * 1 vertical filter, 1 * N horizontal filter, and diagonal filter. Motion estimation and compensation method.
제 1 항에 있어서,
상기 전처리 필터 집합을 구성하는 단계에서 상기 적응적 필터 집합은 현재 프레임과 참조 프레임에 대하여 정합 오차를 최소로 하는 최소 제곱 오차 필터를 포함하여 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
And in the configuring of the preprocessing filter set, the adaptive filter set comprises a least square error filter that minimizes matching error with respect to a current frame and a reference frame.
제 9 항에 있어서,
상기 적응적 필터 집합은
상기 동영상 부호화가 단일 패스 부호화로 진행될 경우에는 현재 프레임보다 이전에 부호화된 프레임에서 계산된 적응적 필터들로 구성되며,
상기 동영상 부호화가 다중 패스 부호화로 진행될 경우에는 현재 프레임보다 이전에 부호화된 프레임에서 계산된 적응적 필터들과 현재 프레임에서 계산된 적응적 필터들로 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 9,
The adaptive filter set
When the video encoding is performed by single pass encoding, it is composed of adaptive filters calculated on a frame encoded before the current frame.
If the video encoding is to be performed in the multi-pass coding, the motion estimation and compensation method comprising the adaptive filters calculated in the frame encoded before the current frame and the adaptive filters calculated in the current frame.
제 1 항에 있어서,
상기 전처리 과정을 수행하는 단계는
상기 참조 프레임의 영역별로 상기 전처리 필터 집합에 속한 전저리 필터를 선택적으로 적용하여 전처리 과정을 수행하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 1,
Performing the pretreatment process
And performing a preprocessing process by selectively applying a pre-processing filter belonging to the preprocessing filter set for each region of the reference frame.
부호화된 동영상의 복호화를 위한 움직임 추정 및 보상 방법으로서,
저역 통과 필터 집합 및 적응적 필터 집합 중 적어도 하나를 포함한 전처리 필터 집합의 구성 정보를 입수하는 단계;
상기 전처리 필터 집합의 구성 정보를 참조하여 구성된 전처리 필터 집합을 참조 프레임에 적용하여 전처리 과정을 수행하는 단계; 및
상기 전처리 과정이 수행된 참조 프레임을 이용하여 움직임 보상을 수행하는 단계를 포함한 움직임 추정 및 보상 방법.
A motion estimation and compensation method for decoding an encoded video,
Obtaining configuration information of the preprocessing filter set including at least one of a low pass filter set and an adaptive filter set;
Performing a preprocessing process by applying a preprocessing filter set configured by referring to the configuration information of the preprocessing filter set to a reference frame; And
And performing motion compensation using the reference frame on which the preprocessing is performed.
제 12 항에 있어서,
상기 전처리 필터 집합을 구성하는 저역 통과 필터 집합은,
가우시안 저역 통과 필터(GLPF; Gaussian Low Pass Filter)들로 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
13. The method of claim 12,
The low pass filter set constituting the preprocessing filter set,
A method for motion estimation and compensation, comprising Gaussian Low Pass Filters (GLPF).
제 13 항에 있어서,
상기 저역 통과 필터 집합은 N(N은 자연수)*N의 정사각 형태 필터, N*1의 수직 방향 필터, 1*N의 수평 방향 필터 및 대각 방향 필터 중 적어도 둘 이상을 포함하여 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 13,
The low pass filter set includes at least two of N (N is a natural number) * N square filter, N * 1 vertical filter, 1 * N horizontal filter, and diagonal filter. Motion estimation and compensation method.
제 12 항에 있어서,
상기 전처리 필터 집합을 구성하는 상기 적응적 필터 집합은 현재 프레임과 참조 프레임에 대하여 정합 오차를 최소로 하는 최소 제곱 오차 필터를 포함하여 구성되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
13. The method of claim 12,
And the adaptive filter set constituting the preprocessing filter set comprises a least square error filter that minimizes matching error with respect to the current frame and the reference frame.
제 12 항에 있어서,
상기 전처리 필터 집합의 구성 정보를 입수하는 단계에서 상기 전처리 필터 집합의 구성 정보는 슬라이스 헤더(slice header)에 포함되어 입수되는 것을 특징으로 하는 움직임 추정 및 보상 방법.
13. The method of claim 12,
And obtaining configuration information of the preprocessing filter set, wherein the configuration information of the preprocessing filter set is included in a slice header and obtained.
제 12 항에 있어서,
상기 전처리 과정을 수행하는 단계는 상기 구성된 전처리 필터 집합으로부터 상기 참조 프레임의 부호화시에 적용된 전처리 필터의 종류를 파악하고 파악된 전처리 필터를 상기 구성된 전처리 필터 집합으로부터 선택하여 상기 참조 프레임에 대하여 적용하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
13. The method of claim 12,
The performing of the preprocessing step may include grasping a type of a preprocessing filter applied in encoding the reference frame from the configured preprocessing filter set, and applying the identified preprocessing filter from the configured preprocessing filter set to the reference frame. Characterized in the motion estimation and compensation method.
제 17 항에 있어서,
상기 전처리 과정을 수행하는 단계는
상기 참조 프레임의 영역별로 상기 전처리 필터 집합에 속한 전저리 필터를 선택적으로 적용하여 전처리 과정을 수행하는 것을 특징으로 하는 움직임 추정 및 보상 방법.
The method of claim 17,
Performing the pretreatment process
And performing a preprocessing process by selectively applying a pre-processing filter belonging to the preprocessing filter set for each region of the reference frame.
KR1020110047996A 2011-05-20 2011-05-20 Method of motion estimation and compensation using in-loop preprocessing filtering KR101247024B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110047996A KR101247024B1 (en) 2011-05-20 2011-05-20 Method of motion estimation and compensation using in-loop preprocessing filtering

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110047996A KR101247024B1 (en) 2011-05-20 2011-05-20 Method of motion estimation and compensation using in-loop preprocessing filtering

Publications (2)

Publication Number Publication Date
KR20120129629A true KR20120129629A (en) 2012-11-28
KR101247024B1 KR101247024B1 (en) 2013-03-25

Family

ID=47514100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110047996A KR101247024B1 (en) 2011-05-20 2011-05-20 Method of motion estimation and compensation using in-loop preprocessing filtering

Country Status (1)

Country Link
KR (1) KR101247024B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014098976A1 (en) * 2012-12-19 2014-06-26 Vanguard Software Solutions, Inc Motion estimation engine for video encoding
US8891633B2 (en) 2011-11-16 2014-11-18 Vanguard Video Llc Video compression for high efficiency video coding using a reduced resolution image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3960451B2 (en) 2000-03-06 2007-08-15 Kddi株式会社 Scene characteristic detection type moving picture coding apparatus
KR100827708B1 (en) * 2006-08-11 2008-05-07 엠텍비젼 주식회사 Apparatus for enhancing vedeo quality, video encoder and method of transforming image signal

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8891633B2 (en) 2011-11-16 2014-11-18 Vanguard Video Llc Video compression for high efficiency video coding using a reduced resolution image
US9131235B2 (en) 2011-11-16 2015-09-08 Vanguard Software Solutions, Inc. Optimal intra prediction in block-based video coding
US9307250B2 (en) 2011-11-16 2016-04-05 Vanguard Video Llc Optimization of intra block size in video coding based on minimal activity directions and strengths
US9451266B2 (en) 2011-11-16 2016-09-20 Vanguard Video Llc Optimal intra prediction in block-based video coding to calculate minimal activity direction based on texture gradient distribution
WO2014098976A1 (en) * 2012-12-19 2014-06-26 Vanguard Software Solutions, Inc Motion estimation engine for video encoding

Also Published As

Publication number Publication date
KR101247024B1 (en) 2013-03-25

Similar Documents

Publication Publication Date Title
CN111819852B (en) Method and apparatus for residual symbol prediction in the transform domain
KR100989296B1 (en) Enhanced image/video quality through artifact evaluation
US10038919B2 (en) In loop chroma deblocking filter
US8023562B2 (en) Real-time video coding/decoding
EP2278813B1 (en) Apparatus for controlling loop filtering or post filtering in block based motion compensated video coding
US8989256B2 (en) Method and apparatus for using segmentation-based coding of prediction information
US10397574B2 (en) Video coding quantization parameter determination suitable for video conferencing
US20110206132A1 (en) Data Compression for Video
CN108989802B (en) HEVC video stream quality estimation method and system by utilizing inter-frame relation
US8780971B1 (en) System and method of encoding using selectable loop filters
US9131073B1 (en) Motion estimation aided noise reduction
WO2011101452A2 (en) Data compression for video
JP2011514095A (en) Video intra prediction method and apparatus
EP1359764A2 (en) Video encoding method with fading compensation
US20140003518A1 (en) Image encoding method using a skip mode, and a device using the method
US8594189B1 (en) Apparatus and method for coding video using consistent regions and resolution scaling
US8396127B1 (en) Segmentation for video coding using predictive benefit
KR20130103140A (en) Preprocessing method before image compression, adaptive motion estimation for improvement of image compression rate, and image data providing method for each image service type
US20120207212A1 (en) Visually masked metric for pixel block similarity
KR101247024B1 (en) Method of motion estimation and compensation using in-loop preprocessing filtering
EP3884666A1 (en) Video stream adaptive filtering for bitrate reduction
CN111886868B (en) Method and apparatus for adaptive temporal filtering for substitute reference frame rendering
KR102668253B1 (en) Video stream adaptive filtering for bitrate reduction
CN112154667B (en) Encoding and decoding of video
KR100708206B1 (en) Method for decoding video and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151214

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee