KR100294895B1 - Motion compensation moving-picture compressing method using filter - Google Patents

Motion compensation moving-picture compressing method using filter Download PDF

Info

Publication number
KR100294895B1
KR100294895B1 KR1019980018913A KR19980018913A KR100294895B1 KR 100294895 B1 KR100294895 B1 KR 100294895B1 KR 1019980018913 A KR1019980018913 A KR 1019980018913A KR 19980018913 A KR19980018913 A KR 19980018913A KR 100294895 B1 KR100294895 B1 KR 100294895B1
Authority
KR
South Korea
Prior art keywords
motion
motion vector
image
vector
equation
Prior art date
Application number
KR1019980018913A
Other languages
Korean (ko)
Other versions
KR19990086117A (en
Inventor
이병도
김혁만
송문호
Original Assignee
이계철
한국전기통신공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이계철, 한국전기통신공사 filed Critical 이계철
Priority to KR1019980018913A priority Critical patent/KR100294895B1/en
Publication of KR19990086117A publication Critical patent/KR19990086117A/en
Application granted granted Critical
Publication of KR100294895B1 publication Critical patent/KR100294895B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

PURPOSE: A motion compensation moving-picture compressing method using a filter is provided to obtain excellent picture quality without increasing transmission rate of an encoder. CONSTITUTION: A motion compensation moving-picture compression is carried out in such a manner that motion vectors by blocks are calculated and the current image is estimated through the motion vector of the current frame and the image of the previous frame. To remove blocking effect in the moving picture compression, the motion vectors by blocks are transformed into pixels through one-time operation to calculate motion vectors by pixels. Then, the current image is estimated through the motion vectors by pixels and the image of the previous frame.

Description

필터를 이용한 움직임 보상 동영상 압축 방법Motion Compensation Video Compression Method Using Filter

본 발명은 필터를 이용한 움직임 보상 동영상 압축 방법에 관한 것으로, 블록당 하나의 움직임 벡터를 필터를 이용해서 화소단위로 전환하고 최적화 단계를 통한 움직임 벡터를 이용하여 블록화 현상을 제거함으로써, 예측영상에서 우수한 화질을 얻을 수 있으며, 이 기술은 동영상 압축 시스템과 고선명 텔레비젼 등과 같은 산업 분야에 광범위하게 활용되는 기술이다.The present invention relates to a motion compensation video compression method using a filter, by converting one motion vector per block into a pixel unit using a filter and removing a blocking phenomenon by using a motion vector through an optimization step. Image quality is achieved, and this technology is widely used in industries such as video compression systems and high definition television.

일반적으로 동영상 정보 압축기술(예: MPEG, H.261, H.263 등)에서는 동영상의 큰 정보량을 줄이기 위한 몇 가지 방식이 사용된다. 그중 화면간의 상관도를 이용하여 정보를 줄이는 블록 움직임 보상(block motion compensation: 이하 BMC 라 칭한다)에 기초한 예측 코딩이 널리 이용되고 있다.In general, video information compression techniques (eg, MPEG, H.261, H.263, etc.) use several methods to reduce the large amount of information in a video. Among them, predictive coding based on block motion compensation (hereinafter referred to as BMC) that reduces information by using correlation between screens is widely used.

이 방식은 화면의 급격한 변화가 없는 대부분의 경우, 현재화면이 전 화면과 높은 상관도를 보임에 근거하여 전 화면과 움직임 벡터를 이용하여 현재 화면을 예측하는데 기초를 두고 있다.This method is based on predicting the current screen using the previous screen and the motion vector based on the current screen showing a high correlation with the previous screen in most cases where there is no sudden change of the screen.

움직임 벡터의 연산은 송신기에서 현재 영상과 전 영상을 블록단위로 나누어 블록 매칭 알고리즘(block matching algorithm : 이하 BMA 라 칭한다)과 같은 방법을 이용하여 높은 상관도를 가지고 있는 블록을 전 영상에서 찾음으로써 이루어진다.The motion vector is calculated by dividing the current image and the previous image by the block at the transmitter and finding a block with high correlation in the previous image using a method such as a block matching algorithm (hereinafter referred to as BMA). .

연산된 움직임 벡터는 현재 영상을 예측하는데 사용되고, 예측된 영상과 현재 영상의 차이, 즉 에러(error) 영상은 움직임 벡터와 함께 전송된다.The calculated motion vector is used to predict the current image, and the difference between the predicted image and the current image, that is, an error image, is transmitted together with the motion vector.

수신기에서는 전 화면과 움직임 벡터를 이용하여 블록 단위로 현재 영상을 예측한 후, 전송받은 에러 영상과 합성하여 현재 영상을 복원한다.The receiver predicts the current image in units of blocks by using the entire screen and the motion vector, and then restores the current image by combining the received error image.

여기에서 움직임 벡터는 블록단위로 연산되는데, 이는 바로 영상 움직임을 거칠게 모델링 하는 것임으로, 복원 영상에서 블록화 현상(blocky artifact)을 초래하게 된다.Here, the motion vector is calculated in units of blocks, which is to roughly model the image motion, resulting in blocky artifacts in the reconstructed image.

이 블록화 현상은 복원영상에서 인접한 블록간의 경계가 불연속적으로 보이는 현상으로, 복원 영상에서의 화질 저하의 주요한 원인으로 작용하며, 특히 움직임이 큰 영상일 경우에는 지나친 화질 저하를 초래하는 문제점이 있었다.This blocking phenomenon is a phenomenon in which the boundary between adjacent blocks is discontinuous in the reconstructed image, which serves as a major cause of the deterioration of the image quality in the reconstructed image.

이와 같은 블록화 현상을 제거하기 위해, 기존의 방식에서는 전송되는 정보량을 높여주거나, 임시방편적으로 오버랩 BMC(overlapped BMC : OBMC)와 같은 방안을 이용하고 있었다.In order to remove such blocking phenomenon, the conventional method is to increase the amount of information to be transmitted or to use a method such as overlapped BMC (OBMC) temporarily.

그러나 이러한 방법들 역시 블록화 현상을 제거하는 근본적인 방안이 될 수는 없는 문제점이 있었다.However, these methods also had a problem that can not be a fundamental way to remove the block phenomenon.

본 발명에서는 상기에 기술한 바와 같은 종래 문제점을 해결하기 위해, BMC 방식을 사용하지 않고, 필터를 이용한 움직임 보상(filtered motion compensation: 이하 FMC 라 칭한다) 방식을 사용하여 블록당 하나의 움직임 벡터를 화소단위로 전환하고 최적화 단계를 통한 움직임 벡터를 이용해 블록화 현상의 원인을 근본적으로 제거함으로써, 복호시 향상된 화질을 제공하는 것을 목적으로 한다.In the present invention, in order to solve the conventional problems as described above, one motion vector per block is used by using a filtered motion compensation (FMC) method without using the BMC method. It aims to provide improved image quality in decoding by fundamentally eliminating the cause of the blocking phenomenon by converting to units and using motion vectors through an optimization step.

제1도는 본 발명이 적용되는 동영상 부호화기의 블록도.1 is a block diagram of a video encoder to which the present invention is applied.

제2(a)도는 'deadline' 시퀀스의 18번째 프레임인 원영상을 나타내는 도면.2 (a) is a view showing the original image of the eighteenth frame of the 'deadline' sequence.

제2(b)도는 제2(a)도의 영상을 BMC 방식을 이용해 압축한 결과를 나타내는 도면.FIG. 2 (b) is a diagram showing the result of compressing the image of FIG. 2 (a) using the BMC scheme. FIG.

제2(c)도는 제2(a)도의 영상을 OBMC 방식을 이용해 압축한 결과를 나타내는 도면.FIG. 2 (c) is a diagram showing the result of compressing the image of FIG. 2 (a) using the OBMC method. FIG.

제2(d)도는 본 발명에 의한 FMC 방식으로 제2(a)도의 영상을 압축한 결과를 나타내는 도면.FIG. 2 (d) shows the result of compressing the image of FIG. 2 (a) by the FMC method according to the present invention. FIG.

제3(a)도는 'deadline'에서의 각 방식에 대한 PSNR 결과를 나타내는 그래프.Figure 3 (a) is a graph showing the PSNR results for each scheme in the 'deadline'.

제3(b)도는 'claire'에서의 각 방식에 대한 PSNR 결과를 나타내는 그래프.Figure 3 (b) is a graph showing the PSNR results for each method in 'claire'.

제3(c)도는 'salesman'시퀀스에서의 각 방식에 대한 PSNR 결과를 나타내는 그래프.Figure 3 (c) is a graph showing the PSNR results for each scheme in the 'salesman' sequence.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

1 : 디지탈부 2 : 움직임 추정부1: digital part 2: motion estimation part

3 : 움직임 보상부 4 : DCT/양자화부3: motion compensation unit 4: DCT / quantization unit

5 : 역양자화/역 DCT 부 6 : 가변길이부호화부5: Inverse quantization / inverse DCT part 6: Variable length coding unit

7 : 버퍼 8 : 레이트 제어부7: buffer 8: rate control unit

상기와 같은 목적을 달성하기 위해 블록단위의 움직임 벡터를 계산하는 움직임 추정 과정과;A motion estimation process of calculating a motion vector in units of blocks to achieve the above object;

상기 움직임 추정 과정에서 입력된 현재 프레임의 움직임 벡터와, 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 포함하여 움직임 보상동영상을 압축하는 방법에 있어서,In the method for compressing a motion compensation video including a motion vector of the current frame input in the motion estimation process and a motion compensation process for predicting the current video through the image of the previous frame,

상기 동영상 압축에서의 블록화 현상을 제거하기 위해;To remove a blocking phenomenon in the video compression;

블록 단위의 움직임 벡터를 한번의 연산을 통해 화소단위로 전환하여 화소단위의 움직임 벡터를 계산하는 움직임 추정 과정과;A motion estimation process of converting the motion vector of the block unit into the pixel unit by one operation and calculating the motion vector of the pixel unit;

상기 화소단위의 움직임 벡터와 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 구비하는 것을 특징으로 한다.And a motion compensation process for predicting the current image based on the pixel-based motion vector and the image of the previous frame.

또한 상기와 같은 목적을 달성하기 위해, 블록단위의 움직임 벡터를 계산하는 움직임 추정 과정과;In addition, in order to achieve the above object, a motion estimation process for calculating a motion unit of the block unit;

상기 움직임 추정 과정에서 입력된 현재 프레임의 움직임 벡터와, 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 포함하여 움직임 보상동영상을 압축하는 방법에 있어서,In the method for compressing a motion compensation video including a motion vector of the current frame input in the motion estimation process and a motion compensation process for predicting the current video through the image of the previous frame,

상기 동영상 압축에서의 블록화 현상을 제거하고 피크신호 대 잡음 비(PSNR)의 저하를 방지하기 위해;To remove blocking effects in the video compression and to prevent degradation of the peak signal-to-noise ratio (PSNR);

블록 단위의 움직임 벡터를 반복 연산을 통해 화소단위로 전환하여 화소단위의 움직임 벡터를 계산하는 움직임 추정 과정과;A motion estimation process of converting a motion vector in a block unit into a pixel unit through an iterative operation and calculating a motion vector in a pixel unit;

상기 화소단위의 움직임 벡터와 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 구비하는 것을 특징으로 한다.And a motion compensation process for predicting the current image based on the pixel-based motion vector and the image of the previous frame.

상술한 목적 및 특징들, 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하면 다음과 같다.The above objects, features, and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 기본적인 원리는 다음과 같다.The basic principle of the present invention is as follows.

BMC에서의 블록화 현상은 블록당 하나씩의 움직임 벡터를 사용함에 기인한다. 그러므로 보간법(interpolation)과 같은 방법을 통해서 블록단위의 움직임 벡터를 공간적으로 자연스럽(smooth)게 전환하여 예측 영상을 합성할 경우 블록화 현상의 발생은 이론적으로 불가능하게 된다.The blocking phenomenon in BMC is caused by using one motion vector per block. Therefore, in the case of synthesizing the prediction image by spatially smoothing the motion vector of the block unit by a method such as interpolation, the occurrence of blocking phenomenon is theoretically impossible.

따라서, 본 발명인 FMC에서는 블록 단위의 움직임 벡터를 화소단위로 전환한 후 예측 영상을 합성한다. 이때 BMC로부터 얻어진 움직임 벡터를 사용할 경우 블록화 현상은 없어지지만, 피크 신호 대 잡음비(peak-signal-to-noise-ratio : 이하 PSNR 이라 칭한다)의 저하를 초래하게 된다. 이에 따라 송신기에서는 최적화 과정을 통한 움직임 벡터를 연산하여 전송하여야만 보다 높은 화질의 복원 영상을 얻을 수 있다.Therefore, in the FMC of the present invention, the predictive image is synthesized after converting the motion vector in the unit of block into the unit of pixel. In this case, when the motion vector obtained from the BMC is used, the blocking phenomenon is eliminated, but the peak signal-to-noise-ratio (hereinafter referred to as PSNR) is reduced. Accordingly, the transmitter can obtain a higher quality reconstructed image only by calculating and transmitting a motion vector through an optimization process.

최적화 과정을 통한 움직임 벡터는 에러 영상 또는 “DFD(displaced frame difference: 이하 DFD라 칭한다)”영상의 크기(norm)를 최소화하는 벡터로서, 연속선형화(successive linearization)와 같은 절차를 통하여 연산할 수 있다.The motion vector through the optimization process is a vector that minimizes the norm of the error image or the “displaced frame difference (DFD)” image, and can be calculated through a procedure such as successive linearization. .

FMC를 평가한 결과, FMC 방식은 복원 영상에서 블록화 현상을 완전히 제거할 수 있었고, 종래의 방식보다 더 높은 PSNR 수치를 제공하여 주었다. 따라서, FMC는 기존의 영상 압축표준(예: H.261, H.263, MPEG-1, MPEG-2, MPEG-4에 채택된 방식에 비교하여 여러 면에서 앞서 있으며, 차세대 동영상 압축표준으로 채택될 가능성이 있다는데 큰 의미가 있다.As a result of evaluating the FMC, the FMC method was able to completely remove the blocking phenomenon from the reconstructed image, and provided a higher PSNR value than the conventional method. As a result, FMC is ahead of many existing video compression standards (e.g., H.261, H.263, MPEG-1, MPEG-2, MPEG-4) and adopted as the next generation video compression standard. There is a big sense that there is a possibility.

이와 같은 본 발명은 블록화 현상을 제거하고 궁극적으로 DFD의 크기(norm)를 최소화함을 목표로 한다. 수식전개에 의해서 살펴보면 다음과 같다.The present invention aims to eliminate the blocking phenomenon and ultimately minimize the size of the DFD. Looking at the expression development as follows.

최적화된 움직임 벡터는 DFD의 크기(norm) 예를 들면 EMSE(estimated mean square error : 이하 EMSE 라 칭한다)를 최소화한다. EMSE는 불필요한 상수를 고려하지 않고 다음과 같이 쓰여질 수 있다.The optimized motion vector minimizes the size of the DFD, for example, EMSE (estimated mean square error). EMSE can be written as follows without considering unnecessary constants.

위 수학식 1에서 r은 영상의 범위, r=(x,y)는 화소 좌표, u(r)은 위치 r에서의 움직임 벡터를 의미한다. DFD는 다음과 같이 정의된다.In Equation 1, r denotes a range of an image, r = (x, y) denotes pixel coordinates, and u (r) denotes a motion vector at position r. DFD is defined as follows.

위 수학식 2에서 In(r)과 In-1(r+u(r))은 각각 현재(n)과 전(n-1) 프레임을 의미한다. 식에서 알 수 있듯이, DFD는 현재 프레임과 이동된 전 프레임 사이의 차이다. 그리고 예측된 프레임, In-1(r+u(r))은 전 프레임, In-1(r)과 해당하는 움직임 벡터, u(r) 를 이용해서 합성된다.In Equation 2, I n (r) and I n-1 (r + u (r)) mean current (n) and previous (n-1) frames, respectively. As can be seen from the equation, DFD is the difference between the current frame and the previous frame moved. The predicted frame, I n-1 (r + u (r)), is synthesized using the previous frame, I n-1 (r) and the corresponding motion vector, u (r).

EMSE의 최적화는 비선형 문제이나 선형화에 의해서 근사적인 수치해가 얻어질 수 있다. 연속적 선형화를 이용하기 위하여 최적화된 움직임 벡터, u(r)에 근접한 움직임 벡터, u*(r)를 가정한다.The optimization of EMSE can be obtained by approximating numerical solution by nonlinear problem or linearization. To use continuous linearization, assume an optimized motion vector, a motion vector close to u (r), u * (r).

이 오차를 δ=u(r)-u*(r)로 정의하고 DFD 가 u(r)에 대해서 비선형이므로 수학식 2는 u*(r)을 중심으로 한 테일러 전개에 의해서 다음과 같이 전개된다.Since this error is defined as δ = u (r) -u * (r) and DFD is nonlinear with respect to u (r), Equation 2 is developed as follows by the Taylor expansion around u * (r). .

위 수학식 3에서는 ∇는 gradient 연산자,를 의미하고, 위 첨자 T는 행렬의 전치를 의미하며, h.o.t 는 δ에 대한 고차항을 의미한다. 이를 이용하여 수학식 1은 다음과 같이 쓰여진다.In Equation 3 above, ∇ is a gradient operator, Superscript T means the transpose of the matrix, and hot means the higher order term for δ. Using this equation (1) is written as follows.

위의 EMSE 를 불연속화하여 순차적(lexicographical)으로 정렬하면 DFD 행렬의 벡터 형태, b(mn×1)과 개선 벡터 δp(2mn×1)은 다음과 같이 표현된다.If the above EMSE is discontinuous and aligned in lexicographical form, the vector form of the DFD matrix, b (mn × 1) and the improvement vector δ p (2mn × 1), are expressed as follows.

위 수학식 5에서 n 과 m 은 프레임의 화소단위 크기로서 n은 세로방향, m 은 가로방향의 크기이다. 그리고 δp는 움직임 는 움직임 벡터의 두 성분(δh, δv)으로 구성되어 있으며 아래 첨자(h, v)는 각각 (가로, 세로)방향을 의미한다.In Equation 5, n and m are pixel unit sizes of the frame, n is vertical and m is horizontal. And δ p is the motion consists of two components (δ h , δ v ) of the motion vector, and the subscripts (h, v) mean (horizontal and vertical) directions, respectively.

예를 들어, CIF(Common Intermediate Format) 프레임은 (m,n)=(288,352)이고, 가로로 22개, 세로로 18개의 매크로 블록으로 나누어진다. 상기 수학식 5의 정의에 의해서 EMSE 는 다음과 같이 불연속화된다.For example, the Common Intermediate Format (CIF) frame is (m, n) = (288,352), and is divided into 22 macro blocks and 18 macro blocks. By the definition of Equation 5, the EMSE is discontinuous as follows.

위 수학식 6에서의 불연속(discrete) 표현, A(u)와 DFD 의 불연속 표현, b는 두항 모두 수학식 6에 표시된 바와 같이 u(r)의 함수이고, A(u)는 크기가 (mn×2mn)로서 EMSE 의 테일러 전개에서 첫 번째 항에서 비롯된 것이다.In Equation 6 above Discrete representation of, A (u) and discrete representation of DFD, b are both functions of u (r) as shown in Equation 6, and A (u) is (mn × 2mn) in size This is from the first term in Taylor's deployment.

δp는 영상의 모든 화소에서 정의되며, 희소(sparse) 움직임 벡터장(예를 들어 매크로 블록단위의 벡터장)의 선형변환으로 모델링된 것이다. 또한 매크로 블록단위 움직임 벡터를 순차적(lexicographical)으로 정리된 항을 δb로 나타내면 다음의 선형 변환으로 두 움직임 벡터장은 연결된다.δ p is defined in all pixels of the image and is modeled as a linear transformation of a sparse motion vector field (for example, a vector field in macroblock units). In addition, when the lexical terms of the macroblock unit motion vector are expressed as δ b , the two motion vector fields are connected by the following linear transformation.

다시 말하자면, 수학식 7의 H는 희소하게 매크로 블록단위로 샘플된 움직임 벡터장을 화소단위로 샘플링된 움직임 벡터장으로 대응시키는 선형 변환을 의미한다.In other words, H in Equation 7 denotes a linear transformation that maps a motion vector field sampled in units of macro blocks to a motion vector field sampled in units of pixels.

수학식 5와 수학식7에서의 정의를 사용해서 불연속 EMSE 는 다음과 같이 쓰여진다.Using the definitions in equations (5) and (7), the discontinuous EMSE is written as

모든 δB와 H 에 대한 위 수학식 8의 최적화는 EMSE 의 감소로 귀결된다. δb와 H 에 대해서 동시에 최적화하는 문제는 해결하기 어려운 비선형 문제이므로 먼저 H 를 고정시킴으로써 문제해결을 용이하게 만들수 있다.The optimization of Equation 8 above for all δ B and H results in a decrease in EMSE. The problem of optimizing δ b and H at the same time is a difficult nonlinear problem that can be solved easily by fixing H first.

예를 들면, 움직임 벡터장을 대역제한(band-limited)되어 있다고 가정할 경우, H는 대역제한보간(band-limited interpolation)필터로 사용할 수 있다.For example, assuming that the motion vector field is band-limited, H may be used as a band-limited interpolation filter.

그러나 H 를 고정시켜 놓아도 EMSE 의 최소화 해는 비선형 방정식 문제의 해이므로 δb에 대한 EMSE 의 최적화는 여전히 어려운 문제이다. 그렇지만 u(r)에 대해 근접한 초기치를 사용할 수 있다면 수치해는 다음의 반복적인 방식에 의해서 구해질 수 있다.However, even if H is fixed, the optimization of EMSE for δ b is still a difficult problem because the solution of EMSE is a solution of the nonlinear equation problem. However, if a close initial value for u (r) is available, the numerical solution can be obtained by the following iterative method.

위의 알고리즘은 초기 벡터 u(O)(r)로 시작해서 2차원 필터 H에 적합한 최적벡터 u(r)로 수렴하는데 목적이 있다. 이 알고리즘의 명칭을 FMC(filter motion compensation)라 할 것이다.The above algorithm aims to start with the initial vector u (O) (r) and converge to the optimal vector u (r) suitable for the two-dimensional filter H. The name of this algorithm will be called FMC (filter motion compensation).

위 알고리즘 FMC(수학식 9)에서는 해가 수렴할 때까지 반복한다. 초기 벡터, u(O)(r)를 얻기 위해서는 기존의 BMA를 사용한다. 이때, BMA로 구해진 벡터가 최적의 벡터에 가까운 값이고 반복을 통해서 빠르게 수렴할 수 있다고 가정한다. 실제로, 수렴은 예를 들어, CIF 영상에서 세 번 또는 그 이하로 행해졌다.In the algorithm FMC (Equation 9), iterate until the solution converges. To obtain the initial vector, u (O) (r), we use the existing BMA. In this case, it is assumed that the vector obtained by the BMA is close to the optimal vector and can converge quickly through iteration. In fact, convergence has been done three times or less, for example, in CIF images.

위의 알고리즘을 구현/테스트하기 위해, H는 보간(interpolation) 필터로서 Parks-McClellan equiripple finite impulse response (FIR) 필터를 사용하였다.To implement / test the above algorithm, H used a Parks-McClellan equiripple finite impulse response (FIR) filter as an interpolation filter.

수학식 9에서의 행렬 계산을 위해서 희소(sparse) 행렬에서 빠른 속도와 좋은 수렴 특성을 갖는 conjugate gradient 알고리즘을 사용하였다.In order to calculate the matrix in Equation 9, we used a conjugate gradient algorithm with fast speed and good convergence in sparse matrix.

위와 같이 설명된 FMC 방식을 통해서 구해진 매크로 블록당 하나씩의 최적화된 벡터 u(r)은 에러 영상과 함께 코딩되어 복호기로 전송된다. 부호화 과정은 반복과정마다 큰 계산량으로 인해서 복잡하지만 복호 과정은 비교적 간단하다. 먼저 복호기는 부호화기에서 사용된 것과 동일한 대역제한보간 필터를 사용해서 전송받은 최적화된 벡터를 보간한다. 그 후 복호기는 단순히 복원된 픽셀단위의 움직임 벡터를 이용해서 예측영상을 합성하면 된다. 나머지 연산은 기존의 BMC 연산과 동일하다.One optimized vector u (r) per macroblock obtained through the FMC scheme described above is coded along with the error image and transmitted to the decoder. The encoding process is complicated due to the large amount of computation for each iteration, but the decoding process is relatively simple. First, the decoder interpolates the optimized vector received using the same band-limited interpolation filter used in the encoder. The decoder then simply synthesizes the predicted image using the reconstructed motion vector in pixel units. The remaining operations are the same as the existing BMC operations.

상기와 같은 원리를 이용해 실제 동영상 부호화기를 동작시키는 예를 들면 하기와 같다.An example of operating an actual video encoder using the above principle is as follows.

제1도는 본 발명이 적용되는 동영상 부호화기의 블록을 나타낸 도면으로, 입력된 비디오 신호 Y(휘도신호), Cr(색차신호), Cb(색차신호)를 받아서 동기신호(Sync)에 따라 각 신호를 디지탈화하는 디지탈부(1)와;FIG. 1 is a block diagram of a video encoder to which the present invention is applied, and receives input video signals Y (luminance signal), Cr (color difference signal), and Cb (color difference signal) to receive each signal according to a synchronization signal (Sync). A digital unit 1 for digitizing;

상기 디지탈부(1)를 통해 디지탈화된 영상의 블록단위 움직임(Motion) 벡터로부터 보간/필터링을 통하여 픽셀단위 움직임 벡터를 계산하는 움직임 추정부(2)와; 프레임 지연에 의한 이전 프레임 영상과 상기 움직임 추정부(2)로부터 입력된 현재 프레임의 움직임 벡터로부터 현재 영상을 예측하는 움직임 보상부(3)와; 예측 영상과 현재 영상의 차이를 DCT 변환을 통해 주파수 성분별로 정렬(저주파 성분일수록 큰 값을 나타냄)한 후, 큰 정수로 나누어서 정수 부분만을 취하는 DCT/양자화부(4)와; 상기 DCT/양자화부(4)에서 압축된 원래의 영상을 복원하여 상기 움직임 보상부(3)로 출력하는 역양자화/역DCT부(5)와; 상기 DCT/양자화부(4)에서 출력된 DCT 계수나 움직임 벡터에 대해 발생 확률이 높은 값에 길이가 짧은 부호를 할당하고, 발생 확률이 낮은 값에는 길이가 긴부호를 할당함으로써 평균부호길이를 줄이는 가변길이부호화부(6)와; 상기 가변길이부호화부(6)에서 입력된 전송되는 정보의 전체적인 비트율을 맞추기 위한 일종의 버퍼로서 부호화에서 오버플로우(overflow)나 언더플로우(underf1ow)가 발생하지 않도록 흐름을 제어하는 버퍼(7); 및 상기 버퍼(7)를 통해 전송되는 정보의 양이 많고, 적음에 따라 부호화를 조절하므로써 일정한 전송률을 유지하기 위한 레이트 제어부(8)를 포함하여 구성한다.A motion estimator (2) for calculating a pixel-by-pixel motion vector through interpolation / filtering from a block-by-motion vector of the digitalized image through the digital unit (1); A motion compensator (3) for predicting the current image from the previous frame image due to the frame delay and the motion vector of the current frame input from the motion estimator (2); A DCT / quantization unit 4 for aligning the difference between the predicted image and the current image for each frequency component through a DCT transformation (the lower frequency component represents a larger value), and then dividing the integer into a large integer to take only an integer part; An inverse quantization / inverse DCT unit 5 for restoring the original image compressed by the DCT / quantization unit 4 and outputting the original image compressed to the motion compensation unit 3; A short length code is assigned to a DCT coefficient or a motion vector output from the DCT / quantization unit 4, and a long code is assigned to a value having a low probability of occurrence, thereby reducing an average code length. A variable length encoding unit 6; A buffer (7) for controlling the flow so that no overflow or underflow occurs in the encoding as a kind of buffer for adjusting the overall bit rate of the transmitted information input from the variable length encoding unit 6; And a rate control section 8 for maintaining a constant data rate by adjusting the encoding according to the amount of information transmitted through the buffer 7 being large and small.

여기서 상기 움직임 추정부(2)에서는 전송해야될 정보의 양은 늘어나지 않으며, 실제로 영상이 압축되는 부분은 상기 DCT/양자화부(4)에서 수행된다.In this case, the amount of information to be transmitted in the motion estimation unit 2 does not increase, and the portion where the image is actually compressed is performed by the DCT / quantization unit 4.

상기와 같은 부호화기의 개략적인 동작을 살펴보면 입력된 비디오 신호를 일정한 단위(G0P : group of picture)로 끊어서 각 단위의 첫 프레임은 원래의 영상으로 남겨두고 이 프레임을 기준으로 나머지 프레임들은 첫 프레임과의 차만을 출력하여 전송할 정보의 양을 줄인다.Referring to the operation of the encoder as described above, the input video signal is cut into a certain unit (G0P: group of picture) so that the first frame of each unit is left as the original image and the remaining frames are compared with the first frame based on this frame. Output only the difference to reduce the amount of information to be sent.

상기와 같은 과정에서 본 발명의 핵심은 움직임 추정부(2)와 움직임 보상부(3)에 적용되는 기술인 바 상세하게는 본 발명에 의한 수학식7~수학식9는 상기 움직임 추정부(2)에 내장되어 영상의 움직을 추정할시 사용되며, 수학식7은 상기 움직임 보상부(3)에 내장되어 상기 움직임 추정부(2)에 의해 계산된 추정값을 이용해 움직임 보상을 수행하는데 사용된다. 그리고 상기 수학식1~수학식6은 상기 수학식7~수학식9를 도출해내는데 사용되는 식이다. 이와 같은 수학식을 사용함은 기존의 블록단위의 움직임 벡터를 디지탈 필터링의 도입으로 픽셀단위의 움직임벡터로 전환해줌으로써, 블록화 현상을 제거하고 동영상 화질을 높여주는 데 있다.In the above process, the core of the present invention is a technology applied to the motion estimator 2 and the motion compensator 3. Specifically, Equations 7 to 9 according to the present invention are the motion estimator 2. Equation 7 is embedded in the motion compensation unit 3 and used to estimate motion of the image. The equation 7 is used to perform motion compensation using the estimated value calculated by the motion estimation unit 2. Equations 1 to 6 are equations used to derive Equations 7 to 9. Using the above equation is to convert the motion vector of the existing block unit to the motion vector of the pixel unit by the introduction of digital filtering, to remove the blocking phenomenon and to enhance the video quality.

본 발명이 적용된 상기 움직임 부호화기를 이용하여 압축을 수행한 결과를 도면을 통해 기존과 비교해 보면 다음과 같다.The result of the compression using the motion encoder to which the present invention is applied is as follows.

테스트는 FMC 알고리즘을 CCITT의 테스트 시퀀스인 ‘deadline’, ‘claire’, ‘salesman’으로 평가하였다.The test evaluated the FMC algorithm as CCITT's test sequences 'deadline', 'claire' and 'salesman'.

시퀀스는 화소단위로 (352 × 288), 블록단위로 (16 × 16)의 크기를 갖는다. 각각의 세 시퀀스에 대해서 21개의 프레임이 사용되었다. 블록화 현상의 제거는 육안으로 기존의 방식(BMC와 OBMC)과 비교 평가하였고, PSNR값 또한 기존의 방식의 값과 비교하였다.The sequence has a size of (352 × 288) in pixels and (16 × 16) in blocks. 21 frames were used for each of the three sequences. The removal of the blocking phenomenon was visually evaluated and compared with the conventional methods (BMC and OBMC), and the PSNR value was also compared with the conventional method.

제2(a)도 ~제2(d)도는 기존과 본 발명의 결과를 육안으로 비교해 놓은 도면으로, 제2(a)도는 ‘deadline’시퀀스의 18번째 프레임인 원영상을 보여주고 있다.2 (a) to 2 (d) is a diagram comparing the results of the present invention with the naked eye, Figure 2 (a) shows the original image of the 18th frame of the 'deadline' sequence.

제2(b)도는 상기 원래 영상을 기존 방식인 BMC방식을 이용해 압축한 결과를 나타내고, 제2(c)도는 상기 원래 영상을 기존 방식인 OBMC방식을 이용해 압축한 결과를 나타내며, 제2(d)도는 본 발명에 의한 FMC 방식으로 원래 영상을 압축한 결과를 나타낸 도면이다.FIG. 2 (b) shows the result of compressing the original image using the conventional BMC method, and FIG. 2 (c) shows the result of compressing the original image using the existing method OBMC. ) Is a view showing the result of compressing the original image by the FMC method according to the present invention.

각 도면에서 보는 바와 같이 BMC로 합성된 제2(b)도에서는 손과 입근처에서 블록화 현상이 보이고, OBMC로 합성된 제2(c)도에서는 손가락 근처에서 잔상(ghosting artifact)이 관찰된다.As shown in each figure, block diagrams are observed in the hand and mouth in FIG. 2 (b) synthesized with BMC, and ghosting artifacts are observed near the finger in FIG. 2 (c) synthesized with OBMC.

그러나, FMC로 합성된 제2d도에서는 이와같은 화질을 낮추는 현상이 발생하지 않았다.However, in FIG. 2D synthesized with FMC, such a phenomenon of lowering the image quality did not occur.

한편, 위와 같은 평가를 ‘claire’와 ‘salesman’시퀀스에서도 수행하였는 바, 유사한 결과가 ‘claire’에서 얻어졌고 ‘salesman’에서는 극히 적은 움직임 때문에 FMC의 효과가 육안으로는 잘 나타나지 않았다.On the other hand, the same evaluation was performed in the claire and salesman sequences. Similar results were obtained in claire and very few movements in salesman.

그러나, 다음 제3(a)도 ~ 제3(c)도의 PSNR 값의 plot에서는 FMC의 우수성을 모든 시퀀스에서 보여 주고있다.However, the following PSNR values of Figs. 3 (a) to 3 (c) show the superiority of FMC in all sequences.

제3(a)도는 ‘deadline’에서의 각 방식에 대한 PSNR 결과를 나타내는 도면이고, 제3(b)도는 ‘claire’에서의 각 방식에 대한 PSNR 결과를 나타내는 도면이며, 제3(c)도는 ‘salesman’ 시퀀스에서의 각 방식에 대한 PSNR 결과를 나타내는 도면이다.FIG. 3 (a) shows the PSNR results for each scheme in 'deadline', and FIG. 3 (b) shows the PSNR results for each scheme in 'claire', and FIG. 3 (c) shows A diagram showing the PSNR result for each scheme in the 'salesman' sequence.

각 도면에서 BMC방식은 점선으로 표시하고, OBMC 방식은 굵은 점선으로 표기하였으며, 본 발명인 FMC 방식은 실선으로 표시하였다.In each drawing, the BMC method is indicated by a dotted line, the OBMC method is indicated by a thick dotted line, and the FMC method of the present invention is indicated by a solid line.

도면에서 보는 바와 같이 전반적으로 FMC의 PSNR값이 가장 높게 나왔고, 다음으로는 OBMC, BMC의 순서를 보인다.As shown in the figure, the PSNR value of FMC was the highest overall, followed by OBMC and BMC.

이상에서 상세히 설명한 바와 같이 본 발명은 종래의 동영상 정보 압축 기술에서 발생하는 움직임 예측기가 인접한 블록간의 경계가 불연속적으로 보이는 블록화 현상을 제거하기 위해, 블록당 하나의 움직임 벡터를 필터를 이용해서 화소단위로 전환하고 최적화 단계를 통한 움직임 벡터를 이용하여 블록화 현상을 제거함으로써, 부호기의 전송률을 높이지 않으면서 종래의 방식보다 예측영상에서 우수한 화질을 얻는 효과가 있으며, 모든 동영상 송신/수신 및 저장 시스템에 적용이 가능하다.As described in detail above, in the present invention, a motion predictor generated in a conventional video information compression technique uses a filter for one motion vector per block to remove a blockage phenomenon in which a boundary between adjacent blocks is discontinuous. By eliminating the blocking phenomenon by using the motion vector through the optimization step and the optimization step, it is effective to obtain better image quality in the predicted video than the conventional method without increasing the bit rate of the encoder, and to all video transmission / reception and storage systems. Application is possible.

또한, 본 발명의 FMC 방식은 실시간 처리도 가능하므로, 이 기술을 적용하여 영상 압축/복원기인 코덱을 설계하게 되면, 고화질을 제공함과 동시에 실시간 처리를 제공하므로써 경쟁력있는 동영상 압축 복원기를 구현하게되는 이점을 수반한다.In addition, since the FMC method of the present invention can also be processed in real time, by designing a codec that is an image compression / restorer by applying this technology, the advantage of implementing a competitive video decompressor by providing a high quality and at the same time real-time processing Entails.

아울러 본 발명의 바람직한 실시예들은 예시의 목적을 위해 개시된 것이며, 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가 등이 가능할 것이므로, 이러한 수정 변경 등은 이하의 특허 청구의 범위에 속하는 것으로 보아야 할 것이다.In addition, preferred embodiments of the present invention are disclosed for the purpose of illustration, and various modifications, changes, additions, etc. will be possible to those skilled in the art within the spirit and scope of the present invention, such modifications and modifications belong to the following claims You will have to look.

Claims (6)

블록 단위의 움직임 벡터를 계산하는 움직임 추정 과정과; 상기 움직임 추정 과정에서 입력된 현재 프레임의 움직임 벡터와, 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 포함하여 움직임 보상 동영상을 압축하는 방법에 있어서, 상기 동영상 압축에서의 블록화 현상을 제거하기 위해; 블록 단위의 움직임 벡터를 한번의 연산을 통해 화소단위로 전환하여 화소단위의 움직임 벡터를 계산하는 움직임 추정 과정과; 상기 화소단위의 움직임 벡터와 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 구비하는 것을 특징으로 하는 움직임 보상 동영상 압축방법.A motion estimation process of calculating a motion vector in block units; A method of compressing a motion compensation video including a motion vector of a current frame input in the motion estimation process and a motion compensation process for predicting a current video through an image of a previous frame, wherein the blocking phenomenon in the video compression is removed. In order to; A motion estimation process of converting the motion vector of the block unit into the pixel unit by one operation and calculating the motion vector of the pixel unit; And a motion compensation process of predicting the current image based on the pixel-based motion vector and the previous frame image. 제1항에 있어서, 상기 블록 단위의 움직임 벡터를 화소단위로 전환시 모든 압축 방식에 적용하는 방법으로 하기 수학식 1을 통해 전환하는 것을 특징으로 하는 움직임 보상 동영상 압축 방법.The motion compensation video compression method as claimed in claim 1, wherein the motion vector is converted by Equation 1 below. [수학식 1][Equation 1] 상기 식에서 H 는 임의의 변환(모든 변환 방식)을 의미하며, δb는 매크로 블록 단위의 움직임 벡터장을 순차적(lexicographical)으로 만든 벡터를 의미함.In the above formula, H means any transformation (all transformation schemes), and δ b means a vector that lexicographically creates a motion vector field in macroblock units. 제1항에 있어서, 상기 블록 단위의 움직임 벡터를 화소단위로 전환시 선형필터를 적용하는 방법으로 하기 수학식 2를 통해 전환하는 것을 특징으로 하는 움직임 보상 동영상 압축 방법.The method of claim 1, wherein a linear filter is applied when the motion vector in the block unit is converted into the pixel unit. [수학식 2][Equation 2] 상기 식에서 H 는 선형변환(행렬)을 의미하며, δb는 매크로 블록 단위의 움직임 벡터장을 순차적으로 만든 벡터를 의미함.In the above formula, H means a linear transformation (matrix), and δ b means a vector that sequentially creates a motion vector field in macroblock units. 블록 단위의 움직임 벡터를 계산하는 움직임 추정 과정과; 상기 움직임 추정 과정에서 입력된 현재 프레임의 움직임 벡터와, 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 포함하여 움직임 보상동영상을 압축하는 방법에 있어서, 상기 동영상 압축에서의 블록화 현상을 제거하고, 피크신호 대 잡음 비(PSNR)의 저하를 방지하기 위해; 블록 단위의 움직임 벡터를 반복 연산을 통해 화소단위로 전환하여 화소단위의 움직임 벡터를 계산하는 움직임 추정 과정과; 상기 화소단위의 움직임 벡터와 이전 프레임의 영상을 통해 현재 영상을 예측하는 움직임 보상 과정을 구비하는 것을 특징으로 하는 움직임 보상 동영상 압축 방법.A motion estimation process of calculating a motion vector in block units; A method of compressing a motion compensated video including a motion vector of a current frame input in the motion estimation process and a motion compensation process for predicting a current video based on an image of a previous frame, wherein the blocking phenomenon in the video compression is eliminated. To prevent degradation of the peak signal-to-noise ratio (PSNR); A motion estimation process of converting a motion vector in a block unit into a pixel unit through an iterative operation and calculating a motion vector in a pixel unit; And a motion compensation process of predicting the current image based on the pixel-based motion vector and the previous frame image. 제4항에 있어서, 상기 블록 단위의 움직임 벡터를 화소단위로 전환시 모든 압축 방식에 적용하는 방법으로 하기 수학식 3을 통해 전환하는 것을 특징으로 하는 움직임 보상 동영상 압축 방법.The motion compensation video compression method as claimed in claim 4, wherein the motion vector is converted by Equation 3 below. [수학식 3][Equation 3] 상기 식에서 H 는 임의의 변환(모든 변환 방식)을 의미하며, δb는 매크로 블록 단위의 움직임 벡터장을 순차적으로 만든 벡터를 의미함.In the above formula, H means any transformation (all transformation schemes), and δ b means a vector that sequentially creates a motion vector field in macroblock units. 제4항에 있어서, 상기 블록 단위의 움직임 벡터를 화소단위로 전환시 선형필터를 적용하는 방법으로 하기 수학식 4를 통해 전환하는 것을 특징으로 하는 움직임 보상 동영상 압축 방법.The motion compensation video compression method as claimed in claim 4, wherein a linear filter is applied when the motion vector in the block unit is converted into the pixel unit. [수학식 4][Equation 4] 상기 식에서 H 는 선형변환(행렬)을 의미하며, δb는 매크로 블록 단위의 움직임 벡터장을 순차적으로 만든 벡터를 의미함.In the above formula, H means a linear transformation (matrix), and δ b means a vector that sequentially creates a motion vector field in macroblock units.
KR1019980018913A 1998-05-25 1998-05-25 Motion compensation moving-picture compressing method using filter KR100294895B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980018913A KR100294895B1 (en) 1998-05-25 1998-05-25 Motion compensation moving-picture compressing method using filter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980018913A KR100294895B1 (en) 1998-05-25 1998-05-25 Motion compensation moving-picture compressing method using filter

Publications (2)

Publication Number Publication Date
KR19990086117A KR19990086117A (en) 1999-12-15
KR100294895B1 true KR100294895B1 (en) 2001-09-17

Family

ID=37527637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980018913A KR100294895B1 (en) 1998-05-25 1998-05-25 Motion compensation moving-picture compressing method using filter

Country Status (1)

Country Link
KR (1) KR100294895B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687845B1 (en) * 2006-05-29 2007-03-02 엘지전자 주식회사 Filtering method for pixel of image

Also Published As

Publication number Publication date
KR19990086117A (en) 1999-12-15

Similar Documents

Publication Publication Date Title
JP3393832B2 (en) Image Data Interpolation Method for Electronic Digital Image Sequence Reproduction System
KR100393125B1 (en) Image sequence coding method and decoding method
US6148027A (en) Method and apparatus for performing hierarchical motion estimation using nonlinear pyramid
US7110455B2 (en) Noise reduction pre-processor for digital video using previously generated motion vectors and adaptive spatial filtering
US6618439B1 (en) Fast motion-compensated video frame interpolator
JP3678481B2 (en) Video data post-processing method
JPH0870460A (en) Movement compensation type coding method adapted to magnitude of movement,and its device
Liu et al. Simple method to segment motion field for video coding
EP0680217B1 (en) Video signal decoding apparatus capable of reducing blocking effects
US5614954A (en) Motion compensation apparatus for use in an image encoding system
KR19980017213A (en) Image Decoding System with Compensation Function for Degraded Image
KR100393063B1 (en) Video decoder having frame rate conversion and decoding method
JP3681784B2 (en) Video signal encoding device
KR100294895B1 (en) Motion compensation moving-picture compressing method using filter
Segall et al. Super-resolution from compressed video
US6061401A (en) Method and apparatus for selectively encoding/decoding a video signal
EP0720373A1 (en) Method and apparatus for encoding a video signal using region-based motion vectors
KR100240620B1 (en) Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation
KR100229792B1 (en) Improved image coding system having functions for adaptively determining image coding mode
KR100229793B1 (en) Improved image coding system having functions for adaptively determining image coding mode
KR100203659B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR0129579B1 (en) Image encoder using a prefilter
JP2005136596A (en) System and method for processing motion picture, program and information recording medium
KR100203709B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR0174464B1 (en) Motion estimator

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110407

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee