KR100207399B1 - Motion estimation apparatus - Google Patents

Motion estimation apparatus Download PDF

Info

Publication number
KR100207399B1
KR100207399B1 KR1019950040329A KR19950040329A KR100207399B1 KR 100207399 B1 KR100207399 B1 KR 100207399B1 KR 1019950040329 A KR1019950040329 A KR 1019950040329A KR 19950040329 A KR19950040329 A KR 19950040329A KR 100207399 B1 KR100207399 B1 KR 100207399B1
Authority
KR
South Korea
Prior art keywords
panning
search
motion vector
motion
block
Prior art date
Application number
KR1019950040329A
Other languages
Korean (ko)
Other versions
KR970032158A (en
Inventor
황덕동
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사 filed Critical 전주범
Priority to KR1019950040329A priority Critical patent/KR100207399B1/en
Publication of KR970032158A publication Critical patent/KR970032158A/en
Application granted granted Critical
Publication of KR100207399B1 publication Critical patent/KR100207399B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors

Abstract

본 발명은 영상 신호의 현재 프레임과 이전 프레임 사이의 변위를 나타내는 움직임 벡터를 결정하되, 카메라의 패닝에 의한 움직임 벡터를 결정하기 위한 움직임 추정 장치에 관한 것으로, 현재 프레임은 동일한 크기를 갖는 다수의 패닝 탐색 블럭으로 분할되고, 이전 프레임은 상기 패닝 탐색 블럭과 동일한 크기를 갖는 다수의 후보 블럭을 포함하는 움직임 추정 장치에 있어서: 상기 탐색 블럭에 인접한 각 탐색 블럭의 기 결정된 움직임 벡터들을 순차적으로 수신하여, 상기 패닝 탐색 블록을 상기 이전 프레임상에서 상기 움직임 벡터들만큼 각각 이동시켰을 때, 상기 이동된 패닝 탐색 블록과 매칭되는 상기 이전 프레임의 후보 블록을 중심으로 기설정된 주변 픽셀 구간을 포함하여 탐색 영역으로 규정하는 탐색 영역 형성부(160); 상기 탐색 영역 형성부(160)에 의해 규정된 각 움직임 벡터에 대응되는 상기 탐색 영역으로부터 후보 블럭들을 발생하는 후보 블럭 제공부(170); 상기 패닝 탐색 블럭과, 상기 탐색 영역내의 블럭들간의 에러 함수를 각각 계산하여 이중 에러가 가장 작은 제1최소 에러값을 생성하는 패닝 예측부(180); 상기 각 움직임 벡터에 대응되는 제1최소 에러값들을 저장하는 메모리(190); 상기 메모리(190)에 저장된 각 움직임 벡터에 대응되는 상기 제1최소 에러값들을 서로 비교하여 그중에서도 에러값이 최소인 제2최소 에러값에 대응되는 움직임 벡터를 결정하는 패닝 예측 벡터 검출부(200); 상기 패닝 예측 벡터 검출부(200)에 의해 결정된 상기 움직임벡터를 기 설정된 임계치와 비교하는 비교부(210); 상기 비교부(210)에 의한 비교 결정과 상기 패닝 예측 벡터 검출부(200)에서 결정된 움직임 벡터가 기 설정된 임계치보다 작으면 패닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터를 패닝에 의한 움직임 벡터로 결정하는 제어부(220)를 구비하여 구성함을 특징으로 한다.The present invention relates to a motion estimation apparatus for determining a motion vector representing a displacement between a current frame and a previous frame of an image signal, and determining a motion vector by panning of a camera, wherein the current frame has a plurality of pannings having the same size. A motion estimation apparatus comprising a plurality of candidate blocks having a size equal to that of the panning search block, wherein a previous frame is divided into a search block: sequentially receiving predetermined motion vectors of each search block adjacent to the search block, When the panning search block is moved by each of the motion vectors on the previous frame, the panning search block is defined as a search area including a predetermined peripheral pixel section around a candidate block of the previous frame matching the moved panning search block. A search region forming unit 160; A candidate block providing unit for generating candidate blocks from the search region corresponding to each motion vector defined by the search region forming unit 160; A panning predicting unit (180) for calculating an error function between the panning search block and the blocks in the search area to generate a first minimum error value having the smallest double error; A memory 190 for storing first minimum error values corresponding to each motion vector; A panning prediction vector detection unit (200) for comparing the first minimum error values corresponding to each motion vector stored in the memory (190) with each other and determining a motion vector corresponding to a second minimum error value having a minimum error value; A comparison unit (210) for comparing the motion vector determined by the panning prediction vector detector (200) with a preset threshold value; If the comparison is determined by the comparator 210 and the motion vector determined by the panning prediction vector detector 200 is smaller than a preset threshold, the motion vector provided from the panning prediction vector detector 200 is converted into a motion vector by panning. It is characterized by comprising a control unit 220 for determining.

Description

움직임 추정 장치Motion estimation device

제1도는 본 발명의 바람직한 실시예를 나타내는 상세 구성도.1 is a detailed block diagram showing a preferred embodiment of the present invention.

제2도 및 제3도는 본 발명의 실시예에 따른 움직임 벡터 검출 과정을 설명하기 위한 도면.2 and 3 are views for explaining a motion vector detection process according to an embodiment of the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

110, 120 : 프레임 메모리 130 : 움직임 보상부110, 120: frame memory 130: motion compensation unit

140 : 연산부 150 : 움직임 추정부140: calculator 150: motion estimation unit

160 : 패닝 탐색 영역 형성부 170 : 후보 블럭 제공부160: panning search region forming unit 170: candidate block providing unit

180 : 패닝 예측부 190 : 메모리180: panning prediction unit 190: memory

200 : 패닝 예측 벡터 검출부 210 : 비교부200: panning prediction vector detection unit 210: comparison unit

220 : 제어부220: control unit

본 발명은 영상 데이타 압축 시스템에 있어서, 특히 카메라의 패닝(panning)에 따라 발생되는 영상을 움직임을 추정함으로서 프레임간 부호화를 수행하기 위한 움직임 추정 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion estimation apparatus for performing inter-frame coding by estimating motion of an image generated according to panning of a camera.

일반적으로, 영상 신호의 전송시 아날로그(analog)로 전송하는 것보다 디지털(digital)로 전송하는 것이 훨씬 더 좋은 화질을 유지할 수 있다는 것이 잘 알려진 사실이지만 고화질 TV의 경우 프레임(frame) 단위로 구성된 영상이 디지털 형태로 표현될 때 많은 양의 디지털 데이타가 전송되어야 한다.In general, it is well known that digital image transmission can maintain a much better image quality than an analog transmission, but in the case of a high-definition TV, a frame-by-frame image When expressed in this digital form, a large amount of digital data must be transmitted.

그러나 디지털 데이타를 전송하는 전송 채널에 있어서, 사용 가능한 주파수 영역은 제한되어 있으므로 많은 양의 디지털 데이타를 전송하기 위해서는 전송되는 데이타를 압축하여 전송량을 줄일 필요가 있으며 다양한 압축 기법 중에서 확률적 부호화 기법과 시간적, 공간적 압축 기법을 결합한 하이브리드 부호화 기법이 가장 효율적인 것으로 알려져 있다.However, in the transmission channel for transmitting digital data, the available frequency range is limited. Therefore, in order to transmit a large amount of digital data, it is necessary to reduce the amount of transmission by compressing the transmitted data. In addition, hybrid coding schemes combining spatial compression techniques are known to be the most efficient.

대부분의 하이브리드 부호화 기법은 움직임 보상 DPCM(차분 펄스 부호 변조), 2차원 DCT(이산 코사인 변환), DCT 계수의 양자화, VLC(가변장 부호화)등을 이용한다. 특히 움직임 보상 DPCM은 현재 프레임과 이전 프레임간의 물체의 움직임을 결정하고, 물체의 움직임에 따라 현재 프레임을 예측하여 현재 프레임과 예측치간의 차이를 나타내는 차분 신호를 만들어 내는 방법으로서, 이러한 움직임 보상 DPCM은 Staffan Ericsson의 Fixed and Adaptive Predictors for Hybrid Predictive/Transform Coding, IEEE Transactions on Communication, COM-33, NO.12(1985년, 12월), 또는 Ninomiy와 Ohtsuka의 A motion Compensated Interframe Coding Scheme for Television Pictures, IEEE Transactions on Communication, COM-30, NO.1(1982년, 1월)에 잘 기재되어 있다.Most hybrid coding techniques use motion compensated DPCM (Differential Pulse Code Modulation), two-dimensional Discrete Cosine Transform (DCT), quantization of DCT coefficients, VLC (variable length coding), and the like. In particular, the motion compensation DPCM determines the motion of the object between the current frame and the previous frame, and predicts the current frame according to the motion of the object to produce a differential signal representing the difference between the current frame and the predicted value. Ericsson's Fixed and Adaptive Predictors for Hybrid Predictive / Transform Coding, IEEE Transactions on Communication, COM-33, NO.12 (1985, December), or A motion Compensated Interframe Coding Scheme for Television Pictures, IEEE Transactions by Ninomiy and Ohtsuka It is well described in on Communication, COM-30, NO.1 (January, 1982).

한편, 화면의 종류는 움직임 추정의 방법에 따라 프레임내 부호화(interframe coding)만이 적용되는 I-프레임, 이전의 I-프레임이나 P-프레임으로 부터 전향 움직임 예측/보상(forward motion estimation/compensation)으로 예측 부호화되는 P-프레임, 및 이전과 이후의 I-프레임이나 P-프레임의 두 프레임으로 부터 양향(bidirectional) 움직임 보상된 예측 부호화되는 B-프레임으로 나누어지고, 다른 프레임을 예측 부호화하는데 기준으로 사용되는 프레임, 즉 I-프레임과 P-프레임을 닻프레임이라 한다.On the other hand, the type of the picture is a forward motion estimation / compensation from an I-frame to which only interframe coding is applied, a previous I-frame or a P-frame according to a motion estimation method. P-frames that are predictively coded, and B-frames that are bi-directional motion-compensated predictive coded from two frames, i.e., P-frames before and after, and used as a reference for predictive coding other frames. Frames, i.e. and P-frames, are called anchor frames.

따라서 종래에는 현재 프레임과 닻프레임을 이용하여 물체의 변위, 즉 움직임 벡터를 추정하는 다양한 방법이 제안되었는데, 종래의 일반적인 움직임 벡터 추정 방법은 2개의 타입, 즉 화소 반복 알고리듬과 블럭 정합 알고리듬(J.R.Jain 등의 Displacement Measurement and Its Application in Interframe Image Coding, IEEE Transactions on Communication, COM-29, NO.12(1981년, 12월) 참조)으로 분류될 수 있다.Therefore, various methods for estimating the displacement, or motion vector, of an object using the current frame and the anchor frame have been proposed in the related art. The conventional motion vector estimation method has two types, namely, a pixel repetition algorithm and a block matching algorithm (JRJain). Displacement Measurement and Its Application in Interframe Image Coding, IEEE Transactions on Communication, COM-29, NO.12 (see December, 1981).

더 널리 쓰이는 블럭 정합 알고리듬에 대해 설명하면, 현재 프레임은 다수개의 탐색 블럭으로 나뉘어지고, 각 탐색 블럭의 크기는 일반적으로 8×8에서 32×32개의 화소범위에 있는데, 현재 프레임의 탐색 블럭의 움직임 벡터를 결정하기 위하여 이전 프레임의 탐색 영역에 포함되어 동일한 크기를 갖는 다수의 후보 블럭 각각과 현재 프레임의 탐색 블럭간의 유사도를 계산하며, 현재 프레임의 탐색 블럭과 탐색 영역의 후보 블럭간의 유사도 계산에는 평균절대오차나 평균자승오차와 같은 오차함수가 이용된다.In the more widely used block matching algorithm, the current frame is divided into a number of search blocks, and the size of each search block is generally in the range of 8x8 to 32x32 pixels. In order to determine the vector, the similarity is calculated between each candidate block included in the search region of the previous frame and the search block of the current frame having the same size, and averaged for calculating the similarity between the search block of the current frame and the candidate block of the search region. Error functions such as absolute error and mean square error are used.

또한 움직임 벡터는 탐색블럭과 가장 작은 오차 함수값을 발생시키는 후보블럭간의 변위로 정의된다.In addition, the motion vector is defined as the displacement between the search block and the candidate block generating the smallest error function value.

그러나 이러한 블럭 정합 알고리즘은 이전 프레임의 탐색 영역에 포함되어 동일한 크기를 갖는 다수의 후보 블럭 각각과 현재 프레임의 탐색 블럭간의 유사도를 계산하기 때문에 움직임 예측에 대한 정확성은 높은 반면, 움직임 예측을 위한 계산량이 매우 많아 시스템 구성이 번거로우며 시간적으로 비 효율적인 문제점이 있었다.However, since the block matching algorithm calculates the similarity between each candidate block having the same size and the search block of the current frame included in the search region of the previous frame, the accuracy of the motion prediction is high, while the amount of computation for the motion prediction is high. Too many systems were cumbersome and inefficient in time.

본 발명은 상기 문제점을 해결하기 위하여 안출한 것으로, 카메라의 패닝에 의해 발생되는 화면의 움직임에 따른 움직임 벡터를 결정하여 움직임 예측을 수행함으로서, 블럭 정합 알고리즘에 따른 움직임 예측 계산량을 줄일 수 있도록 한 움직임 추정 장치를 제공함에 그 목적이 있다.The present invention has been made to solve the above problems, by determining the motion vector according to the movement of the screen caused by the panning of the camera to perform the motion prediction, to reduce the amount of motion prediction calculation according to the block matching algorithm The object is to provide an estimating apparatus.

상기 목적을 달성하기 위한 본 발명은, 영상 신호의 현재 프레임과 이전 프레임 사이의 변위를 나타내는 움직임 벡터를 결정하되, 카메라의 패닝에 의한 움직임 벡터를 결정하기 위한 움직임 추정 장치로서, 상기 현재 프레임은 동일한 크기를 갖는 다수의 패닝 탐색 블럭으로 분할되고, 상기 이전 프레임은 상기 패닝 탐색 블럭과 동일한 크기를 갖는 다수의 후보 블럭을 포함하는 움직임 추정 장치에 있어서: 상기 패닝 탐색 블록에 인접한 탐색 블록의 기 결정된 움직임 벡터들을 순차적으로 수신하여, 상기 패닝 탐색 블록을 상기 이전 프레임상에서 상기 움직임 벡터들만큼 각각 이동시켰을 때, 상기 이동된 패닝 탐색 블록과 매칭되는 상기 이전 프레임의 후보 블럭을 중심으로 기설정된 주변 픽셀 구간을 포함하여 탐색 영역으로 규정하는 탐색 영역 형성부; 상기 탐색 영역 형성부에 의해 규정된 각 움직임 벡터에 대응되는 상기 탐색 영역으로부터 후보 블럭들을 발생하는 후보 블럭 제공부; 상기 패닝 탐색 블럭과, 상기 탐색 영역내의 후보 블럭들간의 에러 함수를 각각 계산하여 이중 에러가 가장 작은 제1최소 에러값을 생성하는 패닝 예측부, 상기 각 움직임벡터에 대응되는 제1최소 에러값들을 저장하는 메모리; 상기 메모리에 저장된 각 움직임 벡터에 대응되는 상기 제1최소 에러값들을 서로 비교하여 그중에서도 에러값이 최소인 제2최소 에러값이 대응되는 움직임 벡터를 결정하는 패닝 예측 벡터 검출부; 상기 패닝 예측 벡터 검출부에 의해 결정된 상기 움직임 벡터를 기 설정된 임계치와 비교하는 비교부; 상기 비교부에 의한 비교 결과 상기 패닝 예측 벡터 검출부에서 결정된 움직임 벡터가 기 설정된 임계치보다 작으면 패닝 예측 벡터 검출부로 부터 제공되는 움직임 벡터를 패닝에 의한 움직임 벡터로 결정하는 제어부를 구비하여 구성함을 특징으로 한다.In order to achieve the above object, the present invention provides a motion estimation apparatus for determining a motion vector indicating a displacement between a current frame and a previous frame of an image signal, and determining a motion vector by panning of a camera, wherein the current frame is the same. A motion estimation apparatus comprising a plurality of candidate blocks having a size equal to the panning search block, wherein the previous frame is divided into a plurality of panning search blocks having a size: A predetermined motion of a search block adjacent to the panning search block. When the panning search block is moved by each of the motion vectors on the previous frame, the predetermined peripheral pixel intervals are centered around the candidate block of the previous frame that matches the moved panning search block. Navigation area, including navigation area Forming part; A candidate block providing unit generating candidate blocks from the search region corresponding to each motion vector defined by the search region forming unit; A panning predictor configured to calculate an error function between the panning search block and candidate blocks in the search area, respectively, to generate a first minimum error value having the smallest double error, and to obtain first minimum error values corresponding to each motion vector; Memory for storing; A panning prediction vector detector for comparing the first minimum error values corresponding to each motion vector stored in the memory with each other and determining a motion vector corresponding to a second minimum error value having a minimum error value; A comparison unit comparing the motion vector determined by the panning prediction vector detector with a preset threshold; And a controller configured to determine a motion vector provided from the panning prediction vector detector as a motion vector by panning when the motion vector determined by the panning prediction vector detector is smaller than a preset threshold. It is done.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

일반적으로, 영상 데이타의 시간 영역 상관성을 이용하여 프레임간 부호화를 수행하는데 있어서, 인접하는 프레임들 사이에서 부호화하려는 프레임과 움직임 예측을 위한 프레임의 영상 데이타는 영상내의 물체들에 의한 움직임과, 카메라의 패닝에 의한 움직임으로 나눌 수 있다.In general, in performing inter-frame encoding by using time-domain correlation of image data, image data of a frame to be encoded between adjacent frames and a frame for motion prediction includes movements of objects in the image, and Can be divided into panning movements.

만약 카메라가 고정되어 있고 물체들이 움직인다면 움직임이 없는 배경은 다음 프레임에서도 움직임이 없게 된다. 또한 카메라가 패닝을 한다면 배경들은 일정한 움직임 벡터를 갖고 움직임이 있는 물체들만 다른 벡터를 갖게된다.If the camera is fixed and the objects are moving, the background without motion will be motionless in the next frame. Also, if the camera pans, the backgrounds will have a constant motion vector and only the moving objects will have a different vector.

따라서 패닝에 따른 움직임 벡터를 결정하게 되면, 배경과 같은 움직임이 없는 영상의 대부분에서 움직임 예측이 필요없게 되고, 물체가 속한 영역에서만 움직임을 탐색하면 된다.Therefore, when determining the motion vector according to panning, motion prediction is not necessary in most of the images without motion such as the background, and the motion is searched only in the region to which the object belongs.

제1도는 본 발명의 바람직한 실시예를 나타내는 상세 구성도로서, 현재 프레임의 영상 데이타가 저장된 프레임 메모리(110), 이전 프레임의 영상 데이타가 저장된 프레임 메모리(120), 현재 프레임과 이전 프레임간의 물체의 변위에 상응하는 움직임 벡터를 이용하여 현제 프레임의 움직임을 예측한 후 예측된 프레임을 제공하는 움직임 보상부(130), 프레임 메모리(110)의 현재 프레임과 움직임 보상부(130)의 예측된 프레임간의 차를 검출하여 이산 여현 변환을 위한 데이타로 제공하는 연산부(140), 패닝에 의한 움직임 벡터를 결정하고자 하는 현재 프레임의 패닝 탐색 블럭에 인접한 탐색 블럭의 기 결정된 움직임 벡터를 제공하고, 패닝에 의한 움직임 벡터가 외부로 부터 제공되면 이를 움직임 보상부(130)에 제공하되, 패닝 탐색 블록의 패닝에 의한 움직임 벡터가 결정되지 않으면 블럭 정합 알고리즘에 의해 움직임 벡터를 결정하여 이를 움직임 보상부(130)에 제공하는 움직임 추정부(150), 움직임 추정부(150)에서 제공하는 패닝 탐색 블럭에 인접한 각 탐색 블럭의 기 결정된 움직임 벡터들을 순차적으로 수신하여, 수신된 움직임 벡터만큼 패닝 탐색 블럭으로부터 떨어진 위치에 대응되는 이전 프레임의 후보 블럭을 중심으로 ±2 픽셀 구간을 포함하여 탐색 영역으로 규정하는 탐색 영역 형성부(160), 탐색 영역형성부(160)에 의해 규정된 각 움직임 벡터에 대응되는 탐색 영역으로 부터 후보 블럭들을 발생하는 후보 블럭 제공부(170), 현재 프레임의 패닝 탐색 블럭과, 벡터에 대응되는 탐색 여역내의 후보 블럭들간의 에러 함수를 각각 계산하여 이중 에러가 가장 작은 최소 에러값을 제공하는 패닝 예측부(180), 각 움직임 벡터에 대응되는 최소 에러값을 저장하는 메모리(190), 각 메모리(190)에 저장된 각 움직임 벡터에 대응되는 최소 에러값을 서로 비교하여 그중에서도 에러값이 최소인 에러값에 대응되는 움직임 벡터를 결정하는 패닝 예측 벡터 검출부(200), 패닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터를 기 설정된 임계치와 비교하는 비교부(210), 비교부(210)에 의한 비교 결과 패닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터가 기 설정된 임계치보다 크면 움직임 추정부(150)가 블럭 정합 알고리즘에 의한 움직임 벡터를 결정하도록 제어하고, 페닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터가 기 설정된 임계치보다 작으면 패닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터가 움직임 추정부(150)에 제공되도록 제어하는 제어부(220)로 구성한다.FIG. 1 is a detailed block diagram illustrating a preferred embodiment of the present invention, and includes a frame memory 110 storing image data of a current frame, a frame memory 120 storing image data of a previous frame, and an object between a current frame and a previous frame. The motion compensator 130 that predicts the motion of the current frame using the motion vector corresponding to the displacement and then provides a predicted frame between the current frame of the frame memory 110 and the predicted frame of the motion compensator 130. The operation unit 140 which detects the difference and provides the data for the discrete cosine transform, provides a predetermined motion vector of the search block adjacent to the panning search block of the current frame to determine the motion vector by panning, and moves by panning. When the vector is provided from the outside, the vector is provided to the motion compensator 130, and the panning search block moves by panning. If it is not determined, the motion vector is determined by the block matching algorithm and is provided to the motion compensation unit 130. The search region forming unit 160 sequentially receiving the predetermined motion vectors and defining a search region including ± 2 pixel sections around the candidate block of the previous frame corresponding to the position away from the panning search block by the received motion vector. ), A candidate block provider 170 generating candidate blocks from a search region corresponding to each motion vector defined by the search region forming unit 160, a panning search block of the current frame, and a search filter corresponding to the vector. A panning predictor 180 which calculates an error function between candidate blocks in the region and provides a minimum error value having the smallest double error, The memory 190 storing the minimum error value corresponding to the motion vector and the minimum error value corresponding to each motion vector stored in each memory 190 are compared with each other, and the motion vector corresponding to the error value having the minimum error value is compared. The comparison result of the panning prediction vector detector 200, the panning prediction vector detector 200, which is determined by the comparison unit 210, and the comparison unit 210. If the motion vector provided from 200 is greater than a preset threshold, the motion estimation unit 150 controls to determine the motion vector by the block matching algorithm, and the motion vector provided from the panning prediction vector detector 200 is preset. The controller 2 controls the motion vector provided from the panning prediction vector detector 200 to the motion estimator 150 when the threshold value is smaller than the threshold. 20).

상기와 같은 구성된 본 발명의 바람직한 실시예에 대한 동작 설명은 다음과 같다.Operation of the preferred embodiment of the present invention configured as described above is as follows.

일반적으로 움직임 추정을 수행하는데 있어서, 현제 프레임은 M*N(M,N:양의 정수)픽셀로된 동일한 크기의 탐색 블록들로 분할된다. 따라서, 제2도를 참조하면, 현재 프레임의 소정 패닝 탐색 블럭(10)에는 8개의 탐색 블록(11, 12, 13, 14, 15, 16, 17, 18)들이 인접하게 된다.In general, in performing motion estimation, the current frame is divided into search blocks of equal size in M * N (M, N: positive integer) pixels. Accordingly, referring to FIG. 2, eight search blocks 11, 12, 13, 14, 15, 16, 17, and 18 are adjacent to a predetermined panning search block 10 of the current frame.

또한, 다수의 탐색 블록들로 분할된 프레임의 각 탐색 블록에 대한 움직임 추정하는 경우에, 프레임에 상측에 있는 탐색 블록의 움직임 추정을 먼저 진행하고, 프레임의 하측에 있는 탐색 블록의 움직임 추정으로 나중에 하되, 프레임상의 동일수평 위치에서의 좌측에 있는 탐색 블록의 움직임 추정을 먼저하고, 우측에 있는 탐색 블록의 움직임 추정을 나중에 하게 된다.Further, in case of motion estimation for each search block of a frame divided into a plurality of search blocks, motion estimation of the search block above the frame is first performed, and motion estimation of the search block below the frame is performed later. However, motion estimation of the search block on the left in the same horizontal position on the frame is performed first, and motion estimation of the search block on the right is performed later.

따라서, 제2도를 참조하면, 패닝 탐색 블록(10)에 대한 움직임 추정을 하고자 할 경우에, 패닝 탐색 블록(10)에 인접한 탐색 블록(11 내지 18)중 참조 번호 11, 12, 13, 14로 도시된 탐색 블록들은 이미 움직임 추정이 완료된 탐색 블록들이고, 나머지 다른 탐색 블록들(15,16,17,18)은 아직 움직임 추정이 이루어지지 않는 블록들이다.Accordingly, referring to FIG. 2, in order to estimate the motion of the panning search block 10, reference numerals 11, 12, 13, and 14 of the search blocks 11 to 18 adjacent to the panning search block 10 are used. The search blocks shown as are already search blocks for which motion estimation has been completed, and the other search blocks 15, 16, 17, and 18 are blocks for which motion estimation has not yet been made.

본 발명의 바람직한 실시예에서는 패닝 탐색 블록(10)에 대한 움직임을 추정하고자 할 경우에, 이미 움직임 추정이 완료된 인접 탐색 블록(11,12,13,14)의 움직임 벡터들과, 크기가 0인 움직임 벡터를 이용한다.In the preferred embodiment of the present invention, when the motion for the panning search block 10 is to be estimated, the motion vectors of the adjacent search blocks 11, 12, 13, and 14, which have already been estimated, and the magnitude of 0 are zero. Use motion vectors

제2도에 도시된 바와 같이 움직임 추정부(150)는 현재 프레임의 패닝 탐색 블럭(11)에 인접한 탐색 블럭(11 내지 18)중 움직임 벡터가 기 결정된 탐색 블럭(11,12,13,14) 각각의 움직임 벡터(A1,A2,A3,A4)를 패닝 벡터 검출부(160)에 순차적으로 제공하면, 패닝 탐색 영역 형성부(160)는 움직임 추정부(150)로 부터 제공되는 움직임 벡터만큼 패닝 탐색 블럭으로 부터 떨어진 위치에 대응되는 이전 프레임의 후보 블럭을 중심으로 ±2 픽셀 구간을 포함한 영역을 탐색 영역으로 규정한다.As shown in FIG. 2, the motion estimation unit 150 may search for blocks 11, 12, 13, and 14 in which motion vectors are determined among the search blocks 11 to 18 adjacent to the panning search block 11 of the current frame. When the motion vectors A1, A2, A3, and A4 are sequentially provided to the panning vector detector 160, the panning search region forming unit 160 searches for panning by the motion vectors provided from the motion estimation unit 150. A search region is defined as an area including ± 2 pixel intervals around the candidate block of the previous frame corresponding to the position away from the block.

후보 블럭 제공부(170)은 패닝 탐색 영역 형성부(160)에 의해 규정된 탐색 영역내의 각 후보 블럭들을 패닝 예측부(180)에 제공하고, 패닝 예측부(180)는 프레임 메모리(110)로 부터 제공되는 패닝 탐색 블럭(10)과 후보 블럭 제공부(170)으로 부터 제공되는 후보 블럭들과의 블록 매칭을 통해 에러 함수를 각각 계산하여 이중 최소 에러값을 메모리(190)에 제공한다.The candidate block provider 170 provides each of the candidate blocks in the search region defined by the panning search region forming unit 160 to the panning predictor 180, and the panning predictor 180 sends the frame memory 110 to the frame memory 110. An error function is calculated through block matching with the candidate blocks provided by the panning search block 10 and the candidate block providing unit 170, and the double minimum error value is provided to the memory 190.

즉, 움직임 추정부(150)에서 패닝 탐색 영역 형성부(160)에 움직임 벡터(A1)을 제공하면, 제3도에 도시된 바와 같이 패닝 탐색 영역 형성부(160)는 움직임 벡터(A1)만큼 패닝 탐색 블럭(10)으로 부터 떨어진 위치에 대응되는 이전 프레임의 후보 블럭(20)을 중심으로 ±2 픽셀 구간을 포함한 영역을 탐색 영역(21)으로 규정한다. 따라서 후보 블럭 제공부(170)는 탐색 영역(21)내의 각 후보 블럭을 패닝 예측부(180)에 제공하고, 패닝 예측부(180)는 프레임 메모리(110)로 부터 제공되는 패닝 탐색 블럭(10)과 후보 블럭 제공부(170)으로 부터 제공되는 후보 블럭들과의 블럭 매칭을 통해 에러 함수를 각각 계산한후 이중 최소 에러값 메모리(190)에 저장한다.That is, when the motion estimation unit 150 provides the motion vector A1 to the panning search region forming unit 160, as shown in FIG. 3, the panning search region forming unit 160 corresponds to the motion vector A1. A search region 21 is defined as a region including ± 2 pixel intervals around the candidate block 20 of the previous frame corresponding to the position away from the panning search block 10. Accordingly, the candidate block provider 170 provides each candidate block in the search area 21 to the panning predictor 180, and the panning predictor 180 provides the panning search block 10 provided from the frame memory 110. ) And the error function are calculated through block matching with the candidate blocks provided from the candidate block provider 170 and then stored in the double minimum error value memory 190.

또한 움직임 추정부(150)에서 패닝 탐색 영역 형성부(160)에 움직임 벡터(A2)을 제공하면, 패닝 탐색 영역 형성부(160)는 상술한 바와 같이 움직임 벡터(A2)만큼 페닝 탐색 블록(10)으로 부터 떨어진 위치에 대응되는 이전 프레임의 후보 블럭(20)을 중심으로 ±2 픽셀 구간을 포함한 영역을 탐색 영역(21)으로 규정한다. 따라서 후보 블럭 제공부(170)는 탐색 영역(21)내의 각 후보 블럭을 패닝 예측부(180)에 제공하고, 패닝 예측부(180)는 프레임 메모리(110)로부터 제공되는 패닝 탐색 블럭(10)과 후보 블럭 제공부(170)으로 부터 제공되는 후보 블럭들과의 블럭 매칭을 통해 에러 함수를 각각 계산한후 이중 최소 에러값을 메모리(190)에 저장한다.In addition, when the motion estimation unit 150 provides the motion vector A2 to the panning search region forming unit 160, the panning search region forming unit 160 performs the panning search block 10 by the motion vector A2 as described above. The search region 21 defines a region including a ± 2 pixel section around the candidate block 20 of the previous frame corresponding to the position away from the cross-section. Accordingly, the candidate block provider 170 provides each candidate block in the search area 21 to the panning predictor 180, and the panning predictor 180 provides the panning search block 10 provided from the frame memory 110. The error function is calculated through block matching with the candidate blocks provided from the candidate block provider 170 and the double minimum error value is stored in the memory 190.

패닝 예측부(170)는 이와 같은 과정을 움직임 벡터(A1)부터 움직임 벡터(A4)까지 순차적으로 수행하여 각 움직임 벡터(A1 내지 A4)에 대응되는 최소 에러값을 각각 메모리(190)에 저장한다.The panning predictor 170 sequentially performs such a process from the motion vector A1 to the motion vector A4 and stores the minimum error values corresponding to the motion vectors A1 to A4 in the memory 190, respectively. .

패닝 예측 벡터 검출부(200)는 메모리(190)에 저장된 각 움직임 벡터(A1 내지 A4)에 대응되는 최소 에러값을 서로 비교하여 각 움직임 벡터에 대응되는 최소 에러값중에서도 최소의 에러값을 갖는 최소 에러값에 대응되는 움직임 벡터를 비교부(210)에 제공한다.The panning prediction vector detector 200 compares the minimum error values corresponding to each of the motion vectors A1 to A4 stored in the memory 190 with each other, and has a minimum error value having a minimum error value among the minimum error values corresponding to each motion vector. The motion vector corresponding to the value is provided to the comparator 210.

이때, 패닝 탐색 블럭(10)과 움직임 벡터(A1 내지 A4)에 대응되는 탐색 영역의 각 후보 블럭들내에 있는 대응되는 화소들 사이에서, 예를 들어 휘도값이 비교되어 각 후보 블럭들에 대한 에러 함수가 생성되며, 에러 함수는 패닝 탐색 블럭과 각후보 블럭들 사이의 유사성의 정도를 나타낼 것이다.At this time, for example, luminance values are compared between the panning search block 10 and the corresponding pixels in the candidate blocks of the search region corresponding to the motion vectors A1 to A4, thereby causing an error for each candidate block. The function will be generated, and the error function will indicate the degree of similarity between the panning search block and each candidate block.

비교부(210)는 패닝 예측 벡터 검출부(200)로 부터 제공되는 벡터값을 기 설정된 임계치와 비교하여, 그 비교 결과를 제어부(220)에 제공한다.The comparison unit 210 compares the vector value provided from the panning prediction vector detection unit 200 with a preset threshold value, and provides the comparison result to the control unit 220.

제어부(220)는 패닝 예측 벡터 검출부(200)로 부터 제공되는 벡터값이 기 설정된 임계치보다 크면 패닝 탐색 블럭과 패닝 예측 벡터 검출부(200)로부터 제공되는 움직임 벡터에 대응되는 후보 블럭간의 유사도가 낮다고 판단한 후 움직임 추정부(150)를 제어하여 패닝 탐색 블럭에 대한 움직임 벡터 결정을 블럭 정합 알고리즘에 의해 수행되도록 한다.The controller 220 determines that the similarity between the panning search block and the candidate block corresponding to the motion vector provided from the panning prediction vector detection unit 200 is low when the vector value provided from the panning prediction vector detection unit 200 is greater than the preset threshold. The motion estimation unit 150 is then controlled to perform motion vector determination on the panning search block by a block matching algorithm.

그러나 패닝 예측 벡터 검출부(200)로 부터 제공되는 벡터값이 기 설정된 임계치보다 작으면 제어부(220)는 패닝 탐색 블럭과 패닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터에 대응되는 후보 블럭간의 유사도가 높다고 판단한 후 움직임 추정부(150)를 제어하여 패닝 예측 벡터 검출부(200)로부터 제공되는 움직임 벡터가 움직임 보상부(130)로 제공되도록 제어한다.However, if the vector value provided from the panning prediction vector detector 200 is smaller than the preset threshold, the controller 220 may have a similarity between the panning search block and the candidate block corresponding to the motion vector provided from the panning prediction vector detector 200. After determining that is high, the motion estimator 150 is controlled to control the motion vector provided from the panning prediction vector detector 200 to the motion compensator 130.

한편, 움직임 추정부(150)는 제어부(220)의 제어에 의해 패닝 예측 벡터 검출부(200)로 부터 패닝에 의한 움직임 벡터가 제공되면 이를 저장한 후 움직임 보상부(130)에 제공하고, 패닝 예측 벡터 검출부(200)으로 부터 패닝에 의한 움직임 벡터가 제공되지 않으면 현재 프레임의 탐색 블럭과 이전 프레임의 후보 블럭들간의 움직임을 추정하여 움직임 벡터를 결정하여 이를 저장하는 한편 움직임 보상부(130)에 제공한다.On the other hand, the motion estimation unit 150 stores the motion vector by panning from the panning prediction vector detection unit 200 under the control of the control unit 220 and stores the motion vector, and provides the same to the motion compensation unit 130. If the motion vector due to panning is not provided from the vector detector 200, the motion vector is estimated by estimating the motion between the search block of the current frame and the candidate blocks of the previous frame, the motion vector is determined and stored, and provided to the motion compensator 130. do.

따라서, 움직임 보상부(130)는 현재 프레임과 이전 프레임간의 물체의 변위에 상응하는 움직임 벡터를 이용하여 현재 프레임의 움직임을 예측한 후 예측된 프레임을 연산부(140)에 제공하고, 연산부(140)는 프레임 메모리(110)의 현제 프레임과 움직임 보상부(130)의 예측된 프레임간의 차를 검출하여 이산 여현 변환을 위한 데이타로 제공한다.Therefore, the motion compensator 130 predicts the motion of the current frame using a motion vector corresponding to the displacement of the object between the current frame and the previous frame, and then provides the predicted frame to the calculator 140, and the calculator 140. Detects the difference between the current frame of the frame memory 110 and the predicted frame of the motion compensator 130 and provides the data for the discrete cosine transform.

상술한 바와 같이 본 발명은 블럭 정합 알고리즘과 같은 기존에 제시된 알고리즘으로 움직임 추정을 수행하기 전에 기 결정된 움직임 벡터를 이용하여 카메라의 패닝에 따른 움직임 벡터를 결정함으로서, 움직임 예측 시간이 훨씬 단축되는 효과가 있다.As described above, the present invention determines the motion vector according to the panning of the camera using a predetermined motion vector before performing the motion estimation with an existing algorithm such as a block matching algorithm. have.

Claims (2)

영상 신호의 현재 프레임과 이전 프레임 사이의 변위를 나타내는 움직임 벡터를 결정하되, 카메라의 패닝에 의한 움직임 벡터를 결정하기 위한 움직임 추정 장치로서, 상기 현재 프레임은 동일한 크기를 갖는 다수의 패닝 탐색 블럭으로 분할되고, 상기 이전 프레임은 상기 패닝 탐색 블럭과 동일한 크기를 갖는 다수의 후보 블럭을 포함하는 움직임 추정 장치에 있어서: 상기 패닝 탐색 블록에 인접한 탐색 블록의 기 결정된 움직임 벡터들을 순차적으로 수신하여, 상기 패닝 탐색 블록을 상기 이전 프레임상에서 상기 움직임 벡터들만큼 각각 이동시켰을 때, 상기 이동된 패닝 탐색 블록과 매칭되는 상기 이전 프레임의 후보 블럭을 중심으로 기설정된 주변 픽셀 구간을 포함하여 탐색 영역으로 규정하는 탐색 영역 형성부(160); 상기 탐색 영역 형성부(160)에 의해 규정된 각 움직임 벡터에 대응되는 상기 탐색 영역으로부터 후보 블럭들을 발생하는 후보 블럭 제공부(170); 상기 패닝 탐색 블럭과, 상기 탐색 영역내의 블럭들간의 에러 함수를 각각 계산하여 이중 에러가 가장 작은 제1최소 에러값을 생성하는 패닝 예측부(180); 상기 각 움직임 벡터에 대응되는 제1최소 에러값들을 저장하는 메모리(190); 상기 메모리(190)에 저장된 각 움직임 벡터에 대응되는 상기 제1최소 에러값들을 서로 비교하여 그중에서도 에러값이 최소인 제2최소 에러값에 대응되는 움직임 벡터를 결정하는 패닝 예측 벡터 검출부(200); 상기 패닝 예측 벡터 검출부(200)에 의해 결정된 상기 움직임벡터를 기 설정된 임계치와 비교하는 비교부(210); 상기 비교부(210)에 의한 비교 결정과 상기 패닝 예측 벡터 검출부(200)에서 결정된 움직임 벡터가 기 설정된 임계치보다 작으면 패닝 예측 벡터 검출부(200)로 부터 제공되는 움직임 벡터를 패닝에 의한 움직임 벡터로 결정하는 제어부(220)를 구비하여 구성함을 특징으로 하는 움직임 추정 장치.A motion estimation apparatus for determining a motion vector representing a displacement between a current frame and a previous frame of an image signal, wherein the current frame is divided into a plurality of panning search blocks having the same size. And the previous frame includes a plurality of candidate blocks having the same size as the panning search block: sequentially receiving predetermined motion vectors of a search block adjacent to the panning search block, and performing the panning search. When a block is moved by each of the motion vectors on the previous frame, a search region is defined including a predetermined pixel region around a candidate block of the previous frame matching the moved panning search block. Unit 160; A candidate block provider 170 generating candidate blocks from the search region corresponding to each motion vector defined by the search region forming unit 160; A panning predicting unit (180) for calculating an error function between the panning search block and the blocks in the search area to generate a first minimum error value having the smallest double error; A memory 190 for storing first minimum error values corresponding to each motion vector; A panning prediction vector detection unit (200) for comparing the first minimum error values corresponding to each motion vector stored in the memory (190) with each other and determining a motion vector corresponding to a second minimum error value having a minimum error value; A comparison unit (210) for comparing the motion vector determined by the panning prediction vector detector (200) with a preset threshold value; If the comparison is determined by the comparator 210 and the motion vector determined by the panning prediction vector detector 200 is smaller than a preset threshold, the motion vector provided from the panning prediction vector detector 200 is converted into a motion vector by panning. And a control unit 220 for determining the motion estimation device. 제1항에 있어서, 상기 이전 프레임의 후보 블럭을 중심으로 기설정된 주변 픽셀 구간은: 상기 이전 프레임의 후보 블럭을 중심으로 ±2 픽셀 구간임을 특징으로 하는 움직임 추정 장치.The motion estimation apparatus of claim 1, wherein a predetermined peripheral pixel section around the candidate block of the previous frame is: ± 2 pixel section around the candidate block of the previous frame.
KR1019950040329A 1995-11-08 1995-11-08 Motion estimation apparatus KR100207399B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019950040329A KR100207399B1 (en) 1995-11-08 1995-11-08 Motion estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019950040329A KR100207399B1 (en) 1995-11-08 1995-11-08 Motion estimation apparatus

Publications (2)

Publication Number Publication Date
KR970032158A KR970032158A (en) 1997-06-26
KR100207399B1 true KR100207399B1 (en) 1999-07-15

Family

ID=19433432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950040329A KR100207399B1 (en) 1995-11-08 1995-11-08 Motion estimation apparatus

Country Status (1)

Country Link
KR (1) KR100207399B1 (en)

Also Published As

Publication number Publication date
KR970032158A (en) 1997-06-26

Similar Documents

Publication Publication Date Title
KR0181069B1 (en) Motion estimation apparatus
KR0171154B1 (en) Method and apparatus for encoding video signals using feature point based motion prediction
KR0178231B1 (en) Method and apparatus for detecting motion vectors based on hierarchical motion estimation
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
KR0171146B1 (en) Feature point based motion vectors detecting apparatus
US8559515B2 (en) Apparatus and method for encoding and decoding multi-view video
KR0171145B1 (en) Improved motion compensation apparatus for use in an iamge encoding system
US5862261A (en) Current frame prediction method and apparatus for use in an image signal encoding system
US5731851A (en) Method for determining feature points based on hierarchical block searching technique
EP0731612B1 (en) Apparatus for encoding a video signal using search grids for motion estimation and compensation
KR100254667B1 (en) Method and apparatus for detecting occulusion
US6020925A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
KR19980036073A (en) Motion vector detection method and apparatus
KR0178230B1 (en) Image processing system using a feature point-based motion estimation
KR0181068B1 (en) Motion estimation apparatus
KR100207399B1 (en) Motion estimation apparatus
KR100207400B1 (en) Motion estimation apparatus
KR0185841B1 (en) A motion extimator for a video coder
KR100208984B1 (en) Moving vector estimator using contour of object
KR0174455B1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
JPH10191347A (en) Motion detector, motion detecting method and storage medium
KR100635009B1 (en) Mothod and apparatus for motion estimation considering total moving of image
KR100252340B1 (en) Current frame prediction method and apparatus
KR0159374B1 (en) Apparatus for encoding a video signal using a search grid

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120413

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20130401

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee