KR0154948B1 - Motion vector search apparatus using the gradient and the intensity similarity of the moving picture - Google Patents

Motion vector search apparatus using the gradient and the intensity similarity of the moving picture

Info

Publication number
KR0154948B1
KR0154948B1 KR1019950007290A KR19950007290A KR0154948B1 KR 0154948 B1 KR0154948 B1 KR 0154948B1 KR 1019950007290 A KR1019950007290 A KR 1019950007290A KR 19950007290 A KR19950007290 A KR 19950007290A KR 0154948 B1 KR0154948 B1 KR 0154948B1
Authority
KR
South Korea
Prior art keywords
gradient
unit
intensity
image data
motion vector
Prior art date
Application number
KR1019950007290A
Other languages
Korean (ko)
Other versions
KR960036726A (en
Inventor
이민섭
Original Assignee
배순훈
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배순훈, 대우전자주식회사 filed Critical 배순훈
Priority to KR1019950007290A priority Critical patent/KR0154948B1/en
Publication of KR960036726A publication Critical patent/KR960036726A/en
Application granted granted Critical
Publication of KR0154948B1 publication Critical patent/KR0154948B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 영상의 그래디언트(Gradient) 및 인텐시티(Intensity)를 이용한 움직임 벡터 탐색장치는 제1 내지 제4메모리부(210, 215, 260, 265), 인테시티 매칭부(220), 그래디언트 계산부(250), 그래디언트 매칭부(270), 비교판단부(280)를 포함하여, 동영상의 움직임 벡터를 보다 정확하게 찾을 수 있다.The motion vector search apparatus using the gradient and intensity of an image according to the present invention includes first to fourth memory units 210, 215, 260, and 265, an intensity matcher 220, and a gradient calculator. Including the 250, the gradient matching unit 270, and the comparison determination unit 280, the motion vector of the video can be found more accurately.

Description

영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색장치Motion vector search device using similarity of image gradient and intensity

제1도는 과거 영상과 현재 영상 사이의 인텐시티(Intensity)의 변화를 예시적으로 도시한 일례도.FIG. 1 is an exemplary diagram illustrating a change in intensity between a past image and a current image.

제2도는 본 발명에 따른 영상의 그래디언트 및 인텐시티를 이용한 움직임 벡터 탐색장치의 동작을 도식적으로 설명하기 위한 블록도.2 is a block diagram for explaining the operation of the motion vector search apparatus using the gradient and intensity of the image according to the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

210, 215, 260, 265 : 메모리부 220 : 인텐시티 매칭부210, 215, 260, 265: memory 220: intensity matching

250 : 그래디언트 계산부 270 : 그래디언트 매칭부250: gradient calculation unit 270: gradient matching unit

280 : 비교판단부280: comparison judgment

본 발명은 영상의 그래디언트(Gradient) 및 인텐시티(Intencity)의 유사성을 이용한 움직임 벡터 탐색(Motion Vector Search) 장치에 관한 것이다.The present invention relates to a motion vector search device using the similarity of the gradient and intensity of an image.

고화질 텔레비전(High Definition Television : HDTV), 멀티미디어 등과 같이 디지털 데이터 전송을 기본으로 하는 고화질 영상 시스템에서는 처리해야 할 데이터량이 상당히 많이 발생한다.In a high definition video system based on digital data transmission such as high definition television (HDTV) and multimedia, a large amount of data to be processed occurs.

그러나, 데이터 전송을 위해서 사용 가능한 대역폭은 한정되어 있으므로, 방대한 데이터를 효율적으로 전송하기 위해서는 데이터를 압축하여 부호화(Coding)해야 한다. 따라서, 데이터의 부호화, 그리고 부호화된 데이터의 복호화(Decoding)는 고화질 영상시스템 구성의 기본 요소로써, 최근 이를 위한 연구가 활발히 진행되어 왔다.However, the bandwidth available for data transmission is limited, so data must be compressed and coded in order to efficiently transmit a large amount of data. Accordingly, data encoding and decoding of encoded data are fundamental elements of a high quality video system, and research for this has been actively conducted in recent years.

종래의 영상신호 부호화는 영상신호를 블록(block) 단위로, 일정한 과정 즉, 이산 코사인 변환(Discrete Cosine Transformation : DCT), 양자화(Quantization : Q), 가변길이 부호화(Variable Length Coding : VLC) 등의 과정에 의해 부호화하였다. 여기서 블록이란 NXN픽셀(pixel)로 구성되며, 상기 N은 임의의 양의 정수이다.In the conventional video signal coding, a video signal is processed in blocks, such as discrete cosine transform (DCT), quantization (Q), variable length coding (VLC), and the like. Encoded by the process. Here, the block is composed of NXN pixels, where N is any positive integer.

그런데, 이러한 블록단위 처리방법은 인접한 블록간의 미세한 밝기 차이 때문에 블록간의 경계부분이 눈에 띄는 블록킹 현상(Blocking Effect)이 발생하는데, 이 블록킹 현상은 특히 저율 부호화(Low Bitrate Coding)에서 많이 발생한다. 다시 말해서, 압축율이 높으면 높을수록 그 정도가 심해져서 다른 어떤 잡음보다도 화질을 열화시키는 요인이 된다.However, in the block-based processing method, a blocking effect in which a boundary between blocks is prominent due to a slight difference in brightness between adjacent blocks occurs, and this blocking phenomenon occurs particularly in low bitrate coding. In other words, the higher the compression ratio, the greater the degree of deterioration in image quality than any other noise.

이러한 블록킹 현상을 해결하기 위해 제안된 것이 영역분할(Segmentation)기법을 이용한 영상 부호화인데, 좀 더 상세히 설명하면 하기와 같다.Proposed to solve this blocking phenomenon is image coding using a segmentation technique, which will be described in more detail as follows.

먼저, 임의의 기준값을 설정하고, 영상신호의 기본단위가 되는 픽셀(pixel)들 중에서 기설정된 기준값을 기준으로 해서 비슷한 특성을 갖는 픽셀들만을 모아서 하나의 영역(region)으로 분할하며, 각 영역의 영상신호 특성을 나타내는 질감(Texture) 정보와 이웃하는 다른 영역과의 경계를 나타내는 윤곽(Contour) 정보를 검출하여, 이들을 각각 부호화한다.First, an arbitrary reference value is set, and only pixels having similar characteristics based on a predetermined reference value among pixels that are the basic units of an image signal are collected and divided into one region. Texture information indicating video signal characteristics and contour information indicating a boundary between neighboring other regions are detected and coded, respectively.

한편, 동영상신호를 효과적으로 압축하기 위해서는 이미 공지된 바와 같이 시간적으로 존재하는 영상의 상관성(Correlation)을 제거해야 한다. 이를 위해서 통상적으로 사용되는 방법이 프레임간 움직임 보상 예측 부호화 방법이다.On the other hand, in order to effectively compress the video signal, it is necessary to remove the correlation of the image existing in time as already known. A commonly used method for this is the inter-frame motion compensation prediction encoding method.

여기서, 움직임 보상(Motion Compensation)이란, 현재 프레임(Frame)의 영상이 이전 프레임에 비해 어느 방향으로 얼마나 움직였는가를 나타내는 움직임 벡터(Motion Vector : MV)를 소정의 알고리즘으로 추정하고, 이전 프레임의 영상을 움직임 벡터만큼 이동시켜 주는 것이다. 따라서, 프레임간 움직임 보상 예측 부호화는 움직임 벡터를 이용하여 이전 프레임에 대해 움직임 보상을 수행하고, 현재 프레임의 영상신호와 움직임 보상된 영상신호의 차분신호를 압축 부호화하는 것이다.Here, motion compensation refers to a motion vector (MV) indicating a direction in which direction the image of the current frame has moved compared to the previous frame by a predetermined algorithm, and the image of the previous frame. To move by the motion vector. Accordingly, inter-frame motion compensation prediction encoding performs motion compensation on a previous frame using a motion vector, and compresses and encodes the difference signal between the video signal of the current frame and the motion compensated video signal.

그런데, 종래의 블록 매칭 알고리즘에서는 이산 코사인 변환(DCT)을 사용하기 때문에 가장 작은 차분값을 이용하여, 움직임 벡터를 구하였다. 이것은 전체적인 물체의 연속성이나 유사성을 고려하기보다는 차이값이 제일 작은 것만 선별하는 방법이기 때문에, 현재 영상과 과거 영상 사이에 밝기 변화가 있을 경우 오류가 발생할 수 있다는 문제점이 있어왔다. 이를 보다 상세히 설명하면 하기와 같다.However, since the conventional block matching algorithm uses a discrete cosine transform (DCT), a motion vector is obtained using the smallest difference value. Since this is a method of selecting only the smallest difference value rather than considering the continuity or similarity of the whole object, there has been a problem that an error may occur when there is a change in brightness between the current image and the past image. This will be described in more detail as follows.

제1(a) 및 (b)도는 과거 영상과 현재 영상 사이의 인텐시티(Intensity) 변화를 예시적으로 도시한 일례도이다. 제1(a)도에 도시된 바와 같이 과거 영상 프레임의 인텐시티 100인 A영역과 50인 B영역은 각각 제1(b)도에 도시된 바와 같이 인텐시티 130인 A1영역과 80인 B1영역으로 변화되었다. 결국, 영상 전체적으로 +30의 밝기 변화가 있는 것이다.1 (a) and (b) are exemplary diagrams illustrating changes in intensity between a past image and a current image. As shown in FIG. 1 (a), the region A and intensity B of intensity 100 of the past image frame are respectively regions A 1 and intensity B 1 of intensity 130 and 80, respectively, as shown in FIG. 1 (b). Was changed. As a result, there is a brightness change of +30 throughout the image.

여기서, A영역과 B영역의 경계부분인 C영역에 대해 생각해 보기로 하자. C영역은 실질적으로는 C1영역으로 이동된 것이나 영상신호의 차분값만을 생각할 때 움직임 벡터는 전혀 엉뚱하게 0로 찾아지는데, 이는 이동된 C1영역에서의 차분값보다 움직임이 전혀 없는 동일위치에서의 차분값이 더 작기 때문이다.Here, let's consider area C, which is the boundary between area A and area B. C region is substantially in the C 1 has been moved to an area would When considering only the difference value of the picture signal the motion vector at all eongttunghage makin found to 0, which is the same with no movement than the difference value in the moved C 1 region located This is because the difference is smaller.

따라서, 본 발명의 목적은 영상의 그래디언트 및 인텐시티의 유사성을 이용하여 보다 정확하게 움직임 벡터를 찾을 수 있는 장치를 제공하는데 있다.Accordingly, an object of the present invention is to provide an apparatus capable of finding motion vectors more accurately by using similarity of gradient and intensity of an image.

상술한 바와 같은 목적을 달성하기 위한 본 발명에 따른 영상의 그래디언트(Gradient) 및 인텐시티(Intensity)의 유사성을 이용한 움직임 벡터 탐색장치는, 현재 영상 데이터(IC) 및 상기 현재 영상에 바로 선행하는 과거 영상 데이터(IP)를 각각 기록하고 있는 제1 및 제2메모리부로 구성되며, 상기 제1메모리부는 입력되는 제1어드레스 신호에 대응하는 위치(x+i, y+j)의 영상데이터(IC(x+i, y+j))를 출력하고, 상기 제2메모리부는 입력되는 제2어드레스신호에 대응하는 위치(x+i+dx, y+j+dy)의 영상데이터(IP(x+i+dx, y+j+dy))를 출력하는 영상 메모리부와, 상기 현재 영상데이터(IC) 및 상기 과거 영상데이터(IP)의 단위 그래디언트(Unit Gradient: UC및 UP)를 각각 기록하고 있는 제3 및 제4메모리부로 구성되며, 상기 제3메모리부는 입력되는 제1어드레스 신호에 대응하는 위치(x+i, y+j)의 단위 그래디언트(UC(x+i, y+j))를 출력하고, 상기 제4메모리부는 입력되는 제2어드레스 신호에 대응되는 위치(x+i+dx, y+j+dy)의 단위 그래디언트(UP(x+i+dx, y+j+dy))를 출력하는 그래디언트 메모리부와, 입력되는 영상데이터의 단위 그래디언트(Unit Gradient)를 계산하여 상기 그래디언트 메모리부로 출력하되, 상기 제3 및 제4메모리부로 프레임 단위로 교변적으로 출력하는 그래디언트 계산부와, 클럭신호(CLK)에 응답하여, 현재 움직임 벡터(Motion Vector)를 찾고자 하는 영상데이터(IC(x, y)) 및 상기 영상데이터(IC(x, y))에 대응하는 단위 그래디언트(UC(x, y))를 중심으로 평균치 영역(B)내 존재하는 영상데이터 및 단위 그래디언트의 위치(x+i, y+j)를 지정하기 위한 제1어드레스를 출력하며, 움직임 벡터 탐색 범위(S)내 존재하는 영상데이터 및 단위 그래디언트의 위치(x+i+dx, y+j+dy)를 지정하기 위한 제2어드레스를 출력하고, 상기 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 출력하되, 평균치 영역(B)내 모든 영상데이터 및 단위 그래디언트의 위치 지정이 완료될 때 제1제어신호(C1)를 출력하며, 움직임 벡터 탐색 영역(S) 내 모든 영상데이터 및 그래디언트의 위치 지정이 완료될 때 제2제어신호(C2)를 출력하는 제어부와, 상기 제1 및 제2메모리부로부터 영상데이터(IC(x+y, y+j) 및 (x+i+dx, y+j+dy))를 입력받아 기설정된 인텐시티 매칭식에 따라서 인텐시티 에러값(EI(x, y))을 계산하며, 상기 제1제어신호(C1)에 응답하여 상기 인텐시티 에러값(EI(x, y))을 출력하는 인텐시티 매칭부와, 상기 제3 및 제4메모리부로부터 단위 그래디언트(UC(x+i, y+u) 및 p(x+i+dx, y+j+dy))를 입력받아 기설정된 그래디언트 매칭식에 따라서 그래디언트 에러값(EV(x, y))을 계산하고, 상기 제1제어신호(C1)에 응답하여 상기 그래디언트 에러값(EV(x, y))을 출력하는 그래디언트 매칭부와, 움직임 벡터(MX, MY) 및 판정값을 기록하고 있으며, 상기 인텐시티 매칭부 및 상기 그래디언트 매칭부로부터 각각 상기 인텐시티 에러값(EI(x, y)) 및 상기 그래디언트 에러값(EV(x, y))을 제공받아 기설정된 판정식을 수행하여 얻어진 결과값(E(x, y))을 상기 판정값과 비교하며, 비교결과 상기 결과값(E(x,y))이 상기 판정값 보다 작을 경우, 상기 결과값(E(x, y))을 새로운 판정값으로 기록하고 상기 제어부로부터 제공되는 상기 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 새로운 움직임 벡터로 기록하되, 상기 제2제어신호(C2)가 입력되면 상기 현재 기록하고 있는 움직임 벡터(MX, MY)를 출력하고 리셋되는 비교판단부로 구성된다.The motion vector search apparatus using the similarity of the gradient and the intensity of the image according to the present invention for achieving the above object, the current image data (I C ) and the past immediately preceding the current image And first and second memory units for recording the image data I P , respectively, wherein the first memory unit has image data I at positions x + i and y + j corresponding to the input first address signal. Outputs C (x + i, y + j), and the second memory unit has image data I P (at position (x + i + dx, y + j + dy) corresponding to the input second address signal. x + i + dx, y + j + dy)) and a unit gradient of the current image data I C and the past image data I P (Unit Gradient: U C and U P). ) And third and fourth memory sections respectively recording the third memory section, and the third memory section corresponds to a first address signal input thereto. (x + i, y + j) units gradient (U C (x + i, y + j)) output, and wherein the fourth memory unit corresponding to a second address signal inputted position (x + i + dx of and a gradient memory unit for outputting a unit gradient (U P (x + i + dx, y + j + dy)) of y + j + dy, and calculating a unit gradient of input image data. A gradient calculator which outputs to a gradient memory unit and symmetrically outputs to the third and fourth memory units on a frame-by-frame basis; and image data I to find a current motion vector in response to a clock signal CLK. Image data and unit gradient present in the average value area B centering on the unit gradient U C (x, y) corresponding to C (x, y)) and the image data I C (x, y) Outputs a first address for specifying the position (x + i, y + j) of the image data and the unit gradient in the motion vector search range (S). Output a second address for specifying the position of (x + i + dx, y + j + dy) and output the shifted displacements (dx, dy) for the motion vector search, but within the average value area (B) The first control signal C1 is output when the positioning of all the image data and the unit gradient is completed, and the second control signal C2 when the positioning of all the image data and the gradient in the motion vector search region S is completed. ) And the image data (I C (x + y, y + j) and (x + i + dx, y + j + dy)) are input from the first and second memory units. Thus intensity error values to the intensity matching formula (E I (x, y) ) the calculation and intensity matching in response to the first control signal (C1) output the intensity error value (E I (x, y) ) And a predetermined gradient matching equation by receiving unit gradients U C (x + i, y + u) and p (x + i + dx, y + j + dy) from the third and fourth memory units. Depending on yeah Gradient error value (E V (x, y) ) the calculation and, in response to the first control signal (C1) the gradient error value (E V (x, y) ) for the gradient matching unit for outputting the motion vector (M X , M Y ) and a determination value are recorded, and the intensity error value E I (x, y) and the gradient error value E V (x, from the intensity matching unit and the gradient matching unit, respectively, are recorded. y)), and the result value E (x, y) obtained by performing a predetermined decision expression is compared with the decision value, and the result of comparison (E (x, y)) is greater than the decision value. If small, the result value E (x, y) is recorded as a new determination value and the displacement (dx, dy) moved for the motion vector search provided from the controller is recorded as a new motion vector, comparison determination unit when the second control signal (C2) is input is output to the motion vector (M X, M Y) that the current record and a reset It is configured.

이하, 첨부된 도면을 참조로 하여 본 발명의 실시예를 상세히 설명하기로 하자.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

제2도는 본 발명에 따른 영상의 그래디언트(Gradient) 및 인텐시티(Intensity)의 유사성을 이용한 움직임 벡터 탐색(Motion Vector Search) 장치의 동작을 도식적으로 설명하기 위한 블록도로서, 제1 내지 제4메모리부(210, 215, 260, 265), 그래디언트 계산부(250), 인텐시티 매칭(Intencity Matahing)부(220), 그래디언트 매칭(Gradient Matching)부(270), 비교판단부(280), 그리고 제어부(도시안됨)로 구성된다.FIG. 2 is a block diagram schematically illustrating an operation of a motion vector search device using similarity between gradients and intensities of an image according to the present invention. (210, 215, 260, 265), the gradient calculator 250, the intensity matching unit 220, the gradient matching unit 270, the comparison determination unit 280, and the controller (shown) No).

제1 및 제2메모리부(210 및 215)는 각각 현재 영상데이터(IC) 및 상기 현재 영상에 바로 선행하는 과거 영상데이터(IP)를 기록하고 있는데, 여기서 영상데이터란 각 픽셀의 인텐시티(Intensity)를 말한다. 이때, 제1메모리부(210)는 후술될 제어부(도시안됨)로부터 제공되는 제1어드레스신호에 대응하는 위치(x+i, y+j)의 영상데이터(IC(x+i, y+j))를 출력하며, 제2메모리부(215)는 제어부(도시안됨)로부터 제공되는 제2어드레스신호에 대응하는 위치(x+i+dx, y+j+dy)의 영상데이터(IP(x+i+dx, y+j+dy))를 출력한다.The first and second memory units 210 and 215 respectively record the current image data I C and the past image data I P immediately preceding the current image, wherein the image data is the intensity of each pixel. Intensity). In this case, the first memory unit 210 is the image data I C (x + i, y +) of the position (x + i, y + j) corresponding to the first address signal provided from the controller (not shown) to be described later. j)), and the second memory unit 215 stores the image data I P at the position (x + i + dx, y + j + dy) corresponding to the second address signal provided from the controller (not shown). (x + i + dx, y + j + dy))

제3 및 제4메모리부(260 및 265)는 각각 제1 및 제2메모리부(210 및 215)에 기록되는 현재 영상데이터(IC) 및 과거 영상데이터(IP)의 단위 그래디언트(Unit Gradient)(UC및 UP)를 각각 기록한다. 제3메모리부(260)는 후술될 제어부(도시안됨)로부터 제공되는 제1어드레스신호에 대응하는 위치(x+i, y+j)의 단위 그래디언트(UC(x+i, y+j))를 출력하고, 제4메모리부(265)는 제어부(도시안됨)로부터 제공되는 제2어드레스신호에 대응되는 위치(x+i+dx, y+j+dy)의 단위 그래디언트(UP(x+i, y+j))를 출력한다.The third and fourth memory units 260 and 265 are unit gradients of current image data I C and past image data I P recorded in the first and second memory units 210 and 215, respectively. Record U C and U P , respectively. The third memory unit 260 may have a unit gradient U C (x + i, y + j) at a position (x + i, y + j) corresponding to the first address signal provided from a controller (not shown) to be described later. ), And the fourth memory unit 265 has a unit gradient U P (x) of the position (x + i + dx, y + j + dy) corresponding to the second address signal provided from the controller (not shown). + i, y + j))

그래디언트 계산부(250)는 입력되는 영상데이터의 단위 그래디언트를 계산하여 출력하는데, 제3 및 제4메모리부(260 및 265)로 프레임 단위로 교변적으로 출력한다.The gradient calculator 250 calculates and outputs a unit gradient of the input image data, and symmetrically outputs the third and fourth memory units 260 and 265 in units of frames.

제어부(도시안됨)는 클럭신호(CLK)에 응답하여, 현재 움직임 벡터(Motion Vector)를 찾고자 하는 영상데이터(IC(x, y)) 및 상기 영상데이터에 대응하는 단위 그래디언트(UC(x,y))를 중심으로 평균치 영역(B) 내 존재하는 영상데이터 및 그래디언트의 위치(x+i, y+j)를 지정하기 위한 제1어드레스를 출력하며, 움직임 벡터 탐색 범위(S) 내 존재하는 영상데이터 및 단위 그래디언트의 위치(x+i+dx, y+j+dy)를 지정하기 위한 제2어드레스를 출력하고, 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 출력한다. 이때, 제어부(도시안됨)는 평균치 영역(B) 내 모든 영상데이터 및 단위 그래디언트의 위치 지정이 완료될 때 제1제어신호(C1)를 출력하며, 움직임 벡터 탐색 영역(S) 내 모든 영상데이터 및 단위 그래디언트의 위치 지정이 완료될 때 제2제어신호(C2)를 출력한다.The controller (not shown), in response to the clock signal CLK, the image data I C (x, y) to find the current motion vector and the unit gradient U C (x) corresponding to the image data. outputs a first address for designating the image data existing in the average value area B and the position of the gradient (x + i, y + j) with respect to (y)) and exists in the motion vector search range (S). The second address for designating the position (x + i + dx, y + j + dy) of the image data and the unit gradient is output, and the shifted displacements (dx, dy) are output for the motion vector search. In this case, the controller (not shown) outputs the first control signal C1 when all image data in the average value area B and the unit gradient are completed, and all image data in the motion vector search area S. When the positioning of the unit gradient is completed, the second control signal C2 is output.

여기서, 본 발명의 인텐시티 매칭에서 사용되는 각 픽셀의 인텐시티는 각 픽셀을 중심으로 평균치 영역(B) 내에 존재하는 픽셀들의 인텐시티 평균치를 의미한다. 또한, 평균치 영역(B)의 크기는 다양할 수 있으나, 본 발명에서는 예시적으로 5×5픽셀(pixel) 블록으로 하며, 따라서 평균치 영역(B)은 중심이 되는 픽셀의 위치(x, y)로부터 상하좌우 2화소씩 이동되는 범위(x-2≤BX≤x+2, y-2≤BY≤y+2)이다.Here, the intensity of each pixel used in the intensity matching of the present invention means an intensity average value of pixels existing in the average value area B around each pixel. In addition, although the size of the average value area B may vary, the exemplary embodiment is a 5 × 5 pixel block, and thus, the average value area B is positioned at the center of the pixel (x, y). It is a range (x-2 ≦ B X ≦ x + 2, y-2 ≦ B Y ≦ y + 2) to be moved up, down, left, and right by 2 pixels.

인텐시티 매칭부(220)는 제1 및 제2메모리부(210 및 215)로부터 현재 영상 및 과거 영상의 인텐시티(IC(x+i, y+j) 및 IP(x+i+dx, y+j+dy))를 입력받아 기설정된 인텐시티 매칭식에 따라서 인텐시티 에러값(EI(x, y))을 계산하며, 제1제어신호(C1)에 응답하여 인텐시티 에러값(EI(x, y))을 출력한다.Intensity matching unit 220 is the intensity of the current image and the past image from the first and second memory unit (210 and 215) I C (x + i, y + j) and I P (x + i + dx, y + J + dy)) and calculates the intensity error value E I (x, y) according to a preset intensity matching equation, and in response to the first control signal C1, the intensity error value E I (x , y))

그래디언트 매칭부(270)는 제3 및 제4메모리부(260 및 265)로부터 현재 영상 및 과거 영상의 단위 그래디언트(UC(x+i, y+j) 및 UP(x+i+dx, y+j+dy))를 입력받아 기설정된 그래디언트 매칭식에 따라서 그래디언트 에러값(EV(x, y))을 계산하고, 제1제어신호(C1)에 응답하여 그래디언트 에러값(EV(x, y))을 출력한다. 이때, 그래디언트의 크기보다 방향 벡터가 영상 형태를 고려하는데 효과적이므로, 본 발명에서는 크기가 1인 그래디언트 즉, 단위 그래디언트(Unit Gradient)를 이용하기로 하며, 단위 그래디언트를 구하는 계산과정은 이미 널리 공지된 바이므로 그 설명은 생략하기로 한다.The gradient matching unit 270 is a unit gradient (U C (x + i, y + j) and U P (x + i + dx, the current image and the past image from the third and fourth memory unit 260 and 265) y + j + dy)) and calculates the gradient error value E V (x, y) according to the preset gradient matching equation, and responds to the gradient error value E V (in response to the first control signal C1). x, y)) At this time, since the direction vector is more effective in considering the image shape than the size of the gradient, in the present invention, a gradient having a size of 1, that is, a unit gradient, is used, and a calculation process for obtaining a unit gradient is well known. The description thereof will be omitted.

비교판단부(280)는 인텐시티 매칭부(220) 및 그래디언트 매칭부(270)로부터 인텐시티 에러값(EI(x, y)) 및 그래디언트 에러값(EV(x, y))을 각각 제공받아 기설정된 판정식을 수행하여 얻어진 결과값(E(x, y))을 선행하는 결과값과 비교한다. 비교결과, 현재 얻어진 결과값이 선행하는 결과값보다 작은 경우, 현재 얻어진 결과값을 새로 기록하고, 제어부(도시안됨)로부터 제공되는 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 새로 기록한다. 이러한 과정을 반복하는 동안, 비교판단부(280)는 제어부(도시안됨)로부터 제공되는 제2제어신호(C2)에 응답하여, 현재 기록하고 있는 변위(dx, dy)를 움직임 벡터(MX, MY)로서 출력하고 리셋된다.The comparison determiner 280 receives the intensity error value E I (x, y) and the gradient error value E V (x, y) from the intensity matcher 220 and the gradient matcher 270, respectively. The result value E (x, y) obtained by performing the predetermined judgment expression is compared with the preceding result value. As a result of the comparison, if the current result is smaller than the previous result, the current result is newly recorded, and the shifted displacement (dx, dy) is newly recorded for the motion vector search provided from the controller (not shown). . While repeating this process, the comparison determination unit 280 responds to the second control signal C2 provided from the control unit (not shown) to convert the currently recorded displacements dx and dy into the motion vectors M X ,. M Y ) as output and reset.

이렇게 구성된 본 발명에 따른 영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색 장치의 동작을 보다 상세히 설명하기로 하자.The operation of the motion vector search apparatus using the similarity between the gradient and the intensity of the image according to the present invention will be described in detail.

먼저, 제1 및 제3메모리부(210 및 260)는 각각, 제어부(도시안됨)로부터 제공되는 제1어드레스신호에 대응하는 위치의 영상의 인텐시티(IC(x+i, y+j)) 및 단위 그래디언트(UC(x+i, y+j))를 인텐시티 매칭부(220) 및 그래디언트 매칭부(270)로 각각 출력한다.First, the first and third memory units 210 and 260 each have an intensity (I C (x + i, y + j)) of an image corresponding to a first address signal provided from a controller (not shown). And the unit gradient U C (x + i, y + j) are output to the intensity matching unit 220 and the gradient matching unit 270, respectively.

한편, 제2 및 제4메모리부(215 및 265)는 각각, 제어부(도시안됨)로부터 제공되는 제2어드레스 신호에 대응하는 위치의 영상의 인텐시티(IP(x+i, y+j)) 및 단위 그래디언트(UP(x+i, y+j))를 인텐시티 매칭부(220) 및 그래디언트 매칭부(270)로 각각 출력한다.On the other hand, the second and fourth memory portions (215 and 265), respectively, control the second image intensity (I P (x + i, y + j)) of the location corresponding to the address signal supplied from the (not shown) And the unit gradient U P (x + i, y + j) are output to the intensity matching unit 220 and the gradient matching unit 270, respectively.

이어서, 인텐시티 매칭부(220)는 제1 및 제2메모리부(210 및 215)로부터 인텐시티(IC(x+i, y+j) 및 IC(x+i, y+j))를 각각 제공받아, 하기 식(1)에 따라서 현재와 과거 영상 프레임의 평균치 영역(B) 사이의 인텐시티 에러값(EI(x, y))을 계산한다.Then, the intensity matching unit 220 obtains the intensity I C (x + i, y + j) and I C (x + i, y + j) from the first and second memory units 210 and 215, respectively. The intensity error value E I (x, y) between the average value area B of the present and past image frames is calculated according to the following equation (1).

인텐시티 매칭부(220)는 제어부(도시안됨)로부터 제공되는 제1제어신호(C1)에 응답하여, 상기한 바와 같이 구해진 인텐시티 에러값(EI(x, y))을 비교판단부(280)로 출력한다.The intensity matching unit 220 compares the intensity error value E I (x, y) obtained as described above in response to the first control signal C1 provided from the control unit (not shown). Will output

한편, 그래디언트 매칭부(270)는 제3 및 제4메모리부(260 및 265)로부터 단위 그래디언트 (UC(x+i, y+j) 및 UP(x+i+dx, y+j+dy))를 각각 제공받아, 하기 식(2)에 따라서 현재와 과거 영상 프레임의 평균치 영역(B) 사이의 그래디언트 에러값(EV(x, y))을 계산한다.On the other hand, the gradient matching unit 270 is a unit gradient (U C (x + i, y + j) and U P (x + i + dx, y + j +) from the third and fourth memory unit (260 and 265) dy)), respectively, and calculates a gradient error value E V (x, y) between the average value region B of the current and past image frames according to Equation (2) below.

이때, 인텐시티 에러값은 식(1)에 나타난 바와 같이 두 평균치 영역(B)의 인텐시티 차를 이용하고 있는 반면, 그래디언트 에러값은 식(2)에 나타난 바와 같이 두 평균치 영역(B)의 단위 그래디언트 내적을 이용한다.At this time, the intensity error value uses the intensity difference between the two mean value areas B as shown in equation (1), while the gradient error value is the unit gradient of the two mean value areas B as shown in equation (2). Use the inner product

그래디언트 매칭부(270)는 제어부(도시안됨)로부터 제공되는 제1제어신호(C1)에 응답하여, 상기한 바와 같이 구해진 그래디언트 에러값(EV(x, y))을 비교판단부(280)로 출력한다.The gradient matching unit 270 compares the gradient error value E V (x, y) obtained as described above in response to the first control signal C1 provided from the control unit (not shown). Will output

이어서, 비교판단부(280)는 인텐시티 매칭부(220), 그래디언트 매칭부(270)로부터 인텐시티 에러값(EI(x, y)), 그래디언트 에러값(EV(x, y))을 제공받아, 하기 식(3)을 수행한다.Subsequently, the comparison determining unit 280 provides an intensity error value E I (x, y) and a gradient error value E V (x, y) from the intensity matching unit 220 and the gradient matching unit 270. It receives and performs following formula (3).

여기서, W1및 W2는 가중치로서 적절히 선택할 수 있는 값이다. 상기 식(3)의 결과값(E(x, y))이 작을수록 보다 바람직한 매칭이 이루어지는 것인데, 식(3)에서 알 수 있듯이 인텐시티 에러값(EI(x, y))이 작을수록, 그리고 그래디언트 에러값(EV(x, y))이 1에 가까울수록 보다 정확한 매칭이 수행된다.Here, W 1 and W 2 are values that can be appropriately selected as weights. The smaller the result value (E (x, y)) of Equation (3), the more preferable matching is achieved. As shown in Equation (3), the smaller the intensity error value E I (x, y) is, As the gradient error value E V (x, y) is closer to 1, more accurate matching is performed.

따라서, 상기 비교판단부(280)는 현재 얻어진 결과값(E(x, y))을 선행하는 결과값과 비교하여 현재 얻어진 결과값(E(x, y))이 선행하는 결과값보다 작은 경우, 현재 얻어진 결과값(E(x, y))과 제어부(도시안됨)로부터 제공되는 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 새로 기록하며, 반대의 경우에는 선행하여 기록된 결과값 및 움직임 탐색을 위해 이동된 변위를 그대로 유지한다.Accordingly, the comparison determination unit 280 compares the currently obtained result value E (x, y) with the preceding result value and the current result value E (x, y) is smaller than the preceding result value. In addition, the newly obtained result (E (x, y)) and the shifted displacement (dx, dy) for the search of the motion vector provided from the controller (not shown) are newly recorded, and vice versa. And maintain the displaced displacement for the movement search.

이러한 과정이 계속 반복되는 동안, 비교판단부(280)에 기록되어 있는 변위(dx, dy)는 현재까지 가장 작은 결과값(E(x, y))이 얻어지는 때의 변위로서, 결국 가장 우수하게 매칭이 이루어진 상태에서 얻어진 것이라 할 수 있다.While this process is repeated continuously, the displacements (dx, dy) recorded in the comparison judgment unit 280 are the displacements when the smallest result value E (x, y) is obtained until now, and ultimately the best It can be said that it is obtained in a state where a match is made.

이때, 비교판단부(280)는 제2제어신호(C2)가 입력되면, 현재 기록하고 있는 변위(dx, dy)를 움직임 벡터(MX, MY)로서 출력한다.At this time, when the second control signal C2 is input, the comparison determination unit 280 outputs the displacements dx and dy currently recorded as the motion vectors M X and M Y.

상술한 바와 같은 과정을 통해, 본 발명에 따른 영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색 장치는 영상의 밝기변화 등을 충분히 고려함으로서 보다 정확하게 동영상의 움직임 벡터를 찾을 수 있다는 커다란 잇점이 있다.Through the above-described process, the motion vector search apparatus using the similarity between the gradient and the intensity of the image according to the present invention has a great advantage of finding the motion vector of the video more accurately by sufficiently considering the change in brightness of the image.

Claims (4)

현재 영상데이터(IC) 및 상기 현재 영상에 바로 선행하는 과거 영상데이터(IP)를 각각 기록하고 있는 제1 및 제2메모리부로 구성되며, 상기 제1메모리부는 입력되는 제1어드레스 신호에 대응하는 위치(x+i, y+j)의 영상데이터(IC(x+i, y+j))를 출력하고, 상기 제2메모리부는 입력되는 제2어드레스 신호에 대응하는 위치(x+i+dx, y+j+dy)의 상기 영상데이터(IP(x+i+dx, y+j+dy))를 출력하는 영상 메모리부와; 상기 현재 영상데이터(IC) 및 상기 과거 영상데이터(IP)의 단위 그래디언트(Unit Gradient : UC및 UP)를 각각 기록하고 있는 제3 및 제4메모리부로 구성되며, 상기 제3메모리부는 입력되는 제1어드레스 신호에 대응하는 위치(x+i, y+j)의 단위 그래디언트(UC(x+i, y+j))를 출력하고, 상기 제4메모리부는 입력되는 제2어드레스신호에 대응되는 위치(x+i+dx, y+j+dy)의 단위 그래디언트(UP(x+i+dx, y+j+dy))를 출력하는 그래디언트 메모리부와; 입력되는 영상데이터의 단위 그래디언트(Unit Gradient)를 계산하여 상기 그래디언트 메모리부로 출력하되, 상기 제3 및 제4메모리부로 프레임 단위로 교변적으로 출력하는 그래디언트 계산부와; 클럭신호(CLK)에 응답하여, 현재 움직임 벡터(Motion Vector)를 찾고자 하는 영상데이터(IC(x, y)) 및 상기 영상데이터에 대응하는 단위 그래디언트(UC(x, y))를 중심으로 평균치 영역(B) 내 존재하는 영상데이터 및 단위 그래디언트의 위치(x+i, y+j)를 지정하기 위한 제1어드레스를 출력하며, 움직임 벡터 탐색 범위(S) 내 존재하는 영상데이터 및 단위 그래디언트의 위치(x+i+dx, y+j+dy)를 지정하기 위한 제2어드레스를 출력하고, 상기 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 출력하되, 평균치 영역(B) 내 모든 영상데이터 및 단위 그래디언트의 위치 지정이 완료될 때 제1제어신호(C1)를 출력하며, 움직임 벡터 탐색 영역(S) 내 모든 영상데이터 및 그래디언트의 위치 지정이 완료될 때 제2제어신호(C2)를 출력하는 제어부와; 상기 제1 및 제2메모리부로부터 영상데이터(IC(x+i, y+j) 및 IP(x+i+dx, y+j+dy))를 입력받아 기설정된 인텐시티 매칭식에 따라서 인텐시티 에러값(EI(x, y))을 계산하며, 상기 제1제어신호(C1)에 응답하여 상기 인텐시티 에러값(EI(x, y))을 출력하는 인텐시티 매칭부와; 상기 제3 및 제4메모리부로부터 단위 그래디언트(UC(x+i, y+j) 및 UP(x+i+dx, y+j+dy))를 입력받아 기설정된 그래디언트 매칭식에 따라서 그래디언트 에러값(EV(x, y))을 계산하고, 상기 제1제어신호(C1)에 응답하여 상기 그래디언트 에러값(EV(x, y))을 출력하는 그래디언트 매칭부와; 움직임 벡터(Mx, My) 및 판정값을 기록하고 있으며, 상기 인텐시티 매칭부 및 상기 그래디언트 매칭부로부터 각각 상기 인텐시티 에러값(EI(x, y)) 및 상기 그래디언트 에러값(EV(x, y))을 제공받아 기설정된 판정식을 수행하여 얻어진 결과값(E(x, y))을 상기 판정값과 비교하며, 비교결과 상기 결과값(E(x, y))이 상기 판정값 보다 작을 경우, 상기 결과값(E(x, y))을 새로운 판정값으로 기록하고 상기 제어부로부터 제공되는 상기 움직임 벡터 탐색을 위해 이동된 변위(dx, dy)를 새로운 움직임 벡터로 기록하되, 상기 제2제어신호(C2)가 입력되면 상기 현재 기록하고 있는 움직임 벡터(MX, MY)를 출력하고 리셋되는 비교판단부를 포함하며, 상기 x, y, i 및 j는 0을 포함한 임의의 양의 정수인 것을 특징으로 하는 영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색장치.And first and second memory units for recording current image data I C and past image data I P immediately preceding the current image, respectively, wherein the first memory unit corresponds to an input first address signal. Outputs the image data I C (x + i, y + j) of the position (x + i, y + j), and the second memory unit (x + i) corresponding to the input second address signal. an image memory section for outputting the image data I P (x + i + dx, y + j + dy) of + dx, y + j + dy; And a third and fourth memory unit for recording unit gradients (U C and U P ) of the current image data I C and the past image data I P , respectively. Outputs a unit gradient U C (x + i, y + j) of a position (x + i, y + j) corresponding to the input first address signal, and the fourth memory unit inputs the second address signal A gradient memory unit for outputting a unit gradient U P (x + i + dx, y + j + dy) at a position corresponding to (x + i + dx, y + j + dy); A gradient calculator which calculates a unit gradient of the input image data and outputs the unit gradient to the gradient memory unit, and symmetrically outputs the frame to the third and fourth memory units; In response to the clock signal CLK, the image data I C (x, y) for which the current motion vector is to be found and the unit gradient U C (x, y) corresponding to the image data are centered. Outputs a first address for designating the image data existing in the average value area B and the position (x + i, y + j) of the unit gradient, and the image data and unit existing in the motion vector search range S. Output a second address for specifying the position of the gradient (x + i + dx, y + j + dy), and outputs the shifted displacements (dx, dy) for the motion vector search, the average value area (B) The first control signal C1 is output when the positioning of all the image data and the unit gradient is completed, and the second control signal when the positioning of all the image data and the gradient in the motion vector search region S is completed. A control unit for outputting C2); Image data I C (x + i, y + j) and IP (x + i + dx, y + j + dy) are input from the first and second memory units, and the intensity is in accordance with a preset intensity matching equation. the error value (E I (x, y) ) the calculation and intensity matching unit in response to the first control signal (C1) output the intensity error value (E I (x, y) ) and; Unit gradients U C (x + i, y + j) and U P (x + i + dx, y + j + dy) are received from the third and fourth memory units according to a preset gradient matching equation. gradient error value (E V (x, y) ) the calculation and the gradient matching unit for outputting the gradient error value (E V (x, y) ) in response to the first control signal (C1) and; The motion vector (Mx, My) and the determination value are recorded, and the intensity error value E I (x, y) and the gradient error value E V (x, from the intensity matching unit and the gradient matching unit, respectively, are recorded. y)) and the result value (E (x, y)) obtained by performing a predetermined decision expression is compared with the decision value, and the result of comparison (E (x, y)) is greater than the decision value. If small, the result value E (x, y) is recorded as a new determination value and the displacement (dx, dy) shifted for the motion vector search provided from the controller is recorded as a new motion vector. And a comparison determination unit for outputting and resetting the currently recorded motion vector (M X , M Y ) when a control signal (C2) is input, wherein x, y, i, and j are arbitrary amounts including 0. Motion using similarity of gradient and intensity of an image characterized in that it is an integer Vector navigation device. 제1항에 있어서, 상기 인텐시티 매칭부에서 사용되는 인텐시티 매칭식은The intensity matching equation used in the intensity matching unit is 이며, 상기 Bx 및 By는 임의의 양의 정수로서 각각 상기 평균치 영역(B)의 가로 및 세로 크기인 것을 특징으로 하는 영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색 장치.And Bx and By are arbitrary positive integers, each of which is a horizontal and vertical size of the average value region B, wherein the motion vector search apparatus employs similarity of gradient and intensity of an image. 제1항에 있어서, 상기 그래디언트 매칭부에서 사용되는 그래디언트 매칭식은The method of claim 1, wherein the gradient matching equation used in the gradient matching unit is 이며, 상기 Bx 및 By는 임의의 양의 정수로서 각각 상기 평균치 영역(B)의 가로 및 세로 크기인 것을 특징으로 하는 영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색 장치.And Bx and By are arbitrary positive integers, each of which is a horizontal and vertical size of the average value region B, wherein the motion vector search apparatus employs similarity of gradient and intensity of an image. 제1항에 있어서, 상기 비교판단부에서 사용되는 판정식은According to claim 1, wherein the determination formula used in the comparison determination unit is 이며, 상기 W1및 W2는 가중치인 것을 특징으로 하는 영상의 그래디언트 및 인텐시티의 유사성을 이용한 움직임 벡터 탐색 장치.And W 1 and W 2 are weights. The motion vector search apparatus using the similarity of the gradient and intensity of an image.
KR1019950007290A 1995-03-31 1995-03-31 Motion vector search apparatus using the gradient and the intensity similarity of the moving picture KR0154948B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019950007290A KR0154948B1 (en) 1995-03-31 1995-03-31 Motion vector search apparatus using the gradient and the intensity similarity of the moving picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019950007290A KR0154948B1 (en) 1995-03-31 1995-03-31 Motion vector search apparatus using the gradient and the intensity similarity of the moving picture

Publications (2)

Publication Number Publication Date
KR960036726A KR960036726A (en) 1996-10-28
KR0154948B1 true KR0154948B1 (en) 1998-11-16

Family

ID=19411102

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950007290A KR0154948B1 (en) 1995-03-31 1995-03-31 Motion vector search apparatus using the gradient and the intensity similarity of the moving picture

Country Status (1)

Country Link
KR (1) KR0154948B1 (en)

Also Published As

Publication number Publication date
KR960036726A (en) 1996-10-28

Similar Documents

Publication Publication Date Title
US5760846A (en) Apparatus for estimating motion vectors for feature points of a video signal
US5686973A (en) Method for detecting motion vectors for use in a segmentation-based coding system
EP1389016B1 (en) Improved motion estimation and block matching pattern
KR100534207B1 (en) Device and method for motion estimating of video coder
KR0168458B1 (en) Distorting deminishing method and apparatus
KR100803611B1 (en) Method and apparatus for encoding video, method and apparatus for decoding video
KR100242406B1 (en) Method for motion estimation using trajectory in a digital video encoder
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
EP0609022A2 (en) Image encoding apparatus
US20150172687A1 (en) Multiple-candidate motion estimation with advanced spatial filtering of differential motion vectors
KR100207390B1 (en) Moving vector detecting method using hierachical motion predicting method
US5689312A (en) Block matching motion estimation method
KR0181029B1 (en) Apparatus for selecting a feature point by using edge
KR100229803B1 (en) Method and apparatus for detecting motion vectors
KR0154948B1 (en) Motion vector search apparatus using the gradient and the intensity similarity of the moving picture
Soongsathitanon et al. Fast search algorithms for video coding using orthogonal logarithmic search algorithm
KR0180171B1 (en) Block motion estimation method
KR970003107B1 (en) Motion vector detecting method through stepwise segmentation
KR0185841B1 (en) A motion extimator for a video coder
KR0152014B1 (en) Method and apparauts for moving estimation in image data compression
JPH07240927A (en) Video encoder
Ji et al. Region-based video segmentation using dct coefficients
LeQuang et al. Object-oriented coding using successive motion field segmentation and estimation
JP2008072608A (en) Apparatus and method for encoding image
KR0174455B1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120702

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee