KR960013234B1 - Koga - 3 stop motion vector detecting method for movement detecting apparatus - Google Patents

Koga - 3 stop motion vector detecting method for movement detecting apparatus Download PDF

Info

Publication number
KR960013234B1
KR960013234B1 KR1019910025867A KR910025867A KR960013234B1 KR 960013234 B1 KR960013234 B1 KR 960013234B1 KR 1019910025867 A KR1019910025867 A KR 1019910025867A KR 910025867 A KR910025867 A KR 910025867A KR 960013234 B1 KR960013234 B1 KR 960013234B1
Authority
KR
South Korea
Prior art keywords
image data
block
data block
input image
input
Prior art date
Application number
KR1019910025867A
Other languages
Korean (ko)
Other versions
KR930015834A (en
Inventor
김경진
Original Assignee
대우전자 주식회사
배순훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대우전자 주식회사, 배순훈 filed Critical 대우전자 주식회사
Priority to KR1019910025867A priority Critical patent/KR960013234B1/en
Publication of KR930015834A publication Critical patent/KR930015834A/en
Application granted granted Critical
Publication of KR960013234B1 publication Critical patent/KR960013234B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The method relates to carrying out serve sampling for image data of the image data block to detect a similar image data block. The detection method comprises the steps of: detecting image data block within the similar frame memory to the input image data block of the input image memory; transferring a candidate vector to be the second step among the routine 1; and changing the candidate vector to be the third step among the routine 1.

Description

움직임 검출장치의 코가-3단계 움직임벡터 검출방법Nose-3 motion vector detection method of motion detector

도면 1은 일반적인 화상압축 전송장치의 블록도.1 is a block diagram of a typical image compression transmission device.

도면 2은 일반적인 화상압축 전송장치의 또 다른 블록도.2 is another block diagram of a typical image compression transmission device.

도면 3은 일반적인 화상압축 전송장치에 구성되는 움직임 검출장치의 블록도.3 is a block diagram of a motion detection device constructed in a general image compression transmission device.

도면 4(a)(b)(c)는 화상데이터 블록이 이동하는 상태를 나타낸 상태도.4 (a) (b) and (c) are diagrams showing states in which image data blocks move.

도면 5는 종래의 코가-3 단계 움직임벡터 검출방법을 나타낸 상태도.Figure 5 is a state diagram showing a conventional koga-3 step motion vector detection method.

도면 6은 본 발명에 따른 움직임 검출장치의 코가-3 단계 움직임 벡터 검출방법을 나타낸 흐름도.6 is a flowchart illustrating a method for detecting a motion of a No. 3 step in a motion detection apparatus according to the present invention.

도면 7(a)(b)는 본 발명에 따른 움직임 검출장치의 코가-3 단계 움직임벡터 검출방법에서 행해지는 서브샘플링 방법을 나타낸 상태도.Figure 7 (a) (b) is a state diagram showing a sub-sampling method performed in the Koga-3 step motion vector detection method of the motion detection apparatus according to the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

1 : DCT부 2 : 양자화부1: DCT unit 2: quantization unit

3 : 가변길이 부호화부 4 : 프레임 메모리3: variable length encoder 4: frame memory

5 : 감산기 6 : 역양자화부5: subtractor 6: inverse quantization unit

7 : 역 DCT부 8 : 가산기7: reverse DCT section 8: adder

9 : 움직임 검출장치 10 : 입력화상 메모리9: motion detection device 10: input image memory

11 : 롬 12 : CPU(중앙처리장치)11: ROM 12: CPU (Central Processing Unit)

본 발명은 움직임 검출에 관한 것으로서, 더욱 상세하게는 입력화상 블록 데이타와 메모리에 저장되어 있는 화상데이터중 유사한 블록을 용이하게 검출하기에 적합한 움직임 검출장치의 코가-3 단계 움직임 벡터 검출방법에 관한 것이다.The present invention relates to motion detection. More particularly, the present invention relates to a method for detecting a Koga-3 step motion vector of a motion detection apparatus suitable for easily detecting similar blocks among input image block data and image data stored in a memory. will be.

정보사회의 진전에 따라, 종래의 문자, 수치, 음성데이터의 축적이나 전송에 추가하여 자연화상의 축적이나 전송도 강하게 요구되고 있다.With the progress of the information society, there is a strong demand for the accumulation and transmission of natural images in addition to the accumulation and transmission of text, numerical values, and voice data.

이와같은 자연화상의 축적이나 전송을 실행할 경우 대량의 화상을 축적하거나 고속의 전송을 실행하기 위해서는 화상 입력처리에 의해 막대한 화상의 데이터량을 대폭으로 압축해야 한다.In the case of accumulating or transmitting such natural images, in order to accumulate a large number of images or to perform high-speed transfer, it is necessary to greatly compress the data amount of a huge image by image input processing.

현재, 가장 주목받고 있는 화상압축 처리에 이산 코사인변환(Discrter cosine Transform : 이하 DCT라함) 부호화 방식이 있다.Currently, the most attention-grabbing image compression process is a discrete cosine transform (hereinafter referred to as DCT) coding.

이 DCT 부호화 방식은 데이터량의 대폭적 압축이 가능하며, 더구나 재생화상의 품질도 양호하므로 ISO/CCITT에서 검토 완료된 동영상화부호화 국제국제표준방식의 기본방식으로 채용이 결정되어 있다.Since the DCT coding method can greatly compress the amount of data, and the quality of the reproduced picture is also good, it is decided to adopt it as the basic method of the internationalized video coding standard that has been examined by ISO / CCITT.

DCT 부호화 방식은, 우선 입력화성을 8×8 화소정도 크기의 정방형 블록으로 분할하여, 도면 1에서와 같이 DCT부(1)에 인가하면, DCT부(1)는 각 블록마다 2차원 DCT 변환을 수행하게 된다.In the DCT coding method, first, the input format is divided into square blocks about 8 by 8 pixels and applied to the DCT unit 1 as shown in FIG. 1, and the DCT unit 1 performs two-dimensional DCT conversion for each block. Will be performed.

상기 DCT 변환은 화상을 공간영역에서 주파수영역으로 변환하는 처리이다. 일반적으로 화상은 저주파 성분으로 구성되어 있으므로 변환 후 DCT계수의 저주파 성분만을 부호화함으로써 대폭적인 화상의 데이터 압축이 가능해진다.The DCT conversion is a process of converting an image from a spatial domain to a frequency domain. In general, since an image is composed of low frequency components, a significant data compression of the image is possible by encoding only the low frequency components of the DCT coefficient after conversion.

DCT 계수를 작은 데이터량으로 부호화하기 위해 양자화부(2)는 DCT 계수를 양자화 처리하게 된다. 그리고, 양자화후의 DCT 계수치를 나타내는 양자화 인덱스(Index)를 호프만 부호 등의 가변길이 부호를 이용하여, 가변길이 부호화부(3)에 의해 가변길이 부호화함으로써 최종적인 부호를 출력하게 된다.In order to encode the DCT coefficients into small data amounts, the quantization unit 2 performs quantization processing of the DCT coefficients. Then, the variable length coding unit 3 performs variable length coding on the quantization index indicating the DCT coefficient value after quantization using a variable length code such as a Hoffman code to output the final code.

이때, 상기 DCT부(1)에 입력된 입력 화상데이터 블록과 유사한 화상데이터 블록을 이미 전송한 화상데이터중에서 검출하여 그 차값에 대해서 DCT 변화를 한 후, 부호화 하여 전송하고, 수신부측에서 유사화상데이터 블록에 대한 차값을 가산하면 입력 화상데이터와 동일한 화상데이터를 구할 수 있게된다.At this time, an image data block similar to the input image data block input to the DCT unit 1 is detected among the image data that has already been transmitted, the DCT is changed for the difference value, and then encoded and transmitted. By adding the difference values for the blocks, it is possible to obtain the same image data as the input image data.

따라서, 종래의 또 다른 화상압축 전송장치는 도면 2에서와 같이 프레임 메모리(4)에 입력 화상 데이터블록의 전 프레임에 해당하는 화상데이타를 저장하게 한다.Accordingly, another conventional image compression transmission device allows the image data corresponding to all frames of the input image data block to be stored in the frame memory 4 as shown in FIG.

그리고, 움직임 검출장치(9)는 상기 프레임 메모리(4)의 전화상데이터에 기초하여 입력 화상 데이터 블록에 유사한 화상데이터 블록을 상기 프레임 메모리(4)에서 검출한다.Then, the motion detection device 9 detects in the frame memory 4 an image data block similar to the input image data block based on the telephone image data of the frame memory 4.

이때, 움직임 검출장치(9)는 유사한 화상데이터 블록이 발견되면, 입력 화상데이터 블록과 유사 화상데이터 블록이 프레임내에서의 위치하는 위치관계를 움직임벡터로수 수신부측으로 전송하는 한편, 감산기(5)는 입력 화상데이터에서 상기 프레임 메모리(4)의 유사 화상데이터 블록에 대한 화상데이터를 감산하게된다.At this time, if a similar image data block is found, the motion detection device 9 transmits the positional relationship in which the input image data block and the similar image data block are located in the frame to the receiver side as a motion vector, while the subtractor 5 Subtracts the image data for the similar image data block of the frame memory 4 from the input image data.

그리고, 감산기(5)에서 가산된 화상데이터의 차값이 DCT 변환 및 양자화됨으로써 입력 화상데이터는 더욱 압축될 것이다. 이때, 양자화부(2)에서 양자화된 화상데이터는 역양자부(6), 역 DCT부(7)에 의하여 복호화 처리된 후 수신부와 동일하게 상기 프레임 메모리(4)가 출력한 유사 화상데이터 블록의 화상데이터와 가산기(8)에서 가산됨으로써, 입력 화상데이터와 동일한 화상데이터가 되는 것이다.Then, the input image data will be further compressed by the DCT conversion and quantization of the difference value of the image data added by the subtractor 5. At this time, the image data quantized by the quantization unit 2 is decoded by the inverse quantum unit 6 and the inverse DCT unit 7, and then the likeness of the similar image data block output by the frame memory 4 is the same as the receiving unit. By adding the image data and the adder 8, the same image data as the input image data is obtained.

상기 가산기(8)의 화상데이터는 움직임 검출장치(9)에 의한 움직임벡터에 의해 입력 화상데이터가 프레임상의 동일 위치에 저장되므로 프레임 메모리(4)는, 항상 입력 화상데이터의 전프레임에 해당하는 화상데이터를 저장하게 되는 것이다.Since the image data of the adder 8 is stored at the same position on the frame by the motion vector by the motion detection device 9, the frame memory 4 always has an image corresponding to all frames of the input image data. To store data.

따라서, 움직임 검출장치(9)가 입력 화상데이터 블록과 얼마나 유사한 화상데이터 블록을 상기 프레임 메모리(4)내에서 검출하느냐에 따라 DCT에 의한 데이터의 압축율은 상이하게 된다.Therefore, the compression rate of the data by the DCT is different depending on how the motion detection device 9 detects in the frame memory 4 an image data block similar to the input image data block.

도면 3은 움직임 벡터를 검출하기 위한 코가-3 단계 움직임벡터 검출방법을 실시하기 위한 종래의 움직임 검출장치의 블록도이다.3 is a block diagram of a conventional motion detection apparatus for implementing the KOGA-3 step motion vector detection method for detecting a motion vector.

프레임 메모리(4)는 도면 2의 프레임 메모리와 동일하며, 입력 화상메모리(10)는 입력 화상데이터 블록을 입력하여 프레임에서 어떠한 위치에 해당하는 지를 어드레스 시호로 내부 중앙처리장치(이하 CPU라함) (12)에 인가한다.The frame memory 4 is the same as the frame memory of FIG. 2, and the input image memory 10 inputs an input image data block to indicate which position in the frame corresponds to an internal central processing unit (hereinafter referred to as CPU) (with an address signal) ( 12).

이때, CPU(12)는 코가-3 단계를 실행하기 위한 후보벡터의 출력 및 연산을 행하는 것으로 상세한 것은 후술한다.At this time, the CPU 12 outputs and calculates a candidate vector for executing the step 3, which will be described later.

그리고 롬(11)은 어드레스 계산용으로서 후보 벡터를 어드레스값으로 저장해서 상기 프레임 메모리(4)에 인가하도록 구성되어 있다.The ROM 11 is configured to store candidate vectors as address values and apply them to the frame memory 4 for address calculation.

코카-3 단계 움직임벡터 검출방법중 제1단계는 상술한 움직임 검출장치에서 상기 입력 화상메모리(10)에 대해서 입력 화상 데이터 블록의 해당 어드레스가 CPU(12)에 인가되면, CPU(12)는 후보벡터를 저장하고 있는 어드레스를 사이 롬(11)에 인가하여 이동보상영역내의 화상 데이터들을 검사하게 된다.In the first step of the Coca-3 step motion vector detection method, when the corresponding address of the input image data block is applied to the CPU 12 to the input image memory 10 in the above-described motion detection apparatus, the CPU 12 is a candidate. The address storing the vector is applied to the ROM 11 to check the image data in the moving compensation area.

이를 구체적으로 설명하면, 도면 4(a)에 도시된 블록이 입력 화상데이터 블록이라 가장한다. CPU(12)는 상기 입력 화상 메모리(10)에 대해서 상기 입력 화상데이터 블록이 프레임내에서의 위치에 해당하는 어드레스를 인가한다.Specifically, the block shown in Fig. 4A is assumed to be an input image data block. The CPU 12 applies an address corresponding to the position of the input image data block within the frame to the input image memory 10.

그리고, CPU(12)는 입력화상 메모리(10)에 인가한 어드레스와 동일한 위치의 프레임 메모리(4)내의 화상데이터 블록을 지정하도록 후보벡터를 지정하고 있는 어드레스를 상기 롬(11)에 인가한다.The CPU 12 then applies to the ROM 11 an address specifying a candidate vector to designate a block of image data in the frame memory 4 at the same position as the address applied to the input image memory 10.

상기 롬(11)은 후보벡터를 출력해서, 프레임 메모리(4)내의 입력 화상데이터 블록과 동일한 영역의 어드레스를 인가하여 프레임 메모리(4)로부터 해당 어드레스에 대한 화상데이터 블록이 상기 CPU(12)로 인가한다.The ROM 11 outputs a candidate vector, and applies an address in the same area as the input image data block in the frame memory 4 so that the image data block for the address from the frame memory 4 is transferred to the CPU 12. Is authorized.

즉, CPU(12)는 도면 4(b)내의 화상데이터 블록을 인가받는 것이다. 이와같이 입력화상데이터 블록과 동일한 어드레스의 프레임 메모리(4)내 화상데이터를 인가받는 것은, 전 프레임과 현재 프레임의 화상은 급격히 변화하는 경우가 변화하지 않는 경우보다 매우 작으므로 입력 화상데이터와 동일한 어드레스의 프레임 메모리(4)내의 화상데이터가 가장 유사할 가능성이 높다는 것을 이용하기 때문이다.In other words, the CPU 12 receives the image data block shown in Fig. 4B. In this way, the image data in the frame memory 4 having the same address as the input image data block is much smaller than the case where the image of the previous frame and the current frame changes abruptly. This is because the image data in the frame memory 4 is most likely to be most similar.

그리고, CPU(12)는 입력 화상데이터 블록의 각 화상 데이터를 더한 값과 동일 어드레스의 프레임 메모리내의 화상데이터 블록의 더한 값을 감산함으로서 유사정도를 판단한다.The CPU 12 then determines the similarity by subtracting the sum of the image data of the input image data block and the sum of the image data block in the frame memory at the same address.

그 후, CPU(12)는 위치 벡터를 변경하여, 입력 화상데이터 블록과 이웃한 프레임 메모리(4)내의 화상데이터 블록을 순차적으로 검사함으로써 입력 화상데이터와 가장 유사한 화상데이터 블록을 검출하는 것이다.Then, the CPU 12 changes the position vector and sequentially checks the input image data block and the image data block in the adjacent frame memory 4 to detect the image data block most similar to the input image data.

이를 도면 5를 참조하여 설명하면, 블록(A)은 상술한 바와 같이 입력 화상데이터 블록과 동일한 어드레스로 프레임 메모리(4)내의 화상데이터 블록이다.Referring to FIG. 5, the block A is an image data block in the frame memory 4 at the same address as the input image data block as described above.

이때, 블록의 중심점(A1)을 탐색점이라 한다. 기술한 바와 같이 탐색점을 갖는 화상데이터 블록(A)과 입력 화상데이터와의 유사정도를 판별한 CPU(12)는, 위치벡터를 변경하여 상기 블록(A)고 상이한 어드레스의 화상 데이터 블록이 프레임 메모리(4)로부터 인가된다.In this case, the center point A1 of the block is called a search point. As described above, the CPU 12, which has determined the similarity degree between the image data block A having the search point and the input image data, changes the position vector so that the image data block of the address different from the block A is framed. It is applied from the memory 4.

이때, 화상데이터 블록의 어드레스가 상이한 정도는 도면 5에 도시된 바와 같이, 탐색점(A1)을 화소 간격이 4개가 되도록 상하좌우로 이동하여 탐색점(A3)(A8)(A5)(A6)을 이동시키고, 상기 탐색점(A5)(A6)으로부터 화소간격 4개의 상하로 탐색점(A2)(A7)(A4)(A9)을 형성하도록 위치 벡터를 형성한다.At this time, as shown in Fig. 5, the degree of different address of the image data block is moved to the search points A1 up, down, left, and right so as to have four pixel intervals, and thus, the search points A3, A8, A5, A6 and A6. Is moved to form a position vector to form search points A2, A7, A4, and A9 up and down four pixel intervals from the search points A5 and A6.

그리고, CPU(12)는 상기 탐색점(A1~A9)으로부터 형성되는 화상데이터 블록들중에 상기 입력화상데이터 블록과 가장 유사한 화상데이터 블록을 검출하는 것이다.The CPU 12 detects the image data block most similar to the input image data block among the image data blocks formed from the search points A1 to A9.

이때 유사여부에 대한 판단은 상기 블록(A)이 입력 화상데이터 블록과 유사한가 판단한 방법과 동일하게 입력화상데이터 블록의 각 데이터의 합한 값으로부터 각 탐색점(A1~A9)에 의해 형성된 화상데이터 블록의 각 데이터의 합산 값을 감산하여 가장 작은 차값을 형성하는 블록이 가장 유사한 블록으로 판정되는 것이다.At this time, the determination of the similarity is performed by the search points A1 to A9 from the sum of the respective data of the input image data blocks, in the same manner as the method of determining whether the block A is similar to the input image data block. The block forming the smallest difference value by subtracting the sum of the respective data is determined as the most similar block.

본 실시예의 경우 탐색점(A7)에 의해 형성된 블록(B)이 입력 화상데이터 블록과 가장 유사하다고 판정되었다고 가정한다.In the case of this embodiment, it is assumed that the block B formed by the search point A7 is determined to be most similar to the input image data block.

상기 CPU(12)는 코가-3 단계 움직임벡터 검출방법중 제2단계로 진행하여 상기 탐색점(A7)으로부터 다시 탐색점을 이동시킨 후 새로운 화상데이터 블록이 화상데이터들을 상기 프레임 메모리(4)로부터 입력하게 된다.The CPU 12 proceeds to the second step of the Koga-3 step motion vector detection method, moves the search point again from the search point A7, and a new image data block transfers the image data to the frame memory 4. Will be input from

즉, CPU(12)은 상기 탐색점(A7)으로부터 화소가 2개 떨어진 상하좌우로 탐색점(B2)(B7)(B4)(B5)을 이동 시키고 상기 탐색점(B4)(B5)으로부터 화소가 상하로 2개 떨어진 탐색점(B1)(B2)(B3)(B8)을 형성하도록 위치 벡터를 변경하여, 상기 롬(11)의 어드레스 신호에 따라서 상기 탐색점(B1~B8)에 의한 화상데이터 블록이 상기 CPU(12)에 인가되도록 한다.That is, the CPU 12 moves the search points B2, B7, B4, and B5 up, down, left, and right, two pixels apart from the search point A7, and the pixels from the search points B4 and B5. The position vector is changed to form two search points B1, B2, B3, and B8 separated up and down, and the image by the search points B1 to B8 in accordance with the address signal of the ROM 11 is changed. The data block is applied to the CPU 12.

그리고 CPU(12)는 새로운 탐색점(B1~B8)에 의한 화상데이터 블록 및 상기 제1단계에 의한 탐색점(A7)를 중심으로 한 2단계 탐색점들에 의한 화상데이터 블록의 화상 데이터와 입력 화상데이터 블록과 가장 유사하다고 판단되는 것을 상기 탐색점(A1~A9)과에 의한 화상데이터 블록과 동일한 방법으로 수행하여 검출하게 된다.The CPU 12 inputs the image data of the image data block by the new search points B1 to B8 and the image data of the image data block by the two-level search points centered on the search point A7 according to the first step. What is determined to be the most similar to the image data block is detected by performing the same method as the image data block by the search points A1 to A9.

이때, 탐색점(B6)에 의한 화상데이터 블록(C)이 입력화상데이터 블록과 가장 유사한 것으로 판정되었다고 가정한다.At this time, it is assumed that the image data block C by the search point B6 is determined to be most similar to the input image data block.

탐색점(B6)에 의한 화상데이터 블록이 가장 유사하다고 판정되면, CPU(12)는, 코가-3 단계중 제3단계로 진행하여 다시 위치 벡터를 변경하여, 상기 탐색점(B6)으로부터 화소가 1개 떨어진 상하좌우의 탐색점(C2, C6, C4, C6)과 상기 탐색점(C4)(C5)로부터 화소가 상하로 1개 떨어진 탐색점(C1, C6, C3, C8)을 형성하도록 위치 벡터를 변경한다.If it is determined that the image data block by the search point B6 is the most similar, the CPU 12 proceeds to the third step of the Koga-3 step and changes the position vector again, and the pixel from the search point B6 is changed. To form search points C2, C6, C4, and C6 separated by one from each other, and search points C1, C6, C3, and C8 separated by one pixel up and down from the search points C4 and C5. Change the position vector.

그리고, 상술한 바와같이, 상기 탐색점(C1~C8)에 의한 화상데이터 블록과 상기 제2단계의 탐색점(B6)를 중심으로 한 3단계 탐색 점들에 의한 화상데이터 블록중 입력 화상데이터 블록과 가장 유사한 화상데이터 블록을 검출하는 것이다.As described above, the input image data block of the image data block of the search points C1 to C8 and the image data block of the three step search points centered on the search point B6 of the second step; The most similar image data block is detected.

본 예는 탐색점(C6)에 의한 화상데이터 블록(D)이 가장 유사한 것으로 도시되어 있다. 즉 코가-3 단계 움직임 검출방법은 입력 화상데이터 블록과 프레임 메모리(4)의 동일 어드레스의 화상데이터 블록에서 소정거리내에 있는 화상데이터 블록들중 입력 화상데이터 블록과 가장 유사한 화상데이터 블록을 검출하여 그 이동관계를 움직임벡터로 출력한다.In this example, the image data block D by the search point C6 is shown to be the most similar. That is, the Koga-3 step motion detection method detects an image data block most similar to the input image data block among the image data blocks within a predetermined distance from the input image data block and the image data block of the same address in the frame memory 4, The movement relationship is output as a motion vector.

이때, 코가-3 단계 방법은 입력 화상데이터 블록과 동일 어드레스의 화상데이터 블록 및 동일 어드레스의 화상데이터 블록으로부터 화소의 간격이 4-2-1 순으로 탐색점을 변경하여, 유사 화상데이터 블록을 검출함을 알 수 있다.At this time, the method in the KOGA-3 step changes the search point in the order of 4-2-1 in the pixel interval from the image data block of the same address and the image data block of the same address, and replaces the similar image data block. It can be seen that the detection.

즉, 코가 3단계 움직임벡터 검출방법에서는 도면 4의 (b)에 도시된 바와같이 입력화상 데이터 블록과 동일한 어드레스의 프레임 메모리(4) 화상데이터 블록으로부터 소정의 이동 보상영역(E)내의 화상데이터를 블록화하여 입력 화상데이터 블록과 유사한 화상데이터 블록을 검출한다.That is, in the three-stage motion vector detection method, as shown in Fig. 4B, image data in a predetermined motion compensation area E is obtained from a frame memory 4 image data block having the same address as the input image data block. Block to detect an image data block similar to the input image data block.

이때, 탐색점의 변화는 상기 입력 화상데이터가 도면 4의 (c)와 같이 화면의 모서리 등에 위치하는 경우에는 입력 화상데이터와 동일 어드레스의 화상데이터중 그 주변에 대해, 유사 화상데이터를 검출하게 되므로 상술한 과정들 보다 한정되게 될 것이다.In this case, when the input image data is located at the edge of the screen or the like as shown in FIG. 4C, similar image data is detected in the periphery of the image data at the same address as the input image data. It will be more limited than the above-described processes.

그러나, 상기의 코가-3 단계 움직임벡터 검출방법은 입력 화상데이터 블록의 전체화상데이터의 합한 값에서 프레임 메모리내의 소정 블록의 전체 화상데이터의 합한 값을 감산한 값에 대한 차이로서 가장 유사한 화상데이터 블록을 검출하도록 되어있어 상기 CPU의 연산 능력이 높아야 한다는 문제가 있게 된다.However, the method of detecting the Koga-3 step motion vector described above is the most similar image data as the difference between the sum of the total image data of the input image data block and the sum of the total image data of the predetermined block in the frame memory. The block is detected so that the computational power of the CPU must be high.

즉, 일반적인 화상데이터 블록은 16×16 화소로 구성되므로, 상기 화상데이터 블록 및 유사 화상데이터 블록의 전체 화상데이터를 더하는 연산 및 더한 값에 대한 차를 구하는 연산등에 의해 CPU의 연산능력으로 인해서, 움직임 검출장치를 소형, 고속연산화할 수 없는 문제점이 있었다.That is, since a general image data block is composed of 16 x 16 pixels, the motion of the CPU is caused by the operation of adding all the image data of the image data block and the similar image data block and calculating the difference between the added values and the like. There was a problem that the detection device can not be compact, high-speed computerized.

본 발명은 이러한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은, 화상데이터 블록의 화상데이터를 서브 샘플링하여 유상 화상데이터 블록을 검출함으로써, 움직임 검출장치를 소형화, 고속연산화할 수 있는 움직임 검출장치의 코가-3 단계 움직임벡터 검출방법을 제공하는데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and an object of the present invention is to provide a motion detection apparatus capable of miniaturizing and high-speed computerization of a motion detection apparatus by subsampling image data of an image data block and detecting a paid image data block. Noga-3 step motion vector detection method is provided.

이러한 목적을 달성하기 위한 본 발명에 따르면, 입력 화상 메모리(10) CPU(12)와 롬(11)으로 되는 움직임 검출장치와, 프레임 메모리(4)를 이용하여 상기 입력화상 메모리(10)의 화상데이터 블록을 이루는 화상데이터와 탐색점을 3단계로 이동시켜 형성되는 프레임 메모리(4)내의 화상데이터 블록들의 화상데이터를 비교하여 입력 화상데이터 블록과 유사한 프레임 메모리(4)내의 화상데이터 블록을 검출하는 움직임 검출장치의 코가-3 단계 움직임 검출방법에 있어서, 상기 입력화상 메모리(10)로부터 입력 화상블록 데이터의 어드레스를 입력하는 스텝(S1)과, 상기 입력된 어드레스에 따라 후보 벡터를 출력하는 스텝(S2)과, 상기 후보 벡터에 따라 상기 롬(11)이 지정한 어드레스에 따른 상기 프레임 메모리(4)의 화상데이터 블록의 화상데이터로서 입력받는 스텝(S3)과, 상기 입력된 화상데이터들을 서브 샘플링하는 스텝(S4)과, 상기 샘플링된 입력 화상데이터의 총합과, 상기 프레임 메모리(4)로부터 입력된 화상블록데이터 블록중 상기 샘플링된 화상데이터와의 차값을 구하는 스텝(S5)과, 상기 차값을 저장하는 스텝(S6)과, 상기 스텝(S1~S6)을 총 9번 수행하였는지를 판단한 결과, 상기 9번 수행되지 않았으면, 상기 스텝(S2~S6)이 9번 수행될 때까지 반복하며, 상기 9번 수행되었으면, 상기 저장된 9개의 차값중 가장 작은 값을 선택함으로써 유사블록을 검출하는 스텝(S8)를 포함하며, 상기 검출된 유사블록에 관련된 후보벡터를 이동 및 변경시킨 최종의 움직임 벡터를 출력하는 것을 특징으로 한다.According to the present invention for achieving this object, an image of the input image memory 10 using the motion detection device comprising the input image memory 10 CPU 12 and the ROM 11 and the frame memory 4 is used. The image data blocks in the frame memory 4, which are similar to the input image data blocks, are detected by comparing the image data of the image data blocks in the frame memory 4 formed by moving the image data constituting the data block and the search point in three steps. A nosy-3 step motion detection method of a motion detection apparatus, comprising: inputting an address of input image block data from the input image memory 10 (S1), and outputting a candidate vector according to the input address; (S2) and receiving as image data of an image data block of the frame memory 4 corresponding to an address designated by the ROM 11 in accordance with the candidate vector. (S3), the step S4 of subsampling the input image data, the total sum of the sampled input image data, and the sampled image data among the image block data blocks input from the frame memory 4; It is determined whether the step (S5) for obtaining the difference value of the step, the step (S6) for storing the difference value, and whether the steps (S1 to S6) were performed a total of nine times. S6) is repeated nine times, and if it has been performed nine times, a step S8 of detecting a similar block by selecting the smallest value among the stored nine difference values, and is related to the detected similar block. And outputting a final motion vector obtained by moving and changing the candidate vector.

이하 본 발명의 실시예를 첨부된 도면에 따라 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도면 6는 본 발명에 따른 움직임 검출장치의 코가-3 단계 움직임벡터 검출방법을 실시하기 위한 흐름도로서, 1, 2, 3 루틴(L1)(L2)(L3)으로 이루어진다.FIG. 6 is a flowchart for implementing a method of detecting a Koga-3 step motion vector of a motion detection apparatus according to the present invention, and includes 1, 2, and 3 routines L1, L2, and L3.

이를 구체적으로 설명하면, 루틴(L1)은 코가-3 단계에 따라 상기 입력화상 메모리(10)의 입력화상 데이터 블록과 유사한 프레임 메모리(4)내의 화상데이터 블록을 검출하기 위한 것으로서 스텝(S1~S8)들로 이루어진다.Specifically, the routine L1 is used to detect an image data block in the frame memory 4 similar to the input image data block of the input image memory 10 in accordance with the step of Coga-3. S8).

이때, 스텝(S1)은 상기 입력화상 메모리(10)로부터 입력 화상블록데이터의 어드레스를 상기 CPU(12)로 입력하는 과정이고, 스텝(S2)은 입력된 어드레스에 따라 후보 벡터를 출력하기 위한 과정이다.In this case, step S1 is a process of inputting an address of input image block data from the input image memory 10 to the CPU 12, and step S2 is a process for outputting a candidate vector according to the input address. to be.

그리고, 스텝(S3)은 상기 후보 벡터에 따라 상기 롬(11)이 지정한 어드레스에 따른 프레임 메모리(4)의 화상 데이터 블록의 화상데이터를 입력하기 위한 과정이며, 스텝(S4)은 입력된 화상데이터들을 서브 샘플링하기 위한 과정이다.Step S3 is a process for inputting the image data of the image data block of the frame memory 4 according to the address designated by the ROM 11 according to the candidate vector, and step S4 is the input image data. This is a process for subsampling them.

이때, 스텝(S4)의 서브샘플링은 도면 7(a)에 도시된 바와같이 화상 블록데이터를 이루는 화상데이터중 우수 또는 기수행의 화상데이터를 한열 건너 샘플링하게 된다.At this time, the subsampling in step S4 samples the image data of even or odd rows among the image data constituting the image block data as shown in Fig. 7A.

그리고, 스텝(S5)은 샘플링된 입력 화상데이터의 총합과, 상기 프레임 메모리(4)로부터 입력된 화상블록데이터 블록중 샘플링된 화상데이터의 차값을 구하는 과정이며, 스텝(S6)은 구한 차값을 저장하는 과정이다.Step S5 is a process of calculating the total value of the sampled input image data and the difference value of the sampled image data among the image block data blocks input from the frame memory 4, and step S6 stores the difference value obtained. It's a process.

이때, 스텝(S7)은 상기 스텝(S1~S6)을 총 9번 수행하였는지 판단하여, 코가-3 단계 움직임벡터 검출방법중 1단계에서의 탐색점이 9번 이동하였는지 판단하는 과정이며, 스텝(S8)은 저장된 9개의 차값중 가장 작은 값을 선택하는 과정이다.In this case, step S7 is a process of determining whether the search points in the first step of the Koga-3 step motion vector detection method are moved nine times by determining whether the steps S1 to S6 have been performed a total of nine times. S8) is a process of selecting the smallest value among the nine difference values stored.

즉, 스텝(S8)은 코가-3 단계 움직 벡터 검출방법 중 1단계에서 입력 화상데이터와 가장 유사한 화상데이터 블록을 검출하는 과정인 것이다.That is, step S8 is a process of detecting the image data block most similar to the input image data in the first step of the Koga-3 step vector detection method.

이때, 상기 단계(S2)에서의 후보벡터는 코가-3 단계 움직임 벡터 검출중 1단계와 동일하게 이동시킨다. 그리고 루틴(L2)(L3)은 상기 루틴(L1)과 동일한 과정을 수행하나, 루틴(L2)은 스텝(S2)에 해당하는 과정에서 코카-3 단계 움직임벡터 검출방법중 2단계에 해당하도록 후보벡터를 이동시키며, 루틴(L3)에서는 코가-3 단계 움직임벡터 검출방법중 3단계에 해당하도록 후보벡터를 변경시킨다.At this time, the candidate vector in the step (S2) is moved in the same manner as the first step of detecting the Koga-3 motion vectors. The routine L2 and L3 perform the same process as the routine L1, but the routine L2 is a candidate to correspond to step 2 of the Coca-3 step motion vector detection method in the step S2. The vector is moved, and the routine L3 changes the candidate vector so as to correspond to the third step of the nose-3 motion vector detection method.

이때, 상기 루틴(L2)에서의 서브 샘플링 방법은 루틴(L1)과 동일하나, 루틴(L3)에서의 서브 샘플링 방법은 도면 7(b)와 같이 화상데이터를 모든 행에 대해서 한 열 건너 샘플링하게 이루어진다. 또한, 스텝(S1)에서 상기 CPU(12)에 이미 입력 화상데이터 블록의 어드레스가 인가되어 있는 상태이므로 상기 루틴(L2)(L3)에서는 필요없게 된다.At this time, the subsampling method in the routine L2 is the same as the routine L1, but the subsampling method in the routine L3 causes the image data to be sampled across one row for every row as shown in FIG. Is done. In addition, since the address of the input image data block is already applied to the CPU 12 in step S1, it is unnecessary in the routines L2 and L3.

또한, 스텝(7)에서는 화상데이터 블록의 화면의 모서리등에 위치할때는 해당하는 이동 보상 영역에서 가능한 탐색점의 이동수로 하정될 것이다.Further, in step 7, when located at the corner of the screen or the like of the image data block, the number of movements of the search point possible in the corresponding movement compensation area will be lowered.

이와같이 구성된 본 발명에 따른 움직임 검출장치의 코가-3 단계 움직임벡터 검출방법은 종래의 코가-3 단계 움직임벡터 검출방법과 동일한 순서로 수행함을 알 수 있다.As described above, it can be seen that the method of detecting the KOGA-3 motion vector of the motion detecting apparatus according to the present invention configured as described above is performed in the same order as the conventional KOGA-3 motion vector detecting method.

그러나, 종래의 코가-3 단계 방법에서 입력 화상데이터 블록과 프레임 메모리(4)의 화상데이터 블록과의 유사정도 입력화상데이터 블록의 화상데이터 전부를 더한 값과 프레임 메모리(4)의 화상데이터 블록의 화상데이터 전부를 더한 값의 차에 따라 판별하나, 본 발명에서는, 화상데이터를 서브 샘플링 한 값에 대한 차로서 판별하게 되는 것이다.However, in the conventional KOGA-3 step method, the similarity degree between the input image data block and the image data block of the frame memory 4 is obtained by adding up all the image data of the input image data block and the image data block of the frame memory 4. The image data is determined according to the difference of the sum of all the image data. However, in the present invention, the image data is determined as the difference with respect to the subsampled value.

즉, 본 발명에서는 코가-3 단계 움기임벡터 검출방법은 중 1, 2단계에서는, 입력 화상데이터 블록의 화상데이터 및 프레임 메모리(4)의 화상데이터 블록을 이루는 화상데이터를 도면 7(가)와 같이 서브 샘플링하게 된다. 그리고, 이와같이 서브 샘플링된 입력 화상데이터 블록의 화상데이터합과 프레임 메모리의 화상데이터 합의 차를 구하여 그 유사여부를 판별하는 것이다.That is, in the present invention, in step 1 and 2 of the method of detecting the nose-3 step, the image data constituting the image data of the input image data block and the image data block of the frame memory 4 is shown in FIG. Subsampling Then, the difference between the sum of the image data of the subsampled input image data block and the image data sum of the frame memory is determined to determine whether the similarity exists.

일반적으로, 화상은 움직이는 화상보다 움직이지 않는 화상이 보다 많다는 사실을 고려하면, 도면7(가)와 같이 서브 샘플링하여 유사여부를 판별하여도, 서브 샘플링하지 않는 경우와 거의 동일한 결과를 가져올 수 있음을 알 수 있다.In general, considering the fact that an image has more non-moving images than a moving image, even if it is subsampled as shown in FIG. It can be seen.

또한, 본 발명에서는 코가-3 단계의 3 단계에서, 도면 7(b)와 같이 서브 샘플링하여 줌으로서, 유사여부 판별에 대한 확실성을 더욱 높일 수 있다. 즉, 코가-3 단계 움직임벡터 검출 방법중 1, 2단계를 수행하게 되면, 2단계에 의한 후보탐색점에 대한 화상데이터 블록주위는 유사한 화상데이터 블록들이 여러개 있을 수 있다.In addition, in the present invention, by subsampling as shown in Fig. 7 (b) in step 3 of the koga-3 step, it is possible to further improve the certainty of the similarity determination. That is, when steps 1 and 2 of the Koga-3 step motion vector detection method are performed, the image data blocks around the candidate search points according to the step 2 may have similar image data blocks.

따라서, 본 발명은 코가-3 단계 움직임벡터 검출방법중 제3단계에서는 도면7(나)와 같이 화상데이터 블록의 화상데이터들을 모든 행들에 대해서 한 열건너 서브 샘플링하여 줌으로서 가장 유사한 화상데이터 블록을 검출할 수 있는 것이다.Therefore, in the third step of the Koga-3 step motion vector detection method, the most similar image data block is obtained by subsampling the image data of the image data block one column across all rows as shown in FIG. Can be detected.

이상에서 설명한 바와 같이 본 발명은, 입력 화상메모리의 화상데이터를 서브샘플링한 값과 프레임 메모리의 화상데이터를 서브샘플링 값으로 유사한 화상데이터 블록을 검출함으로써, CPU의 연산량이 감소해서 CPU의 연산용량을 작게 설계할 수 있어 움직임 검출장치를 소형, 고속연산화할 수 있는 효과가 있다.As described above, the present invention detects a similar image data block by subsampling the image data of the input image memory and the image data of the frame memory with the subsampling value, thereby reducing the amount of computation of the CPU and reducing the computational capacity of the CPU. Since it can be designed small, the motion detection device can be miniaturized and high speed.

Claims (2)

입력 화상메모리(10) CPU(12)와 롬(11)으로 되는 움직임 검출장치와, 프레임 메모리(4)를 이용하여 상기 입력화상 메모리(10)의 화상데이터 블록을 이루는 화상데이터와 탐색점을 3단계로 이동시켜 형성되는 프레임 메모리(4)내의 화상데이터 블록들의 화상데이터를 비교하여 입력 화상데이터 블로과 유사한 프레임 메모리(4)내의 화상데이터 블록을 검출하는 움직임 검출장치의 코가-3 단계 움직임 검출방법에 있어서, 상기 입력화상 메모리(10)로부터 입력 화상블록 데이터의 어드레스를 입력하느 스텝(S1)과, 상기 입력된 어드레스에 따라 후보 벡터를 출력하는 스텝(S2)과, 상기 후보 벡터에 따라 상기 롬(11)이 지정한 어드레스에 따른 상기 프레임 메모리(4)의 화상데이터 블록의 화상데이터로서 입력받는 스텝(S3)과, 상기 입력된 화상데이터들을 서브 샘플링하는 스텝(S4)과, 상기 샘플링된 입력 화상데이터의 총합과, 상기 프레임 메모리(4)로부터 입력된 화상블록 데이터 블록중 상기 샘플링된 화상데이터와의 차값을 구하는 스텝(S5)과, 상기 차값을 저장하는 스텝(S6)과, 상기 스텝(S1~S6)을 총 9번 수행하였는지를 판단한 결과, 상기 9번 수행되지 않았으면, 상기 스텝(S2~S6)이 9번 수행될 때까지 반복하며, 상기 9번 수행되었으며, 상기 저장된 9개의 차값중 가장 작은 값을 선택함으로써 유사블록을 검출하는 스텝(S8)를 포함하며, 상기 검출된 유사블록에 관련된 후부벡터를 이동 및 변경시킨 최종의 움직임 벡터를 출력하는 것을 특징으로 하는 움직임 검출장치의 코가-3단계 움직임벡터 검출방법.Input image memory 10 The motion detection device comprising the CPU 12 and the ROM 11, and the image data and the search point constituting the image data block of the input image memory 10 by using the frame memory 4 The method of detecting the motion of the motion detection apparatus of the motion detection apparatus for detecting the image data blocks in the frame memory 4 similar to the input image data blow by comparing the image data of the image data blocks in the frame memory 4 formed by moving to the step. In step S1 of inputting an address of input image block data from the input image memory 10, a step S2 of outputting a candidate vector according to the input address, and the ROM according to the candidate vector. Step S3, which is input as image data of the image data block of the frame memory 4 according to the address designated by 11, and subsampling the input image data. Is a step S4, a step S5 for calculating a difference value between the total of the sampled input image data, the sampled image data among the image block data blocks input from the frame memory 4, and the difference value. As a result of determining whether the step S6 to be stored and the steps S1 to S6 have been performed a total of nine times, if not performed nine times, is repeated until the steps S2 to S6 have been performed nine times, and Performed nine times, the step S8 of detecting a similar block by selecting the smallest value among the stored nine difference values, and outputs a final motion vector obtained by moving and changing a rear vector related to the detected similar block. Noga-3 step motion vector detection method of a motion detection device characterized in that. 제1항에 있어서, 상기 서브 샘플링은 코가-3 단계 움직임벡터 검출방법 중 제1, 2단계에서는 우수 또는 기수행의 화상데이터만을 한 열 건너 서브 샘플링하며, 제3단계에서는 화상데이터를 모든 행에 대해서 한 열건너 서브 샘플링하는 것을 특징으로 하는 움직임 검출장치의 코가-3 단계 움직임벡터 검출방법.The method of claim 1, wherein the sub-sampling is performed by sub-sampling only image data of even or odd rows in the first and second steps of the Koga-3 motion vector detection method. A method for detecting a motion vector of a motion detector of a motion detection apparatus, characterized in that sub-sampling is performed for each column.
KR1019910025867A 1991-12-31 1991-12-31 Koga - 3 stop motion vector detecting method for movement detecting apparatus KR960013234B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019910025867A KR960013234B1 (en) 1991-12-31 1991-12-31 Koga - 3 stop motion vector detecting method for movement detecting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019910025867A KR960013234B1 (en) 1991-12-31 1991-12-31 Koga - 3 stop motion vector detecting method for movement detecting apparatus

Publications (2)

Publication Number Publication Date
KR930015834A KR930015834A (en) 1993-07-24
KR960013234B1 true KR960013234B1 (en) 1996-10-02

Family

ID=19327343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019910025867A KR960013234B1 (en) 1991-12-31 1991-12-31 Koga - 3 stop motion vector detecting method for movement detecting apparatus

Country Status (1)

Country Link
KR (1) KR960013234B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180046012A (en) * 2016-10-27 2018-05-08 재단법인 전라북도생물산업진흥원 Corn foodstuff using corn seasoning composition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180046012A (en) * 2016-10-27 2018-05-08 재단법인 전라북도생물산업진흥원 Corn foodstuff using corn seasoning composition

Also Published As

Publication number Publication date
KR930015834A (en) 1993-07-24

Similar Documents

Publication Publication Date Title
KR970011859B1 (en) Encoding method and device for using fuzzy control
KR0178231B1 (en) Method and apparatus for detecting motion vectors based on hierarchical motion estimation
US6771826B2 (en) Digital image encoding and decoding method and digital image encoding and decoding device using the same
EP0637894B1 (en) Apparatus and method for detecting motion vectors to half-pixel accuracy
US4805017A (en) System for coding and transmitting motion image signals
US6430317B1 (en) Method and apparatus for estimating motion using block features obtained from an M-ary pyramid
CN1112767A (en) Apparatus and method for detecting motion vectors in a frame decimating video encoder
CN108848377B (en) Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
EP1503598A1 (en) Motion vector detecting method and system and devices incorporating the same
CN1136728C (en) Method and equipment for testing optimum movement vector
KR100431013B1 (en) Image encoding system
US6408101B1 (en) Apparatus and method for employing M-ary pyramids to enhance feature-based classification and motion estimation
FI109634B (en) Method and apparatus for encoding a video image
JP3769773B2 (en) Motion vector detection apparatus and detection method
CN1078795C (en) Improved motion compensation method for use in image encoding system
KR960013234B1 (en) Koga - 3 stop motion vector detecting method for movement detecting apparatus
JPH08265764A (en) Video signal encoding device
JPH0256187A (en) Moving picture encoder
US6788741B1 (en) Device and method of retrieving high-speed motion
KR0152014B1 (en) Method and apparauts for moving estimation in image data compression
JP2001078199A (en) Video signal coder
Strobach Quadtree-structured interframe coding of hdtv sequences
KR0174455B1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
JPH10285603A (en) Image encoding method
KR100296099B1 (en) Method of and apparatus for acquiring motion vectors of control points by vector quantization in control grid interpolation coder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 19990930

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee