KR100504416B1 - Image coding method and apparatus - Google Patents

Image coding method and apparatus Download PDF

Info

Publication number
KR100504416B1
KR100504416B1 KR10-1998-0709325A KR19980709325A KR100504416B1 KR 100504416 B1 KR100504416 B1 KR 100504416B1 KR 19980709325 A KR19980709325 A KR 19980709325A KR 100504416 B1 KR100504416 B1 KR 100504416B1
Authority
KR
South Korea
Prior art keywords
motion vector
image
motion
backward
encoding
Prior art date
Application number
KR10-1998-0709325A
Other languages
Korean (ko)
Other versions
KR20000015777A (en
Inventor
에이지 오구라
마사토시 다카시마
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Priority to KR10-1998-0709325A priority Critical patent/KR100504416B1/en
Publication of KR20000015777A publication Critical patent/KR20000015777A/en
Application granted granted Critical
Publication of KR100504416B1 publication Critical patent/KR100504416B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

먼저, 기준 프레임 메모리로부터 판독한 전방향 예측용 기준 블록 데이터와 검색 프레임 메모리로부터 판독한 검색 블록 데이터를 사용하여, 전방향 예측용 움직임 검출 회로에 의해 전방향 예측용 움직임 벡터와 그 잔차를 검출하고, 전방향 예측용 움직임 벡터, 잔차 보존 메모리에 보존해 둔다. 다음에, 기준 프레임 메모리로부터 판독한 후방향 예측용 기준 블록 데이터와 검색 프레임 메모리로부터 판독한 검색 블록 데이터를 사용하여, 후방향 예측용 움직임 검출 회로에 의해 후방향 예측용 움직임 벡터와 그 잔차를 검출하는 동시에 전방향 예측 움직임 벡터, 잔차 보존 메모리에 보존해 둔 움직임 벡터와 그 잔차를 판독하고, 이들 양방향의 움직임 벡터를 사용하여 부호화를 행한다.First, by using the omnidirectional prediction reference block data read from the reference frame memory and the search block data read from the search frame memory, the omnidirectional prediction motion vector and its residual are detected by the omnidirectional prediction motion detection circuit. The motion vectors for forward prediction and the residual storage memory are stored. Next, by using the backward block reference block data read from the reference frame memory and the retrieved block data read from the search frame memory, the backward predictive motion vector and its residual are detected by the backward predictive motion detection circuit. At the same time, the motion vector stored in the omnidirectional predictive motion vector and the residual storage memory and the residual thereof are read out, and encoding is performed using these bidirectional motion vectors.

Description

화상 부호화 방법 및 장치 Image coding method and apparatus

본 발명은 예를 들면 MPEG(Moving Picture Image Coding Experts Group)에 준거한 화상 부호화 방법 및 장치에 관한 것이다.The present invention relates to a picture coding method and apparatus based on, for example, the Moving Picture Image Coding Experts Group (MPEG).

MPEG 방식은 DCT(Discrete Cosine Transform)와 움직임 보상 예측과 가변 길이 부호화를 조합시켜 화상 데이터의 압축을 행하는 부호화 방식이다.The MPEG method is a coding method that compresses image data by combining DCT (Discrete Cosine Transform), motion compensation prediction, and variable length coding.

도 1에 MPEG 방식에 준거한 화상 부호화 장치의 구성을 도시한다. 이 도면에 있어서, 입력 단자(T1)에 화상 데이터가 공급된다. 이 화상 데이터는 움직임 벡터 검출회로(1)와 감산회로(2)에 입력된다. 움직임 벡터 검출회로(1)는, 입력된 화상 데이터를 사용하여 현 프레임과 참조 프레임(예를 들면 전 프레임)의 움직임 벡터를 구하여, 움직임 보상회로(3)로 제공한다.1 shows the configuration of a picture coding apparatus based on the MPEG system. In this figure, image data is supplied to the input terminal T1. This image data is input to the motion vector detection circuit 1 and the subtraction circuit 2. The motion vector detection circuit 1 obtains the motion vectors of the current frame and the reference frame (for example, the previous frame) using the input image data, and provides them to the motion compensation circuit 3.

참조 프레임의 화상 데이터는 프레임 메모리(4)내에도 격납되어 있다. 이 화상 데이터는 움직임 보상회로(3)로 공급된다. 움직임 보상회로(3)에서는, 움직임 벡터 검출회로(1)로부터 보내져 오는 움직임 벡터를 사용하여, 프레임 메모리(4)로부터 보내져 오는 화상 데이터의 움직임 보상을 행한다. 움직임 보상회로(3)의 출력은 감산회로(2)와 가산회로(5)로 보내어진다.The image data of the reference frame is also stored in the frame memory 4. This image data is supplied to the motion compensation circuit 3. In the motion compensation circuit 3, motion compensation of the image data sent from the frame memory 4 is performed using the motion vector sent from the motion vector detection circuit 1. The output of the motion compensation circuit 3 is sent to the subtraction circuit 2 and the adding circuit 5.

감산회로(2)에서는 입력단자(T1)로부터 공급되는 현 프레임의 화상 데이터와, 움직임 보상회로(3)로부터 공급되는 움직임 보상된 참조 프레임의 화상 데이터를 감산하여 예측오차 데이터를 구하여, DCT 회로(6)에 공급한다. DCT 회로(2)는 이 예측오차 데이터를 DCT 처리하여 양자화기(7)로 보낸다. 양자화기(7)는 DCT 회로(6)의 출력을 양자화하여, 가변 길이 부호화 회로로 보낸다.The subtraction circuit 2 obtains prediction error data by subtracting the image data of the current frame supplied from the input terminal T1 and the image data of the motion compensated reference frame supplied from the motion compensation circuit 3 to obtain a prediction error data. 6) to supply. The DCT circuit 2 DCT-processes this prediction error data and sends it to the quantizer 7. The quantizer 7 quantizes the output of the DCT circuit 6 and sends it to the variable length coding circuit.

양자화기(7)의 출력은 역양자화기(8)에도 공급된다. 그리고, 여기서 역양자화 처리를 받으며, 그 출력은 역 DCT 회로(9)에서 역 DCT 처리를 받아서, 원래의 예측 오차 데이터에 되돌아가, 가산 회로(5)에 제공된다.The output of the quantizer 7 is also supplied to the inverse quantizer 8. Then, inverse quantization processing is performed, and its output is subjected to inverse DCT processing in the inverse DCT circuit 9, and returns to the original prediction error data, which is provided to the addition circuit 5.

가산회로(5)에서는, 이 예측 오차 데이터를 움직임 보상회로(3)의 출력 데이터에 가산하여 현 프레임의 화상 데이터를 구한다. 구하여진 화상 데이터는 다음 참조 프레임의 화상 데이터로서 프레임 메모리(4)에 격납된다.In the addition circuit 5, this prediction error data is added to the output data of the motion compensation circuit 3 to obtain image data of the current frame. The obtained image data is stored in the frame memory 4 as image data of the next reference frame.

이러한 화상 부호화 장치에 있어서의 움직임 벡터 검출 방법으로서는 블록 매칭법이 알려져 있다. 블록 매칭법은, 화면을 작은 구형 영역(블록)으로 분할하여 블록마다 움직임을 검출한다. 블록의 사이즈로서는, 가로 8화소× 세로 8화소(이하 8× 8로 칭함), 16× 16등이 있다. 다음에 도 2를 참조하면서 블록 매칭법에 대하여 설명한다.As a motion vector detection method in such a picture coding apparatus, a block matching method is known. The block matching method divides a screen into small rectangular areas (blocks) and detects motion for each block. Examples of the size of the block include 8 pixels wide x 8 pixels long (hereinafter referred to as 8x8), 16x16, and the like. Next, the block matching method will be described with reference to FIG.

도 2에 있어서, 기준 프레임(41)내에 M× N의 기준 블록(RB)을 설정한다. 또한, 검색 프레임(42)내에 기준 블록(RB)과 같은 사이즈의 검사 블록(SB)을 설정한다. 검사 블록(SB)은 기준 블록(RB)과 같은 위치를 중심으로 ± m× ± n의 소정의 검색 범위(43)내를 돌아 이동된다. 그리고, 기준 블록(RB)과 검사 블록(SB)의 일치도를 계산하여, 가장 일치도가 높은 검사 블록을 매칭 블록으로 하여, 이 매칭 블록으로부터 움직임 벡터를 구한다.2, the reference block RB of MxN is set in the reference frame 41. In FIG. In addition, a check block SB having the same size as the reference block RB is set in the search frame 42. The inspection block SB is moved around the predetermined search range 43 of ± m x ± n around the same position as the reference block RB. The degree of coincidence between the reference block RB and the check block SB is calculated, and the motion vector is obtained from the matched block using the test block having the highest match as the matching block.

즉, 기준 블록(RB)과 같은 위치에 있는 검사 블록(SB0)으로부터 (u, v) 시프트한 위치에 있는 검사 블록(SBk)의 일치도가 가장 높은 경우에는, 그 기준 블록(RB)의 움직임 벡터를 (u, v)로 한다. 이 때, 기준 블록(RB)과 검사 블록(SB)의 같은 위치의 화소마다 절대치 차분의 총합이나 화소마다 차분의 2승의 총합 등이 최소가 되는 검사 블록을 가장 일치도가 높은 검사 블록으로 한다.That is, when the coincidence of the check block SBk at the position (u, v) shifted from the check block SB0 at the same position as the reference block RB is the highest, the motion vector of the reference block RB is Let (u, v) be. At this time, an inspection block having the highest coincidence is used as the inspection block having the smallest sum of absolute differences or sum of squares of differences for each pixel at the same position of the reference block RB and the inspection block SB.

MPEG 방식에 있어서는 동화상의 1시퀀스를 복수의 프레임(픽처)으로 이루어지는 GOP(Group of Picture)로 분할하여 부호화를 행한다. GOP는 프레임내 부호화 화상(I 픽처)과, 이미 부호화된 시간적으로 전의 프레임에서 예측하는 프레임간 부호화 화상(P 픽처)과, 이미 부호화된 시간적으로 전후의 2프레임에서 예측하는 프레임 부호화 화상(B 픽처)으로 구성된다.In the MPEG system, one sequence of a moving picture is divided into GOPs (Groups of Pictures) composed of a plurality of frames (pictures) to perform encoding. The GOP is an intra-frame coded picture (I picture), an inter-frame coded picture (P picture) that is predicted in a frame that has been previously encoded temporally, and a frame-coded picture (B picture that is predicted in two frames that have been encoded before and after temporally encoded. It is composed of

예를 들면 도 3에 있어서는, 처음에 P 픽처인 P6을 기준 프레임으로 하고, I 픽처인 I3을 검색 프레임으로 하여 움직임 검출을 행한다. 다음에 B 픽처인 B4를 기준 프레임으로 하고, I3과 P6을 검색 프레임으로 하여 양방향의 움직임 검출을 행한다. 다음에 B 픽처인 B5를 기준 프레임으로 하고, I3과 P6을 검색 프레임으로 하여 양방향의 움직임 검출을 행한다.For example, in FIG. 3, motion detection is first performed using P6, which is a P picture, as a reference frame, and I3, which is an I picture, as a search frame. Next, bidirectional motion detection is performed using B4 as a B picture as a reference frame and I3 and P6 as search frames. Next, bidirectional motion detection is performed using B5 as a B picture as a reference frame and I3 and P6 as search frames.

도 4에 도시되는 타이밍도를 참조하면서 상세히 설명한다. 예로서 시각(t1)에 있어서, 현 프레임(B4)을 기준의 매크로 블록으로 하고, 전방향 예측의 검색 프레임(검색 프레임0)(I3)과 후방향 예측의 검색 프레임(검색 프레임1)(P6)으로의 양방향 예측을 동시에 행하고, 2개의 움직임 벡터를 구하는 경우를 설명한다. 이 경우에는, 현 프레임(B4)으로부터 기준 블록의 데이터 전송이 필요하게 되며, 2개의 검색 프레임(I3 및 P6)으로부터 검색 블록의 데이터 전송이 필요하게 된다.It demonstrates in detail, referring the timing chart shown in FIG. For example, at the time t1, the current frame B4 is used as a reference macro block, and the forward-looking search frame (search frame 0) I3 and the backward-looking search frame (search frame 1) (P6). The case where bi-directional prediction to) is performed simultaneously and two motion vectors are obtained. In this case, data transmission of the reference block is necessary from the current frame B4, and data transmission of the search block is required from the two search frames I3 and P6.

따라서, 1화소가 8비트, 기준 블록의 사이즈가 16× 16, 서치 범위가 수평방향, 수직 방향 모두 ± 16이라 하면, 1개의 기준 블록을 처리하기 위한 데이터 전송량은, 기준 블록이 8× 16× 16× 1=2K비트, 검색 블록이 8× 48× 48× 2=36K 비트이므로, 합계 38K비트가 된다.Therefore, if one pixel is 8 bits, the size of the reference block is 16 × 16, and the search range is ± 16 in both the horizontal and vertical directions, the data transfer amount for processing one reference block is 8 × 16 ×. Since 16x1 = 2K bits and the search block is 8x48x48x2 = 36K bits, the total is 38K bits.

이와 같이, 종래의 움직임 검출 방법에서는 양방향 예측을 할 때에 검색 프레임의 데이터를 다량으로 전송하는 것이 필요했다. 그리고, 이것이 하드웨어를 실현하는 데에 있어서의 큰 문제가 되고 있었다.As described above, in the conventional motion detection method, it is necessary to transmit a large amount of data of a search frame when performing bidirectional prediction. And this has become a big problem in realizing hardware.

또한, 이 화상 부호화 장치에서는, 각 프레임을 MEM0RY-0 내지 MEM0RY-5까지의 합계 6개의 프레임 메모리를 준비하여 도 4에 도시하는 기간만큼 유지하고 있을 필요가 있었다. 또한, 국소 디코드 출력용으ろ LOCAL-1 및 LOCAL-2의 국소 디코드용 메모리도 필요하였다. 즉, 종래의 화상 부호화 장치로서는, 합계 8개의 메모리가 필요하였다.In addition, in this picture coding apparatus, it was necessary to prepare six frame memories in total for each frame from MEM0RY-0 to MEM0RY-5 and hold them for the period shown in FIG. In addition, a local decoding memory of LOCAL-1 and LOCAL-2 was also required for local decoding output. That is, the conventional image coding apparatus required eight memories in total.

예를 들면, 입력 화상(B1)이 공급되면 MEMORY-0은 B1을 부호화가 완료할 때까지 유지하고 있다. 각 B프레임에 대해서는 마찬가지로 부호화될 때까지 각 MEM0RY에 유지되어 있다. 여기서, 검색 프레임으로서 사용되는 I 및 P 프레임은, 각 프레임의 전방향 및 후방향의 움직임 벡터가 검출될 때까지, 즉 상기 움직임 벡터를 검출하기 위한 검색 프레임으로서 필요하게 되는 동안, 상기 각 프레임 메모리에 격납된다.For example, when the input image B1 is supplied, MEMORY-0 holds B1 until encoding is complete. Each B frame is held in each MEM0RY until it is similarly encoded. Here, the I and P frames used as the search frames are each frame memory until they are needed as the search frames for detecting the motion vectors until the forward and backward motion vectors of each frame are detected. Are stored in.

도 1은 MPEG에 준거한 화상 부호화 장치의 구성을 도시하는 블록도.1 is a block diagram showing the configuration of a picture coding apparatus based on MPEG.

도 2는 블록 매칭법에 관하여 설명하기 위한 도면.2 is a diagram for explaining a block matching method.

도 3은 MPEG에 있어서의 움직임 검출의 예를 도시하는 도면.3 is a diagram illustrating an example of motion detection in MPEG.

도 4는 종래의 움직임 벡터 검출회로의 동작 타이밍과 프레임 메모리의 사용을 설명하기 위한 타이밍 챠트.4 is a timing chart for explaining the operation timing of the conventional motion vector detection circuit and the use of the frame memory.

도 5는 본 발명에 관계되는 화상 부호화 방법 및 장치의 실시예에 적용할 수 있는 움직임 벡터 검출 회로의 제 1 형태를 도시하는 블록도.Fig. 5 is a block diagram showing a first form of a motion vector detection circuit that can be applied to an embodiment of a picture coding method and apparatus according to the present invention.

도 6은 상기 움직임 벡터 검출 회로의 제 2 형태를 도시하는 블록도.6 is a block diagram showing a second form of the motion vector detection circuit;

도 7은 상기 움직임 벡터 검출 회로의 동작을 설명하기 위한 플로우 챠트.7 is a flowchart for explaining the operation of the motion vector detection circuit.

도 8은 상기 움직임 벡터 검출 회로의 동작을 설명하기 위한 타이밍 챠트.8 is a timing chart for explaining the operation of the motion vector detection circuit.

도 9는 상기 움직임 벡터 검출 회로의 프레임 메모리 삭감을 설명하기 위한 타이밍 챠트.9 is a timing chart for explaining frame memory reduction of the motion vector detection circuit.

본 발명은, 상기 문제점을 감안하여 이루어진 것으로, 양방향 예측을 할 때의 검색 프레임의 데이터 전송량의 삭감을 가능하게 한 화상 부호화 방법 및 장치의 제공을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object thereof is to provide an image encoding method and apparatus capable of reducing the data transmission amount of a search frame when performing bidirectional prediction.

또한, 본 발명은, 기준 프레임 및 검색 프레임용의 메모리를 삭감할 수 있는 화상 부호화 방법 및 장치의 제공을 목적으로 한다.Moreover, an object of this invention is to provide the image coding method and apparatus which can reduce the memory for a reference frame and a search frame.

이 때문에, 상기 화상 부호화 방법은, 시간적으로 전방향 및 후방향의 화상으로부터 움직임 검출을 행하여 화상 부호화를 행하는 화상 부호화 방법에 있어서, 부호화하는 입력 화상을 기억부에 기억하는 입력 화상 기억 공정과, 상기 입력 화상 기억 공정에서 기억부에 기억한 제 1 화상보다 시간적으로 전방향에 있는 검색화상으로부터 상기 제 1 화상의 전방향 움직임 벡터를 검출하는 전방향 움직임 검출공정과, 상기 입력 화상 기억공정에서 기억부에 기억하며, 상기 검색 화상보다 시간적으로 전에 있는 제 2 화상의 후방향 움직임 벡터를 상기 검색 화상으로부터 검출하는 후방향 움직임 검출공정과, 상기 전방향 움직임 검출공정에 의해 검출된 상기 제 1 화상의 전방향 움직임 벡터를 보존부에 보존하는 움직임 벡터 보존공정과, 상기 제 1 화상을 부호화할 때에 상기 움직임 벡터 보존 공정에서 상기 제 1 화상의 전방향 움직임 벡터를 판독하고, 상기 제 1 화상에 대한 후방향 움직임 벡터를 상기 후방향 움직임 벡터 검출공정에서 검출하고, 전방향 및 후방향의 움직임 벡터를 사용하여 부호화를 행하는 부호화 공정을 구비한다.For this reason, the image encoding method includes an image encoding method for performing image encoding by detecting motion from images in the forward and backward directions in time, the input image storing step of storing an input image to be encoded in the storage unit, and An omnidirectional motion detection step of detecting an omnidirectional motion vector of the first image from a search image that is temporally omnidirectional than the first image stored in the storage in the input image storage step; and a storage unit in the input image storage step And a backward motion detecting step of detecting a backward motion vector of the second picture temporally before the searched picture from the searched picture, and the front of the first picture detected by the forward motion detecting step. A motion vector preservation step of storing a directional motion vector in a storage unit; and adding the first image When synchronizing, the forward motion vector of the first image is read out in the motion vector storing step, and the backward motion vector for the first image is detected in the backward motion vector detecting step, and the forward and backward directions are detected. An encoding step of encoding using a motion vector is provided.

여기서, 상기 제 1 및 제 2 화상은, 상기 입력 화상을 복수의 단위로 분할한 블록 단위로 처리된다.The first and second images are processed in units of blocks in which the input image is divided into a plurality of units.

또한, 상기 전방향 및 후방향의 움직임 검출공정은, 블록 매칭법을 사용하여 움직임 벡터를 검출한다.The forward and backward motion detection process detects motion vectors using a block matching method.

또한 본 발명에 관계되는 화상 부호화 방법은, 기준 블록의 화상 데이터와 검색 범위내의 검색 블록의 화상 데이터를 연산하여 전방향의 움직임 벡터 및 후방향의 움직임 벡터를 검출하고, 이 양방향의 움직임 벡터를 사용하여 부호화를 행할 때, 한 방향의 움직임 벡터의 검출 타이밍을 부호화 타이밍보다 시간적으로 앞으로 비켜 놓음으로써, 상기 검색 블록의 화상 데이터의 적어도 일부를 양방향의 움직임 벡터 검출에 공통화한다.Further, the picture coding method according to the present invention calculates the picture data of the reference block and the picture data of the search block within the search range, detects the forward motion vector and the backward motion vector, and uses the bidirectional motion vectors. When encoding is performed, the detection timing of the motion vector in one direction is shifted in time forward than the encoding timing, thereby making at least a part of the image data of the search block common to bidirectional motion vector detection.

여기서, 상기 부호화 타이밍보다 시간적으로 전에 검출한 움직임 벡터를 보존부에 보존해 두고, 부호화 타이밍에 맞추어 판독한다.Here, the motion vectors detected in time before the encoding timing are stored in the storage unit, and are read in accordance with the encoding timing.

또한, 본 발명에 관계되는 화상 부호화 장치는, 시간적으로 전방향 및 후방향의 화상으로부터 움직임 검출을 행하여 화상 부호화를 행하는 화상 부호화 장치에 있어서, 부호화하는 입력 화상을 기억하는 입력 화상 기억수단과, 상기 입력화상 기억수단에 의해 기억한 제 1 화상보다 시간적으로 전방향에 있는 검색화상으로부터 제 1 화상의 전방향 움직임 벡터를 검출하는 전방향 움직임 검출수단과, 상기 입력 화상 기억수단에서 기억하고, 상기 검색화상보다 시간적으로 전에 있는 제 2 화상의 후방향 움직임 벡터를 상기 검색화상으로부터 검출하는 후방향 움직임 검출수단과, 상기 전방향 움직임 검출수단에 의해 검출된 상기 제 1 화상의 전방향 움직임 벡터를 보존하는 움직임 벡터 보존수단과, 상기 제 1 화상을 부호화할 때에 상기 움직임 벡터 보존 수단에서 상기 제 1 화상의 전방향 움직임 벡터를 판독하고, 상기 제 1 화상에 대한 후방향 움직임 벡터를 상기 후방향 움직임 벡터 검출수단에서 검출하고, 이들 전방향 및 후방향이 움직임 벡터를 사용하여 부호화를 행하는 부호화 수단을 구비한다.In addition, the image encoding apparatus according to the present invention is an image encoding apparatus which performs image encoding by performing motion detection from images in forward and backward directions in time, comprising: input image storage means for storing an input image to encode, and Omnidirectional motion detection means for detecting an omnidirectional motion vector of the first image from a search image that is temporally omnidirectional than the first image stored by the input image storage means, and stored in the input image storage means; A backward motion detecting means for detecting a backward motion vector of a second image that is temporally before the image from the searched image, and a forward motion vector of the first image detected by the forward motion detecting means; Motion vector storage means and the motion vector storage when the first image is encoded. The means reads the forward motion vector of the first picture, the backward motion vector for the first picture is detected by the backward motion vector detection means, and these forward and backward directions are encoded using the motion vector. And encoding means for performing the operation.

여기서, 상기 제 1 및 제 2 화상은 상기 입력 화상을 복수의 단위로 분할한 블록 단위로 처리된다.Here, the first and second images are processed in units of blocks in which the input image is divided into a plurality of units.

또한, 상기 전방향 및 후방향의 움직임 검출 수단은 블록 매칭법을 사용하여 움직임 벡터를 검출한다.In addition, the forward and backward motion detection means detects a motion vector using a block matching method.

이하, 본 발명에 관계되는 화상 부호화 방법 및 장치의 실시예에 대하여 도면을 참조하여 설명한다. 이 실시예는, 상기 도 1에 도시된 MPEG 방식에 준거한 화상 부호화 장치에 있어서, 움직임 벡터 검출 회로(1)의 구성을 도 5에 도시하는 움직임벡터 검출 회로로 한 화상 부호화 장치이다. 또, 이하에서는 상기 화상 부호화 장치의 다른 각 부에 대한 설명을 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, the Example of the image coding method and apparatus which concern on this invention is described with reference to drawings. This embodiment is an image coding apparatus in which the configuration of the motion vector detecting circuit 1 is a motion vector detecting circuit shown in FIG. 5 in the image coding apparatus based on the MPEG system shown in FIG. In addition, below, the description about each other part of the said image coding apparatus is abbreviate | omitted.

도 5에 있어서 움직임 벡터 검출 회로는, 기준 프레임 메모리(11)와, 검색 프레임 메모리(12)와, 전방향 예측용 움직임 검출 회로(13)와, 후방향 예측용 움직임 검출 회로(14)와, 전방향 예측용 움직임 벡터, 잔차 보존 메모리(15)와, 움직임 보상 모드 판정 회로(16)로 구성되어 있다.In FIG. 5, the motion vector detection circuit includes a reference frame memory 11, a search frame memory 12, a forward prediction motion detection circuit 13, a backward prediction motion detection circuit 14, It consists of the motion vector for omnidirectional prediction, the residual storage memory 15, and the motion compensation mode determination circuit 16. As shown in FIG.

기준 프레임 메모리(12)는 검색 프레임의 화상을 격납한다. 그리고, 여기에서 검색 블록 데이터(b)가 판독되고, 전방향 예측용 움직임 검출 회로(13)와 후방향 예측용 움직임 검출 회로(14)에 공통으로 입력된다.The reference frame memory 12 stores an image of a search frame. Then, the search block data b is read out and input to the forward prediction motion detection circuit 13 and the backward prediction motion detection circuit 14 in common.

전방향 예측용 움직임 검출 회로(13)는 전방향 예측용 움직임 벡터(c1) 및 그 잔차(d1)를 구하여, 전방향 예측용 움직임 벡터, 잔차보존 메모리(15)로 출력한다.The omnidirectional prediction motion detection circuit 13 obtains the omnidirectional prediction motion vector c1 and its residual d1 and outputs it to the omnidirectional prediction motion vector and the residual storage memory 15.

전방향 예측용 움직임 벡터, 잔차 보존 메모리(15)에는 입력된 전방향 예측용 움직임 벡터(c1) 및 잔차(d1)가 보존된다. 동시에, 이미 보존된 전방향 예측용 움직임 벡터(c2) 및 잔차(d2)가 판독되고, 움직임 보상 모드 판정 회로(16)에 입력된다.In the forward prediction motion vector and the residual preservation memory 15, the input forward prediction motion vector c1 and the residual d1 are stored. At the same time, the motion vector c2 and the residual d2 for omnidirectional prediction already stored are read out and input to the motion compensation mode determination circuit 16.

후방향 예측용 움직임 검출 회로(14)는 후방향 예측용 움직임 벡터(e) 및 그 잔차(f)를 구하여, 움직임 보상 모드 판정 회로(16)에 제공한다. 이 움직임 벡터(e)는, 종래 예와 동일하게 블록 매칭법으로 구한다.The backward predictive motion detecting circuit 14 obtains the backward predictive motion vector e and the residual f, and provides the motion compensation mode determining circuit 16 to the backward predictive motion vector e. This motion vector e is obtained by the block matching method as in the conventional example.

움직임 보상 모드 판정 회로(16)는 입력된 데이터를 사용하며, 움직임 보상 모드의 판정, 움직임 벡터 및 잔차의 검출 등을 행하여, 그 결과(g)를 출력한다. 도 6은 상기 움직임 벡터 검출 회로의 제 2 형태를 도시하는 블록도이다. 여기서, 도 5와 동일한 부분에는 도 5와 동일한 번호 및 기호가 붙어 있다. 도 6에 도시된 움직임 벡터 검출 회로는, 도 5에 있어서의 기준 프레임 메모리(11), 검색 프레임 메모리(12), 및 전방향 예측용 움직임 벡터, 잔차 보존 메모리(15)를 1개의 메모리(21)에 통합함과 동시에, 신호선을 버스 형식으로 한 것이다.The motion compensation mode determination circuit 16 uses the input data, determines the motion compensation mode, detects motion vectors and residuals, and outputs the result g. Fig. 6 is a block diagram showing a second form of the motion vector detection circuit. Here, the same numerals and symbols as those in FIG. 5 are attached to the same parts as in FIG. 5. The motion vector detection circuit shown in FIG. 6 includes a reference frame memory 11, a search frame memory 12, a motion vector for forward prediction, and a residual storage memory 15 in FIG. ), And the signal lines are bus type.

이들 도 5 및 도 6에 도시된 움직임 벡터 검출 회로의 동작을 도 7의 플로우 챠트로 설명한다. 또한, 도 8에는 동작 타이밍을 도시한다.The operation of the motion vector detection circuits shown in Figs. 5 and 6 will be described with the flowchart of Fig. 7. 8 shows the operation timing.

도 7에 도시된 바와 같이, 상기 움직임 벡터 검출 회로에 있어서는, 기준 프레임(0)은 부호화 프레임이 아니고, 이 기준 프레임(0)으로부터의 전방향의 움직임 벡터 및 잔차는 스텝(S1)에서 전방향 예측용 움직임 벡터, 잔차 보존 메모리(15)에 보존된다. 그리고, 부호화되는 시각에는, 스텝(S2)에서 기준 프레임(1)으로부터의 후방향 예측 벡터를 구하는 동시에, 스텝(S1)에서 보존한 전방향의 움직임 벡터 및 잔차를 판독하고, 기준 프레임(1)의 부호화를 행한다. 이후 이 동작을 반복한다.As shown in Fig. 7, in the motion vector detection circuit, the reference frame 0 is not an encoded frame, and the motion vector and the residual in all directions from this reference frame 0 are forward in step S1. The prediction motion vector and the residual storage memory 15 are stored. At the time to be encoded, the backward prediction vector from the reference frame 1 is obtained at step S2, the forward motion vector and the residual stored in step S1 are read out, and the reference frame 1 is read. Is encoded. This operation is then repeated.

도 8에 도시된 바와 같이, 예를 들면 시각(t0)에서는, 현 프레임(B4)을 기준의 매크로 블록으로 하고, 프레임(I3)을 전방향 예측용의 검색 프레임으로 한 움직임 검출이 행해지며, 그 움직임 벡터 및 잔차는 전방향 예측용 움직임 벡터, 잔차 보존 메모리(15)의 뱅크(MV0)에 기록된다.As shown in Fig. 8, for example, at time t0, motion detection is performed using the current frame B4 as a reference macro block and the frame I3 as a search frame for omnidirectional prediction. The motion vector and the residual are recorded in the motion vector for forward prediction and the bank MV0 of the residual storage memory 15.

시각(t1)에서는, 현 프레임(B4)을 기준의 매크로 블록으로 하고, 프레임(P6)을 후방향 예측용의 검색 프레임으로 한 움직임 검출이 수행된다. 이것과 동시에, 시각(t0)에서 뱅크(MV0)에 보존한 전방향 움직임 벡터 및 잔차가 판독된다. 이 결과, 프레임(B4)의 부호화에 필요한 양방향의 움직임 벡터가 시각(t1)에 있어서 일치된다.At time t1, motion detection is performed using the current frame B4 as a reference macroblock and the frame P6 as a search frame for backward prediction. At the same time, the omnidirectional motion vector and the residual stored in the bank MV0 are read at time t0. As a result, the bidirectional motion vectors required for encoding the frame B4 coincide at time t1.

시각(t1)에서, 또한 기준 블록 데이터로서 프레임(B7)의 데이터가 전송되고, 프레임(B7)으로부터 프레임(P6)으로의 전방향 움직임 벡터 및 그 잔차가 검출되어 전방향 예측용 움직임 벡터, 잔차 보존 메모리(5)의 뱅크(MV1)에 기록된다. 이 전방향 움직임 벡터 및 잔차는 시각(t2)에서 판독되고, 프레임(B7)의 부호화에 사용된다.At time t1, data of frame B7 is also transmitted as reference block data, and an omnidirectional motion vector and its residual from frame B7 to frame P6 are detected so that an omnidirectional prediction motion vector, residual It is written to the bank MV1 of the storage memory 5. This omnidirectional motion vector and residual are read at time t2 and used for encoding of frame B7.

또한, 시각(t2)에 있어서는, 마찬가지로 프레임(B7)으로부터 프레임(P9)으로의 후방향 움직임 벡터 및 잔차가 구해진다.In addition, at the time t2, the backward motion vector and the residual from the frame B7 to the frame P9 are similarly obtained.

이렇게 하여, 항상 1종류의 검색 데이터(시각(t1)에서는 프레임(P6)의 데이터)와 2종류의 기준 블록 데이터(시각(t1)에서는 프레임(B7)과 프레임(B4)의 데이터)를 전송하고, 전방향 움직임 벡터 및 그 잔차를 메모리에 판독하여 기록함으로써, 양방향 예측에 필요한 양방향의 움직임 벡터를 구하고, 양방향 예측을 이용한 부호화가 가능하게 된다. 즉, 전방향의 움직임 벡터 및 그 잔차를 검출하는 타이밍을 후방향의 움직임 벡터 및 그 잔차 검출의 타이밍과(따라서, 부호화 타이밍과도) 어긋나게 함으로써, 1종류의 검색 데이터를 2종류의 기준 블록 데이터에 공통화하고 있다. 그리고, 이 공통화에 의해 검색 데이터의 전송량을 삭감하고 있다. 또, 잔차는, 처리에 필요하지 않는 경우에는 반드시 보존할 필요는 없다.In this way, one type of search data (data at frame P6 at time t1) and two types of reference block data (data at frame B7 and frame B4 at time t1) are always transmitted. By reading and recording the forward motion vector and the residual in the memory, it is possible to obtain a bidirectional motion vector required for bidirectional prediction and to encode using bidirectional prediction. That is, the timing of detecting the motion vector in the forward direction and the residual thereof is shifted from the timing of the motion vector in the backward direction and the residual detection (and thus also the encoding timing) so that one type of search data is converted into two types of reference block data. Common to. This commonization reduces the transmission amount of the search data. In addition, the residuals are not necessarily stored when they are not necessary for the processing.

여기서, 본 실시의 형태에 있어서 양방향 예측에 필요한 데이터 전송량을 계산한다. 움직임 벡터 및 그 잔차를 판독하여 기록할 때의 전송량은 수십 비트 정도로 무시할 수 있는 양이기 때문에, 기준 블록 데이터와 검색 블록 데이터의 전송량만을 계산하면, 기준 블록의 전송량이 8× 16× 16× 2=4K 비트, 검색 블록의 전송량이 8× 48× 48× 1=18K 비트, 합계 22K 비트가 되고, 종래의 38K비트와 비교하면, 40% 정도 적어진다.In this embodiment, the amount of data transmission required for bidirectional prediction is calculated. Since the amount of transmission when reading and writing the motion vector and the residual thereof is negligible by several tens of bits, if only the amount of transmission of the reference block data and the search block data is calculated, the amount of transmission of the reference block is 8x16x16x2 = The transmission amount of 4K bits and the search block is 8x48x48x1 = 18K bits, and 22K bits in total, which is about 40% smaller than the conventional 38K bits.

또, 이상의 설명에서는, 검색 범위를 수평방향 및 수직방향 모두 ± 16의 경우에 대해서 설명하였지만, 검색 범위가 넓으면 넓을수록, 검색 블록 데이터의 전송부가 증가하기 때문에, 본 발명에 의한 전송량 삭감 효과가 커진다. 또한, 이상의 설명은 B 픽처가 2매인 경우이지만, 본 발명은 여기에 한정되지 않는다. 또한, 이상의 설명에서는 전방향 예측의 검색 범위와 후방향 예측의 검색 범위가 같은 경우이었지만, 예를 들면 한쪽 방향(전방향)의 검색 범위가 넓은 경우에도 본 발명을 적용할 수 있으며, 그 경우에는 검색 데이터의 일부가 공통화된다.In the above description, the case where the search range is ± 16 in both the horizontal direction and the vertical direction has been described. However, the wider the search range, the more the transmission portion of the search block data increases. Grows In addition, although the above description is a case where there are two B pictures, this invention is not limited to this. In the above description, although the search range of the forward prediction is the same as the search range of the backward prediction, the present invention can be applied even when the search range in one direction (forward direction) is wide. Some of the search data is common.

또한 상기 움직임 벡터 검출 회로에서는, 기준 메모리(11) 및 검색 프레임 메모리(12)로서 사용하는 프레임 메모리의 수를 도 4를 사용하여 설명한 종래의 프레임 메모리 수보다도 감소시킬 수 있다. 이 프레임 메모리의 삭감에 대해서 도 9를 사용하여 이하에 설명한다.Further, in the motion vector detection circuit, the number of frame memories used as the reference memory 11 and the search frame memory 12 can be reduced than the number of conventional frame memories described with reference to FIG. This frame memory reduction will be described below with reference to FIG.

입력 화상으로서 B1이 공급되면 메모리-0은 B1을 부호화가 완료할 때까지 보유하고 있다. 각 B프레임에 대해서는 마찬가지로 부호화될 때까지 각 MEMORY에 보유되어 있다. 여기서, 검색 프레임으로서 사용되는 I 및 P 프레임은, 전방향의 움직임 벡터가 이미 검출되어 있고, 후방향의 움직임 벡터 검출에 사용되는 즉시 복구된다. 이렇게, 도 5 및 도 6에 도시된 움직임 벡터 검출 회로를 사용한 화상 부호화 장치에 의하면, I 및 P 프레임을 메모리에 기억하는 시각을 짧게 할 수 있다. 이 때문에, 기준 프레임 메모리 및 검색 프레임 메모리로서 사용되는 MEMORY의 수를 종래의 움직임 벡터 검출 회로에서 사용한 수, 예를 들면 도 4에서는 6개에서 1개 줄여서 5개로 할 수 있다.When B1 is supplied as an input image, memory-0 holds B1 until encoding is completed. Each B frame is held in each memory until it is similarly encoded. Here, the I and P frames used as the search frame are recovered as soon as the motion vector in the forward direction has already been detected and used for the motion vector detection in the backward direction. Thus, according to the image coding apparatus using the motion vector detection circuits shown in Figs. 5 and 6, the time for storing the I and P frames in the memory can be shortened. For this reason, the number of memories used as the reference frame memory and the search frame memory can be reduced from six to one in the conventional motion vector detection circuit, for example, from six to one in FIG.

이상 상세히 설명한 바와 같이, 본 발명에 의하면, 양방향 움직임 검출을 수행하는 경우에 있어서, 검색 데이터의 전송량을 삭감하는 것이 가능하다. 그리고, 데이터의 전송량이 삭감됨으로써, 메모리로부터의 버스폭의 축소, 전송 클록의 저속화가 가능하게 된다. 이 때문에, 하드웨어에 의한 실현이 용이하게 되어, 결과로서 하드의 저비용화 및 저소비 전력화가 실현된다. 또한, 원화상을 기억해 두기 위한 메모리를 삭감할 수 있다.As described above in detail, according to the present invention, it is possible to reduce the amount of transmission of search data when performing bidirectional motion detection. As the data transfer amount is reduced, the bus width from the memory can be reduced and the transfer clock can be made slow. For this reason, the realization by hardware becomes easy, and as a result, hard cost reduction and low power consumption are realized. In addition, the memory for storing the original image can be reduced.

Claims (8)

시간적으로 전방향 및 후방향의 화상으로부터 움직임 검출을 행하여 화상 부호화를 행하는 화상 부호화 방법에 있어서,In the image encoding method for performing image encoding by detecting motion from images in forward and backward directions in time, 부호화하는 입력화상을 기억부에 기억하는 입력 화상 기억 공정과,An input image storage step of storing an input image to be encoded into a storage unit; 상기 입력화상 기억공정에서 기억부에 기억한 제 1 화상보다 시간적으로 전방향에 있는 검색화상으로부터 상기 제 1 화상의 전방향 움직임 벡터를 검출하는 전방향 움직임 검출공정과,An omnidirectional motion detection step of detecting an omnidirectional motion vector of the first image from a search image that is temporally omnidirectional than the first image stored in the storage in the input image storage step; 상기 입력화상 기억공정에서 기억부에 기억하고, 상기 검출 화상보다 시간적으로 앞에 있는 제 2 화상의 후방향 움직임 벡터를 상기 검색화상으로부터 검출하는 후방향 움직임 검출공정과,A backward motion detection step of storing a backward motion vector of a second image stored in a storage unit in the input image storage step and temporally ahead of the detected image from the search image; 상기 전방향 움직임 검출공정에 의해 검출된 상기 제 1 화상의 전방향 움직임 벡터를 보존부에 보존하는 움직임 벡터 보존 공정과,A motion vector storing step of storing an omnidirectional motion vector of the first image detected by the omnidirectional motion detecting step; 상기 제 1 화상을 부호화할 때 상기 움직임 벡터 보존공정에서 상기 제 1 화상의 전방향 움직임 벡터를 판독하며, 상기 제 1 화상에 대한 후방향 움직임 벡터를 상기 후방향 움직임 벡터 검출 공정으로부터 검출하고, 이들 전방향 및 후방향의 움직임 벡터를 사용하여 부호화를 행하는 부호화 공정을 구비하는 것을 특징으로 하는 화상 부호화 방법.When the first image is encoded, the forward motion vector of the first image is read in the motion vector preservation process, and a backward motion vector for the first image is detected from the backward motion vector detection process, and these And an encoding step of performing encoding using forward and backward motion vectors. 제 1 항에 있어서,The method of claim 1, 상기 제 1 및 제 2 화상은, 상기 입력 화상을 복수 단위로 분할한 블록단위로 처리되는 것을 특징으로 하는 화상 부호화 방법.And the first and second images are processed in block units obtained by dividing the input image into a plurality of units. 제 2 항에 있어서,The method of claim 2, 상기 전방향 및 후방향의 움직임 검출공정은, 블록 매칭법을 사용하여 움직임 벡터를 검출하는 것을 특징으로 하는 화상 부호화 방법.And said forward and backward motion detection process detects a motion vector using a block matching method. 기준 블록의 화상 데이터와 검색 범위내의 검색 블록의 화상 데이터를 연산하여 전방향의 움직임 벡터 및 후방향의 움직임 벡터를 검출하고, 이 양방향의 움직임 벡터를 사용하여 부호화를 행할 때, 한 방향의 움직임 벡터의 검출 타이밍을 부호화 타이밍보다 시간적으로 앞으로 비켜 놓음으로써, 상기 검색 블록의 화상 데이터의 적어도 일부를 양방향의 움직임 벡터 검출에 공통화한 것을 특징으로 하는 화상 부호화 방법.When the image data of the reference block and the image data of the search block within the search range are calculated to detect the forward motion vector and the backward motion vector, and encoding is performed using the bidirectional motion vectors, the motion vector in one direction is obtained. At least a part of the image data of the search block is common to bidirectional motion vector detection by shifting the detection timing of the signal forward in time forward than the encoding timing. 제 4 항에 있어서,The method of claim 4, wherein 상기 부호화 타이밍보다 시간적으로 앞에 검출한 움직임 벡터를 보존부에 보존해 두고, 부호화 타이밍에 맞추어 판독하는 것을 특징으로 하는 화상 부호화 방법.And a motion vector detected in time before the encoding timing is stored in a storage unit, and read according to the encoding timing. 시간적으로 전방향 및 후방향의 화상으로부터 움직임 검출을 행하여 화상 부호화를 행하는 화상 부호화 장치에 있어서,In the image encoding device which performs image encoding by detecting motion from images in the forward and backward directions in time, 부호화하는 입력화상을 기억하는 입력화상 기억수단과,Input image storage means for storing an input image to be encoded, 상기 입력화상 기억수단에 의해 기억한 제 1 화상보다 시간적으로 전방향에 있는 검색화상으로부터 제 1 화상의 전방향 움직임 벡터를 검출하는 전방향 움직임 검출수단과,Omnidirectional motion detection means for detecting an omnidirectional motion vector of the first image from a searched image that is temporally omnidirectional than the first image stored by the input image storage means; 상기 입력화상 기억수단에서 기억하고, 상기 검색화상보다 시간적으로 앞에 있는 제2 화상의 후방향 움직임 벡터를 상기 검색화상으로부터 검출하는 후방향 움직임 검출수단과,Backward motion detecting means for storing the backward motion vector of the second image stored in the input image storage means and temporally ahead of the search image from the search image; 상기 전방향 움직임 검출수단에 의해 검출된 상기 제 1 화상의 전방향 움직임 벡터를 보존하는 움직임 벡터 보존수단과,Motion vector storing means for storing an omnidirectional motion vector of the first image detected by the omnidirectional motion detecting means; 상기 제 1 화상을 부호화할 때 상기 움직임 벡터 보존수단에서 상기 제 1 화상의 전방향 움직임 벡터를 판독하고, 상기 제 1 화상에 대한 후방향 움직임 벡터를 상기 후방향 움직임 벡터 검출수단으로부터 검출하며, 이들 전방향 및 후방향의 움직임 벡터를 사용하여 부호화를 행하는 부호화 수단을 구비하는 것을 특징으로 하는 화상 부호화 장치.When the first picture is encoded, the forward motion vector of the first picture is read by the motion vector storing means, and a backward motion vector for the first picture is detected from the backward motion vector detecting means, and these And encoding means for encoding using motion vectors in the forward and backward directions. 제 6 항에 있어서,The method of claim 6, 상기 제 1 및 제 2 화상은, 상기 입력화상을 복수 단위로 분할한 블록단위로 처리되는 것을 특징으로 하는 화상 부호화 장치.And the first and second images are processed in block units obtained by dividing the input image into a plurality of units. 제 7 항에 있어서,The method of claim 7, wherein 상기 전방향 및 후방향의 움직임 검출수단은, 블록 매칭법을 사용하여 움직임 벡터를 검출하는 것을 특징으로 하는 화상 부호화 장치.And said forward and backward motion detection means detects a motion vector using a block matching method.
KR10-1998-0709325A 1997-03-19 1998-03-04 Image coding method and apparatus KR100504416B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-1998-0709325A KR100504416B1 (en) 1997-03-19 1998-03-04 Image coding method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP97-65868 1997-03-19
KR10-1998-0709325A KR100504416B1 (en) 1997-03-19 1998-03-04 Image coding method and apparatus

Publications (2)

Publication Number Publication Date
KR20000015777A KR20000015777A (en) 2000-03-15
KR100504416B1 true KR100504416B1 (en) 2005-10-21

Family

ID=43672133

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0709325A KR100504416B1 (en) 1997-03-19 1998-03-04 Image coding method and apparatus

Country Status (1)

Country Link
KR (1) KR100504416B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184626A (en) * 2003-12-22 2005-07-07 Canon Inc Image processing apparatus

Also Published As

Publication number Publication date
KR20000015777A (en) 2000-03-15

Similar Documents

Publication Publication Date Title
USRE44692E1 (en) Image coding and decoding apparatus based on the coding mode of the image to be predicted
JP2962012B2 (en) Video encoding device and decoding device therefor
US6421385B1 (en) Apparatus and method for efficient conversion of DV (digital video) format encoded video data into MPEG format encoded video data by utilizing motion flag information contained in the DV data
EP1065883B1 (en) Image predictive decoding method
US6542642B2 (en) Image coding process and motion detecting process using bidirectional prediction
KR100739281B1 (en) Motion estimation method and appratus
JP3519594B2 (en) Encoding device for stereo video
KR100505306B1 (en) Decoding and coding method of moving image signal, and decoding and coding apparatus of moving image signal using the same
JP2004056823A (en) Motion vector encoding/decoding method and apparatus
JPS60186179A (en) System and device for predictive coding of picture signal
JPH10262258A (en) Image coder and its method
KR100504416B1 (en) Image coding method and apparatus
JPH0221776A (en) Predicting static picture encoder/decoder
KR100602148B1 (en) Method for motion picture encoding use of the a quarter of a pixel motion vector in mpeg system
EP0909097B1 (en) Image encoding method and device
JP3513214B2 (en) Motion vector detection device
JPH10164596A (en) Motion detector
JP3549175B2 (en) Motion vector detection method and apparatus
JPH1032822A (en) Motion vector detector
JPH04288790A (en) Predictive coding method for interlace image signal
JPH09182081A (en) Movement compensation estimation encoder
KR0128883B1 (en) Improved memory structure in image decoder for half pixel motion compensation
JPH10304373A (en) Moving image decoding method and moving image decoder
JP3847577B2 (en) Motion vector detection method and video encoding method
KR0129576B1 (en) Half pixelmation compensation circuit in video signal decoder

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080626

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee