KR100457065B1 - Motion vector generator for video signals - Google Patents

Motion vector generator for video signals Download PDF

Info

Publication number
KR100457065B1
KR100457065B1 KR10-1998-0059987A KR19980059987A KR100457065B1 KR 100457065 B1 KR100457065 B1 KR 100457065B1 KR 19980059987 A KR19980059987 A KR 19980059987A KR 100457065 B1 KR100457065 B1 KR 100457065B1
Authority
KR
South Korea
Prior art keywords
block
previous
motion vector
frame
area
Prior art date
Application number
KR10-1998-0059987A
Other languages
Korean (ko)
Other versions
KR20000043589A (en
Inventor
장동일
Original Assignee
주식회사 대우일렉트로닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대우일렉트로닉스 filed Critical 주식회사 대우일렉트로닉스
Priority to KR10-1998-0059987A priority Critical patent/KR100457065B1/en
Publication of KR20000043589A publication Critical patent/KR20000043589A/en
Application granted granted Critical
Publication of KR100457065B1 publication Critical patent/KR100457065B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Abstract

본 발명은 현재 블록에 대응하는 위치의 이전 프레임 내 이전 블록과 이동 영역이 겹쳐지는 인접 이전 블록들의 움직임 벡터를 이용하여 현재 블록에 대한 움직임 벡터 예측 값을 산출함으로써 현재 블록의 움직임 벡터에 대한 비트 발생량을 억제할 수 있도록 한 비디오 신호의 움직임 벡터 생성 기법에 관한 것으로, 이를 위하여 본 발명은, 현재 블록에 대응하는 이전 프레임 내 이전 블록에 겹치는 이동 영역을 갖는 이전 후보 블록들의 움직임 벡터들과 각각의 겹침 이동 영역 면적에 의거하여, 현재 블록의 움직임 벡터에 대한 움직임 벡터 예측자를 산출하고, 현재 블록의 움직임 벡터와 산출된 움직임 벡터 예측자간의 감산을 통해 현재 블록에 대한 움직임 벡터 차분 값을 산출하도록 함으로써, 현재 블록의 움직임 벡터에 대한 비트 발생량을 효과적으로 억제할 수 있는 것이다.The present invention calculates a motion vector prediction value for a current block by using a motion vector of adjacent previous blocks in which a moving area overlaps with a previous block in a previous frame at a position corresponding to the current block, thereby generating a bit generation amount for the motion vector of the current block. The present invention relates to a motion vector generation technique of a video signal capable of suppressing the above. To this end, the present invention relates to a motion vector generation method of a previous candidate block having a moving region overlapping a previous block in a previous frame corresponding to a current block. By calculating a motion vector predictor for the motion vector of the current block based on the moving area area, and calculating a motion vector difference value for the current block by subtracting between the motion vector of the current block and the calculated motion vector predictor. Effect of bit generation on motion vector of current block It can be suppressed.

Description

비디오 신호의 움직임 벡터 생성 장치Device for generating motion vector of video signal

본 발명은 비디오 신호 부호화 시스템에 관한 것으로, 더욱 상세하게는 동영상 비디오 신호를 다수의 N×N 블록으로 분할한 각 블록의 움직임 벡터를 생성하는 데 적합한 움직임 벡터 생성 장치에 관한 것이다.The present invention relates to a video signal encoding system, and more particularly, to a motion vector generating apparatus suitable for generating a motion vector of each block obtained by dividing a moving image video signal into a plurality of N × N blocks.

이 기술분야에 잘 알려진 바와 같이, 이산화된 비디오 신호의 전송은 아날로그 신호보다 좋은 화질을 유지할 수 있다. 일련의 이미지 "프레임" 으로 구성된 비디오 신호가 디지탈 형태로 표현될 때, 특히 고품질 텔레비전(HDTV)의 경우 상당한 양의 전송 데이터가 발생하게 된다. 그러나, 종래의 전송 채널의 사용 가능한 주파수 영역이 제한되어 있으므로, 많은 양의 디지탈 데이터를 전송하기 위해서는 전송하고자 하는 데이터를 압축하여 그 전송량을 줄일 필요가 있다.As is well known in the art, the transmission of discrete video signals can maintain better image quality than analog signals. When a video signal consisting of a series of image "frames" is represented in digital form, a significant amount of transmission data is generated, especially for high quality television (HDTV). However, since the usable frequency range of a conventional transmission channel is limited, in order to transmit a large amount of digital data, it is necessary to compress the data to be transmitted and reduce its transmission amount.

따라서, 송신측의 부호화 시스템에서는 비디오 신호를 전송할 때 그 전송되는 데이터량을 줄이기 위하여 비디오 신호가 갖는 공간적, 시간적인 상관성을 이용하여 압축 부호화한 다음 전송 채널을 통해 압축 부호화된 영상신호를 수신측의 복호화 시스템에 전송하게 된다.Therefore, in order to reduce the amount of data transmitted when transmitting a video signal, the transmitting system encodes and compresses the video signal using the spatial and temporal correlation of the video signal and then compresses the encoded video signal through the transmission channel. To the decryption system.

한편, 영상신호를 부호화하는데 주로 이용되는 다양한 압축 기법으로서는, 확률적 부호화 기법과 시간적, 공간적 압축 기법을 결합한 하이브리드 부호화 기법이 가장 효율적인 것으로 알려져 있다.On the other hand, as the various compression techniques mainly used for encoding an image signal, a hybrid encoding technique combining a stochastic encoding technique and a temporal and spatial compression technique is known to be the most efficient.

상기한 부호화 기법중의 하나인 대부분의 하이브리드 부호화 기법은 움직임 보상 DPCM(차분 펄스 부호 변조), 2차원 DCT(이산 코사인 변환), DCT 계수의 양자화, VLC(가변장 부호화) 등을 이용한다. 여기에서, 움직임 보상 DPCM 은 현재 프레임과 이전 프레임간의 물체의 움직임을 결정하고, 물체의 움직임에 따라 현재 프레임을 예측하여 현재 프레임과 예측치간의 차이를 나타내는 차분신호를 만들어 내는 방법이다. 이러한 방법은, 예를 들어 Staffan Ericsson 의 "Fixed and Adaptive Predictors for Hybrid Predictive/Transform Coding", IEEE Transactions on Communication, COM-33, NO.12 (1985년, 12월), 또는 Ninomiy와 Ohtsuka의 "A motion Compensated Interframe Coding Scheme for Television Pictures",IEEE Transactions on Communication, COM-30, NO.1 (1982년, 1월)에 기재되어 있다.Most of the hybrid coding schemes, which are one of the above coding techniques, use motion compensated DPCM (differential pulse code modulation), two-dimensional discrete cosine transform (DCT), quantization of DCT coefficients, VLC (variable modulation coding), and the like. Here, the motion compensation DPCM determines a motion of the object between the current frame and the previous frame, and predicts the current frame according to the motion of the object to generate a differential signal representing the difference between the current frame and the prediction value. Such methods are described, for example, in "Fixed and Adaptive Predictors for Hybrid Predictive / Transform Coding" by Staffan Ericsson, IEEE Transactions on Communication, COM-33, NO.12 (December 1985, December), or "A" by Ninomiy and Ohtsuka. motion Compensated Interframe Coding Scheme for Television Pictures ", IEEE Transactions on Communication, COM-30, NO.1 (January, 1982).

보다 상세하게, 움직임 보상 DPCM 에서는 현재 프레임과 이전 프레임간에 추정된 물체의 움직임에 따라, 현재 프레임을 이전 프레임으로부터 예측하는 것이다. 여기에서, 추정된 움직임은 이전 프레임과 현재 프레임간의 변위를 나타내는 2차원 움직임 벡터로 나타낼 수 있다. 여기에서, 물체의 화소 변위는, 잘 알려진 바와 같이, 소정크기(예를 들면, 8×8 블록, 16×16 블록 등)의 블록 단위로 현재 프레임의 현재 블록을 재구성된 이전 프레임의 탐색 영역 내 다수의 후보 블록들과 비교하여 최적 정합 블록을 결정하여 입력되는 현재 프레임에 대해 블록 전체에 대한 프레임간 변위 벡터(프레임간에 블록이 이동한 정도)를 추정하는 블록 단위 움직임 추정 기법에 의해 결정될 수 있다.More specifically, the motion compensation DPCM predicts the current frame from the previous frame according to the motion of the object estimated between the current frame and the previous frame. Here, the estimated motion may be represented by a two-dimensional motion vector representing the displacement between the previous frame and the current frame. Here, the pixel displacement of the object is, as is well known, the current block of the current frame in blocks of a predetermined size (for example, 8 × 8 blocks, 16 × 16 blocks, etc.) within the reconstruction area of the previous frame reconstructed. It may be determined by a block-by-block motion estimation technique for determining an optimal matching block compared to a plurality of candidate blocks and estimating an interframe displacement vector (how much a block moves between frames) with respect to the entire input block with respect to an input current frame. .

따라서, 송신측에서는 비디오 신호를 전송할 때 상술한 바와 같은 부호화 기법을 통해 공간적 및/또는 시간적인 상관성을 고려해 압축 부호화한 비디오 신호와 함께 추출된 움직임 벡터들을 채널의 요구에 부응하는 소망하는 비트 레이트로 전송 채널을 통해 수신측의 복호화 시스템에 전송된다.Therefore, when transmitting a video signal, the transmitting side transmits the motion vectors extracted together with the compression-encoded video signal in consideration of spatial and / or temporal correlation using the above-described encoding technique at a desired bit rate that meets the channel requirements. It is transmitted to the decoding system at the receiving side through the channel.

즉, 비디오 부호화 시스템에서는 프레임 내 또는 프레임간 상관성을 고려한 하이브리드 부호화 기법을 통해 부호화, 즉 현재 프레임과 재구성된 이전 프레임간의 N×N 블록(예를 들면, 8×8 또는 16×16 등) 단위의 움직임 추정, 보상을 통해 얻어지는 에러신호(또는 오차신호)를 DCT, 양자화 및 가변길이 부호화 등의 기법을 적용하여 부호화한다.That is, in a video encoding system, encoding is performed through a hybrid encoding scheme considering intra-frame or inter-frame correlation, that is, a unit of an N × N block (for example, 8 × 8 or 16 × 16) between a current frame and a reconstructed previous frame. Error signals (or error signals) obtained through motion estimation and compensation are encoded using techniques such as DCT, quantization, and variable length coding.

이때, 움직임 추정을 통해 얻어지는 움직임 벡터들의 세트는, 수신측 복호화 시스템에서의 복원을 위해 부호화된 비디오 정보들과 함께 부호화되어 전송될 때, 각 움직임 벡터에 할당되는 비트량을 억제하기 위하여, 추출된 움직임 벡터가 그대로 전송되지 않고, 현재 프레임 내 인접하는 블록의 이전 움직임 벡터와의 차값을 산출하여 전송하도록 하고 있다.In this case, the set of motion vectors obtained through the motion estimation is extracted to suppress the amount of bits allocated to each motion vector when encoded and transmitted together with the encoded video information for reconstruction in the receiving side decoding system. The motion vector is not transmitted as it is, but the difference value with the previous motion vector of the adjacent block in the current frame is calculated and transmitted.

즉, 일 예로서 도 5에 도시된 바와 같이, 현재 프레임 내 현재 블록에서 추출한 움직임 벡터가 MVC 이고, 참조하고자 하는 주변의 블록의 이전 움직임 벡터가 MV1, MV2, MV3 이며, 이때 현재 움직임 벡터 값이 5이고 세 개의 이전 움직임 벡터 값들이 각각 5, 7, 8인 경우라 가정할 때, 종래 방법에서는 세 개의 이전 움직임 벡터 값들 중 하나의 움직임 벡터 예측자(MVP)로 결정(예를 들어, 세 개의 이전 움직임 벡터 값들 중 중간 값의 움직임 벡터 값)한 다음, 현재 움직임 벡터 값과 결정된 움직임 벡터 예측자간의 차값, 즉 5-7=2값을 현재 블록의 움직임 벡터 예측 값으로 부호화하여 전송한다. 따라서, 종래 방법에서는 이와 같이 움직임 벡터 차분 값을 전송함으로써 움직임 벡터에 할당되는 비트량을 절감할 수 있었다. 이러한 방법은 비디오 신호에서의 움직임 영역이 전역 움직임을 가질 때 상당히 효과적이라 할 수 있다.That is, as an example, as shown in FIG. 5, the motion vector extracted from the current block in the current frame is MV C , and the previous motion vectors of neighboring blocks to be referred to are MV 1 , MV 2 , and MV 3 . Assuming that the motion vector value is 5 and the three previous motion vector values are 5, 7, and 8, the conventional method determines the motion vector predictor (MVP) of one of the three previous motion vector values (for example, For example, the motion vector value of the middle one of the three previous motion vector values), and then the difference value between the current motion vector value and the determined motion vector predictor, that is, 5-7 = 2, is encoded as the motion vector prediction value of the current block. send. Therefore, in the conventional method, the bit amount allocated to the motion vector can be reduced by transmitting the motion vector difference value. This method is quite effective when the motion region in the video signal has global motion.

한편, 비디오 신호 내 움직임 영역 또는 움직임 물체는 전역 움직임뿐만이 아니라 지역 움직임을 가질 수 있다.Meanwhile, the motion area or the moving object in the video signal may have local motion as well as global motion.

예를 들어, 도 5에서 MV1, MV2, MV3 에 각각 대응하는 인접 이전 블록들이 45도 경사 방향의 움직임을 갖는 반면에 MVC 에 대응하는 현재 블록이 직진하는 전방 방향으로의 움직임을 갖는 경우가 발생하는 경우, MV1, MV2, MV3 의 각 값들과 MVC 값간에는 큰 차이를 나타낼 수 있다.For example, in FIG. 5, adjacent previous blocks corresponding to MV 1 , MV 2 , and MV 3 each have a 45-degree tilt movement, while a current block corresponding to MV C has a forward movement that goes straight. When a case occurs, there may be a large difference between the values of MV 1 , MV 2 , MV 3 and MV C.

따라서, 이와 같은 지역 움직임이 발생한 경우 상기한 종래 방법에 따라 움직임 벡터 차분(즉, 움직임 벡터 예측 값)을 산출하는 경우 움직임 벡터에 할당되는 비트 발생량의 억제에 그다지 큰 효과를 얻을 수가 없었다.Therefore, when such local motion occurs, when calculating the motion vector difference (that is, the motion vector prediction value) according to the conventional method described above, the effect of suppressing the bit generation amount allocated to the motion vector cannot be obtained.

본 발명은 상기한 점에 착안하여 안출한 것으로, 현재 블록에 대응하는 위치의 이전 프레임 내 이전 블록과 이동 영역이 겹쳐지는 인접 이전 블록들의 움직임 벡터를 이용하여 현재 블록에 대한 움직임 벡터 예측 값을 산출함으로써 현재 블록의 움직임 벡터에 대한 비트 발생량을 억제할 수 있는 비디오 신호의 움직임 벡터 생성 장치를 제공하는 데 그 목적이 있다.The present invention devised in view of the above points, and calculates a motion vector prediction value for the current block by using the motion vector of adjacent previous blocks in which the moving area overlaps with the previous block in the previous frame at the position corresponding to the current block. Accordingly, an object of the present invention is to provide a motion vector generating apparatus of a video signal capable of suppressing a bit generation amount for a motion vector of a current block.

상기 목적을 달성하기 위하여 본 발명은, 프레임 내에 존재하는 공간축 상의 상관도와 프레임간에 존재하는 시간축 상의 상관도를 이용하여 입력 프레임 신호를 압축 부호화하는 부호화 시스템에서 현재 프레임과 재구성된 이전 프레임간의 블록 매칭을 수행하여 N×N 블록 단위로 움직임 벡터를 생성하는 장치에 있어서, 상기 현재 프레임을 기 설정된 다수의 N×N 블록으로 분할하여 얻은 N×N 현재 블록과 상기 N×N 현재 블록에 대응하는 상기 이전 프레임 내 P×P 탐색 영역 내 다수의 N×N 후보 블록간의 블록 매칭을 통해 상기 N×N 현재 블록에 대한 움직임 벡터를 추출하는 수단; 상기 추출된 움직임 벡터를 저장하며, 재구성된 이전 프레임내 각 N×N 이전 블록에 대한 움직임 벡터들을 제공하는 메모리 수단; 상기 N×N 현재 블록에 대응하는 이전 프레임 내 N×N 이전 블록에 겹치는 이동 영역을 갖는 인접 이전 블록들을 탐색하여 이전 후보 블록을 결정하고, 이 결정된 각 이전 후보 블록에 대해 상기 대응 N×N 이전 블록에 겹치는 이동 영역의 면적을 산출하는 이전 후보 블록 탐색 수단; 상기 결정된 이전 후보 블록의 각 움직임 벡터와 상기 각각 산출된 각 이동 영역 면적 정보에 의거하여, 상기 N×N 현재 블록에 대한 움직임 벡터 예측자를 산출하는 수단; 및 상기 추출된 N×N 현재 블록의 움직임 벡터와 상기 움직임 벡터 예측자간의 감산을 통해 상기 N×N 현재 블록의 움직임 벡터 차분 값을 산출하는 수단으로 이루어진 비디오 신호의 움직임 벡터 생성 장치를 제공한다.In order to achieve the above object, the present invention provides block matching between a current frame and a reconstructed previous frame in an encoding system that compresses and encodes an input frame signal using a correlation on a spatial axis existing within a frame and a correlation on a time axis existing between frames. A device for generating a motion vector in units of N × N blocks, the N × N current block and the N × N current block corresponding to the N × N current block obtained by dividing the current frame into a plurality of preset N × N blocks Means for extracting a motion vector for the N × N current block through block matching between a plurality of N × N candidate blocks in a P × P search region in a previous frame; Memory means for storing the extracted motion vector and providing motion vectors for each N × N previous block in a reconstructed previous frame; Search for neighboring previous blocks having a moving area overlapping with the N × N previous block in the previous frame corresponding to the N × N current block to determine a previous candidate block, and for each corresponding previous candidate block, the corresponding N × N previous Previous candidate block search means for calculating an area of a moving area overlapping the block; Means for calculating a motion vector predictor for the N × N current block based on the determined motion vectors of the previous candidate block and the calculated respective motion area area information; And a means for calculating a motion vector difference value of the N × N current block by subtracting the extracted motion vector of the N × N current block and the motion vector predictor.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 움직임 벡터 생성 기법을 적용하는 데 적합한 전형적인 비디오 부호화 시스템의 블록구성도를 나타낸다.1 shows a block diagram of a typical video encoding system suitable for applying the motion vector generation technique according to the present invention.

동 도면에 도시된 바와 같이, 비디오 부호화 시스템은, 제 1 프레임 메모리(102), 감산기(104), 비디오 부호화 블록(106), 양자화 블록(108), 가변길이 부호화 블록(VLC)(110), 비디오 복원 블록(112), 가산기(114), 제 2 프레임 메모리(116), 움직임 추정 블록(ME)(118) 및 움직임 보상 블록(MC)(120)을 포함한다.As shown in the figure, the video encoding system includes a first frame memory 102, a subtractor 104, a video coding block 106, a quantization block 108, a variable length coding block (VLC) 110, Video reconstruction block 112, adder 114, second frame memory 116, motion estimation block (ME) 118, and motion compensation block (MC) 120.

도 1을 참조하면, 먼저, 제 1 프레임 메모리(102)에는 부호화하고자하는 비디오 신호의 현재 프레임에 대한 정보가 저장되며, 감산기(104)에서는 라인 L11 을 통해 제 1 프레임 메모리(102)로부터 제공되는 현재 프레임과 후술되는 움직임 추정 블록(120)으로부터 라인 L16을 통해 제공되는 현재 프레임과 재구성된 이전 프레임간의 움직임 추정, 보상을 통해 얻어진 예측 프레임을 감산하며, 그 결과 데이터, 즉 프레임간의 차분 화소 값을 나타내는 에러 신호(또는 오차 신호)는 다음 단의 비디오 부호화 블록(106)에 제공된다.Referring to FIG. 1, first, information about a current frame of a video signal to be encoded is stored in the first frame memory 102, and the subtractor 104 is provided from the first frame memory 102 through a line L11. The prediction frame obtained by the motion estimation and compensation between the current frame and the reconstructed previous frame provided through the line L16 from the current frame and the motion estimation block 120 to be described later is subtracted, and as a result, the data, that is, the difference pixel value between the frames, is subtracted. The indicating error signal (or error signal) is provided to the video encoding block 106 of the next stage.

다음에, 비디오 부호화 블록(106)에서는 이산 코사인 변환(DCT)과 이 기술분야에서 잘 알려진 양자화 방법들을 이용함으로서, 감산기(104)로부터 제공되는 에러 신호를 일련의 양자화된 DCT 변환계수들로 부호화한다. 이때, 도 1에서의 도시는 생략되었으나, 비디오 부호화 블럭(106)에서의 에러 신호에 대한 양자화는 출력측 전송 버퍼로부터 제공되는 데이터 충만상태 정보에 따라 결정되는 양자화 파라메터(QP)에 의거하여 그 스텝 사이즈가 조절된다.Next, the video encoding block 106 encodes the error signal provided from the subtractor 104 into a series of quantized DCT transform coefficients by using discrete cosine transform (DCT) and quantization methods well known in the art. . In this case, although not shown in FIG. 1, the quantization of the error signal in the video encoding block 106 is based on the quantization parameter QP determined according to the data fullness information provided from the output transmission buffer. Is adjusted.

다음에, 라인 L12 상의 양자화된 DCT 변환계수들은 가변길이 부호화 블럭(108)과 비디오 복원 블럭(110)으로 각각 보내진다. 여기에서, 가변길이 부호화 블럭(108)에 제공된 양자화된 DCT 변환계수들은 라인 L15를 통해 후술되는 움직임 추정 블록(116)으로부터 제공되는 움직임 벡터 세트(즉, 움직임 벡터 차분 값 세트)들과 함께 가변길이 부호화된 다음 원격지 수신측으로의 전송을 위해 도시 생략된 전송기로 전달된다.Next, the quantized DCT transform coefficients on line L12 are sent to variable length coding block 108 and video reconstruction block 110, respectively. Here, the quantized DCT transform coefficients provided to the variable length coding block 108 are variable length together with the motion vector sets (i.e., the motion vector differential value sets) provided from the motion estimation block 116 described later via line L15. It is then encoded and forwarded to a transmitter, not shown, for transmission to a remote receiver.

한편, 비디오 부호화 블럭(106)으로부터 비디오 복원 블럭(110)에 제공되는 라인 L12 상의 양자화된 DCT 변환계수들은 역양자화 및 역이산 코사인 변환을 통해 다시 복원된 프레임 신호(즉, 에러 신호)로 변환된 다음, 다음 단의 가산기(112)에 제공되며, 가산기(112)에서는 비디오 복원 블럭(110)으로부터의 복원된 프레임 신호(즉, 에러 신호)와 라인 L16을 통해 후술되는 움직임 보상 블럭(118)으로부터 제공되는 예측 프레임 신호를 가산하여 재구성된 이전 프레임 신호를 생성하며, 이와 같이 재구성된 이전 프레임 신호는 제 2 프레임 메모리(114)에 저장된다. 따라서, 이러한 경로를 통해 부호화 처리되는 매 프레임에 대한 바로 이전 프레임 신호가 계속적으로 갱신되며, 이와 같이 갱신되는 재구성된 이전 프레임 신호는 움직임 추정 및 보상을 위해 라인 L13을 통해 하기에 기술되는 움직임 추정 블록(116) 및 움직임 보상 블록(118)으로 각각 제공된다.On the other hand, the quantized DCT transform coefficients on the line L12 provided from the video coding block 106 to the video reconstruction block 110 are converted into frame signals (ie, error signals) reconstructed through inverse quantization and inverse discrete cosine transform. Next, it is provided to the adder 112 of the next stage, in which the recovered frame signal from the video reconstruction block 110 (i.e., the error signal) and the motion compensation block 118 described below through line L16 are provided. The predicted frame signal is added to generate a reconstructed previous frame signal, and the reconstructed previous frame signal is stored in the second frame memory 114. Accordingly, the immediately previous frame signal for every frame encoded through this path is continuously updated, and the reconstructed previous frame signal thus updated is the motion estimation block described below via line L13 for motion estimation and compensation. 116 and motion compensation block 118, respectively.

다른 한편, 본 발명에 관련되는 움직임 추정 블록(116)에서는 제 1 프레임 메모리(102)로부터 제공되는 라인 L11 상의 현재 프레임과 상기한 제 2 프레임 메모리(114)로부터 제공되는 라인 L13 상의 재구성된 이전 프레임에 의거하여, 라인 L11 상의 현재 프레임을 분할한 현재 N×N 블록(예를 들면, 8×8 블록, 16×16 블록)과 라인 L13 상의 재구성된 이전 프레임 내 P×P 탐색 영역(예를 들면, 16×16 탐색 영역, 32×32 탐색 영역)의 다수의 N×N 이전 블록간의 블록 매칭을 통해 움직임을 추정하며, 이러한 움직임 추정을 통해 얻어지는 움직임 벡터 세트들은 라인 L14를 통해 예측 프레임 신호를 생성하는 움직임 보상 블록(118)으로 제공된다.On the other hand, in the motion estimation block 116 according to the present invention, the current frame on the line L11 provided from the first frame memory 102 and the reconstructed previous frame on the line L13 provided from the second frame memory 114 described above. Based on the current NxN block (e.g., 8x8 block, 16x16 block), which divides the current frame on line L11, and the PxP search area in the reconstructed previous frame on line L13 (e.g., Motion estimation is performed by block matching between a plurality of N × N previous blocks in a 16 × 16 search area and a 32 × 32 search area, and the motion vector sets obtained through the motion estimation generate a predictive frame signal through a line L14. Is provided to the motion compensation block 118.

또한, 움직임 추정 블록(116)에서는 현재 블록에 대한 움직임 벡터가 추출되면, 이전 프레임내 각 이전 블록에 대한 기 저장된 이전 움직임 벡터들을 이용하여 움직임 벡터 예측자(MVP)를 산출하며, 현재 블록의 움직임 벡터와 산출된 MVP간의 감산을 통해 얻어지는 움직임 벡터 차분 값(즉, 움직임 벡터 예측 값)을 현재 블록에 대한 최종 움직임 벡터로써 라인 L15를 통해 전술한 가변길이 부호화 블록(108)으로 제공한다. 이와 같이 이전 프레임 내 이전 블록들의 움직임 벡터들을 이용하여 움직임 벡터 차분 값을 생성하는 구체적인 과정에 대해서는 그 세부적인 세부 블록을 도시한 도 2를 참조하여 후에 상세하게 기술될 것이다.In addition, when the motion vector for the current block is extracted in the motion estimation block 116, a motion vector predictor (MVP) is calculated using previously stored previous motion vectors for each previous block in the previous frame, and the motion of the current block. The motion vector difference value (ie, the motion vector prediction value) obtained through the subtraction between the vector and the calculated MVP is provided to the aforementioned variable length coding block 108 through the line L15 as the final motion vector for the current block. As described above, a detailed process of generating a motion vector difference value using motion vectors of previous blocks in a previous frame will be described later in detail with reference to FIG. 2.

한편, 움직임 보상 블록(118)에서는 라인 L13을 통해 제 2 프레임 메모리(114)에서 제공되는 재구성된 이전 프레임 신호 및 L14를 통해 움직임 추정 블록(116)에서 제공되는 움직임 벡터들에 의거하는 움직임 보상을 수행하여 예측 프레임 신호를 생성하며, 여기에서 생성된 예측 프레임 신호는 라인 L16을 통해 전술한 감산기(104) 및 가산기(112)로 각각 제공된다.Meanwhile, the motion compensation block 118 performs motion compensation based on the reconstructed previous frame signal provided from the second frame memory 114 through line L13 and the motion vectors provided from the motion estimation block 116 through L14. To generate a predictive frame signal, which is provided to the above-described subtracter 104 and adder 112 via line L16, respectively.

다음에, 상술한 바와 같은 구성을 갖는 비디오 부호화 시스템에 적용할 수 있는 본 발명에 따른 움직임 벡터 생성 기법에 대하여 설명한다.Next, a motion vector generation technique according to the present invention that can be applied to a video encoding system having the above-described configuration will be described.

도 2는 상술한 바와 같은 구성을 갖는 비디오 부호화 시스템에 적용하는 데 적합한 본 발명의 바람직한 실시 예에 따른 비디오 신호의 움직임 벡터 생성 장치에 대한 블록구성도를 나타낸다.2 is a block diagram of an apparatus for generating a motion vector of a video signal according to an exemplary embodiment of the present invention suitable for application to a video encoding system having the above-described configuration.

동 도면에 도시된 바와 같이, 본 발명의 움직임 벡터 생성 장치는 영역 분할 블록(202), 탐색 영역 결정 블록(204), 움직임 추정기(206), 이전 후보 블록 탐색 블록(208), MV 메모리(210), MVP 산출 블록(212) 및 MVD 산출 블록(214)을 포함한다.As shown in the figure, the motion vector generating apparatus of the present invention includes a region dividing block 202, a search region determination block 204, a motion estimator 206, a previous candidate block search block 208, and an MV memory 210. ), The MVP calculation block 212 and the MVD calculation block 214.

도 2를 참조하면, 영역 분할 블록(202)에서는 라인 L11을 통해 도 1의 제 1 프레임 메모리(102)로부터 제공되는 현재 프레임 신호를 기 설정된 다수의 N×N 현재 블록(예를 들면, 16×16 블록)으로 분할하며, 여기에서 분할된 N×N 현재 블록들은 라인 L20 및 L21을 통해 탐색 영역 결정 블록(204), 움직임 추정기(206) 및 이전 후보 블록 탐색 블록(208)으로 각각 제공된다.Referring to FIG. 2, in the region dividing block 202, a plurality of N × N current blocks (eg, 16 ×) may be used to preset current frame signals provided from the first frame memory 102 of FIG. 1 through a line L11. 16 blocks), wherein the divided N × N current blocks are provided to the search region determination block 204, the motion estimator 206, and the previous candidate block search block 208, respectively, via lines L20 and L21.

또한, 탐색 영역 결정 블록(204)에서는, 라인 L20을 통해 제공되는 현재 블록에 대응하는 P×P 탐색 영역(예를 들면, 32×32 탐색 영역)을 라인 L13을 통해 도 1의 제 2 프레임 메모리(114)에서 제공되는 재구성된 이전 프레임에서 결정하고, N×N 현재 블록에 대응하는 다수의 N×N 후보 블록을 발생하여 다음 단의 움직임 추정기(206)로 제공한다.Further, in the search region determination block 204, the second frame memory of FIG. 1 is connected to the P × P search region (for example, 32 × 32 search region) corresponding to the current block provided through the line L20 through the line L13. Determined from the reconstructed previous frame provided at 114, a plurality of N × N candidate blocks corresponding to the N × N current block are generated and provided to the motion estimator 206 of the next stage.

다음에, 움직임 추정기(206)에서는 현재 블록과 다수의 후보 블록간의 블록 매칭을 수행하여 그 오차 값이 최소인 후보 블록을 최적 정합 블록으로 결정하고, 현재 블록과 결정된 최적 정합 블록간의 변위 값을 현재 블록에 대한 움직임 벡터로써 추출하여 라인 L14 및 L22를 통해 도 1의 움직임 보상 블록(118), MV 메모리(210) 및 MVD 산출 블록(214)으로 각각 제공한다.Next, the motion estimator 206 performs block matching between the current block and the plurality of candidate blocks to determine a candidate block having the smallest error value as an optimal matching block, and determines a displacement value between the current block and the determined optimal matching block. Extracted as a motion vector for the block and provided to the motion compensation block 118, MV memory 210 and MVD calculation block 214 of Fig. 1 through lines L14 and L22, respectively.

한편, 이전 후보 블록 탐색 블록(208)에서는 라인 L21을 통해 현재 블록이 제공될 때, 현재 블록에 대응하는 이전 프레임 내 이전 블록과 이동된 영역이 겹치는 기 설정된 개수(예를 들면, 3 - 5개) 이내의 이전 블록들을 탐색하고, 이 탐색된 인접 이전 블록들을 이전 후보 블록으로 결정하며, 또한 결정된 각 이전 후보 블록이 대응 이전 블록에 겹치는 겹치는 이동 영역의 면적 정보를 산출한다.Meanwhile, in the previous candidate block search block 208, when the current block is provided through the line L21, a preset number of overlapping regions of the previous block and the moved region in the previous frame corresponding to the current block (for example, 3 to 5) Search for previous blocks within), determine the searched adjacent previous blocks as previous candidate blocks, and calculate area information of overlapping moving regions where each determined previous candidate block overlaps the corresponding previous block.

즉, 일 예로서 도 3에 도시된 바와 같이, 현재 프레임(310)내 현재 블록이 CB이고 현재 블록에 대응하는 이전 프레임(320)내 이전 블록(PB)에 겹치는 이동 영역을 갖는 이전 후보 블록이 PB1, PB2, PB3이라고 가정할 때, 이전 후보 블록 PB1, PB2, PB3 각각의 겹치는 이동 영역의 면적이, 일 예로서 도 4에 도시된 바와 같이, pb1, pb2, pb3 와 같은 경우, 이전 후보 블록 탐색 블록(208)에서는 이전 후보 블록 정보와 함께 각 이전 후보 블록의 겹침 이동 영역 면적 정보를 라인 L23을 통해 MVP 산출 블록(212)으로 제공한다.That is, as an example, as shown in FIG. 3, the previous candidate block having the moving area overlapping the previous block PB in the previous frame 320 corresponding to the current block is the CB in the current frame 310. Assuming PB1, PB2, and PB3, when the area of the overlapping moving area of each of the previous candidate blocks PB1, PB2, and PB3 is equal to pb1, pb2, and pb3, as shown in FIG. 4 as an example, the previous candidate block The search block 208 provides overlapping moving area area information of each previous candidate block to the MVP calculation block 212 through the line L23 along with the previous candidate block information.

더욱이, 본 발명에서는 현재 블록에 대응하는 위치의 이전 블록에 이동 영역이 겹치는 인접하는 이전 블록들을 탐색할 때, 겹치는 이동 영역의 면적이 기 설정된 임계값(TH)을 초과하는 인접 이전 블록들을 이전 후보 블록으로 결정하고, 또한 결정 가능한 이전 후보 블록의 최대 개수를 제한할 수 있는 데, 예를 들어 최대 개수가 3개인 경우 이전 후보 블록 탐색 블록(208)에서는 겹치는 면적이 임계값 이상인 인접 이전 블록들 중 그 면적이 큰 순서로 3개를 이전 후보 블록으로 결정하게 될 것이다.Furthermore, in the present invention, when searching for adjacent previous blocks in which the moving area overlaps with the previous block at the position corresponding to the current block, the previous candidates for the adjacent previous blocks whose area of the overlapping moving area exceeds the preset threshold TH are candidates. The maximum number of previous candidate blocks that can be determined as a block and can be determined can also be limited. For example, when the maximum number is three, in the previous candidate block search block 208, among neighboring previous blocks whose overlapping area is greater than or equal to a threshold value, may be limited. The largest three areas will be determined as the previous candidate blocks.

다음에, MVP 산출 블록(212)에서는, 라인 L23을 통해 제공되는 이전 프레임 내 이전 후보 블록 정보에 의거하여, 결정된 각 이전 후보 블록들에 대한 움직임 벡터들을 MV 메모리로부터 인출하고, 이 인출된 이전 후보 블록의 움직임 벡터들과 라인 L23을 통해 제공된 이전 후보 블록의 겹침 이동 영역 면적 정보에 의거하여 현재 블록의 움직임 벡터에 대한 움직임 벡터 예측자(MVP)를 산출하며, 여기에서 산출된 움직임 벡터 예측자는 라인 L24를 통해 MVD 산출 블록(214)으로 제공된다.Next, in the MVP calculation block 212, based on the previous candidate block information in the previous frame provided through the line L23, motion vectors for each determined previous candidate blocks are fetched from the MV memory, and the extracted previous candidate A motion vector predictor (MVP) is calculated for the motion vector of the current block based on the motion vectors of the block and the overlapping moving area area information of the previous candidate block provided through the line L23, wherein the calculated motion vector predictor is a line. It is provided to the MVD calculation block 214 via L24.

이때, MVP는, 이전 후보 블록 및 각 이전 후보 블록의 겹침 이동 영역 면적이 도 3b 및 도 4에 도시된 바와 같다고 가정할 때, 겹침 이동 영역이 큰 이전 후보 블록의 움직임 벡터에 가중치를 부여하는 방식으로 산출, 즉 하기의 수학식 1과 같이 산출된다.In this case, MVP assumes a weight of a motion vector of a previous candidate block having a large overlapping movement area, assuming that the overlapping movement area areas of the previous candidate block and each previous candidate block are as shown in FIGS. 3B and 4. It is calculated as shown in Equation 1 below.

상기한 수학식 1에서 mv1은 이전 후보 블록(PB1)의 움직임 벡터를, mv2는 이전 후보 블록(PB2)의 움직임 벡터를, mv3는 이전 후보 블록(PB3)의 움직임 벡터를, pb1은 이전 후보 블록(PB1)의 겹침 이동 영역의 면적을, pb2는 이전 후보 블록(PB2)의 겹침 이동 영역의 면적을, pb3은 이전 후보 블록(PB3)의 겹침 이동 영역의 면적을 각각 의미한다.In Equation 1, mv1 is a motion vector of the previous candidate block PB1, mv2 is a motion vector of the previous candidate block PB2, mv3 is a motion vector of the previous candidate block PB3, and pb1 is a previous candidate block. The area of the overlapping movement area of PB1, pb2 means the area of the overlapping movement area of the previous candidate block PB2, and pb3 means the area of the overlapping movement area of the previous candidate block PB3, respectively.

상술한 바와 같이, MVP를 산출한 때 겹침 이동 영역의 면적이 큰 이전 후보 블록의 움직임 벡터에 가중치를 부여하는 것은, 현재 블록의 움직임 벡터가 상대적으로 큰 겹침 이동 영역을 갖는 이전 후보 블록의 움직임 벡터에 더 근접한 값을 가질 확률이 높기 때문이며, 이것은 결국 움직임 벡터에 할당되는 비트 값의 억제로 이어지게 된다.As described above, when the MVP is calculated, weighting the motion vector of the previous candidate block having a large overlap moving area has a larger weight than the motion vector of the previous candidate block having a relatively large overlap moving area. This is because there is a high probability of having a value closer to, which in turn leads to the suppression of the bit value assigned to the motion vector.

한편, MVD 산출 블록(214)에서는 라인 L22를 통해 움직임 추정기(206)로부터 제공되는 현재 블록의 움직임 벡터와 라인 L24를 통해 MVP 산출 블록(212)으로부터 제공되는 움직임 벡터 예측자간의 감산을 통해 움직임 벡터 차분 값(MVD)을 산출하며, 여기에서 산출되는 움직임 벡터 차분 값은, 현재 블록에 대한 움직임 벡터 예측 값으로써 라인 L15를 통해 도 1의 가변길이 부호화 블록(108)으로 제공된다.Meanwhile, in the MVD calculation block 214, the motion vector is obtained by subtracting the motion vector of the current block provided from the motion estimator 206 through the line L22 and the motion vector predictor provided from the MVP calculation block 212 through the line L24. The difference value MVD is calculated, and the motion vector difference value calculated here is provided to the variable length coding block 108 of FIG. 1 via a line L15 as a motion vector prediction value for the current block.

따라서, 도 1의 가변길이 부호화 블록(108)에서는 라인 L12 상의 양자화된 DCT 변환계수들을 L15를 통해 제공되는 움직임 벡터 예측값(차분 값) 세트들과 함께 가변길이 부호화한 도시 생략된 전송기로 전달하게 된다.Accordingly, in the variable length coding block 108 of FIG. 1, the quantized DCT transform coefficients on the line L12 are transmitted along with the set of motion vector prediction values (differential values) provided through L15 to a variable length coded transmitter. .

이상 설명한 바와 같이 본 발명에 따르면, 현재 블록에 대응하는 이전 프레임 내 이전 블록과 겹치는 이동 영역을 갖는 이전 후보 블록들의 움직임 벡터들과 각각의 겹침 이동 영역 면적에 의거하여, 현재 블록의 움직임 벡터에 대한 움직임 벡터 예측자를 산출하고, 이 산출된 움직임 벡터 예측자를 이용하여 현재 블록에 대한 움직임 벡터 차분 값을 산출하도록 함으로써, 현재 블록의 움직임 벡터에 대한 비트 발생량을 효과적으로 억제할 수 있다.As described above, according to the present invention, on the basis of the motion vectors of the previous candidate blocks having the moving area overlapping with the previous block in the previous frame corresponding to the current block and the area of each overlapping moving area, By calculating the motion vector predictor and calculating the motion vector difference value for the current block by using the calculated motion vector predictor, the amount of bits generated for the motion vector of the current block can be effectively suppressed.

도 1은 본 발명에 따른 움직임 벡터 생성 기법을 적용하는 데 적합한 전형적인 비디오 부호화 시스템의 블록구성도,1 is a block diagram of a typical video encoding system suitable for applying a motion vector generation technique according to the present invention;

도 2는 본 발명의 바람직한 실시 예에 따른 비디오 신호의 움직임 벡터 생성 장치에 대한 블록구성도,2 is a block diagram of an apparatus for generating a motion vector of a video signal according to an embodiment of the present invention;

도 3은 본 발명에 따라 움직임 벡터를 생성할 때 움직임 벡터 예측자(MVP)의 생성을 위해 이전 프레임에서 탐색되는 이전 후보 블록의 일 예를 도시한 것으로, 도 3a는 현재 프레임의 일부를, 도 3b는 이전 프레임의 일부를 각각 도시한 도면,3 illustrates an example of a previous candidate block searched in a previous frame for generation of a motion vector predictor (MVP) when generating a motion vector according to the present invention, and FIG. 3A illustrates a portion of the current frame. 3b shows a part of each of the previous frames,

도 4는 현재 블록에 대응하는 위치의 이전 프레임 내 이전 블록에 이전 후보 블록의 일부가 이동하여 겹쳐지는 형태를 일 예로서 도시한 예시도,4 illustrates an example in which a portion of a previous candidate block is moved and overlapped with a previous block in a previous frame at a position corresponding to the current block;

도 5는 종래 방법에 따라 움직임 벡터 예측자를 결정하는 과정을 설명하기 위해 도시한 도면.5 is a diagram illustrating a process of determining a motion vector predictor according to a conventional method.

<도면의 주요부분에 대한 부호의 설명><Description of the code | symbol about the principal part of drawing>

202 : 영역 분할 블록 204 : 탐색 영역 결정 블록202: region division block 204: search region determination block

206 : 움직임 추정기 208 : 이전 후보 블록 탐색 블록206: motion estimator 208: previous candidate block search block

210 : MV 메모리 212 : MVP 결정 블록210: MV memory 212: MVP decision block

214 : MVD 산출 블록214: MVD calculation block

Claims (3)

프레임 내에 존재하는 공간축 상의 상관도와 프레임간에 존재하는 시간축 상의 상관도를 이용하여 입력 프레임 신호를 압축 부호화하는 부호화 시스템에서 현재 프레임과 재구성된 이전 프레임간의 블록 매칭을 수행하여 N×N 블록 단위로 움직임 벡터를 생성하는 장치에 있어서,In an encoding system that compressively encodes an input frame signal by using a correlation between a spatial axis existing within a frame and a correlation between a time axis existing between frames, block matching between a current frame and a reconstructed previous frame is performed in units of N × N blocks. In the apparatus for generating a vector, 상기 현재 프레임을 기 설정된 다수의 N×N 블록으로 분할하여 얻은 N×N 현재 블록과 상기 N×N 현재 블록에 대응하는 상기 이전 프레임 내 P×P 탐색 영역 내 다수의 N×N 후보 블록간의 블록 매칭을 통해 상기 N×N 현재 블록에 대한 움직임 벡터를 추출하는 수단;A block between an N × N current block obtained by dividing the current frame into a plurality of preset N × N blocks and a plurality of N × N candidate blocks in a P × P search area in the previous frame corresponding to the N × N current block. Means for extracting a motion vector for the N × N current block through matching; 상기 추출된 움직임 벡터를 저장하며, 재구성된 이전 프레임내 각 N×N 이전 블록에 대한 움직임 벡터들을 제공하는 메모리 수단;Memory means for storing the extracted motion vector and providing motion vectors for each N × N previous block in a reconstructed previous frame; 상기 N×N 현재 블록에 대응하는 이전 프레임 내 N×N 이전 블록에 겹치는 이동 영역을 갖는 인접 이전 블록들을 탐색하여 이전 후보 블록을 결정하고, 이 결정된 각 이전 후보 블록에 대해 상기 대응 N×N 이전 블록에 겹치는 이동 영역의 면적을 산출하는 이전 후보 블록 탐색 수단;Search for neighboring previous blocks having a moving area overlapping with the N × N previous block in the previous frame corresponding to the N × N current block to determine a previous candidate block, and for each corresponding previous candidate block, the corresponding N × N previous Previous candidate block search means for calculating an area of a moving area overlapping the block; 상기 결정된 이전 후보 블록의 각 움직임 벡터와 상기 각각 산출된 각 이동 영역 면적 정보에 의거하여, 상기 N×N 현재 블록에 대한 움직임 벡터 예측자를 산출하는 수단; 및Means for calculating a motion vector predictor for the N × N current block based on the determined motion vectors of the previous candidate block and the calculated respective motion area area information; And 상기 추출된 N×N 현재 블록의 움직임 벡터와 상기 움직임 벡터 예측자간의 감산을 통해 상기 N×N 현재 블록의 움직임 벡터 차분 값을 산출하는 수단으로 이루어진 비디오 신호의 움직임 벡터 생성 장치.And a means for calculating a motion vector difference value of the N × N current block by subtracting the motion vector of the extracted N × N current block and the motion vector predictor. 제 1 항에 있어서, The method of claim 1, 상기 이전 후보 블록 탐색 수단은, 상기 대응 N×N 이전 블록에 겹치는 이동 영역의 면적이 기 설정된 임계값(TH)을 초과하는 이전 블록들을 상기 이전 후보 블록으로 결정하는 것을 특징으로 하는 비디오 신호의 움직임 벡터 생성 장치.The previous candidate block searching means determines the previous blocks whose areas of the moving area overlapping the corresponding N × N previous blocks exceed a preset threshold TH as the previous candidate blocks. Vector generation device. 제 1 항 또는 제 2 항에 있어서, The method according to claim 1 or 2, 상기 결정된 이전 후보 블록이 세 개일 때 상기 움직임 벡터 예측자는, 다음의 수학식에 의해 산출되는 것을 특징으로 하는 비디오 신호의 움직임 벡터 생성 장치.And the motion vector predictor is calculated by the following equation when the determined previous candidate blocks are three. (상기 수학식에서 mv1은 이전 후보 블록(PB1)의 움직임 벡터를, mv2는 이전 후보 블록(PB2)의 움직임 벡터를, mv3는 이전 후보 블록(PB3)의 움직임 벡터를, pb1은 이전 후보 블록(PB1)의 겹침 이동 영역의 면적을, pb2는 이전 후보 블록(PB2)의 겹침 이동 영역의 면적을, pb3은 이전 후보 블록(PB3)의 겹침 이동 영역의 면적을 각각 의미함.)In the above equation, mv1 is the motion vector of the previous candidate block PB1, mv2 is the motion vector of the previous candidate block PB2, mv3 is the motion vector of the previous candidate block PB3, and pb1 is the previous candidate block PB1. Pb2 denotes the area of the overlapping movement area of the previous candidate block PB2, and pb3 denotes the area of the overlapping movement area of the previous candidate block PB3.
KR10-1998-0059987A 1998-12-29 1998-12-29 Motion vector generator for video signals KR100457065B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-1998-0059987A KR100457065B1 (en) 1998-12-29 1998-12-29 Motion vector generator for video signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-1998-0059987A KR100457065B1 (en) 1998-12-29 1998-12-29 Motion vector generator for video signals

Publications (2)

Publication Number Publication Date
KR20000043589A KR20000043589A (en) 2000-07-15
KR100457065B1 true KR100457065B1 (en) 2005-05-19

Family

ID=19566845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0059987A KR100457065B1 (en) 1998-12-29 1998-12-29 Motion vector generator for video signals

Country Status (1)

Country Link
KR (1) KR100457065B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100460950B1 (en) * 2001-12-18 2004-12-09 삼성전자주식회사 Transcoder and transcoding method
KR101044934B1 (en) * 2003-12-18 2011-06-28 삼성전자주식회사 Motion vector estimation method and encoding mode determining method
KR100681252B1 (en) * 2004-10-02 2007-02-09 삼성전자주식회사 Method for selecting output macroblock mode and output motion vector, and transcoder using the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990013205A1 (en) * 1989-04-26 1990-11-01 British Telecommunications Public Limited Company Motion estimator
US5198901A (en) * 1991-09-23 1993-03-30 Matsushita Electric Corporation Of America Derivation and use of motion vectors in a differential pulse code modulation system
KR930019016A (en) * 1992-02-08 1993-09-22 강진구 Sub-pixel motion estimation method for motion compensation error
JPH07322266A (en) * 1994-05-25 1995-12-08 Canon Inc Coder
JPH07336650A (en) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> Field interpolation method
US5742710A (en) * 1994-02-23 1998-04-21 Rca Thomson Licensing Corporation Computationally-efficient method for estimating image motion
KR100213021B1 (en) * 1994-11-29 1999-08-02 윤종용 Repeated motion estimation and compensation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990013205A1 (en) * 1989-04-26 1990-11-01 British Telecommunications Public Limited Company Motion estimator
US5198901A (en) * 1991-09-23 1993-03-30 Matsushita Electric Corporation Of America Derivation and use of motion vectors in a differential pulse code modulation system
KR930019016A (en) * 1992-02-08 1993-09-22 강진구 Sub-pixel motion estimation method for motion compensation error
US5742710A (en) * 1994-02-23 1998-04-21 Rca Thomson Licensing Corporation Computationally-efficient method for estimating image motion
JPH07322266A (en) * 1994-05-25 1995-12-08 Canon Inc Coder
JPH07336650A (en) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> Field interpolation method
KR100213021B1 (en) * 1994-11-29 1999-08-02 윤종용 Repeated motion estimation and compensation method

Also Published As

Publication number Publication date
KR20000043589A (en) 2000-07-15

Similar Documents

Publication Publication Date Title
KR0181027B1 (en) An image processing system using pixel-by-pixel motion estimation
TWI395489B (en) A video coding apparatus, and an image decoding apparatus
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
EP0634874B1 (en) Determination of motion vectors in a frame decimating video encoder
JP3917692B2 (en) Digital video signal encoding apparatus and method
KR20020093032A (en) Motion information coding and decoding method
KR0171145B1 (en) Improved motion compensation apparatus for use in an iamge encoding system
US5654761A (en) Image processing system using pixel-by-pixel motion estimation and frame decimation
JP3681784B2 (en) Video signal encoding device
KR100457065B1 (en) Motion vector generator for video signals
KR100203638B1 (en) Method for estimating motion using half-pixel by half-pixel
KR100203714B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100207397B1 (en) Method and apparatus for estimating motion of image in image encoder
KR0181067B1 (en) Moving picture encoder of having compatibility
KR100293445B1 (en) Method for coding motion vector
KR100203703B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203682B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR970010096B1 (en) Two layer motion estimation apparatus and method for image data compression
KR100238891B1 (en) Improved motion estimator and estimation method thereof
KR100203660B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100252346B1 (en) An improved apparatus and method for coding texture move vector
KR0174444B1 (en) Motion compensated apparatus for very low speed transmission
KR100203709B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100228675B1 (en) Method and apparatus for predictive encoding
KR100203699B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111101

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20121101

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee