KR100203682B1 - Improved image coding system having functions for controlling generated amount of coded bit stream - Google Patents

Improved image coding system having functions for controlling generated amount of coded bit stream Download PDF

Info

Publication number
KR100203682B1
KR100203682B1 KR1019960013780A KR19960013780A KR100203682B1 KR 100203682 B1 KR100203682 B1 KR 100203682B1 KR 1019960013780 A KR1019960013780 A KR 1019960013780A KR 19960013780 A KR19960013780 A KR 19960013780A KR 100203682 B1 KR100203682 B1 KR 100203682B1
Authority
KR
South Korea
Prior art keywords
value
signal
complexity
encoding
frame
Prior art date
Application number
KR1019960013780A
Other languages
Korean (ko)
Other versions
KR970073133A (en
Inventor
김종일
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사 filed Critical 전주범
Priority to KR1019960013780A priority Critical patent/KR100203682B1/en
Publication of KR970073133A publication Critical patent/KR970073133A/en
Application granted granted Critical
Publication of KR100203682B1 publication Critical patent/KR100203682B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/141Discrete Fourier transforms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Abstract

본 발명은, MC-DCT, 양자화를 포함하는 부호화 시스템에 있어서, 움직임 보상 오차값에 근거하여 예측되는 이전 영상과 입력 영상간의 시간 복잡도와 움직임 추정 및 보상을 위해 복원된 이전 프레임의 공간 복잡도에 근거하여 현재 부호화하고자 하는 영상의 복잡도를 산출하고, 그 산출결과에 따라 2차원 이산 푸리에 변환을 이용하여 입력 영상신호의 고주파 성분을 선택적으로 제거함으로써, 부호화후의 비트 발생량을 적응적으로 조절할 수 있도록 한 비트 발생량 조절기능을 갖는 영상 부호화 시스템에 관한 것이로, 이를 위하여 본 발명은, 움직임 추정, 보상을 위해 복원된 이전 프레임 각각에 대해 공간 복잡도값을 산출한 다음 각각 산출된 각 이전 프레임으 공간 복잡도값들을 평균하여 기설정된 복수의 이전 프레임에 대한 평균 공간 복잡도값을 산출하고, 에러신호에 대해 각 매크로 블록 단위로 각 픽셀값을 가산하여 움직임 보상 오차값을 산출한 다음 각각 산출된 각 매크로 블록의 움직임 보상 오차값들을 평균하여 기설정된 복수의 이전 프레임에 대한 움직임 평균 오차값을 산출하며, 산출된 평균 공간 복잡도값과 움직임 평균 오차값에 의거하여 최종 복잡도값을 산출하는 시, 공간 복잡도 계산 수단; 산출된 최종 복잡도값을 DCT, 양자화 및 엔트로피 부호화를 갖는 부호화 수단을 통해 현재 부호화하고자 하는 프레임의 복잡도로서 참조하며, 부호화를 위해 입력되는 현재 프레임의 주파수 통과 대역폭을 적응적으로 제한하기 위한 기설정된 복수의 대역폭 결정신호들중 산출된 최종 복잡도값에 대응하는 대역폭 결정신호를 발생하는 제어수단; 및 입력 현재 프레임 신호에 대한 공간영역의 영상신호를 2차원 이산 푸리에 변환을 이용하여 M×N 블록 단위의 주파수 영역의 2차원 DFT 변환계수 블록들에 대한 고주파 통과 대역을 결정하며, 변환된 각 2차원 DFT 변환계수들로 변환하고, 제어수단으로부터 제공되는 발생된 대역폭 결정신호에 의거하여 변환된 2차원 DFT변환계수 블록의 고주파 통과 대역을 결정된 대역폭으로 제한하고, 대역폭이 제한된 양자화된 각 DFT 블록들 각각에 대해 역이산 푸리에 변환을 수행하여 부호화전의 원신호로 복원하며, 원신호로 복원된 대역폭 제한 프레임 신호를 움직임 추정, 보상을 위한 현재 프레임 신호로써 부호화 수단에 제공하는 주파수 선택 수단을 포함함으로써, 부호화 수단에서의 양자화시 과도한 스텝 사이즈의 증가 없이 부호화후 발생되는 비트량을 효과적으로 조절할 수 있는 것이다.The present invention, in the coding system including MC-DCT, quantization, based on the time complexity between the previous image and the input image predicted based on the motion compensation error value and the spatial complexity of the previous frame reconstructed for motion estimation and compensation Calculates the complexity of the image to be encoded, and selectively removes high frequency components of the input video signal using a two-dimensional Discrete Fourier Transform according to the calculated result, thereby adaptively adjusting the amount of bits generated after encoding. The present invention relates to a video encoding system having a generation amount control function. To this end, the present invention calculates a spatial complexity value for each of the previous frames reconstructed for motion estimation and compensation, and then calculates the spatial complexity values of the respective previous frames. Averages the average spatial complexity values for a plurality of preset previous frames Calculates a motion compensation error value by adding each pixel value in units of macroblocks to an error signal, and then averages the motion compensation error values of each calculated macroblock, and then averages the motions of a plurality of preset frames. Time complexity calculation means for calculating an error value and calculating a final complexity value based on the calculated average spatial complexity value and the motion average error value; The calculated final complexity value is referred to as the complexity of the frame to be currently encoded through encoding means having DCT, quantization, and entropy encoding, and a preset plurality for adaptively limiting the frequency passband bandwidth of the current frame input for encoding. Control means for generating a bandwidth determination signal corresponding to the final complexity value calculated among the bandwidth determination signals of? And a high-pass passband for the two-dimensional DFT transform coefficient blocks in the frequency domain of the M × N block unit by using a two-dimensional discrete Fourier transform of the spatial domain image signal with respect to the input current frame signal. Converting into dimensional DFT transform coefficients, limiting the high pass band of the transformed 2D DFT transform coefficient block to the determined bandwidth based on the generated bandwidth determination signal provided from the control means, and quantizing the quantized DFT blocks Performing a inverse discrete Fourier transform on each to recover the original signal before encoding, and including a frequency selecting means for providing the encoding means as a current frame signal for motion estimation and compensation to the bandwidth limited frame signal restored to the original signal, Effect of bit amount generated after encoding without excessive step size increase in quantization by encoding means Can be adjusted by

Description

비트 발생량 조절기능을 갖는 영상 부호화 시스템Image Coding System with Bit Rate Control

제1도는 본 발명의 바람직한 실시예에 따른 비트 발생량 조절기능을 갖는 영상 부호화 시스템의 블록구성도.1 is a block diagram of a video encoding system having a bit generation amount adjusting function according to a preferred embodiment of the present invention.

제2도는 본 발명에 따라 일예로서 8×8 픽셀 블록에 대하여 그 복잡도에 의거하여 결정되는 고중파 성분 제한을 위한 결정 영역을 도시한 도면.2 shows a decision region for high frequency component limitation determined as an example, based on its complexity, for an 8x8 pixel block in accordance with the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

100, 170 : 프레임 메모리 110 : 감산기100, 170: frame memory 110: subtractor

120 : 영상 부호화 블록 130 : 엔트로피 부호화 블록120: image coding block 130: entropy coding block

140 : 전송 버퍼 150 : 영상 복호화 블록140: transmission buffer 150: video decoding block

160 : 가산기 180 : 현재 프레임 예측 블록160: adder 180: current frame prediction block

210 : 시, 공간 복잡도 계산 블록 220 : 제어 블록210: time, space complexity calculation block 220: control block

230 : 주파수 선택 블록230: frequency selection block

본 발명은 영상신호를 압축 부호화하는 영상 부호화 시스템에 관한 것으로, 더욱 상세하게는 움직임 보상 차분 펄스 부호 변조(MC-DPCM) 기법을 이용하여 영상신호를 압축 부호화할 때, 움직임 보상 오차값에 근거하여 예측되는 이전 영상과 입력 영상간의 시간 복잡도(Variance)와 움직임 추정 및 보상을 위해 복원된 이전 프레임의 공간 복잡도에 근거하여 예측되는 입력 영상신호의 복잡도(Variance)를 참조하여 부호화후의 발생 비트량을 적응적으로 조절하는 데 적합한 비트 발생량 조절기능을 갖는 영상 부호화 시스템에 관한 것이다.The present invention relates to a video encoding system for compressing and encoding a video signal. More particularly, the present invention relates to a video encoding system based on a motion compensation error value when compression encoding a video signal using a motion compensation differential pulse code modulation (MC-DPCM) technique. Adapts the generated bit amount after encoding with reference to the complexity of the input video signal predicted based on the temporal variation between the predicted previous image and the input image and the spatial complexity of the previous frame reconstructed for motion estimation and compensation. The present invention relates to an image encoding system having a bit generation amount adjustment function suitable for adjusting the amount.

이 기술분야에 잘 알려진 바와같이 이산된 영상신호의 전송은 아날로그 신호보다 좋은 화질을 유지할 수 있다. 일련의 이미지 “프레임”으로 구성된 비디오 신호가 디지털 형태로 표현될 때, 특히 고품질 텔레비전(일명 HDTV라함)의 경우 상당한 양의 데이터가 전송되어야 한다. 그러나 종래의 전송 채널의 사용 가능한 주파수 영역은 제한되어 있으므로, 많은 양의 디지털 데이터를 전송하기 위해서는 전송되는 데이터를 압축하여 그 양을 줄일 필요가 있다. 이와 같이 데이터를 압축하는 다양한 압축 기법 중에서, 확률적 부호화 기법과 시간적, 공간적 압축기법을 결합한 하이브리드 부호화 기법이 가장 효율적인 것으로 알려져 있으며, 이러한 기법들은, 예를들면 세계 표준화 기구에 의해 그 표준안이 이미 제정된 MPEG-1 및 MPEG-2등의 권고안에 광범위하게 개시되어 있다.As is well known in the art, the transmission of discrete video signals can maintain better image quality than analog signals. When a video signal consisting of a series of image "frames" is represented in digital form, a significant amount of data must be transmitted, especially for high quality televisions (aka HDTVs). However, since the usable frequency range of the conventional transmission channel is limited, in order to transmit a large amount of digital data, it is necessary to compress the transmitted data and reduce the amount thereof. Among the various compression techniques for compressing data, hybrid coding techniques combining probabilistic coding and temporal and spatial compression are known to be the most efficient, and these techniques are already established by the World Standards Organization. It is widely disclosed in recommendations such as MPEG-1 and MPEG-2.

대부분의 하이브리드 부호화 기법은 움직임 보상 DPCM(차분 펄스 부호 변조), 2차원 DCT(이산 코사인 변화), DCT 계수의 양자화, VLC(가변장 부호화)등을 이용한다. 움직임 보상 DPCM은 현재 프레임과 이전 프레임간의 물체의 움직임을 결정하고, 물체의 움직임에 따라 현재 프레임을 예측하여 현재 프레임과 예측치간의 차이를 나타내는 차분신호를 만들어내는 방법이다. 이 방법은 예를 들어 Staffan Ericsson 의 “Fixed and Adaptive Predictors for Hybrid Predictive/Transform Coding”, IEEE Transactions on Communication, CCM-33, NO.12 (1985년 12월), 또는 Ninomiy 와 Ohtsuka의 “A motion Compensated Interframe Coding Scheme for Television Pictures”, IEEE Transactions on Communication, COM-30, NO.1 (1982년, 1월)에 기재되어 있다.Most hybrid coding techniques use motion compensated DPCM (differential pulse code modulation), two-dimensional DCT (discrete cosine change), quantization of DCT coefficients, VLC (variable length coding), and the like. The motion compensation DPCM determines a motion of an object between a current frame and a previous frame, and predicts a current frame according to the motion of the object to generate a difference signal representing a difference between the current frame and a predicted value. This method is described, for example, in Staffan Ericsson's “Fixed and Adaptive Predictors for Hybrid Predictive / Transform Coding”, IEEE Transactions on Communication, CCM-33, NO.12 (December 1985), or “A motion Compensated” by Ninomiy and Ohtsuka. Interframe Coding Scheme for Television Pictures ”, IEEE Transactions on Communication, COM-30, NO.1 (January, 1982).

일반적으로, 이차원 DCT 는 영상 데이터간의 공간적 리던던시를 이용하거나 제거하는 것으로써, 디지털 영상 데이터 블록, 예를 들면 8×8 블록을 DCT 변환계수로 변환한다. 이 기법은 Chen 과 Pratt 의 “Scene Adaptive Coder”, IEEE Transactions on Communication, COM-32, NO.3(1984년 3월)에 개시되어 있다. 이러한 DCT 변환계수는 양자화기, 지그재그 주사, VLC등을 통해 처리됨으로써 전송할 데이터의 양을 효과적으로 감축(또는 압축)할 수 있다.In general, two-dimensional DCT converts digital image data blocks, for example, 8x8 blocks, into DCT conversion coefficients by using or eliminating spatial redundancy between image data. This technique is described in Chen and Pratt's “Scene Adaptive Coder”, IEEE Transactions on Communication, COM-32, NO.3 (March 1984). The DCT conversion coefficient may be processed through a quantizer, zigzag scan, VLC, etc. to effectively reduce (or compress) the amount of data to be transmitted.

보다 상세하게, 움직임 보상 DPCM에서는 현재 프레임과 이전 프레임간의 추정된 물체의 움직임에 따라, 현재 프레임을 이전 프레임으로부터 예측한다. 이와 같이 추정된 움직임은 이전 프레임과 현재 프레임간의 변위를 나타내는 2차원 움직임 벡터로 나타낼 수 있다.More specifically, the motion compensation DPCM predicts the current frame from the previous frame according to the estimated motion of the object between the current frame and the previous frame. The estimated motion may be represented by a two-dimensional motion vector representing the displacement between the previous frame and the current frame.

통상적으로, 물체의 변위를 추정하는 데에는 여러가지 접근방법이 있다. 이들은 일반적으로 두개의 타입으로 분류되는데, 그중 하나는 블록 매칭 알고리즘을 이용하는 블록단위 움직임 추정방법이고 다른 하나는 화소순환 알고리즘을 이용하는 화소단위 움직임 추정방법이다.Typically, there are several approaches to estimating the displacement of an object. These are generally classified into two types, one of which is a block-based motion estimation method using a block matching algorithm, and the other is a pixel-based motion estimation method using a pixel circulation algorithm.

상기와 같이 물체의 변위를 추정하는 움직임 추정방법중, 화소단위 움직임 추정방법을 이용하면 변위는 각각의 화소 전부에 대해 구해진다. 이러한 방법은 화소값을 더 정확히 추정할 수 있고 스케일 변화(예를들어, 영상면에 수직한 움직임인 주밍(zooming))도 쉽게 다룰 수 있다는 장점을 갖는 반면에, 움직임 벡터가 모든 화소 각각에 대해 결정되기 때문에, 다량의 움직임 벡터들이 발생하는 데 실질적으로 모든 움직임 벡터를 수신기로 전송하다는 것은 불가능하다.In the motion estimation method for estimating the displacement of an object as described above, the displacement is obtained for each pixel by using the pixel-based motion estimation method. This method has the advantage of being able to estimate pixel values more accurately and easily handle scale changes (e.g., zooming, a movement perpendicular to the image plane), while the motion vectors are calculated for each pixel. Since it is determined, it is impossible to transmit substantially all the motion vectors to the receiver as large amounts of motion vectors occur.

또한, 블록단위 움직임 추정에서는, 현재 프레임의 소정 크기에 블록을 이전 프레임의 소정 범위의 탐색영역내에서 한 화소씩 이동하면서 대응 블록들과 비교하여 그 오차값이 최소인 최적 정합블럭을 결정하며, 이것으로부터, 전송되는 현재 프레임에 대해 블록 전체에 대한 프레임간 변위 벡터(프레임간에 블록이 이동한 정도)가 추정된다. 여기에서, 현재 프레임과 이전 프레임간의 대응하는 두 블록간의 유사성 판단은, 이 기술분야에 잘 알려진 바와 같은, 평균 절대차와 평균 제곱차 등이 주로 사용된다.In addition, in block-by-block motion estimation, an optimal matching block having a minimum error value is determined by comparing blocks with a corresponding pixel while moving a block by a pixel in a search range of a previous frame to a predetermined size of a current frame. From this, the interframe displacement vector (the extent to which the block has moved between frames) for the entire block is estimated for the current frame to be transmitted. Here, in determining the similarity between two corresponding blocks between the current frame and the previous frame, the average absolute difference, the mean square difference, etc. are mainly used, as is well known in the art.

한편, 상술한 바와 같은 부호화 기법, 즉 움직임 보상 DPCM, 2차원 DCT, DCT계수의 양자화 및 VLC(또는 엔트로피 부호화) 등의 부호화 기법을 통해 부호화된 영상 비트 스트림은 영상 부호화 시스템의 출력측에 구비되는 전송 버퍼에 저장된 다음 전송시점이 되면 원격지 수신측으로의 송신을 위해 전송기로 보내진다. 이때, 여기에서의 전송시점은 전송 버퍼의 크기(즉, 용량)와 전송율에 관계되며, 전송 버퍼에서의 오동작(데이터 오버플로우(overflow) 또는 데이터 언더플로우(underflow))이 발생하지 않도록 제어된다.On the other hand, the image bit stream encoded by the encoding technique as described above, that is, encoding techniques such as motion compensation DPCM, two-dimensional DCT, DCT coefficient quantization, and VLC (or entropy encoding) is transmitted to the output side of the image encoding system. The next transmission point stored in the buffer is sent to the transmitter for transmission to the remote destination. At this time, the transmission time point here is related to the size (ie, capacity) and transmission rate of the transmission buffer, and is controlled so that a malfunction (data overflow or data underflow) does not occur in the transmission buffer.

보다 상세하게, 여러 가지 요인(예를들면, 영상의 복잡도)으로 인해 부호화시에 각 프레임마다 발생되는 비트량이 달라지게 되는데, 이러한 점을 고려하여 영상 부호화 시스템에서는, 평균 전송율이 일정하게 유지될 수 있도록 출력측 전송 버퍼의 제어를 수행한다. 즉, 영상 부호화 시스템에서는 출력측 전송 버퍼의 데이터 충만상태 정보에 근거하여 현재 부호화하고 있는 프레임 이전까지의 비트 발생량을 조사하고 있다가 현재 프레임에서 할당해야 하는 비트량을 조절한다. 다시말해, 종래의 전형적인 영상 부호화 시스템에서는 출력측 전송 버퍼의 데이터 충만상태 정보에 의거하여 실질적으로 양자화 스텝 사이즈(QP)를 제어함으로써 부호화 시스템에서의 발생 비트량을 조절, 즉 이전까지 비트 발생량이 많으면 양자화 스텝 사이즈를 크게 조절하여 비트 발생량을 줄이고, 이와 반대의 경우에는 양자화 스텝 사이즈를 작게 조절하여 비트 발생량을 늘리는 등의 방법을 통해 비트 발생량을 조절하고 있다.More specifically, various factors (e.g., image complexity) may cause a different amount of bits to be generated for each frame at the time of encoding. In view of this, in an image encoding system, the average bit rate may be kept constant. Control of the output buffer. That is, the video encoding system checks the bit generation amount up to the frame currently encoded based on the data fullness state information of the output transmission buffer and adjusts the bit amount to be allocated in the current frame. In other words, in the conventional typical video encoding system, the amount of bits generated in the encoding system is adjusted by controlling the quantization step size (QP) substantially based on the data full state information of the output transmission buffer, that is, if the amount of bits generated before has been large, The bit generation amount is controlled by reducing the bit generation amount by adjusting the step size largely, and in the opposite case, by adjusting the quantization step size small to increase the bit generation amount.

그러나, 상술한 바와같이 출력측 전송 버퍼의 데이터 충만상태 정보에 의거하여 양자화 스텝 사이즈를 조절함으로써 비트 발생량을 조절하는 종래방법은, 각 프레임에 해당하는 영상 데이터를 동일한 전송율로 부호화하여 전송하고자 하는 경우에 있어서, 부호화하고자 하는 영상이 복잡한 경우(고주파 성분이 다량 발생)에 비트 발생량이 많아지게 되는데 이로 인해 양자화 스텝 사이즈가 커져 결과적으로 재생 영상에서의 심각한 화질열화가 야기된다는 문제를 갖는다. 여기에서 발생하는 고주파 성분은 실질적으로 인간의 시각특성에 매우 둔감한 성분(재생 영상의 화질에 거의 영향을 미치지 않는 성분)이다.However, as described above, the conventional method of adjusting the bit generation amount by adjusting the quantization step size based on the data fullness state information of the output side transmission buffer is performed when encoding and transmitting the video data corresponding to each frame at the same data rate. In the case where the image to be encoded is complex (a large amount of high frequency components are generated), a large amount of bits is generated, which causes a problem that the quantization step size becomes large, resulting in serious image quality degradation in the reproduced image. The high frequency component generated here is a component that is substantially insensitive to human visual characteristics (a component that hardly affects the image quality of a reproduced video).

따라서, 본 발명은 상술한 종래기술의 문제점을 해결하기 위한 것으로, MC-DCT, 양자화를 포함하는 부호화 시스템에 있어서, 움직임 보상 오차값에 근거하여 예측되는 이전 영상과 입력 영상간의 시간 복잡도와 움직임 추정 및 보상을 위해 복원된 이전 프레임의 공간 복잡도에 근거하여 현재 부호화하고자 하는 영상의 복잡도를 산출하고, 그 산출결과에 따라 2차원 이산 푸리에 변환을 이용하여 입력 영상신호의 고주파 성분을 선택적으로 제거함으로써, 부호화후의 비트 발생량을 적응적으로 조절할 수 있는 비트 발생량 조절기능을 갖는 영상 부호화 시스템을 제공하는 데 그 목적이 있다.Accordingly, the present invention is to solve the problems of the prior art described above, in the coding system including MC-DCT, quantization, time complexity and motion estimation between the previous image and the input image predicted based on the motion compensation error value And calculating the complexity of the image to be currently encoded based on the spatial complexity of the previous frame reconstructed for compensation, and selectively removing the high frequency components of the input video signal using the two-dimensional discrete Fourier transform according to the calculation result. It is an object of the present invention to provide a video encoding system having a bit generation amount adjustment function capable of adaptively adjusting the bit generation amount after encoding.

상기 목적을 달성하기 위하여 본 발명은, 입력되는 현재 프레임과, 이 현재 프레임 및 재구성된 이전 프레임을 이용하는 매크로 블록단위의 움직임 추정, 보상을 통해 얻어지는 예측 프레임간의 에러신호에 대해 이산 코사인 변환, 양자화 및 엔트로피 부호화를 포함하는 부호화 수단을 통해 압축 부호화하여 부호화된 비트 스트림을 발생하며, 상기 양자화는 출력측 버퍼에 저장되는 상기 비트 스트림의 충만상태 정보에 의거하여 그 스텝 사이즈가 조절되는 비트 발생량 조절기능을 갖는 영상 부호화 시스템에 있어서, 상기 움직임 추정, 보상을 위해 복원된 상기 이전 프레임 각각에 대해 공간 복잡도값을 신축한 다음 각간 산축된 상기 각 이전 프레임의 공간 복잡도값들을 평균하여 기설정된 복수의 이전 프레임에 대한 평균 공간 복잡도값을 산출하고, 상기 에러신호에 대해 각 매크로 블록 단위로 각 필셀값을 가산하여 움직임 보상 오차값을 산출한 다음 각각 산출된 각 매크로 블록의 움직임 보상 오차값들을 평균하여 기설정된 복수의 이전 프레임에 대한 움직임 평균 오차값을 산출하며, 상기 산출된 평균 공간 복잡도값과 움직임 평균 오차값에 의거하여 최종 복잡도값을 산출하는 시, 공간 복잡도 계산수단; 및 상기 산출된 최종 복잡도값을 상기 부호화 수단을 통해 현재 부호화하고자 하는 프레임의 복잡도로서 참조하며, 부호화를 위해 입력되는 상기 현재 프레임의 주파수 통과 대역폭을 적응적으로 제한하기 위한 기설정된 복수의 대역폭 결정신호들중 상기 산출된 최종 복잡도값에 대응하는 대역폭 결정신호를 발생하는 제어수단; 및 상기 입력 현재 프레임 신호에 대한 공간영역의 영상신호를 2차원 이산 푸리에 변환을 이용하여 M×N 블록 단위의 주파수 영역의 2차원 DFT 변환계수들로 변환하고, 상기 제어수단으로부터 제공되는 발생된 대역폭 결정신호에 의거하여 상기 변환된 2차원 DFT 변환계수 블록들에 대한 고주파 통과 대역을 결성하며, 상기 변환된 각 2차원 DFT 변환계수 블록의 고주파 통과 대역을 상기 결정된 대역폭으로 제한하고, 상기 대역폭이 제한된 양자화된 각 DFT 블록들 각각에 대해 역이산 푸리에 변환을 수행하여 부호화전의 원신호로 복원하며, 원신호로 복원된 상기 대역폭 제한 프레임 신호를 상기 움직임 추정, 보상을 위한 현재 프레임 신호로써 상기 부호화 수단에 제공하는 주파수 선택 수단을 더 포함하는 것을 특징으로 하는 비트 발생량 조절기능을 갖는 영상 부호화 시스템을 제공한다.In order to achieve the above object, the present invention provides a discrete cosine transform, quantization, and an error signal between an input current frame and a prediction frame obtained through motion estimation and compensation in units of macroblocks using the current frame and the reconstructed previous frame. Compression encoding is performed through encoding means including entropy encoding to generate an encoded bit stream, and the quantization has a bit generation amount adjusting function of adjusting a step size based on the fullness information of the bit stream stored in an output buffer. In the image encoding system, a spatial complexity value is stretched and contracted for each of the previous frames reconstructed for the motion estimation and compensation, and then averaged for each of the plurality of previous frames that are respectively compressed. Calculate the mean spatial complexity value A motion compensation error value is calculated by adding each pixel in units of macroblocks to the error signal, and then averaged motion compensation error values of each calculated macroblock. A time complexity calculation means for calculating a value and calculating a final complexity value based on the calculated average spatial complexity value and the motion average error value; And a plurality of predetermined bandwidth determination signals for referring to the calculated final complexity value as the complexity of the frame to be currently encoded by the encoding means, and for adaptively limiting the frequency passband bandwidth of the current frame input for encoding. Control means for generating a bandwidth determination signal corresponding to the calculated final complexity value among the signals; And converting the image signal in the spatial domain with respect to the input current frame signal into two-dimensional DFT transform coefficients in the frequency domain in M × N block units using a two-dimensional discrete Fourier transform, and generating the bandwidth provided from the control means. And forming a high frequency pass band for the transformed 2D DFT transform coefficient blocks based on the determined signal, limiting the high pass band of each transformed 2D DFT transform coefficient block to the determined bandwidth and limiting the bandwidth. Inverse discrete Fourier transform is performed on each of the quantized DFT blocks to restore the original signal before encoding, and the bandwidth limited frame signal reconstructed as the original signal is transmitted to the encoding means as a current frame signal for the motion estimation and compensation. With a bit generation amount adjustment function, characterized in that it further comprises a frequency selection means for providing Provided is an image encoding system.

본 발명의 상기 및 기타 목적과 여러가지 장점은 이 기술분야에 숙련된 사람들에 의해 첨부된 도면을 참조하여 하기에 기술되는 본 발명의 바람직한 실시예로부터 더욱 명확하게 될 것이다.The above and other objects and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings by those skilled in the art.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

제1도는 본 발명의 바람직한 실시예에 따른 비트 발생량 조절기능을 갖는 영상 부호화 시스템에 대한 블록구성도를 나타낸다. 동도면에 도시한 바와같이, 본 발명의 영상 부호화 시스템은 제1프레임 메모리(100), 감산기(110), 영상 부호화 블록(120), 엔트로피부호화 블록(130), 전송 버퍼(140), 영상 복호화 블록(150), 가산기(160), 제2프레임 메모리(170), 현재 프레임 예측 블록(180), 시,공간 복잡도 계산 블록(210), 제어 블록(220) 및 주파수 선택 블록(230)을 포함한다.1 is a block diagram of a video encoding system having a bit generation amount adjusting function according to a preferred embodiment of the present invention. As shown in the figure, the image encoding system of the present invention includes a first frame memory 100, a subtractor 110, an image encoding block 120, an entropy encoding block 130, a transmission buffer 140, and image decoding. Block 150, adder 160, second frame memory 170, current frame prediction block 180, temporal and spatial complexity calculation block 210, control block 220, and frequency selection block 230. do.

제1도를 참조하면, 입력되는 현재 프레임 신호는 제1프레임 메모리(100)에 저장된 다음 주파수 선택 블록(230)으로 입력되며, 주파수 선택 블록(230)에서는 후술되는 제어 블록(220)으로부터 제공되는 움직임 추정, 보상을 위해 복원된 이전 프레임의 공간 복잡도와 움직임 보상 오차값에 따른 영상의 시간 복잡도에 의거해 산출되는 제어신호(주파수 영역 구분을 위한 대역폭 결정신호)에 따라 입력 프레임 신호의 주파수를 적응적으로 제한, 즉 2차원 DFT를 이용하여 입력 영상의 고주파 성분(비교적 인간의 시각에 둔감한 부분임)을 제거하는 데, 이러한 주파수 선택 블록(230)에 대한 구체적인 동작과정에 대해서는 제2도를 참조하여 후에 상세하게 기술될 것이다. 그런다음, 이와 같이 고주파 성분이 적응적으로 제거되는 현재 프레임 신호는 라인 L11을 통해 감산기(110)와 현재 프레임 예측 블록(180)에 각각 제공된다.Referring to FIG. 1, the input current frame signal is input to the next frequency selection block 230 stored in the first frame memory 100, and the frequency selection block 230 is provided from a control block 220 to be described later. Adapt the frequency of the input frame signal according to the control signal (bandwidth decision signal for frequency domain classification) calculated based on the spatial complexity of the previous frame reconstructed for motion estimation and compensation and the time complexity of the image according to the motion compensation error value In general, the limitation, that is, the high frequency component (which is a relatively insensitive part of the human eye) of the input image is removed by using the two-dimensional DFT. Reference will be made later in detail. Then, the current frame signal in which the high frequency component is adaptively removed is provided to the subtractor 110 and the current frame prediction block 180 through line L11, respectively.

먼저, 감산기(110)에서는 라인 L11을 통해 주파수 선택 블록(230)에서 제공되는 현재 프레임 신호로부터 라인 L19를 통해 후술되는 현재 프레임 예측 블록(180)으로부터 제공되는 이동 물체에 대하여 움직임 보상된 예측된 현재 프레임 신호를 감산하며, 그 결과 데이터, 즉 차분화소값을 나타내는 에러신호를 라인 L12 상에 발생한다. 그런다음, 라인 L12 상의 에러신호는 영상 부호화 블록(120)을 통해 이산 코사인 변환(DCT)과 이 기술분야에서 잘 알려진 양자화 방법들중의 어느 하나를 이용함으로서, 일련의 양자화된 DCT 변환계수들로 부호화된다. 이때, 영상 부호화 블록(120)에서의 에러신호에 대한 양자화는 라인 L21을 통해 후술되는 출력측 전송 버퍼(140)로부터 제공되는 데이터 충만상태 정보에 따라 결정되는 양자화 파라메터(QP)에 의거하여 그 스텝 사이즈가 조절된다.First, the subtractor 110 performs a motion compensated predicted current for a moving object provided from the current frame prediction block 180 described below via line L19 from the current frame signal provided by the frequency selection block 230 via line L11. The frame signal is subtracted, and as a result, an error signal representing data, that is, a difference pixel value, is generated on the line L12. The error signal on line L12 is then transformed into a series of quantized DCT transform coefficients by using discrete cosine transform (DCT) and one of the quantization methods well known in the art via image coding block 120. Is encoded. At this time, the quantization of the error signal in the image encoding block 120 is based on the step size based on the quantization parameter QP determined according to the data fullness state information provided from the output side transmission buffer 140 described later through the line L21. Is adjusted.

또한, 본 발명에 따라, 라인 L12상의 에러신호는 후술되는 시,공간 복잡도 계산 블록(210)으로 제공되며, 시,공간 복잡도 계산 블록(210)은 라인 L12상의 에러신호를 가산함으로써, 각 프레임의 움직임 보상 오차값을 산출하는 데, 이와 같이 산출된 움직임 보상 오차값을 이용하여 부호화하고자 하는 프레임의 시간 복잡도를 게산하며, 본 발명에서는 이와 같이 계산된 시간 복잡도와 후술되는 복원된 이전 프레임의 공간 복잡도를 종합하여 산출되는 최종 복잡도에 근거하여 2차원 DCT 를 이용하여 영상 부호화 블록(120)에서의 양자화 단계전에 인간의 시각특성에 비교적 둔감한 고주파 성분을 적응적(또는 선택적)으로 제한한다. 따라서, 본 발명에서는 부호화된 비트 발생량의 증가가 수반되는 복잡한 영상이라 할지라도 재생 영상에서의 화질열화를 야기시키는 양자화 스텝 사이즈를 적절하게 조절할 수 있다. 이와 같이 산출된 영상의 시간 복잡도와 공간 복잡도 정보에 근거해 설정되는 대역폭 결정신호를 이용하여 양자화 단계에서의 저역 통과 필터링시에 그 대역폭을 적응적으로 제한하는 구체적인 과정에 대해서는 후에 상세하게 기술될 것이다.Further, according to the present invention, the error signal on the line L12 is provided to the time and space complexity calculation block 210, which will be described later, the time, space complexity calculation block 210 by adding the error signal on the line L12, A motion compensation error value is calculated, and the time complexity of the frame to be encoded is calculated using the calculated motion compensation error value. In the present invention, the time complexity calculated as described above and the spatial complexity of the reconstructed previous frame described below are calculated. Based on the final complexity calculated by combining the two-dimensional DCT using a two-dimensional DCT before the quantization step in the image coding block 120, a relatively insensitive to a high frequency component of the human being adaptively (or selectively) limited. Therefore, the present invention can appropriately adjust the quantization step size that causes deterioration of image quality in the reproduced video even in a complicated video accompanied by an increase in the encoded bit generation amount. A detailed process of adaptively limiting the bandwidth in the low pass filtering in the quantization step by using the bandwidth determination signal set based on the time complexity and spatial complexity information of the calculated image will be described later in detail. .

다음에, 라인 L13 상의 양자화된 DCT 변환계수들은 엔트로피 부호화 블록(130)과 영상 복호화 블록(150)으로 각각 보내진다. 여기에서, 엔트로피 부호화 블록(130)에 제공된 양자화된 DCT 변환계수들은, 예를들면 가변길이 부호화 기법들을 통해 부호화되어 출력측의 전송버터(140)에 제공되며, 이와 같이 부호화된 영상신호는 수신측으로의 전송을 위해 도시 생략된 전송기로 전달된다.Next, the quantized DCT transform coefficients on line L13 are sent to entropy coding block 130 and image decoding block 150, respectively. Here, the quantized DCT transform coefficients provided to the entropy coding block 130 are encoded by, for example, variable length coding techniques, and provided to the transmission butter 140 on the output side. It is delivered to the transmitter not shown for transmission.

한편, 영상 부호화 블록(120)으로부터 영상 복호화 블록(150)에 제공되는 라인 L13 상의 양자화된 DCT 변환계수들은 역양자화 및 역이산 코사인 변환을 통해 다시 복원된 프레임 신호로 변환된 다음, 가산기(160)에 제공되며, 가산기(160)에서는 영상 복호화 블록(150)으로 부터의 복원된 프레임 신호와 라인 L19를 통해 후술되는 현재 프레임 예측 블록(180)으로부터 제공되는 예측된 현재 프레임신호를 가산하여 재구성된 이전 프레임 신호를 생성하며, 이와 같이 재구성된 이전프레임 신호는 제2프레임 메모리(170)에 저장된다. 따라서, 이러한 경로를 통해 부호화 처리되는 매 프레임에 대한 바로 이전 프레임 신호가 계속적으로 갱신되며, 이와같이 갱신되는 재구성된 이전 프레임 신호는 움직임 추정, 보상을 위해 후술되는 현재 프레임 예측 블록(180)으로 제공된다.Meanwhile, the quantized DCT transform coefficients on the line L13 provided from the image coding block 120 to the image decoding block 150 are converted into a frame signal reconstructed again through inverse quantization and inverse discrete cosine transform, and then adder 160. The adder 160 adds the reconstructed frame signal from the image decoding block 150 and the predicted current frame signal provided from the current frame prediction block 180 described later through line L19 to reconstruct the previous image. A frame signal is generated, and the previous frame signal reconstructed as described above is stored in the second frame memory 170. Accordingly, the immediately previous frame signal for every frame encoded through this path is continuously updated, and the reconstructed previous frame signal thus updated is provided to the current frame prediction block 180 described later for motion estimation and compensation. .

또한, 제2프레임 메모리(170)에 저장되는 복원되어 재구성된 이전 프레임 신호는 본 발명에 따른 입력 프레임의 공간 복잡도 계산을 위해 라인 L16을 통해 후술되는 시, 공간 복잡도 계산 블록(210)으로 제공된다.In addition, the reconstructed reconstructed previous frame signal stored in the second frame memory 170 is provided to the spatial complexity calculation block 210 described below through line L16 for calculating the spatial complexity of the input frame according to the present invention. .

다른 한편, 현재 프레임 예측 블록(180)에서는, 본 발명에 따른 주파수 선택 블록(230)으로부터 제공되는 라인 L11 상의 고주파 성분이 선택적으로 제거되거나 또는 고주파 성분이 제거되지 않은 현재 프레임 신호와 상기한 제 2프레임 메모리(170)로부터 제공되는 라인 L15 상의 재구성된 이전 프레임 신호에 기초하여 블록 매칭 알고리즘을 이용해 재구성된 이전 프레임의 기설정 탐색범위(예를들면, 16×16, 또는 32×32 탐색범위)에서 소정의 블록(예를들면, 8×8 또는 16×16 DCT 블록)단위로 현재 프레임을 예측한 다음 라인 L19 상에 예측된 현재 프레임 신호를 발생하여 상술한 감산기(110)의 가산기(160)에 각각 제공한다. 이때, 라인 L19상의 스위치(SW)는 도시 생략된 시스템 제어기로 부터의 제어신호(CS)에 따라 그 접점이 온/오프되는 것으로, 스위치(SW)가 온 일때는 현재의 부호화 모드가 인터모드임을 의미하고 반대로 오프일때는 현재의 부호화 모드가 인트라 모드임을 의미한다. 따라서, 감산기(110)에서는 인터모드 부호화시에 현재 프레임 신호와 예측 프레임 신호간의 에러신호를 영상 부호화 블록(120)에 제공하고, 인트라 모드 부호화시에 현재 프레임 신호 자체를 영상 부호화 블록(120)에 제공한다.On the other hand, in the current frame prediction block 180, the current frame signal in which the high frequency component on the line L11 provided from the frequency selection block 230 according to the present invention is selectively removed or the high frequency component has not been removed and the second frame described above are described. In the preset search range (eg, 16 × 16, or 32 × 32 search range) of the previous frame reconstructed using the block matching algorithm based on the reconstructed previous frame signal on the line L15 provided from the frame memory 170. Predict the current frame in units of predetermined blocks (e.g., 8x8 or 16x16 DCT blocks) and then generate the predicted current frame signal on line L19 to adder 160 of subtractor 110 described above. Provide each. At this time, the switch SW on the line L19 is turned on / off according to the control signal CS from the system controller (not shown). When the switch SW is turned on, the current encoding mode is the inter mode. In contrast, when off, the current encoding mode is intra mode. Accordingly, the subtractor 110 provides an error signal between the current frame signal and the predicted frame signal to the image encoding block 120 during inter-mode encoding, and transmits the current frame signal itself to the image encoding block 120 during intra-mode encoding. to provide.

또한, 현재 프레임 예측 블록(180)은 선택되는 각 블록(8×8 또는 16×16 블록)들에 대한 움직임 벡터들의 세트를 라인 L17 상에 발생하여 전술한 엔트로피 부호화 블록(130)에 제공한다. 여기에서, 검출되는 움직임 벡터들의 세트들은 현재 프레임의 블록(8×8 또는 16×16 블록)과 이전 프레임내의 기설정 탐색영역(예를 들면, 16×16 또는 32×32 탐색범위)에서 예측된 가장 유사한 블록간의 변위이다. 따라서, 전술한 엔트로피 부호화 블록(130)에서는 라인 L17 상의 움직임 벡터들의 세트들과 더불어 라인 L13 상의 양자화된 DCT 변환계수들은, 예를들면 가변길이 부호화 기법 등을 통해 부호화하여 부호화된 비트 스트림을 발생한다.In addition, the current frame prediction block 180 generates a set of motion vectors for each of the selected blocks (8 × 8 or 16 × 16 blocks) on the line L17 and provides the above-described entropy coding block 130. Here, the sets of detected motion vectors are predicted in a block (8x8 or 16x16 block) of the current frame and a preset search area (e.g., 16x16 or 32x32 search range) in the previous frame. It is the displacement between the most similar blocks. Accordingly, in the entropy coding block 130 described above, the quantized DCT transform coefficients on the line L13 together with the sets of the motion vectors on the line L17 generate a coded bit stream by encoding, for example, through a variable length coding technique. .

한편, 본 발명에 따른 시,공간 복잡도 계산 블록(210)에서는 현재 프레임과 복원된 이전 프레임간의 움직임 보상을 통해 얻어진 예측 프레임과 현재 프레임간의 에러신호에 의거하여 입력 영상의 시간 복잡도에 대한 평균 오차 AE(Average Error)를 산출하고, 또한 움직임 추정, 보상을 위한 이전 프레임의 공간 복잡도 ACT(Activity)를 산출한 다음, 이들 두 복잡도값(AE,ACT)을 이용하여 양자화 단계 전에 고주파 성분을 적응적으로 제거하도록 결정하는 가중치를 발생하기 위한 복잡도 C(Complexity)를 발생한다. 이와 같이 본 발명에 따라 시간영역상의 복잡도와 공간영역상의 복잡도를 모두 참조하여 입력 영상의 복잡도를 산출하는 경우, 단지 한 영역상의 복잡도(시간영역 또는 공간영역의 복잡도)만을 참조하는 것에 비해 그 계산량은 다소 많아질 수도 있으나 보다 고정확하게 입력 영상의 복잡도를 산출할 수가 있을 것이다.Meanwhile, in the temporal and spatial complexity calculation block 210 according to the present invention, the average error AE of the temporal complexity of the input image based on the error signal between the current frame and the prediction frame obtained through the motion compensation between the current frame and the restored previous frame. (Average Error), and also calculate the spatial complexity ACT (Activity) of the previous frame for motion estimation and compensation, and then use these two complexity values (AE, ACT) to adaptively apply the high frequency components before the quantization step. Generate complexity C (Complexity) to generate weights that decide to remove. As described above, when the complexity of the input image is calculated by referring to both the complexity in the time domain and the complexity in the spatial domain, the amount of computation is higher than that of only the complexity in one domain (complexity in the time domain or spatial domain). It may be somewhat larger, but it is possible to calculate the complexity of the input image more accurately.

먼저, 시,공간 복잡도 계산 블록(210)에서는 공간 복잡도값 ACT의 계산을 위해, 라인 L16을 통해 제2프레임 메모리(170)로 부터 제공되는 복원된 이전 프레임에 대한 영상의 공간 복잡도를 계산, 즉 영상신호의 분산값(표준편차)을 이용하여 부호화할 영상신호의 정보량에 관계되는 공간 복잡도를 계산하고, 이와 같이 계산된 이전 프레임의 공간 복잡도를 현재 부호화하고자 하는 프레임의 영상 복잡도로써 참조하며, 본 발명에서는 이와 같이 계산된 이전 프레임의 공간 복잡도와 후술되는 시간 복잡도에 근거하여 입력 영산신호에서 인간의 시각특성에 비교적 둔감한 고주파 성분을 적응적(또는 선택적)으로 제거(즉, 필터링)한다.First, the spatial and spatial complexity calculation block 210 calculates the spatial complexity of the image for the reconstructed previous frame provided from the second frame memory 170 through the line L16 to calculate the spatial complexity value ACT. The spatial complexity related to the amount of information of the video signal to be encoded is calculated using the variance value (standard deviation) of the video signal, and the spatial complexity of the previous frame thus calculated is referred to as the image complexity of the frame to be currently encoded. The present invention adaptively (or filters) the high frequency component which is relatively insensitive to human visual characteristics in the input production signal based on the spatial complexity of the previous frame and the time complexity described below.

본 발명에서는 복원된 이전 프레임의 공간복잡도 계산시에 영상신호의 분산값(표준편차)을 이용하는 데, 여기에서 이용되는 분산값의 경우 그 값이 큰 경우에는 DCT 를 수행한 결과의 값이 고주파 성분(인간의 시각특성이 비교적 둔감한 성분)을 많이 포함할 것이므로 변환계수의 분포가 데이터를 압축하는 데 부적절하게 된다. 이상적인 데이터 압축에 좋은 영상은 고주파 성분이 존재하지 않고 단지 DC 성분만이 존재하는 경우로서 변환된 계수 분포는 (0,0)의 위치에 있는 한 값만이 있게 된다. 또한, 분산값이 큰 경우에는 움직임 보상이 제대로 수행되지 않을 수 있어, 결과적으로 움직임 보상된 영상의 구조가 부호화하기에 적절하지 않게 된다. 따라서, 이와같은 공간 복잡도는 영상신호의 정보량, 즉 실질적으로 부호화하여 전송해야 할 데이터량으로 해석할 수 있다.In the present invention, the variance value (standard deviation) of the video signal is used when calculating the spatial complexity of the restored previous frame. In the case of the variance value used here, when the value is large, the result of performing the DCT is a high frequency component. The distribution of transform coefficients is inadequate for compressing the data because it will contain many (components with relatively insensitive human visual characteristics). A good image for ideal data compression is the case where there is no high frequency component but only DC component, and the transformed coefficient distribution has only one value at the position of (0,0). In addition, when the variance value is large, motion compensation may not be performed properly, and as a result, the structure of the motion compensated image is not suitable for encoding. Therefore, such spatial complexity can be interpreted as the amount of information of the video signal, that is, the amount of data to be encoded and transmitted.

예를들어, 한 프레임이 M×N의 크기를 갖는다고 가정하고, 부호화후에 복원되어 재구성된 이전 프레임의 영상을 Ip, 부호화를 위해 입력되는 현재 프레임의 영상을 Ic라 할 때, 각 프레임의(x,y) 위치에서의 Ip 영상의 픽셀값은 Ip(x,y)이다. 이때, 현재 입력되는 Ic 영상에 대한 복잡도의 계산은 움직임 추정 및 보상을 위해 부호화(DCT, 양자화)후에 복원된 이전 프레임의 영상신호에 대하여 다음의 (1)식과 같이 계산되는 영상의 공간 복잡도(ACT)를 이용할 수 있다.For example, assuming that one frame has a size of M × N, Ip is a picture of a previous frame reconstructed and reconstructed after encoding, and Ic is a picture of a current frame input for encoding. The pixel value of the Ip image at the x, y) position is Ip (x, y). In this case, the complexity of the currently input Ic image is calculated based on the spatial complexity (ACT) of the image that is calculated as in the following Equation 1 with respect to the image signal of the previous frame reconstructed after coding (DCT, quantization) for motion estimation and compensation ) Can be used.

상기 (1)식에서는 MIp는 복원된 이전 프레임인 Ip영상에 대한 평균값을 의미하는데, 이러한 Ip 영상에 대한 평균 MIp는 다음의 (2)과 같이 계산된다.In the above formula (1), MIp means an average value for the reconstructed previous frame Ip image, and the average MIp for the Ip image is calculated as follows (2).

상기한 바와같이, 현재 부호화하고자 하는 프레임의 복잡도로서 복원된 이전 프레임의 ACT 값을 이용하는 이유는 영상신호의 특성이 매 프레임마다 급격하게 변하지 않기 때문이다.As described above, the reason for using the ACT value of the previous frame reconstructed as the complexity of the current frame to be encoded is that the characteristics of the video signal do not change rapidly every frame.

따라서, 이와 같이 산출되는 공간 복잡도 ACT 값은 영상의 정보량(비트 발생량)에 관련된다고 볼 수 있는 데, 만일 현재 부호화된 영상이 복잡한 경우에는 산출되는 공간 복잡도 ACT 값이 상대적으로 커질 것이고, 그 반대의 경우에는 산출되는 공간 복잡도 ACT 값이 작아지게 될 것이다.Therefore, it can be said that the calculated spatial complexity ACT value is related to the information amount (bit generation amount) of the image. If the current encoded image is complex, the calculated spatial complexity ACT value will be relatively large, and vice versa. In this case, the calculated spatial complexity ACT value will be small.

이러한 관점에 비추볼 때, 부호화시에 산출되는 복원된 이전 프레임간의 공간 복잡도 ACT 값은 곧 전송할 정보량에 관계되는 값으로 해석할 수 있을 것이다. 그리고, 본 발명에 따른 복원된 이전 프레임의 공간 복잡도 ACT값 산출에 있어서는, 부호화 시스템이 움직임 추정 및 보상을 수행하는 과정에서 필요로 하는 재구성된 이전 프레임 신호를 프레임 메모리에 저장하고 있으므로, 이와같은 각 부호화 시스템의 일부를 이용하면 원하는 복원된 이전 프레임의 공간 복잡도 ACT값을 쉽게 얻을 수 있을 것이다.In view of this point of view, the spatial complexity ACT value between the reconstructed previous frames calculated at the time of encoding may be interpreted as a value related to the amount of information to be transmitted. In the calculation of the spatial complexity ACT value of the reconstructed previous frame according to the present invention, since the reconstructed previous frame signal required in the process of performing the motion estimation and compensation by the encoding system is stored in the frame memory, Using part of the coding system, one can easily obtain the spatial complexity ACT value of the desired reconstructed previous frame.

다른한편, 시간 복잡도의 산출을 위해, 본 발명의 시,공간 복잡도 계산 블록(210)에서는 움직임 보상 과정에서 발생되는 오차를 계산하는 데, 이러한 움직임 보상 오차값은 소정 단위(모든 MPEG 스펙에서는 움직임 추정이 16×16 단위(즉, 매크로 블록)의 블록으로 수행되며, 이 경우 이전 프레임내의 탐색블록의 크기는 32×32 단위임)의 움직임 추정에 의해 검출된 움직임 벡터를 이용하여 재구성된 이전 프레임으로부터 움직임 보상을 수행하여 얻은 라인 L19 상의 예측된 현재 프레임 신호와 라인 L11상의 현재 프레임 신호와의 에러신호를 가산함으로써 산출할 수 있다.On the other hand, in order to calculate the time complexity, the spatial and spatial complexity calculation block 210 of the present invention calculates an error generated during the motion compensation process, and the motion compensation error value is a predetermined unit (motion estimation in all MPEG specifications). Is performed in blocks of 16x16 units (i.e., macroblocks), in which case the size of the search block in the previous frame is 32x32 units from the previous frame reconstructed using the motion vectors detected by the motion vector. It can be calculated by adding the error signal between the predicted current frame signal on the line L19 obtained by performing the motion compensation and the current frame signal on the line L11.

예를들어, 재구성된 이전 프레임의 영상을 Ip라 하고 현재 입력되는 프레임의 영상을 Ic라 할 때, (x,y)의 위치에서 각 픽셀의 값은 Ip(x,y), Ic(x,y) 가 될 것이다. 이때의 움직임 추정은, 전술한 바와같이, M×N블록(예를 들면, 16×16의 매크로 블록) 단위로 수행되므로 i,j 번째의 매크로 블록에 대한 움직임 벡터를 MVX(i,j), MVY(i,j)라 하면, i,j번째 매크로 블록에 대한 움직임 보상 오차값 E(i,j) 는 다음의 (3)식에 의해 계산된다. 이때, 움직임 베터는 전술한 현재 프레임 예측 블록(180)에서의 움직임 추정과정에서 이미 검출된 값이다.For example, when the reconstructed image of the previous frame is called Ip and the image of the currently input frame is called Ic, the value of each pixel at the position of (x, y) is Ip (x, y), Ic (x, y) will be At this time, since motion estimation is performed in units of M × N blocks (for example, 16 × 16 macroblocks) as described above, MVX (i, j), Suppose MVY (i, j), the motion compensation error value E (i, j) for the i, j-th macroblock is calculated by the following equation (3). In this case, the motion bettor is a value already detected in the motion estimation process in the above-described current frame prediction block 180.

상기한 (3)식에서 L은 매크로 블록의 가로 및 세로의 크기를 의미하는데, 한 프레임의 영상신호가 M×N 크기를 갖으며 한 매크로 블록이 L×L 의 크기를 갖는다면, 이 영상신호에 대한 매크로 블록의 개수는 (M/L)×(N/L)이 될 것이다. 예를 들어, 352’288 의 입력 영상신호에 대하여 16×16의 매크로 블록을 가정하면, 매크로 블록의 개수는 (352/16)×(288/16) 이므로 22×18, 즉 396개에 해당한다.In the above Equation (3), L means the horizontal and vertical size of the macro block. If a video signal of one frame has M × N size and one macro block has L × L size, The number of macroblocks for each will be (M / L) × (N / L). For example, assuming 16 × 16 macroblocks for an input video signal of 352'288, the number of macroblocks is (352/16) × (288/16), which corresponds to 22 × 18, or 396. .

다음에, 시,공간 복잡도 계산 블록(210)에서는 상술한 바와 같은 과정을 통해 한 프레임의 각 매크로 블록에 대한 움직임 보상 오차값이 구해지면, 다시 아래의 (4)식을 이용하여 한 프레임의 전체 영상에 대한 평균 오차 AE 값을 산출하는데, 여기에서 산출되는 한 프레임의 평균 오차 AE 값은 전체 영상에 대하여 그 움직임 보상 오차값을 평균하여 얻은 값이다.Next, in the time and space complexity calculation block 210, when the motion compensation error value for each macro block of one frame is obtained through the above-described process, the entire frame of the one frame is again expressed using Equation (4) below. An average error AE value for an image is calculated, and the average error AE value of one frame calculated here is obtained by averaging the motion compensation error value for the entire image.

상기한 (4)식에서 P,Q 는 각각 가로 및 세로 방향의 매크로 블록의 개수에 해당하는 값이다. 여기에서, 상기(4)식을 이용하여 계산된 평균 오차 AE 값은 실질적으로 영상 데이터의 복잡성을 잘 반영하는 값이라 할 수 있다. 따라서, 본 발명에서는 이와 같은 모든 매트로 블록의 움직임 보상 오차값을 평균하여 산출한 평균 오차 AE 값을 부호화를 위해 입력되는 다음 영상신호의 복잡도로서 이용한다. 이때, 산출되는 평균 오차 AE 값은 영상의 정보량(비트 발생량)에 관련된다고 볼 수 있는 데, 만일 현재 부호화된 영상이 복잡한 경우에는 산출되는 평균 오차 AE 값이 상대적으로 커질 것이고, 그 반대의 경우에는 산출되는 평균 오차 AE 값이 작아지게 될 것이다.In Equation (4), P and Q correspond to the number of macroblocks in the horizontal and vertical directions, respectively. Here, the average error AE value calculated using Equation (4) above may be a value that substantially reflects the complexity of the image data. Therefore, in the present invention, the average error AE value calculated by averaging the motion compensation error values of all such macro blocks is used as the complexity of the next video signal input for encoding. In this case, the calculated average error AE value may be regarded as related to the information amount (bit generation amount) of the image. If the current encoded image is complex, the calculated average error AE value will be relatively large, and vice versa. The calculated mean error AE value will be small.

또한, 영상신호를 부호화하는 과정에서 산출되는 각 프레임의 평균 오차 AE 값이 제로(0)인 경우, 수신측의 복호화 시스템에서는 이전에 부호화되어 전송된 영상만으로 현재의 영상신호를 재생할 수 있으므로, 부호화 시스템에서는 현재의 영상 데이터를 전송할 필요가 없는 것이다. 이러한 관점에 비춰볼 때, 부호화시에 산출되는 각 프레임의 평균 오차 AE 값은 곧 전송할 정보량에 관계되는 값으로 해석할 수 있을 것이다. 그리고, 본 발명에 따른 각 프레임의 평균 오차 AE 값 산출에 있어서는, 부호화 시스템이 움직임 보상을 수행하는 과정에서 검출되는 움직임 벡터와 재구성된 이전 프레임 신호를 프레임 메모리에 저장하고 있으므로, 이와 같은 각 부호화 시스템의 일부를 이용하면 추가의 계산을 할 필요없이 단지 위에서 기술한 각 매크로 블록의 보상 오차값 E(i,j)를 평균하여 원하는 평균 오차 AE 값을 쉽게 구현할 수 있을 것이다.In addition, when the average error AE value of each frame calculated in the process of encoding the video signal is zero, the decoding system at the receiving side can reproduce the current video signal using only the previously encoded and transmitted video. The system does not need to transmit the current image data. In view of this, the average error AE value of each frame calculated at the time of encoding may be interpreted as a value related to the amount of information to be transmitted. In calculating the average error AE value of each frame according to the present invention, since the encoding system stores the motion vector detected in the process of performing the motion compensation and the reconstructed previous frame signal in the frame memory. Using a part of, it is possible to easily implement the desired average error AE value by averaging the compensation error value E (i, j) of each macro block described above without any additional calculation.

그런다음, 시,공간 복잡도 계산 블록(210)에서는 상술한 바와 같은 과정을 통해 산출된 공간 복잡도 ACT 와 시간 복잡도를 위한 움직임 오차 평균값 AE 를 의거하여 최종적으로 산출되는 복잡도 C[C=(ACT+AE)/2] 를 발생하여 다음단의 제어 블록(220)으로 제공된다.Then, the spatial and spatial complexity calculation block 210 finally calculates the complexity C [C = (ACT + AE) / based on the spatial complexity ACT calculated through the above-described process and the motion error average value AE for the time complexity. 2] is provided to the next control block 220.

한편, 제어 블록(220)은 상기한 시,공간 복잡도 계산 블록(210)으로부터 제공되는 최종 복잡도 C 값에 의거하여 입력 영상의 주파수 제한을 위한 주파수 대역폭 결정신호 B 를 라인 L23 상에 발생하여 주파수 선택 블록(230)에 제공한다. 여기에서, 발생되어 주파수 선택 블록(230)으로 제공되는 영역 구분을 위한 대역폭 결정신호 B는 입력 프레임 신호의 주파수 대역을 제한한다. 이때, 주파수 영역을 구분하는 데 필요한 대역폭 결정신호 B 는 아래와 같은 방법으로 계산되며, 이 대역폭 결정신호 B를 이용하여 본 발명에 따라 제한하고자 하는 입력 영상의 주파수 영역을 설정하는 과정에 대해서는 첨부된 제2도를 참조하여 후에 상세하게 기술될 것이다.Meanwhile, the control block 220 generates a frequency bandwidth determination signal B for limiting the frequency of the input image on the line L23 based on the final complexity C value provided from the temporal and spatial complexity calculation block 210 to select a frequency. Provided to block 230. Here, the bandwidth determination signal B for region division generated and provided to the frequency selection block 230 limits the frequency band of the input frame signal. In this case, the bandwidth determination signal B necessary to classify the frequency domain is calculated by the following method, and the process of setting the frequency domain of the input image to be restricted according to the present invention using the bandwidth determination signal B is described in the appended Article. It will be described later in detail with reference to FIG. 2.

보다 상세하게, 가중치 발생 블록(220)이 시,공간 복잡도 계산 블록(210)으로부터 출력되는 복잡도 C 값을 이용하여 영역 구분을 위한 대역폭 결정 신호 B 를 출력하는 과정은 다음의 (5)식과 같다.In more detail, the weight generation block 220 outputs the bandwidth determination signal B for region division using the complexity C value output from the spatial and spatial complexity calculation block 210 as shown in Equation 5 below.

상기 (5)식에서 MC 와 SC 를 구하는 과정은 다음과 같다. 즉, 영상신호의 프레임 전송율이 30인 경우에는 1초동안 게산되는 C 값 30개를 평균한 값이 MC 이고, 이 값의 표준편차가 SC 이다. 따라서, 이와 같이 구한 MC, SC 값과 매 프레임에 발생되는 C 값을 비교함으로써 영역 구분값 B를 구할 수 있다. 즉, 제어 블록(220)에서는 이전의 30 프레임 동안 발생된 C 값의 평균과 표준편차를 이용하여 영역 구분값 B 를 결정하는 것이다. 그 결과, 이러한 과정을 통해 얻어지는 현재 발생된 C 값은 다시 30개 프레임의 평균값과 표준편차를 구하는 데 이용된다. 따라서, 제어 블록(220)에서는 이전에 발생된 30개 프레임의 C 값중에서 처음 구해진 C 값(시간적으로 가장 오래된 C 값)을 버리고 시,공간 복잡도 계산 블록(210)으로부터 새로 입력된 C 값을 이용하여 평균과 표준편차를 구하는 것이다. 물론, 현재 발생된 C 값도 31번째 프레임이 지나면 평균과 표준편차를 구하는 데 이용되지 않게 된다.The process of obtaining MC and SC in Equation (5) is as follows. That is, in the case where the frame rate of the video signal is 30, the average value of 30 C values calculated for one second is MC, and the standard deviation of the value is SC. Therefore, the area discriminating value B can be obtained by comparing the MC and SC values thus obtained with the C value generated in each frame. That is, the control block 220 determines the area division value B by using the average and standard deviation of the C values generated during the previous 30 frames. As a result, the currently generated C value obtained through this process is again used to find the mean value and standard deviation of 30 frames. Accordingly, the control block 220 discards the first C value (the oldest C value in time) among the C values of the 30 frames generated previously, and uses the newly input C value from the temporal and spatial complexity calculation block 210. To find the mean and standard deviation. Of course, the current C value is not used to calculate the mean and standard deviation after the 31st frame.

상기한 (5)식으로부터 명백한 바와같이, 영역 구분값 B 는 1부터 4사이의 정수값을 갖는데, 이것은 전술한 감산기(110)로부터 출력되는 에러신호(라인 L11 상의 현재 프레임과 라인 L19 상의 예측 프레임간의 차분신호)를 이산 코사인 변환한 DCT 변환계수들에 대한 양자화 전의 2차원 저역 통과 필터링시에 C 값에 따라 그 대역폭을 적응적으로 조절하기 위해서이다.As is apparent from the above equation (5), the area discriminating value B has an integer value between 1 and 4, which is an error signal output from the subtractor 110 described above (the current frame on the line L11 and the prediction frame on the line L19). This is to adaptively adjust the bandwidth according to the C value in the two-dimensional low pass filtering before quantization of the DCT transform coefficients of the discrete cosine transform of the difference signal).

한편, 주파수 선택 블록(230)은, 상술한 제어 블록(220)으로부터 제공되는 주파수 영역 구분을 위한 대역폭 결정신호 B에 의거하여 입력 영상에서 시각에 비교적 둔감한 고주파 성분을 제한하는 데, 그 과정은 실질적으로 2차원 주파수 변환과정과 주파수 선택과정으로 구분할 수 있으며, 이때 2차원 주파수 변환과정에서는 2차원 DFT 를 이용하고, 주파수 선택과정에서는 상술한 제어 블록(220)으로 부터 제공된 대역폭 결정신호 B에 의거하여 2차원 DFT 변환된 영상신호의 통과대역을 결정한다.On the other hand, the frequency selection block 230, based on the bandwidth determination signal B for the frequency domain classification provided from the above-described control block 220 limits the high frequency components relatively insensitive to the time in the input image, the process is Substantially, it can be divided into two-dimensional frequency conversion process and frequency selection process. In this case, the two-dimensional frequency conversion process uses a two-dimensional DFT, and in the frequency selection process based on the bandwidth determination signal B provided from the control block 220 described above. A passband of the 2D DFT transformed video signal is determined.

다음에, 상기한 바와같은 주파수 선택 블록(230)에서 입력 영상을 2차원 DFT 변환하고, 또한 주파수 영역 구분을 위한 대역폭 결정신호 B 에 의거하여 2차원 DFT 변환된 영상신호의 주파수를 선택하는 과정에 대하여 첨부된 제2도를 참조하여 상세하게 설명한다.Next, in the frequency selection block 230 as described above, the input image is two-dimensional DFT transformed, and the frequency of the two-dimensional DFT-converted image signal is selected based on the bandwidth determination signal B for frequency domain classification. This will be described in detail with reference to FIG. 2.

먼저, 주파수 선택 블록(230)은 입력 영상신호가 갖는 공간 영역의 유사성을 이용하는 것으로, 아래의 (6)식에 의거하여 공간영역 영상신호(픽셀 데이터)를 푸리에함수를 이용하여 M×N단위, 예를 들면 8×8 단위의 주파수 영역의 2차원 DFT 변환계수들로 변환한다.First, the frequency selection block 230 utilizes the similarity of the spatial domain of the input image signal. The frequency selection block 230 uses the Fourier function to convert the spatial domain image signal (pixel data) into M × N units, For example, two-dimensional DFT transform coefficients in a frequency domain of 8x8 units are converted.

상기 (6)식에서 f(u,v)는 각 픽셀의 값을 ,u는 수평 방향의 위치를, v 는 수직 방향으로의 픽셀의 위치를 나타낸다. 따라서 N×N블록의 각 픽셀에 대한 값은 다음과 같은 값을 갖는다. 즉, N=8 인 경우 u 및 v 는 0과 7사이의 값을 갖는다. 이때, 각 값들은 0에서 255 사이의 정수값을 갖는다. 또한, 상기 (6)식에서 Z(k,l) 은 변환된 신호를 의미하고, k,l은 각각 수평 및 수직 방향으로의 주파수 성분을 의미한다. 따라서 N=8인 경우에는 8×8 DFT 블록, 즉 공간영역의 신호가 주파수 영역의 신호로 변환된다.In Equation (6), f (u, v) represents the value of each pixel, u represents the position in the horizontal direction, and v represents the position of the pixel in the vertical direction. Therefore, the value for each pixel of the N × N block has the following value. That is, when N = 8 u and v have a value between 0 and 7. At this time, each value has an integer value between 0 and 255. In addition, in Equation (6), Z (k, l) means a converted signal, and k, l means frequency components in the horizontal and vertical directions, respectively. Therefore, when N = 8, an 8x8 DFT block, that is, a signal in the spatial domain is converted into a signal in the frequency domain.

보다 상세하게, 주파수 선택 블록(230)에서는 상술한 바와같은 과정을 통해 얻어진 DFT 변환계수들에 대하여, 라인 L23를 통해 제1도의 제어 블록(220)으로부터 제공되는 주파수 영역 구분을 위한 대역폭 결정신호 B에 의거하여 그 통과되는 주파수 대역을 결정한다. 전술한 바와 같이, 주파수 영역 구분을 위한 대역폭 결정신호 B 는 1에서 4사이의 정수값이므로 이에 따라 선택되는 주파수는 다음과 같다.More specifically, in the frequency selection block 230, the bandwidth determination signal B for frequency domain division provided from the control block 220 of FIG. 1 via the line L23, for the DFT conversion coefficients obtained through the above-described process. Based on this, the frequency band that is passed is determined. As described above, since the bandwidth determination signal B for frequency domain division is an integer value between 1 and 4, the frequency selected according to this is as follows.

즉, 주파수 선택 블록(230)에서는 변환된 주파수 Z(k,l)에서 특정한 주파수를 선택한다. 여기에서, k,l은 0에서 N-1 사이의 정수값이다. 따라서, 주파수 선택 블록(230)에서 출력되는 값은 특정 주파수 성분(즉, 고주파 성분)이 제거된 신호가 된다. 예를들어, N=8 인 경우에, 일예로서 제2도에 도시된 바와같이, 그 통과 주파수 대역이 결정될 것이다.That is, the frequency selection block 230 selects a specific frequency from the converted frequency Z (k, l). Here, k, l is an integer value between 0 and N-1. Therefore, the value output from the frequency selection block 230 is a signal from which a specific frequency component (ie, a high frequency component) is removed. For example, in the case of N = 8, the pass frequency band will be determined as shown in FIG. 2 as an example.

제2도에 도시된 바와같이, 라인 L23를 통해 제1도의 제어 블록(220)으로부터 주파수 선택 블록(230)으로 제공되는 주파수 영역 구분을 위한 대역폭 결정신호 B 값이 1이면 변환 주파수 Z(k,l)는 모두 선택되고, B 값이 2,3,4 인 경우에는 제2도에서와 같이 각각에 해당하는 점선 이하의 주파수는 모드 0으로 하여 선택하지 않는다. 즉, 제2도에서 B 값이 4인 경우에는 Z(1,7) , Z(2,6) 등과 같은 점선 이하의 주파수는 모두 0으로 매핑 처리되는 것이다.As shown in FIG. 2, when the bandwidth determination signal B value for frequency domain division provided from the control block 220 of FIG. 1 to the frequency selection block 230 through the line L23 is 1, the conversion frequency Z (k, l) are all selected, and when the B value is 2, 3, or 4, as shown in FIG. 2, frequencies below the dotted line corresponding to each are not selected as the mode 0. That is, when the value of B in FIG. 2 is 4, frequencies below the dotted line such as Z (1,7), Z (2,6), etc. are all mapped to 0.

다음에, 상술한 바와같이 영상의 복잡도에 기초하여 결정되는 대역폭 결정신호 B 값에 따라 특정영역의 주파수(고주파 성분)가 제거된 DFT 변환계수들(주파수 영역의 신호)은 아래에 도시된 (7)식을 통해 원래의 공간영역의 신호로 역변환된다.Next, as described above, the DFT transform coefficients (signals in the frequency domain) from which the frequency (high frequency component) of the specific region is removed according to the bandwidth determination signal B value determined based on the complexity of the image are shown below (7). Is converted back to the original spatial signal.

상기(7)식에서 f(u, v)는 각 픽셀의 값을 의미하고, u 및 v 는 수평 및 수직 방향으로의 픽셀의 위치를 의미하며, Z(k, l)은 변환된 신호를 의미하고, k, l은 각각 수평 및 수직 방향으로의 주파수 성분을 의미한다. 따라서, N=8 인 경우에는 주파수 영역의 8 ×8 DFT 블록들은 공간영역의 신호로 변환된다.In Equation (7), f (u, v) denotes the value of each pixel, u and v denote the position of the pixel in the horizontal and vertical directions, and Z (k, l) denotes the converted signal. , k and l denote frequency components in the horizontal and vertical directions, respectively. Therefore, when N = 8, 8 × 8 DFT blocks in the frequency domain are converted into signals in the spatial domain.

그 결과, 주파수 선택 블록(230)에서는 라인 L11을 통해 제1도의 감산기(110) 및 현재 프레임 예측 블록(180)으로 영상의 복잡도에 따라 특정영역의 주파수가 제거된 영상신호, 즉 영상도 복잡도에 근거하여 산출되는 대역폭 결정신호 B에 따라 영상의 고주파 성분이 선택적(또는 적응즉)으로 제거된 영상신호(특정영역의 고주파 성분이 0 값으로 대체된 영상신호)를 제공하게 된다.As a result, in the frequency selection block 230, the subtractor 110 and the current frame prediction block 180 of FIG. 1 through the line L11 are applied to the image signal from which the frequency of the specific region is removed according to the image complexity, that is, the image complexity. According to the bandwidth determination signal B calculated on the basis of this, the video signal in which the high frequency component of the image is selectively (or adaptively) removed is provided.

따라서, 제1도의 영상 부호화 블록(120)에서는, 복잡한 영상의 경우, 상술한 바와같이 인간의 시각에 비교적 둔감한 영상의 고주파 성분을 선택적(또는 적응적)으로 제거한 상태에서 부호화(양자화)를 수행하게 되므로, 시각적으로 중요한 성분인 저주파 신호에 대해 양자화 오차가 적게 생기도록 하면서 부호화할 수 있는 것이다. 만일, 복잡한 영상임에도 불구하고 본 발명에서와 같이 주파수의 저역 통과 대역폭을 제한하지 않게 되면, 결과적으로 부호화후에 발생되는 비트량이 많아져 양자화 스텝 사이즈가 커지게 되므로 모든 주파수 대역(고주파에서 저주파 대역)에 대하여 양자화 오차가 많이 발생되고, 그 결과 수신측의 재생 영상에 양자화로 인한 화질열화가 야기될 것이다.Accordingly, in the image encoding block 120 of FIG. 1, in the case of a complex image, encoding (quantization) is performed in a state in which a high frequency component of an image relatively insensitive to human vision is selectively (or adaptively) removed as described above. Therefore, the low frequency signal, which is a visually important component, can be encoded with less quantization error. If the low pass bandwidth of the frequency is not limited as in the present invention despite the complicated image, as a result, the amount of bits generated after encoding increases and the quantization step size becomes large. A large number of quantization errors are generated, and as a result, image quality deterioration due to quantization will be caused in the playback image on the receiving side.

이상 설명한 바와 같이 본 발명에 따르면, 부호화시의 움직임 추정 및 보상을 위해 부호화후에 복원되어 재구성된 이전 프레임을 이용하여 매 프레임마다 계산되는 공간 복잡도 정보와 움직임 보상 오차값에 근거하여 예측되는 이전 영상과 입력 영상간의 시간 복잡도값 정보를 이용하여 현재 부호화하고자 하는 입력 영상의 최종 복잡도를 계산하고, 그 최종 복잡도 계산결과에 따라 현재 입력 영상이 복잡한 영상인 경우, 그에 상응하는 가중치를 주어 인간의 시각에 둔감한 영상의 고주파 성분을 일차적으로 제거한 다음 MC-DCT, 양자화 등의 부호화를 수행하도록 함으로써, 양자화 단계에서의 과도한 스텝 사이즈의 증가 없이 부호화후 발생되는 비트량을 효과적으로 조절할 수 있다. 따라서, 본 발명에 의하면, 부호화된 영상을 복원하여 디스플레이할 때, 재생 영상에서 필연적으로 나타나는 양자화 오차로 인한 화질열화를 효과적으로 감소시킬 수 있다.As described above, according to the present invention, the previous image predicted based on the spatial complexity information and the motion compensation error value calculated every frame using the previous frame reconstructed and reconstructed after encoding for motion estimation and compensation during encoding, The final complexity of the input image to be encoded is calculated by using the time complexity value information between the input images, and when the current input image is a complex image according to the final complexity calculation result, it is insensitive to human vision by giving a corresponding weight. By first removing high frequency components of an image and then performing encoding such as MC-DCT and quantization, the bit amount generated after encoding can be effectively controlled without increasing an excessive step size in the quantization step. Therefore, according to the present invention, it is possible to effectively reduce image quality deterioration due to quantization error inevitably present in a reproduced image when reconstructing and displaying an encoded image.

Claims (5)

입력되는 현재 프레임과, 이 현재 프레임 및 재구성된 이전 프레임을 이용하는 매크로 블록단위의 움직임 추정, 보상을 통해 얻어지는 예측 프레임간의 에러신호에 대해 이산 코사인 변환, 양자화 및 엔트로피 부호화를 포함하는 부호화 수단을 통해 압축 부호화하여 부호화된 비트 스트림을 발생하며, 상기 양자화는 출력측 버퍼에 저장되는 상기 비트 스트림의 충만상태 정보에 의거하여 그 스텝 사이즈가 조절되는 비트 발생량 조절기능을 갖는 영상 부호화 시스템에 있어서, 상기 움직임 추정, 보상을 위해 복원된 상기 이전 프레임 각각에 대해 공간 복잡도값을 산출한 다음 각각 산출된 상기 각 이전 프레임의 공간 복잡도값들을 평균하여 기설정된 복수의 이전 프레임에 대한 평균 공간 복잡도값을 산출하고, 상기 에러신호에 대해 각 매크로 블록 단위로 각 픽셀값을 가산하여 움직임 보상 오차값을 산출한 다음 각각 산출된 각 매크로 블록의 움직임 보상 오차값들을 평균하여 기설정된 복수의 이전 프레임에 대한 움직임 평균 오차값을 산출하며, 상기 산출된 평균 공간 복잡도값과 움직임 평균 오차값에 의거하여 최종 복잡도값을 산출하는 시,공간 복잡도 계산 수단; 및 상기 산출된 최종 복잡도값을 상기 부호화 수단을 통해 현재 부호화하고자 하는 프레임의 복잡도로서 참조하며, 부호화를 위해 입력되는 상기 현재 프레임의 주파수 통과 대역폭을 적응적으로 제한하기 위한 기설정된 복수의 대역폭 결정신호들중 상기 산출된 최종 복잡도값에 대응하는 대역폭 결정신호를 발생하는 제어수단; 및 상기 입력 현재 프레임 신호에 대한 공간 영역의 영상신호를 2차원 이산푸리에 변환을 이용하여 M×N 블록 단위의 주파수 영역의 2차원 DFT 변환계수들로 변환하고, 상기 제어수단으로부터 제공되는 발생된 대역폭 결정신호에 의거하여 상기 변환된 2차원 DFT 변환계수 블록들에 대한 고주파 통과 대역을 결정하며, 상기 변환된 각 2차원 DFT 변환계수 블록의 고주파 통과 대역을 상기 결정된 대역폭으로 제한하고, 상기 대역폭이 제한된 양자화된 각 DFT 블록들 각각에 대해 역이산 푸리에 변환을 수행하여 부호화전의 원신호로 복원하며, 원신호로 복원된 상기 대역폭 제한 프레임 신호를 상기 움직임 추정, 보상을 위한 현재 프레임 신호로써 상기 부호화 수단에 제공하는 주파수 선택 수단을 더 포함하는 것을 특징으로 하는 비트 발생량 조절기능을 갖는 영상 부호화 시스템.Compression means including discrete cosine transform, quantization, and entropy encoding for the error signal between the input current frame and the prediction frame obtained through motion estimation and compensation in units of macroblocks using the current frame and the reconstructed previous frame. A video encoding system having a bit generation amount adjustment function of encoding and generating a coded bit stream, wherein the quantization is adjusted based on the full state information of the bit stream stored in an output buffer. Computing a spatial complexity value for each of the previous frames reconstructed for compensation, and then averaging the spatial complexity values of the respective previous frames to calculate an average spatial complexity value for a plurality of preset previous frames, the error Each macro block for a signal The motion compensation error value is calculated by adding each pixel value in units, and then the motion compensation error values of the respective macroblocks are averaged to calculate a motion average error value for a plurality of preset previous frames. Spatial complexity calculation means for calculating a final complexity value based on the spatial complexity value and the motion average error value; And a plurality of predetermined bandwidth determination signals for referring to the calculated final complexity value as the complexity of the frame to be currently encoded by the encoding means, and for adaptively limiting the frequency passband bandwidth of the current frame input for encoding. Control means for generating a bandwidth determination signal corresponding to the calculated final complexity value among the signals; And converting the video signal in the spatial domain with respect to the input current frame signal into two-dimensional DFT transform coefficients in the frequency domain in M × N block units using a 2D Discrete Fourier Transform, and the generated bandwidth provided from the control means. Determine a high frequency pass band for the transformed 2D DFT transform coefficient blocks based on a determination signal, limit the high pass band of each transformed 2D DFT transform coefficient block to the determined bandwidth, and limit the bandwidth Inverse discrete Fourier transform is performed on each of the quantized DFT blocks to restore the original signal before encoding, and the bandwidth limited frame signal reconstructed as the original signal is transmitted to the encoding means as a current frame signal for the motion estimation and compensation. With a bit generation amount adjustment function, characterized in that it further comprises a frequency selection means for providing Video encoding system. 제1항에 있어서, 상기 기설정된 각 대역포 결정신호는, 상기 산출된 각 프레임의 평균 공간 복잡도값, 상기 각 프레임의 평균 공간 복잡도값을 평균하여 얻은 초당 전송되는 복수의 프레임에 대한 제1의 평균 에러치, 이 제1의 평균 에러치의 제1의 표준편차, 상기 산출된 각 프레임의 움직임 평균 오차값, 상기 각 프레임의 움직임 평균 오차값을 평균하여 얻은 초당 전송되는 복수의 프레임에 대한 제2의 평균 에러치 및 이 제2의 평균 에러치의 제2의 표준편차를 이용하여 결정되는 것을 특징으로 하는 비트 발생량 조절기능을 갖는 영상 부호화 시스템.The method according to claim 1, wherein each of the predetermined band-cancer determination signals comprises: a first signal for a plurality of frames transmitted per second obtained by averaging the calculated average spatial complexity value of each frame and the average spatial complexity value of each frame. A second standard for a plurality of frames transmitted per second obtained by averaging an average error value, a first standard deviation of the first average error value, a motion average error value of each calculated frame, and a motion average error value of each frame And a second standard deviation of the second mean error value and the second mean error value. 제1항 또는 제2항에 있어서, 상기 기설정된 복수의 대역폭 결정신호는, 상기 2차원 각 DFT 변환계수 블록들의 선택적인 대역폭 제한을 위해 각각 다른 정수값을 갖는 4개의 대역폭 결정신호를 포함하는 것을 특징으로 하는 비트 발생량 조절기능을 갖는 영상 부호화 시스템.3. The method of claim 1, wherein the plurality of predetermined bandwidth determination signals include four bandwidth determination signals each having a different integer value for selective bandwidth restriction of each of the two-dimensional DFT transform coefficient blocks. An image encoding system having a bit generation amount adjusting function. 제1항에 있어서, 상기 주파수 선택 수단은, 상기 현재 프레임 신호에 대한 공간영역의 영상신호를 8×8 블록 단위의 2차원 DFT 변환계수들로 변환하는 것을 특징으로 하는 비트 발생량 조절기능을 갖는 영상 부호화 시스템.The image having a bit generation amount adjusting function of claim 1, wherein the frequency selecting means converts an image signal in a spatial domain with respect to the current frame signal into two-dimensional DFT transform coefficients in units of 8x8 blocks. Coding system. 제1항 또는 제4항에 있어서, 상기 주파수 선택 수단은, 상기 변환된 각 2차원 DFT 변환계수 블록들에 대해 상기 발생된 대역폭 결정신호 이하의 고주파 성분을 제로(0)값으로 매핑하는 것을 특징으로 하는 비트 발생량 조절기능을 갖는 영상 부호화 시스템.5. The method of claim 1 or 4, wherein the frequency selecting means maps high frequency components below the generated bandwidth determination signal to zero values for each of the converted two-dimensional DFT transform coefficient blocks. An image encoding system having a bit generation amount adjusting function.
KR1019960013780A 1996-04-30 1996-04-30 Improved image coding system having functions for controlling generated amount of coded bit stream KR100203682B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960013780A KR100203682B1 (en) 1996-04-30 1996-04-30 Improved image coding system having functions for controlling generated amount of coded bit stream

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960013780A KR100203682B1 (en) 1996-04-30 1996-04-30 Improved image coding system having functions for controlling generated amount of coded bit stream

Publications (2)

Publication Number Publication Date
KR970073133A KR970073133A (en) 1997-11-07
KR100203682B1 true KR100203682B1 (en) 1999-06-15

Family

ID=19457282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960013780A KR100203682B1 (en) 1996-04-30 1996-04-30 Improved image coding system having functions for controlling generated amount of coded bit stream

Country Status (1)

Country Link
KR (1) KR100203682B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106301418A (en) * 2015-05-25 2017-01-04 宁波芯路通讯科技有限公司 Radio-frequency transmitter and frequency signal processing method thereof and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595144B1 (en) * 1997-12-12 2007-01-31 엘지전자 주식회사 An adaptive quantization algorithm for video coding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106301418A (en) * 2015-05-25 2017-01-04 宁波芯路通讯科技有限公司 Radio-frequency transmitter and frequency signal processing method thereof and device
CN106301418B (en) * 2015-05-25 2019-08-09 宁波芯路通讯科技有限公司 Radio-frequency transmitter and its frequency signal processing method and device

Also Published As

Publication number Publication date
KR970073133A (en) 1997-11-07

Similar Documents

Publication Publication Date Title
KR100203710B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
JPH0723422A (en) Video signal band compression equipment of digital vtr
WO1996038006A1 (en) Video encoder employing motion estimation with adaptive threshold termination
GB2322991A (en) Motion estimation method for video data compression system
US5614954A (en) Motion compensation apparatus for use in an image encoding system
KR20000053028A (en) Prediction method and device with motion compensation
KR19980017213A (en) Image Decoding System with Compensation Function for Degraded Image
KR100203682B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203714B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203659B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203627B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203709B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203676B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203703B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203630B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203625B1 (en) An improved image coding system having functions for controlling generated amount of coded bit stream
KR100203675B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203707B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203685B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203696B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203674B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203684B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203663B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203699B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream
KR100203629B1 (en) Improved image coding system having functions for controlling generated amount of coded bit stream

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110302

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee