KR100474268B1 - The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system - Google Patents

The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system Download PDF

Info

Publication number
KR100474268B1
KR100474268B1 KR10-2002-0012747A KR20020012747A KR100474268B1 KR 100474268 B1 KR100474268 B1 KR 100474268B1 KR 20020012747 A KR20020012747 A KR 20020012747A KR 100474268 B1 KR100474268 B1 KR 100474268B1
Authority
KR
South Korea
Prior art keywords
background area
frame
information
exposed
reference image
Prior art date
Application number
KR10-2002-0012747A
Other languages
Korean (ko)
Other versions
KR20030073267A (en
Inventor
정영안
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR10-2002-0012747A priority Critical patent/KR100474268B1/en
Publication of KR20030073267A publication Critical patent/KR20030073267A/en
Application granted granted Critical
Publication of KR100474268B1 publication Critical patent/KR100474268B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Abstract

본 발명은 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법에 관한 것으로, 종래 다중참조영상 압축방법은 복수개의 참조영상을 이용하여 움직임을 검출하고, 그 움직임에 대한 예측과 보상을 통해 그 압축율을 향상시키는 효과가 있으나, 계산량이 증가하고 메모리의 사용량이 증가하여 메모리와 계산량이 제한된 임베디디 시스템에 적용할 수 없는 문제점이 있었다. 이와 같은 문제점을 감안한 본 발명은 참조영상인 이전 프레임과 현재 프레임의 비교에 의해 물체의 움직임을 추정하여 모션벡터를 획득하는 단계와; 상기 모션벡터를 이용하여 다음 프레임에서의 물체의 위치와 그 물체의 위치 변화에 따라 새롭게 드러나는 배경영역과 물체에 의해 가려지는 배경영역을 예측하고, 그 드러나는 배경영역에 대한 정보를 저장하는 단계와; 다음 프레임의 표시에 상기 저장된 드러나는 배경영역에 대한 정보와 이전 프레임을 이용하는 단계로 구성되어 참조영상으로 현재 프레임과 가장 상관도가 높은 이전의 프레임만을 사용하고, 그 이전의 프레임에는 나타나지 않는 물체의 움직임에 따라 드러나는 배경영역에 대한 정보를 저장 및 갱신하고, 그 저장된 드러나는 배경영역에 대한 정보를 사용하여 다음 프레임을 표시함으로써, 압축효율의 저하를 방지하면서 메모리의 사용량과 계산량을 줄여 임베디드 시스템에서도 국제 규격의 영상압축 방법을 사용할 수 있도록 하는 효과가 있다.The present invention relates to a multi-reference image compression method for reducing memory bandwidth and computational complexity in an embedded system. In the conventional multi-reference image compression method, a motion is detected using a plurality of reference images, and prediction and compensation for the motion are performed. Although the compression ratio has an effect of improving the compression ratio, there is a problem that cannot be applied to an embedded system with limited memory and computation amount due to an increase in computation amount and memory usage. In consideration of such a problem, the present invention comprises the steps of: obtaining a motion vector by estimating the motion of an object by comparing a current frame with a previous frame; Predicting a background area newly revealed and a background area covered by the object according to the position of the object in the next frame and the change of the position of the object using the motion vector, and storing information on the exposed background area; The use of the previous frame and information on the exposed background area stored in the display of the next frame using only the previous frame having the most correlation with the current frame as a reference image, the movement of the object that does not appear in the previous frame By saving and updating the information on the background area exposed according to the information, and displaying the next frame using the information on the background area that is stored, it reduces the memory usage and calculation amount while preventing the reduction of compression efficiency. It is effective to use the video compression method.

Description

임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법{THE IMPLEMENTATION OF REFERENCE FRAME PREDICTION FOR REDUCING MEMORY BANDWIDTH AND COMPUTATIONAL COMPLEXITY IN EMBEDDED SYSTEM}TECHNICAL FIELD OF REFERENCE FRAME PREDICTION FOR REDUCING MEMORY BANDWIDTH AND COMPUTATIONAL COMPLEXITY IN EMBEDDED SYSTEM}

본 발명은 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법에 관한 것으로, 특히 차세대 영상 통신규약으로 표준화가 진행중인 H.26L에서 채택이 유력한 다중참조 영상예측 알고리듬을 임베디드 시스템에 적용하기 위하여 메모리 대역을 줄이고 계산량을 줄이는데 적당하도록 한 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법에 관한 것이다.The present invention relates to a multi-reference video compression method for reducing memory bandwidth and computational complexity in an embedded system. In particular, the present invention is to apply a multi-reference video prediction algorithm, which is widely adopted in H.26L, which is being standardized as a next-generation video communication protocol. The present invention relates to a multi-reference image compression method for reducing memory bandwidth and computational complexity in an embedded system, which is suitable for reducing memory bandwidth and computing amount.

현재 차세대 비디오 압축표준으로 제정 중인 H.26L은 기존의 H.261, H.263, H.263+, H.263++와 같은 ITU(International Telecommunications Union) 계열 표준 및 ISO/IEC(International Standards Organization / International Electrotechnical Commission)의 MPEG1, MPEG2, MPEG4압축 표준들보다 압축률이 뛰어난 영상 통신 표준 규약으로 자리매김하고 있다. 그 중 유력한 표준 알고리즘은 다중 참조 영상 압축방법이 있다.H.26L, currently being enacted as the next generation video compression standard, is an existing International Telecommunications Union (ITU) series standard such as H.261, H.263, H.263 +, and H.263 ++, and the International Standards Organization (ISO / IEC). / International Electrotechnical Commission) has established itself as a standard for video communications with better compression rates than MPEG1, MPEG2 and MPEG4 compression standards. The most prominent standard algorithm is the multiple reference image compression method.

다중 참조 영상 압축방법은 영상의 움직임 추정 시 참조영상을 복수로 사용하여 각각에 대한 움직임 추정을 행한 후 가장 최적의 블록을 기준 프레임 정보와 함께 이용하는 것으로, 다른 움직임 추정 방법들보다 우수한 움직임 추정 및 보상이 가능하여 높은 압축률을 나타낸다. 그러나 하드디스크를 사용하지 않으며, 메모리의 대역과 계산량이 제한적인 임베디드 시스템에서 상기의 방법을 사용하면, 계산량의 증대와 메모리의 제한을 넘어서게 되며, 이와 같은 종래 다중 참조 영상 압축방법을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.In the multi-reference image compression method, a plurality of reference images are used to estimate the motion of the image, and motion estimation is performed on each of them, and then the most optimal block is used together with the reference frame information. The motion estimation and compensation is superior to other motion estimation methods. This is possible and shows a high compression ratio. However, if the above-described method is used in an embedded system that does not use a hard disk and has a limited bandwidth and a large amount of memory, the calculation amount is increased and the memory is exceeded. Detailed description with reference to the following.

도1은 종래 다중 참조 영상 압축 알고리듬을 하드웨어적로 구성한 장치의 블록도로서, 이에 도시한 바와 같이 비디오신호(VIDEO IN)와 참조영상의 차를 구하는 감산부(1)와; 코딩제어부(2)의 제어에 의해 비디오신호(VIDEO IN) 또는 감산부(1)의 출력을 인가받아 변환하여 출력하는 변환부(3)와; 상기 코딩제어부(2)의 제어에 따라 상기 변환부(3)의 출력신호를 양자화하여 출력하는 양자화부(4)와; 상기 양자화부(4)의 출력(Q)을 역양자화하는 역양자화부(5)와; 상기 역양자화부(5)의 출력을 상기 변환부(3)와는 반대의 동작을 통해 이전 영상을 복원하는 복원부(6)와; 상기 비디오신호(VIDEO IN)를 입력받아 저장하는 픽처 메모리(9)와; 상기 픽처 메모리(9)에 저장된 비디오신호(VIDEO IN)와 상기 복원부(6)에서 복원된 영상신호를 가산하는 가산부(7)와; 상기 가산부(7)의 출력신호인 참조영상을 저장하는 복수의 부가 픽처 메모리(APM1~APMn)로 구성된다.1 is a block diagram of an apparatus in which a conventional multi-reference video compression algorithm is hardware-configured. As shown therein, a subtractor 1 for obtaining a difference between a video signal VIDEO IN and a reference picture; A converter (3) which receives the output of the video signal (VIDEO IN) or the subtractor (1) under the control of the coding controller (2), converts it, and outputs it; A quantization unit (4) for quantizing and outputting the output signal of the conversion unit (3) under the control of the coding control unit (2); An inverse quantization unit 5 for inversely quantizing the output Q of the quantization unit 4; A restoring unit (6) for restoring a previous image by an operation opposite to the converting unit (3) with the output of the inverse quantization unit (5); A picture memory 9 for receiving and storing the video signal VIDEO IN; An adder (7) for adding a video signal (VIDEO IN) stored in the picture memory (9) and a video signal reconstructed by the reconstructor (6); And a plurality of additional picture memories APM1 to APMn for storing a reference image which is an output signal of the adder 7.

이와 같은 장치의 동작을 통해 종래 다중 참조 영상 압축 알고리듬을 좀 더 상세히 설명한다.Through the operation of such an apparatus, a conventional multi-reference image compression algorithm will be described in more detail.

먼저, 최초 프레임의 비디오신호(VIDEO IN)가 입력되면, 이는 픽처 메모리(9)에 저장됨과 아울러, 코딩제어부(2)의 제어에 의해 동작하는 스위치(SW1)를 통해 변환부(3)로 직접 인가된다.First, when the video signal VIDEO IN of the first frame is input, it is stored in the picture memory 9 and directly to the converter 3 through a switch SW1 operated by the control of the coding controller 2. Is approved.

그 다음, 상기 최초 프레임의 비디오신호(VIDEO IN)는 변환부(3)에서 특정한 형식으로 코딩되며, 이는 양자화부(4)를 통해 양자화되어 변환 계수를 위한 양자화 인덱스(Q)로 비디오 다중 코더(도면 미도시) 측으로 인가된다.Then, the video signal VIDEO IN of the first frame is coded in a specific format in the converting section 3, which is quantized by the quantizing section 4, and is a video multi-coder (Q) with a quantization index Q for the transform coefficient. (Not shown in the drawing).

그 다음, 상기 양자화부(4)의 출력을 귀환 받은 역양자화부(5)는 상기 변환부(3)의 출력상태와 동일하게 역양자화하여 출력하며, 이를 인가받은 복원부(6)는 이전 영상을 복원하여 최초 프레임의 비디오신호(VIDEO IN)를 복원하게 된다.Then, the inverse quantization unit 5, which receives the output of the quantization unit 4, dequantizes and outputs the same as the output state of the conversion unit 3, and the restored unit 6 receives the previous image. To recover the video signal of the first frame.

그 다음, 가산부(7)를 통해 부가 픽처 메모리(APM1~APMn)에 저장된다.Then, it is stored in the additional picture memories APM1 to APMn through the adder 7.

이때, 상기 가산부(7)에 이전 상태의 영상을 인가하는 스위치(SW2)는 열려있어 비디오신호(VIDEO IN)의 최초 프레임이 그대로 부가 픽처 메모리(APM1)에 저장된다.At this time, the switch SW2 for applying the image of the previous state to the adder 7 is open so that the first frame of the video signal VIDEO IN is stored in the additional picture memory APM1 as it is.

그 다음, 비디오신호(VIDEO IN)의 두번째 프레임이 인가되면 이는 픽처메모리(9)에 저장됨과 아울러 그 이전 영상의 프레임과의 차가 감산부(1)에서 구해지며, 이로인해 첫번째 프레임과 두번째 프레임의 영상 변화, 즉 움직임을 검출할 수 있게 된다.Then, when the second frame of the video signal (VIDEO IN) is applied, it is stored in the picture memory 9 and the difference from the frame of the previous image is obtained from the subtractor 1, whereby the first frame and the second frame Image changes, i.e., movement, can be detected.

그 다음, 상기 감산부(1)의 출력을 스위치(SW1)를 통해 인가받은 변환부(3)는 영상을 변환하며, 다시 양자화부(4)를 통해 양자화 하여 그 결과를 비디오 다중코더 측으로 출력함과 아울러 역양자화부(5)에 그 출력이 인가되어 역양자화되고, 다시 복원부(6)를 통해 복원된다.Next, the converter 3, which has received the output of the subtractor 1 through the switch SW1, converts the image, and quantizes it again through the quantizer 4 to output the result to the video multicoder. In addition, the output is applied to the inverse quantization unit 5 to inverse quantization, and restored through the restoration unit 6 again.

그 다음, 상기 복원부(6)에서 복원된 영상과 상기 픽처 메모리(9)에 저장된 비디오신호(VIDEO IN)의 두번째 프레임이 가산되어, 참조영상신호로 상기 부가 픽처 메모리(APM1)에 저장된다.Then, the image reconstructed by the reconstructor 6 and the second frame of the video signal VIDEO IN stored in the picture memory 9 are added, and are stored in the additional picture memory APM1 as a reference image signal.

이전에 그 부가 픽처 메모리(APM1)에 저장된 참조영상은 다음의 부가 픽처 메모리(APM2)에 저장되어 지며, 이는 프레임이 진행되는 동안 각 부가 픽처 메모리(APM1~APMn)에 순차적으로 저장되어진다.The reference picture previously stored in the additional picture memory APM1 is stored in the next additional picture memory APM2, which is sequentially stored in each additional picture memory APM1 to APMn while the frame is in progress.

이와 같이 이전 프레임과 현재 프레임의 영상을 비교하여 그 두 프레임에서 변화되지 않는 배경과 움직이는 물체 부분을 구분하고, 그 움직이는 물체의 방향성 및 움직임 속도를 나타내는 모션벡터(V)를 검출할 수 있으며, 이와 같은 모션벡터(V)를 이용하여 움직이는 물체의 위치를 예측할 수 있고, 그 예측과 실제 움직임을 보상하여 표시함으로써 높은 압축율을 나타낼 수 있게 된다.In this way, the image of the previous frame and the current frame can be compared to distinguish the background and the moving object that are not changed in the two frames, and to detect a motion vector (V) indicating the direction and speed of the moving object. The same motion vector (V) can be used to predict the position of a moving object, and the high compression ratio can be represented by compensating and displaying the prediction and the actual motion.

이때 물체의 움직임에 의하여 변화되는 배경은 물체가 이전 프레임에서 위치하던 부분인 드러나는 배경영역과 현재 프레임에서 물체가 위치하는 가려지는 배경영역과, 변화되지 않는 배경영역으로 나누어 생각할 수 있다.In this case, the background changed by the movement of the object may be divided into an exposed background area where the object is located in the previous frame, a hidden background area where the object is located in the current frame, and an unchanging background area.

상기 변화되지 않는 배경영역은 참조영상에 포함된 정보를 그대로 이용할 수 있으며, 가려지는 배경영역 또한 이전 참조영상에 포함되어 있고, 현재 프레임에서는 표시되지 않는 영역이므로 참조영상을 사용하여 압축이 가능하다.The unchanged background region can use information included in the reference image as it is, and the hidden background region is also included in the previous reference image and is not displayed in the current frame, and thus can be compressed using the reference image.

그러나, 드러나는 배경영역은 이전 참조영상에서 물체가 위치하고 있던 부분이므로, 이전 참조영상에는 그 정보 자체가 없어 움직임 추정시 예측에러가 많이 발생하며 예측 효율이 저하되고, 이에 따라 압축효율인 부호화 효율이 저하된다.However, since the exposed background area is the part where the object was located in the previous reference image, the previous reference image does not have its own information itself, so a lot of prediction errors occur in motion estimation, and the prediction efficiency is lowered. do.

이를 보상하기 위해서 상기 복수개의 부가 픽처 메모리(APM1~APMn)를 두어 그 복수개의 부가 픽처 메모리(APM1~APMn)에 저장된 복수개의 참조영상을 참조함으로써, 보다 우수한 움직임 추정이 가능하도록 하고, 부호화 효율을 향상시키게 된다.To compensate for this, by providing the plurality of additional picture memories APM1 to APMn and referring to a plurality of reference images stored in the plurality of additional picture memories APM1 to APMn, it is possible to obtain better motion estimation and improve coding efficiency. Will be improved.

이와 같이 다중의 참조영상을 가지고 움직임을 추정하는 방법은 부가적인 픽처 메모리를 사용해야 하고, 그에 따른 계산량이 증가하게 된다. 상기 부가 픽처 메모리가 5개인 시스템에서는 4배 크기의 1/2 해상도 영상 및 16배 크기의 1/4해상도 영상이 각각 5개 씩 필요로 하며, 필요한 메모리의 양은 복호화기 까지 고려한다면 최소 100배 이상 늘어나게 된다.As such, a method of estimating motion with multiple reference images requires additional picture memory, and the amount of computation increases. In the system of 5 additional picture memories, each of 5 times the resolution of 4 times 1/2 resolution and 16 times the size of 1/4 resolution is required, and the amount of memory required is at least 100 times considering the decoder. Will increase.

또한, 각 프레임에 대한 움직임 추정을 모두 실행하는 방법이므로 계산량이 증대되고 비트율에 있어서도 최적 프레임에 대한 정보를 실어 보내는 방식을 사용하므로 부가정보(OVER HEAD)가 증가하게 된다.In addition, since the method of performing all motion estimation for each frame is increased, the amount of computation is increased, and the additional information (OVER HEAD) is increased because the method of carrying information on the optimum frame is also used in the bit rate.

만약 이와 같은 다중 참조 영상 압축 알고리듬을 제한된 메모리, 제한된 계산 능력을 가지는 임베디드 시스템에 적용할 경우에는 그 임베디드 시스템의 제한 사항에 의해 상기 다중 참조 영상 압축방법을 사용할 수 없는 문제점이 발생하게 된다.If the multi-reference image compression algorithm is applied to an embedded system having limited memory and limited computation capability, the multi-reference image compression method cannot be used due to the limitation of the embedded system.

상기한 바와 같이 종래 다중 참조 영상압축방법은 복수개의 참조영상을 이용하여 움직임을 검출하고, 그 움직임에 대한 예측과 보상을 통해 그 압축율을 향상시키는 효과가 있으나, 계산량이 증가하고 메모리의 사용량이 증가하여 메모리와 계산량이 제한된 임베디드 시스템에 적용할 수 없는 문제점이 있었다.As described above, the conventional multi-reference image compression method has an effect of detecting a motion using a plurality of reference images and improving the compression ratio by predicting and compensating for the motion, but the amount of computation is increased and memory usage is increased. Therefore, there is a problem that can not be applied to the embedded system with limited memory and amount of calculation.

이와 같은 문제점을 감안한 본 발명은 다중 참조 영상압축방법을 임베디드 시스템에 적용할 수 있는 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법을 제공함에 그 목적이 있다.It is an object of the present invention to provide a multi-reference image compression method for reducing memory bandwidth and computational complexity in an embedded system that can apply a multi-reference image compression method to an embedded system.

상기와 같은 목적은 참조영상인 이전 프레임과 현재 프레임을 비교하여 물체의 움직임을 추정하여 모션벡터를 획득하는 단계와; 상기 모션벡터를 이용하여 다음 프레임에서의 물체의 위치와 그 물체의 위치 변화에 따라 새롭게 드러나는 배경영역과 물체에 의해 가려지는 배경영역을 예측하고, 그 드러나는 배경영역에 대한 정보를 저장하는 단계와; 다음 프레임의 표시에 그 드러나는 배경영역에 대한 정보와 이전 프레임을 이용하는 단계로 구성함으로써 달성되는 것으로, 이와 같은 본 발명을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.The above object is to obtain a motion vector by estimating the motion of an object by comparing a current frame with a previous frame as a reference image; Predicting a background area newly revealed and a background area covered by the object according to the position of the object in the next frame and the change of the position of the object using the motion vector, and storing information on the exposed background area; This is achieved by using information on the background area displayed on the display of the next frame and using the previous frame, which will be described in detail with reference to the accompanying drawings.

도2는 본 발명 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법을 하드웨어로 구성한 장치의 블록도로서, 이에 도시한 바와 같이 비디오신호(VIDEO IN)와 참조영상의 차를 구하는 감산부(1)와; 코딩제어부(2)의 제어에 의해 비디오신호(VIDEO IN) 또는 감산부(1)의 출력을 인가받아 변환하여 출력하는 변환부(3)와; 상기 코딩제어부(2)의 제어에 따라 상기 변환부(3)의 출력신호를 양자화하여 출력하는 양자화부(4)와; 상기 양자화부(4)의 출력(Q)을 역양자화하는 역양자화부(5)와; 상기 역양자화부(5)의 출력을 상기 변환부(3)와는 반대의 동작을 통해 이전 영상을 복원하는 복원부(6)와; 상기 비디오신호(VIDEO IN)를 입력받아 저장하는 픽처 메모리(9)와; 상기 픽처 메모리(9)에 저장된 비디오신호(VIDEO IN)와 상기 복원부(6)에서 복원된 영상신호를 가산하는 가산부(7)와; 상기 가산부(7)의 출력신호인 참조영상을 저장하는 부가 픽처 메모리(APM)와; 이전 움직임 검출을 통해 다음 프레임에서 드러나는 배경영역을 저장하는 드러나는 배경영역 메모리(10)로 구성된다.FIG. 2 is a block diagram of an apparatus in which a multi-reference video compression method is configured by hardware in order to reduce memory bandwidth and computational complexity in an embedded system of the present invention. As shown in FIG. Part (1); A converter (3) which receives the output of the video signal (VIDEO IN) or the subtractor (1) under the control of the coding controller (2), converts it, and outputs it; A quantization unit (4) for quantizing and outputting the output signal of the conversion unit (3) under the control of the coding control unit (2); An inverse quantization unit 5 for inversely quantizing the output Q of the quantization unit 4; A restoring unit (6) for restoring a previous image by an operation opposite to the converting unit (3) with the output of the inverse quantization unit (5); A picture memory 9 for receiving and storing the video signal VIDEO IN; An adder (7) for adding a video signal (VIDEO IN) stored in the picture memory (9) and a video signal reconstructed by the reconstructor (6); An additional picture memory (APM) for storing a reference image which is an output signal of the adder (7); It consists of an exposed background area memory 10 that stores the background area exposed in the next frame through previous motion detection.

이하, 상기와 같은 본 발명 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법을 상기 도2에 도시한 장치의 동작과 함께 설명한다.Hereinafter, a multi-reference video compression method for reducing memory bandwidth and computational complexity in the embedded system of the present invention will be described along with the operation of the apparatus shown in FIG.

먼저, 코딩제어부(2)의 제어를 받아 스위칭 변환되는 스위치(SW1)를 통해 비디오신호(VIDEO IN)의 최초프레임을 인가받은 변환부(3)는 그 첫번째 프레임을 적당한 데이터로 변환하여 출력하고, 이를 인가받은 양자화부(4)는 그 데이터를 양자화하여 비디오 다중 코더(도면 미도시)로 출력한다.First, the converter 3 receiving the first frame of the video signal VIDEO IN through the switch SW1 switched under the control of the coding controller 2 converts the first frame into appropriate data and outputs the converted data. The quantization unit 4 receives the quantized data and outputs the quantized data to a video multiple coder (not shown).

그 다음, 상기 양자화부(4)의 출력을 인가받은 역양자화부(5)는 상기 변환부(3)의 출력으로 인가받은 변환계수를 위한 양자화 인덱스(Q)를 역양자화한다.Next, the inverse quantization unit 5 applied with the output of the quantization unit 4 inversely quantizes the quantization index Q for the transformation coefficient applied as the output of the conversion unit 3.

그 다음, 상기 역양자화부(5)의 출력을 인가받은 복원부(6)는 그 데이터를 복원하여 상기 비디오신호(VIDEO IN)의 첫번째 프레임을 복원한다.Then, the restoring unit 6, which has received the output of the inverse quantization unit 5, restores the data to restore the first frame of the video signal VIDEO IN.

그 다음, 상기 복원부(6)의 출력을 인가받은 가산부(7)는 첫번째 프레임의 처리일때 그대로 그 첫번째 프레임을 출력하며, 이후의 동작에서는 현재의 프레임과 이전의 프레임을 가산하는 동작을 하게 된다.Then, the adder 7 receiving the output of the restoration unit 6 outputs the first frame as it is during the processing of the first frame, and in the subsequent operation, adds the current frame and the previous frame. do.

그 다음, 부가 픽처 메모리(APM)는 상기 가산부(7)의 출력을 저장한다.The additional picture memory APM then stores the output of the adder 7.

그 다음, 비디오신호(VIDEO IN)의 다음 프레임을 인가받은 감산부(1)는 이전에 저장된 픽처 메모리(9)의 프레임과 현재의 프레임을 감산하여 움직임 정보를 추출하여 상기 스위치(SW1)를 통해 변환부(3)에 인가한다.Subsequently, the subtractor 1 receiving the next frame of the video signal VIDEO IN extracts motion information by subtracting a frame of the previously stored picture memory 9 from the current frame and through the switch SW1. It applies to the converter 3.

그 다음, 상기 변환부(3)는 그 움직임 정보를 변환하여 출력하며, 이는 양자화부(4)에서 양자화되고, 다시 역양자화부(5)와 복원부(6)를 통해 복원된다.Then, the conversion section 3 converts and outputs the motion information, which is quantized in the quantization section 4, and then restored by the inverse quantization section 5 and the restoration section 6.

또한 가산부(7)에서는 그 움직임 정보를 프레임에 더하여 부가 픽처 메모리(APM)에 저장하여 참조영상으로 사용한다.In addition, the adder 7 adds the motion information to the frame and stores the motion information in the additional picture memory APM to use as a reference picture.

즉, 본 발명에서는 참조영상으로 복수의 참조영상을 사용하지 않으며 시간적으로 가장 가까운 이전 프레임 만을 참조영상으로 사용함으로써, 메모리의 사용량을 줄일 수 있게 된다.That is, in the present invention, a plurality of reference images are not used as the reference image, and only the previous frame closest in time is used as the reference image, thereby reducing the memory usage.

그러나, 상기와 같이 이전 프레임 만을 참조영상으로 사용할 경우, 배경과 분리되는 움직이는 영상에 대하여 이전 프레임에는 그 움직이는 물체의 영상이 위치하던 부분이 이후의 프레임에서는 드러나는 배경영역이 되므로, 그 드러나는 배경영역에 대한 정보가 없기 때문에 압축효율이 저하된다.However, when only the previous frame is used as the reference image as described above, since the portion where the image of the moving object is located in the previous frame becomes the background area exposed in the subsequent frame, the moving area is separated from the background. Since no information is available, the compression efficiency is reduced.

이와 같은 문제를 보상하기 위하여 드러나는 배경영역 메모리(10)에서는 움직임을 검출하고, 그 예측된 움직임에 따라 드러나는 배경영역을 미리 저장해 둔다.In order to compensate for such a problem, the exposed background area memory 10 detects a motion and stores the background area exposed according to the predicted motion in advance.

상기와 같이 움직임을 예측하고, 그 움직임에 의해 드러나는 배경영역을 미리 저장해 두면, 다음의 프레임에서 고정된 배경영역에 움직이는 물체의 예측위치를 설정하고, 그 물체의 움직임에 따라 드러나는 배경영역에 대한 데이터를 생성 및 갱신 이용하여 보다 적은 메모리를 사용하면서 보다 적은 계산을 통해 다음 프레임을 표시할 수 있게 된다.If the motion is predicted as described above and the background area revealed by the motion is stored in advance, the predicted position of the moving object is set in the fixed background area in the next frame, and the data of the background area revealed according to the motion of the object is set. By generating and updating, it is possible to display the next frame with fewer calculations while using less memory.

상기 도2의 설명중 미설명 부호 p는 내부 플래그이며, t는 전송여부를 나타내는 프래그, qz는 양자화부 지시신호, v는 모션벡터를 타나낸다.In the description of FIG. 2, reference numeral p denotes an internal flag, t denotes a flag indicating whether to transmit, qz denotes a quantization unit indication signal, and v denotes a motion vector.

상기 드러나는 배경영역을 저장, 갱신 및 이용하는 방법을 좀더 상세히 설명하면 다음과 같다.A method of storing, updating, and using the exposed background area will be described in more detail as follows.

도3은 표시되는 영상의 특성에 따른 배경정보의 모식도로서, 이에 도시한 바와 같이 두 프레임을 비교할때 가장 크게는 이전 프레임과 현재 프레임을 비교하여 변화되는 영역과 변화되지 않는 영역으로 구분하여 변화되지 않는 영역의 정보는 현재 프레임을 표시할때 그대로 사용할 수 있다.FIG. 3 is a schematic diagram of background information according to the characteristics of the displayed image. As shown in FIG. 3, when comparing the two frames, the largest change is made by comparing the previous frame and the current frame to the area that is changed and the area that is not changed. The information of the area not used can be used as is when displaying the current frame.

또한 상기 변화되는 영역은 움직이는 물체와 물체의 움직임에 따라 이전 프레임에서는 표시되는 배경부분이 현재의 프레임에서는 물체에 의해 가려지게 되는 가려지는 배경영역과 이전 프레임에서는 물체에 의해 가려져 있다가 현재의 프레임에서는 물체의 이동에 의해 드러나는 배경영역이 있다.In addition, the changed area is hidden by the object in the previous frame and the hidden background area in which the background part displayed in the previous frame is covered by the object in the current frame according to the movement of the moving object and the object. There is a background area exposed by the movement of the object.

이전 프레임과 현재 프레임을 비교하여 물체의 모션벡터를 구하면 그 물체의 움직임 방향과 속도에 대한 정보를 획득하여 다음의 프레임에서의 물체의 위치를 추정할 수 있으며, 그 물체의 위치 추정에 따른 가려지는 배경영역과 드러나는 배경영역의 위치를 예측할 수 있게 된다.When the motion vector of the object is obtained by comparing the previous frame with the current frame, information about the direction and speed of movement of the object can be obtained to estimate the position of the object in the next frame. The position of the background area and the exposed background area can be predicted.

하나의 프레임을 복수의 블록으로 구분하여 다음 프레임에서의 물체의 움직임에 의해 드러나는 배경영역에 해당하는 블록의 데이터를 상기 드러나는 배경영역 메모리(10)에 저장해 두고 다음의 프레임을 표시할때 이를 이용하여 표시함으로써, 그 표시될 프레임의 압축효율을 증대하게 된다.By dividing a frame into a plurality of blocks, data of a block corresponding to a background area exposed by the movement of an object in the next frame is stored in the exposed background area memory 10 and used to display the next frame. By displaying, the compression efficiency of the frame to be displayed is increased.

이처럼 추정된 드러나는 배경영역이 이미 드러나는 배경영역 메모리(10)에 저장되어 있는 것이면, 상기 드러나는 배경영역 메모리(10)를 갱신하지 않고, 저장되어 있지 않으면 프레임이 표시될때 마다 새로운 다음 프레임에서 드러나는 배경영역에 대한 데이터를 갱신한다.If the estimated exposed background area is stored in the exposed background area memory 10, the background area exposed in a new next frame is displayed each time a frame is displayed without updating the exposed background area memory 10. Update the data for.

최초 드러나는 배경영역 메모리(10)에는 첫번째 복호화된 영상이 모두 저장되며, 이를 참조하여 다음 프레임에서 부터는 물체의 움직임에 따라 드러나는 배경부분만을 저장하고, 이를 계속 갱신하여 다중의 참조영상을 사용하지 않고도 드러나는 배경영역에 대한 정보를 계속 유지할 수 있게 된다.The first decoded background region memory 10 stores all of the first decoded images, and stores only the background portion that is exposed according to the movement of the object from the next frame, and continuously updates them to reveal them without using multiple reference images. Information about the background area can be maintained continuously.

즉, 본 발명은 참조영상으로 현재의 움직임과 상관성이 가장 높은 이전 프레임만을 사용하며, 물체의 움직임에 따라 드러나는 배경영역에 대한 정보를 계속 저장하여 부호화 효율의 저하를 방지하면서 메모리의 사용량을 줄이며, 움직임 추정 및 드러나는 배경의 추정에 따른 과도한 계산량을 최소화 할 수 있게 된다. 이처럼 메모리의 사용량과 계산량을 최소화 함으로써, 메모리와 계산량이 한정되어 있는 임베디드 시스템에서도 국제 규격에 맞는 영상 압축 방법을 사용할 수 있게 된다.That is, the present invention uses only the previous frame having the highest correlation with the current movement as a reference image, and continuously stores information about the background region exposed by the movement of the object, thereby reducing the memory usage while preventing the degradation of the coding efficiency. Excessive computations due to motion estimation and background estimation can be minimized. By minimizing the amount of memory used and the amount of calculation, the image compression method conforming to the international standard can be used even in the embedded system where the memory and the amount of calculation are limited.

상기한 바와 같이 본 발명 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법은 참조영상으로 현재 프레임과 가장 상관도가 높은 이전의 프레임만을 사용하고, 그 이전의 프레임에는 나타나지 않는 물체의 움직임에 따라 드러나는 배경영역에 대한 정보를 따로 저장 및 갱신하고, 그 저장된 드러나는 배경영역에 대한 정보를 사용하여 다음 프레임을 표시함으로써, 압축효율의 저하를 방지하면서, 메모리의 사용량과 계산량을 줄여 메모리와 계산량이 제한적인 임베디드 시스템에서도 국제 규격의 영상압축 방법을 사용할 수 있도록 하는 효과가 있다.As described above, in the embedded system of the present invention, the multi-reference image compression method for reducing memory bandwidth and computational complexity uses only the previous frame having the highest correlation with the current frame as the reference image, and does not appear in the previous frame. By storing and updating the information on the background area exposed by the movement separately and displaying the next frame using the information on the stored background area, the memory usage and calculation amount can be reduced by reducing the memory usage and calculation amount while preventing the deterioration of the compression efficiency. Even in embedded systems with a limited amount of computation, it is possible to use international image compression methods.

도1은 종래 다중 참조 영상 압축방법을 구현한 장치의 블록도.1 is a block diagram of an apparatus implementing a conventional multi-reference video compression method.

도2는 본 발명 다중 참조 영상 압축방법을 구현한 장치의 블록도.Figure 2 is a block diagram of a device implementing the present invention multiple reference image compression method.

도3은 표시되는 영상 프레임을 특징별로 분할한 모식도.3 is a schematic diagram of dividing a displayed video frame by features.

*도면의 주요 부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

1:감산부 2:코딩제어부1: subtraction unit 2: coding control unit

3:변환부 4:양자화부3: conversion section 4: quantization section

5:역양자화부 6:복원부5: Reverse quantization department 6: Restoration department

7:가산부 9:픽처 메모리7: Adder 9: picture memory

10:드러나는 배경영역 메모리10: Exposed background memory

Claims (2)

참조영상인 이전 프레임과 현재 프레임의 비교에 의해 물체의 움직임을 추정하여 모션벡터를 획득하는 단계와; 상기 모션벡터를 이용하여 다음 프레임에서의 물체의 위치와 그 물체의 위치 변화에 따라 새롭게 드러나는 배경영역과 물체에 의해 가려지는 배경영역을 예측하고, 그 드러나는 배경영역에 대한 정보를 저장하는 단계와; 다음 프레임의 표시에 상기 저장된 드러나는 배경영역에 대한 정보와 이전 프레임을 이용하는 단계로 이루어진 것을 특징으로 하는 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법.Estimating the motion of the object by comparing the previous frame with the current frame as a reference image to obtain a motion vector; Predicting a background area newly revealed and a background area covered by the object according to the position of the object in the next frame and the change of the position of the object using the motion vector, and storing information on the exposed background area; A method of compressing a multi-reference image to reduce memory bandwidth and computational complexity in an embedded system, characterized by using the information on the exposed background area stored in a display of a next frame and a previous frame. 제 1항에 있어서, 드러나는 배경영역의 예측, 저장, 갱신 및 사용은 최초의 영상 프레임을 다수의 블록으로 할당하고, 그 모든 복호화된 영상 프레임을 저장하는 초기화단계와; 상기 저장된 영상 프레임을 사용하여 현재 영상 프레임과 비교하여 모션벡터를 획득한 후, 물체의 움직임에 따라 새롭게 드러나는 배경영역을 구하는 예측단계와; 상기 예측된 드러나는 배경영역에 대한 정보만을 선택적으로 저장하는 저장단계와; 계속해서 다음 프레임이 인가되면 새로운 드러나는 배경영역에 대한 정보를 계속 갱신하며, 기 저장되어 있는 정보를 사용할 수 있는 것이면 이전 상태를 유지하는 갱신단계와; 다음 프레임에서 드러나는 배경영역의 데이터를 제외하고 압축한 후, 상기 저장된 드러나는 배경영역에 대한 데이터를 사용하여 다음 프레임을 표시하는 이용단계로 이루어진 것을 특징으로 임베디드 시스템에서 메모리 대역 및 계산 복잡도를 줄이기 위한 다중참조영상 압축방법.The method of claim 1, further comprising: an initializing step of allocating an initial image frame to a plurality of blocks and storing all of the decoded image frames; A prediction step of acquiring a motion vector by comparing the current image frame with the stored image frame and then obtaining a background region newly revealed according to the movement of the object; A storage step of selectively storing only information on the predicted exposed background area; An update step of continuously updating information on a new exposed background area when the next frame is applied, and maintaining a previous state if previously stored information is available; After excluding the data of the background area exposed in the next frame is compressed, and using the stored data for the exposed background area to display the next frame characterized in that the embedded system to reduce the memory bandwidth and calculation complexity Reference Image Compression Method.
KR10-2002-0012747A 2002-03-09 2002-03-09 The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system KR100474268B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0012747A KR100474268B1 (en) 2002-03-09 2002-03-09 The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0012747A KR100474268B1 (en) 2002-03-09 2002-03-09 The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system

Publications (2)

Publication Number Publication Date
KR20030073267A KR20030073267A (en) 2003-09-19
KR100474268B1 true KR100474268B1 (en) 2005-03-09

Family

ID=32224134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0012747A KR100474268B1 (en) 2002-03-09 2002-03-09 The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system

Country Status (1)

Country Link
KR (1) KR100474268B1 (en)

Also Published As

Publication number Publication date
KR20030073267A (en) 2003-09-19

Similar Documents

Publication Publication Date Title
US4727422A (en) Method and apparatus for efficiently communicating image sequence having improved motion compensation
US4703350A (en) Method and apparatus for efficiently communicating image sequences
KR0139154B1 (en) Coding method in a neural network
US20060239355A1 (en) Optimal encoding of motion compensated video
US20090168889A1 (en) Inter-frame predicted image synthesizing method
JP2003348583A (en) Method of adaptively encoding and decoding motion image and apparatus therefor
KR0128881B1 (en) Digital image decoder
JPH07226937A (en) Evaluating method for luminance signal adapted movement
KR0159370B1 (en) Method and apparatus for encoding a video signals using a boundary of an object
US6025880A (en) Moving picture encoding system and method
KR20050085730A (en) Elastic storage
KR100387229B1 (en) Apparatus for encoding images
KR100474268B1 (en) The implementation of reference frame prediction for reducing memory bandwidth and computational complexity in embedded system
JP2824222B2 (en) Video data compensation method and compensation device
KR20100082700A (en) Wyner-ziv coding and decoding system and method
JP2007060702A (en) Moving picture coding method, apparatus, and program
KR0124162B1 (en) Prediction coding method
JPH09261664A (en) Current frame prediction device and video signal coding system using the device
KR0169657B1 (en) Device for encoding moving picture signals
KR100207419B1 (en) Method and apparatus for controlling generation of bit rate in video encoding
KR100595144B1 (en) An adaptive quantization algorithm for video coding
JP4326758B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
KR100207418B1 (en) Method and apparatus for controlling generation of bit rate in video encoding
JPH08172631A (en) Image prediction coding method
KR100286220B1 (en) apparatus and method for adaptative quantizing in image coder

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee