KR100188534B1 - Method for reducing shape information by using motion estimation and predictive contour - Google Patents

Method for reducing shape information by using motion estimation and predictive contour Download PDF

Info

Publication number
KR100188534B1
KR100188534B1 KR1019940038899A KR19940038899A KR100188534B1 KR 100188534 B1 KR100188534 B1 KR 100188534B1 KR 1019940038899 A KR1019940038899 A KR 1019940038899A KR 19940038899 A KR19940038899 A KR 19940038899A KR 100188534 B1 KR100188534 B1 KR 100188534B1
Authority
KR
South Korea
Prior art keywords
contour
shape information
transmission
prediction
motion
Prior art date
Application number
KR1019940038899A
Other languages
Korean (ko)
Other versions
KR960028486A (en
Inventor
정재원
이진학
문주희
김재균
Original Assignee
김영환
현대전자산업주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 현대전자산업주식회사 filed Critical 김영환
Priority to KR1019940038899A priority Critical patent/KR100188534B1/en
Priority to US08/478,558 priority patent/US5799109A/en
Priority to CN95109651A priority patent/CN1119027C/en
Priority to JP33854495A priority patent/JP3038143B2/en
Priority to DE1995149095 priority patent/DE19549095A1/en
Priority to FR9515766A priority patent/FR2728987B1/en
Priority to GB9526635A priority patent/GB2296839B/en
Publication of KR960028486A publication Critical patent/KR960028486A/en
Application granted granted Critical
Publication of KR100188534B1 publication Critical patent/KR100188534B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Abstract

본 발명은 연속된 영상에서 윤곽선을 이동 보상 예측하고 예측 오차를 예측 오차 영역별로 전송하여 모양 정보 전송량을 감축시키는 움직임 추정 방식과 예측 윤곽선을 사용한 모양 정보 감축 방법에 관한 것으로, 기존에는 호터(HOETTER)의 논문에서 제안된 방식을 사용하여 모양 정보를 감축하였는데, 이 방식에서는 움직임 영역의 전체 윤곽선을 근사화한 다음, 근사화에 이용된 정점(VERTEX)들을 이동 보상 예측하고, 그 오차를 전송함으로 해서 화질의 향상을 가져올 수가 없는 단점이 있었는데, 본 발명에서는 이전 프레임의 윤곽선과 움직임 정보를 이용하여 이동 보상한 예측 윤곽선과, 현재 프레임의 윤곽선인 전송 윤곽선은 비슷한 형태를 갖게 되는데, 이를 이용하여 예측 윤곽선으로 전송 윤곽선을 근사화하도록 함으로써 영상 전화기, 영상회의, 비디오 부호화 및 컴퓨터 비젼과 같이 움직임 물체의 모양 정보가 필요한 시스템에서 움직임 물체에 대한 모양 정보를 감축하여 전송 데이터가 대폭적으로 감축되도록 함으로써 화질의 향상을 얻을 수 있게 된다.The present invention relates to a motion estimation method for reducing the shape information transmission amount by transmitting a motion compensation prediction of a contour in a continuous image and transmitting a prediction error for each prediction error region, and a shape information reduction method using a prediction contour. The shape information is reduced by using the proposed method, which approximates the overall contour of the motion region, and then transfer-compensates and predicts the vertices used for the approximation and transmits the error. In the present invention, there is a drawback that the predictive contour which is compensated for by using the previous frame contour and the motion information and the transmission contour which is the contour of the current frame have similar shapes. By approximating the contours, video phones, video conferencing, Reducing the shape information of the motion object in the system in which the shape information of the moving object required as audio coding and computer vision and it is possible to obtain an improvement in image quality by ensuring that the transmitted data is reduced drastically.

Description

움직임 추정 방식과 예측 윤곽선을 사용한 모양 정보 감축 방법Shape Information Reduction Method Using Motion Estimation and Predictive Contours

제1도는 머리와 어깨 영상의 동영상 분할의 예시도.1 is an exemplary diagram of video segmentation of a head and shoulder image.

제2도는 머리와 어깨 영상의 이전 프레임과 현재 프레임의 상태도.2 is a state diagram of a previous frame and a current frame of a head and shoulder image.

제3도는 이전 프레임을 이동 보상한 영상과 현재 프레임의 비교 상태도.3 is a diagram illustrating a comparison state between an image obtained by moving compensation of a previous frame and a current frame.

제4도는 본 발명을 위한 이동 보상 윤곽선 예측 부호화 방식의 구성 블록도.4 is a configuration block diagram of a motion compensation contour prediction coding scheme according to the present invention.

제5(a∼c)도는 본 발명을 위한 폴리건/스플린 근사화 과정도.Figure 5 (a-c) is a polygon / splin approximation process for the present invention.

제6(a∼c)도는 본 발명을 위한 예측 윤곽선을 이용한 근사화 과정도.6 (a to c) is an approximation process diagram using the prediction contour for the present invention.

제7도는 본 발명 이동 보상 윤곽선 예측 부호화 방법에 대한 동작 순서도이다.7 is a flowchart illustrating the motion compensation contour prediction coding method according to the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

11 : 뺄셈 수단 12 : 임계 수행 수단11: subtraction means 12: critical performance means

13 : 윤곽선 예측 수단 14 : 윤곽선 재구성 수단13: contour prediction means 14: contour reconstruction means

15 : 덧셈 수단 16 : 이동보상 예측 수단15: addition means 16: mobile compensation prediction means

20 : 전송 윤곽선 30 : 폴리건20 Transmission Contour 30 Polygon

40 : 스플린40: splin

본 발명은 연속된 영상에서 윤곽선을 이동 보상 예측하고 예측 오차를 예측오차 영역별로 전송하여 모양 정보 전송량을 감축시키는 움직임 추정 방식과 예측 윤곽선을 사용한 모양 정보 감축 방법에 관한 것이다.The present invention relates to a motion estimation method for reducing the shape information transmission amount by transfer compensation prediction of a contour line in a continuous image and transmitting a prediction error for each prediction error region, and a shape information reduction method using a predictive contour line.

종래에는 호터(HOETTER)의 논문에서 제안된 방식을 사용하여 모양 정보를 감축하였는데, 이 방식에서는 움직임 영역의 전체 윤곽선을 근사화한 다음, 근사화에 이용된 정점(VERTEX)들을 이동 보상 예측하고, 그 오차를 전송한다.Conventionally, the shape information is reduced by using the method proposed in the paper of HOETTER. In this method, the overall contour of the motion region is approximated, and then the motion compensation prediction of the vertices used for the approximation is performed, and the error is estimated. Send it.

이와 같이 모양 정보 전체를 근사화하여 이동 보상 예측한 후, 그 오차를 전송함으로 해서 화질의 향상을 가져올 수가 없는 단점이 있었다.As described above, the entire shape information is approximated and the motion compensation is predicted, and then the error is transmitted. Therefore, the image quality cannot be improved.

본 발명은 이러한 점을 해결하기 위한 것으로, 예측 오차 영역별로 이동보상 예측하도록 함으로써 움직임 물체에 대한 모양 정보를 대폭적으로 감축시킴을 목적으로 하여, 전송 정보 선택이 가능해지고, 윤곽선 근사화 부호화 과정이 간단하게 됨을 특징으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problem, and by performing motion compensation prediction for each prediction error region, transmission information can be selected and the outline approximation encoding process is simplified for the purpose of drastically reducing the shape information of the moving object. It is characterized by.

즉, 물체별 동영상 부호화에서는 입력된 영상을 물체(object)의 움직임에 의해 이전 영상과, 다른 신호를 갖는 움직임 영역(changed region)과, 신호의 변화가 없는 배경(unchanged region, background)으로 분할한다. 배경 영역은 더 이상의 분석 과정이나 정보의 전송이 불필요하며, 수신단에서는 이전 영상의 신호를 그대로 사용하여 재현한다. 추출된 움직임 영역에서는 물체 모형(object model)과 이동 모형(motion model)을 사용하여 물체의 움직임 정보(motion information)를 추정한다.That is, in video encoding by object, the input image is divided into a changed region having a different signal from a previous image, and an unchanged region (background) with no signal change by the movement of an object. . The background area does not need any further analysis or transmission of information, and the receiving end reproduces using the signal of the previous image as it is. In the extracted motion region, motion information of an object is estimated using an object model and a motion model.

그리고, 움직임 정보와 움직임 영역의 모양 정보(shape information)를 수신단에 전송한다. 수신단에서는 이러한 정보들을 가지고 이동 보상 예측(motion compensated prediction)으로 영상을 재현하게 된다.The motion information and shape information of the motion area are transmitted to the receiver. The receiving end reproduces an image with motion compensated prediction using this information.

상기와 같은 방식은 기존의 블록별 부호화 방식에 비해 실제 이동 물체별로 움직임 정보를 추정하므로 그 예측 성능이 우수하고 블록 효과 등을 줄일 수 있게 되어 주관적 화질의 향상을 가져온다.Since the above method estimates motion information for each moving object in comparison with the conventional block-by-block coding method, the prediction performance is excellent and the block effect can be reduced, thereby improving subjective picture quality.

여기서, 주관적 화질이란 예를들어, 하나의 화면에 고화질과 저화질이 함께 나타날 경우 모자이크처럼 블록의 경계가 보이게 되는데 이러한 블록단위부호화에서 블록의 경계가 보이는 것을 블랙킹현상이라고 하며 이 블랙킹현상이 안보일 때 주관적 화질이 좋다고 말한다.Here, subjective picture quality, for example, when high quality and low picture quality appear on one screen, the boundary of blocks is shown as a mosaic. In this block unit encoding, the boundary of blocks is called blacking phenomenon and this blacking phenomenon is invisible. When the subjective picture quality is good.

또한 모양 정보의 전송은 물체의 경계를 사이에 두고 인접한 두 화소에 서로 다른 움직임 정보를 주기 때문에 블록별 방식에서 나타나는 반점 현상, 경계 왜곡(edge business) 등이 나타나지 않게 된다.In addition, since shape information is transmitted to two adjacent pixels with the motion of an object interposed therebetween, a spot phenomenon and an edge business appearing in a block-by-block method do not appear.

한편, 움직임 영역에서 이동 보상 예측 오차가 많이 발생하는 영역들이 있게 되는데, 이러한 영역들은 가정된 물체 모형이 맞지 않거나 이동 모형이 맞지 않은 복잡한 움직임을 보이는 영역으로서, 일반적으로 눈, 입 등의 부분에서 발생한다.On the other hand, there are regions where movement compensation prediction errors occur in the movement region. These regions are complex regions where the assumed object model does not fit or the movement model does not fit. do.

이 영역들은 사용자의 시각에 민감한 영역이므로, 수신단에서 원신호를 충실하게 재현할 수 있도록 색상 정보(color information)를 부호화 하여 전송한다. 이외에도 물체의 움직임으로 인해 새로 드러난 배경(uncovered background)이 나타나며, 이전 영상에서는 갖고 있지 않은 정보이므로 이에 대한 정보의 전송이 필요하다.Since these areas are sensitive to the user's vision, color information is encoded and transmitted so that the receiver can faithfully reproduce the original signal. In addition, a newly uncovered background appears due to the movement of the object, and since the information is not included in the previous image, it is necessary to transmit information about it.

제1도는 머리와 어깨(head and shoulder) 영상을 배경(background), 이동 물체(moving object), 이동 보상 불가능 물체(special object) 및 드러난 배경(uncovered object) 등으로 분할한 예를 나타낸다.FIG. 1 shows an example of dividing a head and shoulder image into a background, a moving object, a moving compensable object, an uncovered object, and the like.

이와 같이 본 발명에서는 움직임 영역의 모양 정보를 부호화 하는 방법으로써 움직임 물체에 대한 모양 정보를 대폭적으로 감축시킬 수 있도록 한다.As described above, according to the present invention, the shape information of the moving object can be significantly reduced as a method of encoding shape information of the moving area.

여기서, 움직임 영역의 모양 정보는 영역/비영역을 나타내는 이진 영상(binary image)이나 그 경계의 윤곽선(contour)으로 나타낼 수 있다. 연속된 영상에서 동일 물체에 의한 움직임 영역의 모양 정보들 간에는 중복성(redundancy)이 크다.Here, the shape information of the motion region may be represented by a binary image representing an area / non-region or a contour of a boundary thereof. Redundancy is large between shape information of a motion region by the same object in successive images.

이와 같은 성질을 이용하여 윤곽선을 이동 보상 예측하고 예측 오차를 전송하여 모양 정보 전송량을 감축하는 기법을 윤곽선 예측 부호화 기법(predective contour coding)이라 한다.The technique of moving compensation predicting a contour using such a property and transmitting a prediction error to reduce a shape information transmission amount is called a predective contour coding technique.

본 발명을 위한 윤곽선 예측 부호화 기법은 예측 오차를 전송하기 위하여 전송 예측 오차를 선택하는 임계 수행(thresholding operation)과 윤곽선 근사화(contour approximation)를 수행한다.The contour prediction coding scheme for the present invention performs a thresholding operation and contour approximation to select a transmission prediction error in order to transmit the prediction error.

이 방식은 기존의 윤곽선 예측 부호화에 비해 주관적 화질의 저하 없이 큰 전송률 감축과 부호화 파라미터의 제어가 용이하다는 장점을 갖는다.This method has the advantage that it is easy to control the large data rate and control the coding parameters without degrading the subjective picture quality compared to the conventional contour prediction coding.

본 발명을 위한 윤곽선 예측 부호화 방식을 첨부 도면을 참조로 하여 설명하면 다음과 같다.The outline prediction coding scheme for the present invention will be described with reference to the accompanying drawings.

물체별 동영상 부호화에서, 모양 정보는 움직임 정보와 함께 이 동영상 예측을 위해 가장 높은 우선 순위(priority)로 전송이 되어야 한다.In object-specific video coding, shape information along with motion information should be transmitted at the highest priority for this video prediction.

이러한 모양 정보의 전송은 물체의 경계를 중심으로 서로 인접한 화소에 서로 다른 움직임 정보를 주며, 이로 인하여 블록별 부호화에서 나타나는 반점 현상, 경계 왜곡 등으로 인한 주관적 화질의 저하를 피할 수 있다.The transmission of the shape information gives different motion information to pixels adjacent to each other around the boundary of the object, thereby avoiding a deterioration in the subjective quality due to spots, boundary distortions, etc. that appear in block-by-block coding.

그러므로 모양 정보의 전송을 저전송률 부호화에서 물체별 부호화가 블록별 부호화에 대해 더 우수한 주관적 화질을 보여주는 단서가 된다.Therefore, in low-rate coding, object-to-object coding becomes a clue that the shape information transmission has better subjective quality than block-by-block coding.

영역의 경계를 표현하기 위한 방법은 컴퓨터 그래픽스(computer graphics), 문자 인식(character recognition), 물체 합성(object synthesis) 등에서 많은 기법들이 연구 사용되고 있다.As a method for representing the boundary of an area, many techniques have been studied in computer graphics, character recognition, object synthesis, and the like.

예를 들면, 체인 디퍼런스 코딩(chain difference coding), 에스(s), 곡선, 폴리건(polygon) 근사, 스플린(spline) 근사, 퓨리어 기법(Fourier Descriptor)등이 있다.Examples include chain difference coding, s, curves, polygon approximation, spline approximation, Fourier Descriptor, and the like.

그러나, 이러한 방식들은 전송을 고려하지 않은 기법들이기 때문에 매프레임에서 움직임 영역의 윤곽선을 전송해야 하는 경우에는 높은 전송률로 인해 사용하기가 어렵다.However, since these methods do not consider transmission, they are difficult to use due to the high data rate when the contour of the motion region must be transmitted in every frame.

연속되는 프레임 상에서 동일한 물체에 의해 생성되는 움직임 영역의 모양 정보간에는 형태와 위치에서 많은 유사성이 있다. 그러므로 과거의 모양 정보로부터 현재의 모양 정보의 예측이 가능하다.There are many similarities in shape and position between the shape information of the motion region generated by the same object on successive frames. Therefore, the present shape information can be predicted from the past shape information.

더 나아가서, 이동 물체의 움직임 정보를 추정하고, 이 정보를 이용하여 모양 정보를 이동 보상 예측할 수 있다. 움직임 영역 추출과 움직임 정보 추정이 이상적으로 정확한 경우 모양 정보의 전송은 불필요하다.Furthermore, the motion information of the moving object can be estimated, and the shape information can be used to predict the motion compensation using this information. If the motion region extraction and the motion information estimation are ideally accurate, the transmission of the shape information is unnecessary.

그러나 전송률이 낮아질수록 모양 정보가 차지하는 비중이 커지기 때문에, 모양 정보 전송이 불필요한 블록별 부호화 방식에 비하여 부호화 이득(coding gain)을 얻기 위해서도 대폭적인 모양 정보의 감축이 필요하다.However, as the data rate decreases, the shape information occupies a larger portion. Therefore, a significant reduction in shape information is required to obtain a coding gain as compared with the block-by-block coding method in which shape information transmission is not required.

이를 위해서 본 발명에서는 전송 예측 오차를 선택하는 임계 수행(thresholding operation)과 윤곽선 근사화를 사용한다.To this end, the present invention uses a thresholding operation and contour approximation to select the transmission prediction error.

이때 현재 모양 정보의 이동 보상 예측시에는 고립된 예측 오차 영역(prediction error region)들이 발생하게 된다.In this case, isolated prediction error regions are generated when the motion compensation prediction of the current shape information is performed.

여기서, 제2도는 이전 프레임(N-1th 프레임)과 현재 프레임(Nth 프레임)의 모양 정보를 나타내고, 제3도는 이전 프레임(N-1th 프레임)의 모양 정보를 움직임 정보에 따라서 이동하여 현재 프레임을 이동 보상 예측했을 때, 9개의 고립된 예측 오차 영역이 나타남을 보여준다.Here, FIG. 2 shows shape information of a previous frame (N-1th frame) and a current frame (Nth frame), and FIG. 3 shows shape information of a previous frame (N-1th frame) according to motion information. When moving compensation predicts, 9 isolated prediction error areas are shown.

9개의 예측 오차 영역 각각에 대해서 현재 프레임의 모양 정보에 해당되는 부분을 부호화하여 전송하게 된다. 예측 오차 그 자체의 전송은 인간의 시각에 영향을 미치지 않는 정보를 포함할 수 있다.For each of the nine prediction error areas, a portion corresponding to shape information of the current frame is encoded and transmitted. Transmission of the prediction error itself may include information that does not affect human vision.

주관적 화질에 영향을 미치는 중요한 정보는 전송을 하고, 그렇지 않은 정보의 전송을 억제하여야 지전송률 부호화가 가능해지므로, 주관적 화질에 영향을 미치지 않는 정보는 임계 수행을 통해 제거하여 전송되지 못하도록 하며, 이때 임계 수행은 오차가 발생하는 영역의 특성을 이용한다.Important information affecting subjective picture quality should be transmitted, and transmission rate coding can be performed only when transmission of other information is suppressed. Therefore, information that does not affect subjective picture quality cannot be removed and transmitted by performing a critical operation. Performance uses the characteristics of the region where the error occurs.

전송하기로 결정된 예측 오차 영역의 전송을 위해 그 윤곽선을 전송하는데 정확한 전송보다 근사화 방식을 이용함으로써 모양 정보의 감축을 꾀한다.In order to transmit the contour for transmission of the prediction error region determined to be transmitted, shape information is reduced by using an approximation method rather than an accurate transmission.

윤곽선 근사화 방식으로는 폴리건/스플린 근사화 방식과, 예측 윤곽선을 이용한 근사화 방식을 사용한다.As the contour approximation method, a polygon / splin approximation method and an approximation method using predictive contours are used.

상기와 같이 모양 정보 감축을 위한 이동 보상 윤곽선 예측 부호화 방식의 구성은 제4도와 같이 구성된다.As described above, the configuration of the motion compensation contour prediction encoding method for shape information reduction is configured as shown in FIG.

즉, 이전 프레임의 모양 정보와 현재 프레임의 모양 정보를 이동 보상 예측하는 이동 보상 예측 수단(16)과, 상기 이동 보상 예측 수단(16)의 출력과 움직임 영역과의 차분을 구하는 뺄셈 수단(11)과, 상기 뺄셈 수단(11)을 통하여 고립된 예측 오차 영역들을 구하면서, 고립된 예측 오차 영역들에 대해서 임계수행을 함으로써 인간의 시각에 영향을 미치는 중요한 정보는 전송을 하고 그렇지 않은 정보의 전송은 억제하는 임계 수행 수단(12)과, 전송하기로 결정된 예측 오차 영역의 전송을 위해 그 윤곽선을 전송하는데 정확한 전송보다 근사화 방식을 사용함으로써 모양 정보 감축을 꾀하는 윤곽선 예측 수단(13)과, 상기 임계 수행수단(12)과 윤곽선 예측 수단(13)을 통해 부호화된 윤곽선을 고립된 예측 오차 영역으로 재구성하는 윤곽선 재구성 수단(14) 및 상기 윤곽선 재구성 수단(14)에 의한 고립된 예측 오차 영역과 상기 이동 보상 예측 수단(16)의 출력을 더하여 현재 프레임의 모양 정보를 구성하여 상기 이동 보상 예측 수단(16)으로 입력하는 덧셈 수단(15)으로 이루어진다.That is, motion compensation prediction means 16 for motion compensation prediction of shape information of the previous frame and shape information of the current frame, and subtraction means 11 for obtaining a difference between the output of the motion compensation prediction means 16 and the motion region. By calculating the isolated prediction error areas through the subtraction means 11, critical information affecting the human vision is transmitted by performing a critical operation on the isolated prediction error areas. Threshold performing means 12 for suppressing, contour prediction means 13 for reducing shape information by using an approximation method rather than an accurate transmission for transmitting the contour for transmission of the prediction error region determined to be transmitted, and performing the threshold Contour reconstruction means 14 for reconstructing the contour encoded by means 12 and contour prediction means 13 into an isolated prediction error region and Adder means 15 for forming the shape information of the current frame by adding the isolated prediction error region by the contour reconstruction means 14 and the output of the motion compensation prediction means 16 to input to the motion compensation prediction means 16. Is done.

오차 영역의 전송을 위해 윤곽선을 전송하는데 이용되는 윤곽선 근사화 방식은 다음과 같다.The contour approximation method used to transmit the contour for the transmission of the error region is as follows.

우선, 전송이 결정된 오차 영역은 전송을 위해 윤곽선 부호화를 수행한다.First, the error region in which transmission is determined performs contour coding for transmission.

오차 영역의 윤곽선은 이동 보상 예측 모양 정보의 윤곽선(예측 윤곽선 : prediction contour)을 포함한다. 상기 예측 윤곽선을 제거한 윤곽선(전송 윤곽선 : transmission contour)만을 부호화 하여 전송을 한다.The contour of the error region includes a contour (prediction contour) of the motion compensation prediction shape information. Only the contour (transmission contour: transmission contour) from which the prediction contour is removed is encoded and transmitted.

머리와 어깨(head and shoulder) 영상에서는 좁은 폭의 띠 형태를 갖는 오차 영역이 많이 나타나며, 그 영역의 전송 윤곽선 부호화에 오차가 없는 체인 디퍼런스 코딩(chain difference coding)을 사용하면 그 전송 데이터량이 상당해진다.In the head and shoulder image, there are many error regions with narrow bands, and the amount of transmission data is considerable when using chain difference coding without error in the transmission contour coding of the region. Become.

그러므로 근사화 표현을 이용한 윤곽선 부호화 방식이 요구되며, 이때 윤곽선의 국부적인 위치 오차가 발생하나 인간의 시각적 특성이 물체 전체의 기하학적 형태에 민감하므로 이러한 작은 위치 오차에 의해 눈에 거슬리는 화질의 저하를 초래하지는 않는다.Therefore, the contour coding method using the approximation expression is required, but the local position error of the contour occurs, but since the human visual characteristics are sensitive to the geometric shape of the whole object, this small position error does not lead to degrading image quality. Do not.

상기와 같은 윤곽선 근사화를 위해 이용되는 폴리건/스플린 근사화 과정은 제5도와 같다.The polygon / splin approximation process used for such contour approximation is shown in FIG.

전송이 결정된 오차 영역의 전송 윤곽선(20)은 제5도의 (a)와 같이, 우선 폴리건(30)으로 근사화 한다. 이때, 폴리건(30)의 정점(vertex)의 개수는 실제 전송 윤곽선(20)과 근사 폴리건(30) 사이의 근사화 정도에 의존한다.The transmission contour 20 of the error region in which the transmission is determined is first approximated by the polygon 30 as shown in FIG. 5 (a). At this time, the number of vertices of the polygon 30 depends on the degree of approximation between the actual transmission contour 20 and the approximate polygon 30.

이 근사화 정도는 실제 전송 윤곽선(20)과 근사 폴리건(30) 사이의 최대 차이를 사용하여 나타내는데, 여기서 최대 차이가 클 때에는 거친 근사화가 되지만 정점의 개수는 줄어들며, 최대 차이가 작을 때에는 정밀한 근사화가 되지만 정점의 개수는 늘어난다.This approximation is represented using the maximum difference between the actual transmission contour 20 and the approximate polygon 30, where a rough approximation is obtained when the maximum difference is large, but the number of vertices is reduced, and a fine approximation when the maximum difference is small. The number of vertices increases.

그리고, 제5도의 (b)와 같이, 얻어진 근사 정점들을 지나는 스플린(40)을 구하고, 스플린(40)상의 각 화소에서 전송 윤곽선(20)과의 거리를 검사해서 그 거리가 임계값(dMAX) 이상이면 제5도의 (c)와 같이, 그 화소가 포함된 근사구간을 스플린(40) 대신 폴리건(20)으로 근사화 한다.Then, as shown in (b) of FIG. 5, the splins 40 passing through the obtained approximate vertices are obtained, and the distances to the transmission contours 20 are examined at each pixel on the splins 40, and the distance is determined by the threshold value ( dMAX) or more, the approximate section including the pixel is approximated by the polygon 20 instead of the spline 40 as shown in FIG.

그리고, 정점의 위치와 정점 사이의 구간들이 폴리건 근사인지, 스플린 근사인지를 나타내는 인덱스(index)를 수신단에 전송하여 폴리건/스플린을 재현하게 한다. 폴리건 근사화에 비해 폴리건과 스플린이 결합된 이러한 윤곽선 근사화하는 적은 수의 정점으로 시각에 자연스러운 윤곽선 형태를 보여준다.In addition, an index indicating whether the positions of the vertices and the intervals between the vertices are a polygon approximation or a splin approximation is transmitted to the receiver to reproduce the polygon / splin. Compared to polygon approximation, this contour approximation, combined with polygons and splins, shows a visually natural contour shape with fewer vertices.

기존의 윤곽선 예측 부호화 방식은 전체 윤곽선을 폴리건/스플린으로 먼저 근사화하고, 근사 정점을 가지고 윤곽선을 이동 보상 예측하는 방식이다. 이에 비해 본 발명을 위한 폴리건/스플린 근사화는 전체 윤곽선을 수개의 전송 윤곽선으로 나누고 이를 근사화 시키는 방식이다.The conventional contour prediction coding method is a method of first approximating an entire contour to a polygon / sprinkle, and then performing a motion compensation prediction of the contour with an approximate vertex. In contrast, polygon / sprinkle approximation for the present invention divides the entire contour into several transmission contours and approximates it.

그리고, 작은 오차 영역의 제거를 통해 전송량의 감축을 근사화하면서 수개의 작은 전송 윤곽선을 각각 근사화함으로써 수행의 간단함을 가져온다. 또한 각 전송윤곽선마다 다르게 줄 수 있는 임계값(dMAX)과 작은 오차 영역을 위해 사용되는 임계값(tsm)을 사용하여 모양 정보 전송량의 제어가 쉽게 가능해진다.In addition, the removal of the small error region approximates the reduction of the transmission amount, and the simplicity of execution is achieved by approximating several small transmission contours, respectively. In addition, the shape information transmission amount can be easily controlled by using a threshold value dMAX that can be given differently for each transmission outline and a threshold value tsm used for a small error area.

윤곽선 근사화를 위한 또 다른 방식인 예측 윤곽선을 이용한 근사화 방식은 제6도와 같이 이용된다.An approximation method using predictive contour, which is another method for contour approximation, is used as shown in FIG.

즉, 움직임 영역 추출은 비교적 잘되었지만 움직임 정보 추정의 문제로 발생하는 오차 영역에서는 예측 윤곽선과 전송 윤곽선은 비슷한 형태를 갖게 된다.That is, although the motion region extraction is relatively good, the prediction contour and the transmission contour have a similar form in the error region generated due to the problem of motion information estimation.

이러한 경우 예측 윤곽선을 이용하여 전송 윤곽선을 근사화할 수 있으며, 이 방법은 스플린 근사화가 필요 없게 되어 수행이 간단해짐과 동시에 정보량 감축을 꾀할 수 있다.In this case, it is possible to approximate the transmission contour by using the predictive contour, and this method eliminates the need for spline approximation, thereby simplifying performance and reducing the amount of information.

제6도는 예측 윤곽선을 이용한 근사화 과정을 보여주는 것으로, 제6도 (a)에서와 같이 움직임 영역 추출의 문제보다 움직임 정보 추정의 문제로 발생하는 오차 영역(a, b)의 전송 윤곽선을 근사화하기 위해 먼저, 제6도의 (b)와 같이 예측 윤곽선에 대한 오차 크기를 구하고, 제6도의 (c)와 같이 근사화 한 다음, 근사 오차를 예측 윤곽선에 대해서 프레임 상에 그리는 방법을 사용한다.FIG. 6 shows an approximation process using the predictive contour. In order to approximate the transmission contour of the error regions (a, b) generated as a problem of motion information estimation rather than the problem of motion region extraction as shown in FIG. First, as shown in (b) of FIG. 6, an error magnitude with respect to the prediction contour is obtained, approximated as shown in (c) of FIG. 6, and then an approximation error is drawn on the frame with respect to the prediction contour.

이러한 기법은 재현 윤곽선이 예측 윤곽선에 의존하여 생성되므로 시각적으로 자연스러운 형태를 나타내기 위한 스플린 근사를 할 필요가 없다.This technique eliminates the need for a spline approximation to produce a visually natural shape since the reproduction contour is generated in dependence on the prediction contour.

오차 크기를 근사화하는 기법으로는 폴리건 근사를 고려할 수 있는데, 윤곽선을 이용한 근사화에서는 오차 크기가 낮은 곡률을 가지게 되므로 프레임상에서의 정점의 개수보다 적은 정점으로 근사가 가능하다.Polygon approximation can be considered as a technique for approximating the error magnitude. In the contour approximation, since the error magnitude has a low curvature, the vertex can be approximated with fewer vertices on the frame.

그러나 폴리건 근사 부호화는 프레임상의 전송 윤곽선처럼 높은 곡률을 가졌을 경우에 효율적으로, 예측 윤곽선을 이용한 근사화 방법에서는 폴리건 근사를 하지 않고 최대 오차가 발생하는 위치와 전송 윤곽선의 양 끝점을 근사 정점으로 하여 근사화 한다.However, polygon approximation coding is efficient when the frame has a high curvature like the transmission contour on the frame. In the approximation method using the prediction contour, the polygon approximation is approximated using the peaks and the position where the maximum error occurs and the both ends of the transmission contour are approximated vertices. .

높은 곡률의 전송 윤곽선을 프레임상에서 폴리건/스플린 근사할 시에는 수개의 정점이 필요하나, 윤곽선을 이용한 근사화 기법에서는 3개의 정점만이 전송이 요구되므로 전송 정점의 수가 줄어든다.Polygon / Splin approximation of high curvature transmission contours on the frame requires several vertices, but the contour approximation technique requires only three vertices to reduce the number of transmission vertices.

수신단에서는 제6도의 (C)와 같이 양끝 점과 최대 오차 위치를 연결하는 두 직선으로 오차를 근사화 한 후, 근사 오차를 프레임 상에 그린다.At the receiving end, as shown in (C) of FIG. 6, the error is approximated by two straight lines connecting both end points and the maximum error position, and then the approximate error is drawn on the frame.

한 프레임내에서 발생하는 오차 영역들을 모두 고려하는 경우 영역의 추출이 잘 되었지만 오차 영역이 발생한 경우와 영역의 추출이 잘되지도 않고 오차영역이 발생한 경우들로 나눌 수 있다.Considering all the error areas occurring within a frame, the extraction of the area is good, but it can be divided into the case where the error area is generated and the error area is not well extracted.

오차영역이지만 영역의 추출이 잘된 경우는 전송 윤곽선과 예측윤곽선사이의 유사성이 높다.In case of error domain but good extraction of domain, the similarity between transmission contour and prediction contour is high.

따라서, 이경우는 전송윤곽선을 근사화시에 예측윤곽선을 이용할 수 있다.Therefore, in this case, the prediction contour can be used when approximating the transmission contour.

오차영역이면서 영역의 추출이 잘되지 않은 경우는 전송윤곽선과 예측 윤곽선사이의 유사성이 크지않고 이 경우 전송윤곽선을 근사화시에 예측윤곽선을 이용하기 어렵다.If the error region and the region are not well extracted, the similarity between the transmission contour and the prediction contour is not large, and in this case, it is difficult to use the prediction contour when approximating the transmission contour.

이러한 특성을 반영하여 위의 두가지 영역 각각에 대하여 근사화방법을 적용하는 방법은, 이전 프레임의 모양정보 윤곽선과 그 윤곽선에 연속되는 화상의 움직임 정보를 이용하여 이동 보상한 예측 윤곽선과, 현재 프레임의 모양정보 윤곽선인 전송 윤곽선을 이용하여 물체별 동영상 부호화에서 모양정보를 감축하는 방법에 있어서, 상기 예측 윤곽선과 전송 윤곽선의 길이에 해당되는 화소의 개수를 검출하는 제1과정과, 상기 검출된 윤곽선들 개개의 화소수를 이용하여 전체 물체영역에 대해 그 추출의 완성도를 판단하는 제2과정과, 상기 물체추출의 완성도가 떨어진 영역의 경우 폴리건/스플린 근사화방식을 이용하여 해당 영역의 전송 윤곽선을 부호화하는 제3과정과, 상기 물체추출의 완성도가 우수한 영역의 경우 예측 윤곽선을 이용한 근사화 방식을 이용하여 해당 영역의 전송 윤곽선을 부호화하는 제4과정으로 이루어진다.Reflecting these characteristics, the method of applying an approximation method to each of the above two regions includes a prediction contour that is compensated by movement compensation using the shape information contour of the previous frame and the motion information of the image continuous to the contour, and the shape of the current frame. A method of reducing shape information in video encoding for each object by using a transmission outline that is an information outline, the method comprising: detecting a number of pixels corresponding to a length of the prediction outline and a transmission outline, and each of the detected outlines A second process of determining the completeness of the extraction of the entire object region by using the number of pixels, and encoding a transmission contour of the corresponding region by using the polygon / splin approximation method in the case of the completeness of the object extraction. Approximation method using predictive contours in the third process and in the region of excellent object extraction A fourth process is performed to encode a transmission contour of a corresponding region by using an equation.

또한, 상기 제4과정은, 상기 해당영역의 예측 윤곽선과 전송 윤곽선 사이의 최대 오차값을 추출하는 과정과, 상기 추출된 최대 오차값이 상기 폴리건/스플린 근사화 방식에서 사용한 임계값과 비교하여 더 큰지를 판단하는 과정과, 상기 비교결과 최대오차값이 임계값 보다 클시 그 최대오차가 발생한 전송윤곽선의 지점과 그 전송 윤곽선의 양끝점을 근사 정점으로하여 근사화하고 3개의 정점만을 부호화하여 전송하는 과정과, 상기 비교결과 최대오차값이 임계값 보다 작을시 해당 영역을 전송하지 않도록 하는 과정으로 이루어진다.The fourth process may further include extracting a maximum error value between the prediction contour and the transmission contour of the corresponding region, and comparing the extracted maximum error value with a threshold value used in the polygon / splin approximation method. A process of determining whether the maximum error value is larger than a threshold value and approximating the point of the transmission contour where the maximum error occurred and both end points of the transmission contour as approximate vertices and encoding and transmitting only three vertices. And when the maximum error value is less than the threshold, the corresponding area is not transmitted.

상기와 같은 과정을 제7도를 이용하여 더욱 상세히 설명하면 다음과 같다.The above process will be described in more detail with reference to FIG. 7 as follows.

먼저, 전송 오차 영역에서 예측 윤곽선과 전송 윤곽선을 찾고, 그 길이, 즉 화소수를 구한다(단계 S1). 얻어진 두 윤곽선의 화소수를 이용하여 물체 추출이 잘된 영역인가를 판단한다(단계 S2). 이때 판단 기준이 되는 평가 함수(D)는 다음과 같다.First, the prediction contour and the transmission contour are found in the transmission error area, and their length, that is, the number of pixels, is obtained (step S1). It is judged whether or not the object extraction is a region using the obtained number of pixels of the two outlines (step S2). At this time, the evaluation function D as a criterion is as follows.

물체 추출이 잘되지 않은 영역에서는 두 화소수의 차이가 크며, 이에 따라 평가 함수(D)는 커진다. 임계치(Dth)가 주어진 경우, 전송이 결정된 오차 영역의 평가 함수(D)가 임계치(Dth) 보다 크면 물체 추출에 문제가 있다고 판단하여 예측 윤곽선을 고려하지 않는 폴리건/스플린 근사화 방식을 이용하여 전송 윤곽선을 부호화 한다(단계 S3).In the region where object extraction is not good, the difference between the two pixels is large, and thus the evaluation function D becomes large. Given the threshold value Dth, if the evaluation function D of the error region in which the transmission is determined is larger than the threshold value Dth, it is determined that there is a problem in object extraction and transmitted using a polygon / sprinkle approximation method that does not consider the prediction contour. The outline is encoded (step S3).

오차 영역의 평가 함수(D)가 임계치(Dth)보다 작으면 예측 윤곽선을 이용한 부호화 방식을 사용하는데, 그 과정은 다음과 같다.If the evaluation function D of the error region is smaller than the threshold Dth, an encoding method using a prediction contour is used. The process is as follows.

먼저 최대 오차값(MAX ERROR)을 추출하고(단계 S4), 추출된 최대 오차값이 폴리건/스플린 근사화에서 사용된 임계값(dMAX) 보다 큰지를 판단한다(단계 S5).First, the maximum error value MAX ERROR is extracted (step S4), and it is determined whether the extracted maximum error value is larger than the threshold value dMAX used in the polygon / sprinkler approximation (step S5).

최대 오차값(MAX ERROR)이 임계값(dMAX) 보다 작은 경우의 영역은 전송을 하지 않는다. 이는 전송을 하지 않아도 근사 오차가 보다 작으므로 문제가 없으며, 긴 띠 형태의 오차 영역이 이 경우에 속한다.If the maximum error value (MAX ERROR) is smaller than the threshold value (dMAX), the area is not transmitted. This is not a problem since the approximation error is smaller even without transmission, and the long band error region belongs to this case.

최대 오차값(MAX ERROR)이 임계값(dMAX) 보다 큰 경우에는 최대 오차가 발생하는 위치와 전송 윤곽선의 양 끝점을 근사 정점으로 하여 근사화하고 3개의 정점만을 전송한다(단계 S6).If the maximum error value MAX ERROR is greater than the threshold value dMAX, the position where the maximum error occurs and both end points of the transmission contour are approximated as the peaks, and only three vertices are transmitted (step S6).

또한, 윤곽선을 이용한 근사한 방법은 기존의 방식에 비해 각 전송 윤곽선마다 3개의 정점만으로 근사화함으로써 전송량 감축과 스플린 근사를 하지 않는다는 장점이 있다.In addition, the approximation method using the contour has the advantage of reducing the transmission amount and the spline approximation by approximating only three vertices for each transmission contour compared to the conventional method.

이상에서 살펴본 바와 같이 본 발명에 따르면, 영상 전화기, 영상 회의, 비디오 부호화 및 컴퓨터 비젼과 같이 움직임 물체의 모양 정보가 필요한 시스템에서 움직임 물체에 대한 모양 정보를 감축하여 전송 데이터가 대폭적으로 감축됨으로써 화질의 향상을 얻을 수 있게 된다.As described above, according to the present invention, in a system requiring shape information of a moving object, such as a video telephone, video conferencing, video encoding, and computer vision, the shape data of the moving object is reduced to significantly reduce transmission data. You will get an improvement.

Claims (3)

이전 프레임의 모양정보 윤곽선과 그 윤각선에 연속되는 화상의 움직임 정보를 이용하여 이동 보상한 예측 윤곽선과, 현재 프레임의 모양정보 윤곽선인 전송 윤곽선을 이용하여 물체별 동영상 부호화에서 모양정보를 감축하는 방법에 있어서, 상기 예측 윤곽선과 전송 윤곽선의 길이에 해당되는 화소의 개수를 검출하는 제1과정과, 상기 검출된 윤곽선들 개개의 화소수를 이용하여 전체 물체영역에 대해 그 추출의 완성도를 판단하는 제2과정과, 상기 물체추출의 완성도가 떨어진 영역의 경우 폴리건/스플린 근사화방식을 이용하여 해당 영역의 전송 윤곽선을 부호화하는 제3과정과, 상기 물체추출의 완성도가 우수한 영역의 경우 예측 윤곽선을 이용한 근사화 방식을 이용하여 해당 영역의 전송 윤곽선을 부호화하는 제4과정을 수행함을 특징으로 하는 움직임 추정 방식과 예측 윤곽선을 사용한 모양 정보 감축방법.In the method of reducing shape information in video encoding for each object by using the motion contour of the previous frame shape information and the motion contour of the image consecutive to the circumference line, and the transmission contour which is the shape information contour of the current frame. The method may further include a first process of detecting the number of pixels corresponding to the lengths of the prediction contour and the transmission contour, and a second determination of the completeness of the extraction of the entire object region using the number of pixels of the detected contours. A third process of encoding a transmission contour of the corresponding region using a polygon / sprinkle approximation method in the case of regions in which the object extraction is less than perfect, and an approximation using a predictive contour in the case of the excellent object extraction. Characterized in that a fourth process of encoding a transmission contour of a corresponding region is performed using the method. Reduction of shape information using motion estimation method and predictive contour. 제1항에 있어서, 상기 제4과정은, 상기 해당영역의 예측 윤곽선과 전송 윤곽선 사이의 최대 오차값을 추출하는 과정과, 상기 추출된 최대 오차값이 상기 폴리건/스플린 근사화 방식에서 사용한 임계값과 비교하여 더 큰지를 판단하는 과정과, 상기 비교결과 최대오차값이 임계값 보다 클시 그 최대오차가 발생한 전송윤곽선의 지점과 그 전송 윤곽선의 양끝점을 근사 정점으로하여 근사화하고 3개의 정점만을 부호화하여 전송하는 과정과, 상기 비교결과 최대오차값이 임계값 보다 작을시 해당 영역을 전송하지 않도록 하는 과정을 수행함을 특징으로 하는 움직임 추정 방식과 예측 윤곽선을 사용한 모양 정보 감축 방법.The method of claim 1, wherein the fourth process comprises: extracting a maximum error value between the prediction contour and the transmission contour of the corresponding region, and using the extracted maximum error value in the polygon / sprinkle approximation method. Determining whether the value is larger than the maximum value, and when the maximum error value is larger than the threshold value, approximates the point of the transmission contour where the maximum error occurs and both endpoints of the transmission contour as approximate vertices and encodes only three vertices. And a process of transmitting a region and a process of not transmitting a corresponding region when the maximum error value is smaller than a threshold as a result of the comparison. 제1항에 있어서, 상기 제3과정에서 물체추출의 완성도는 하기에 제시된 수학식에 의해 구해지는 평가함수(D)에 의해 결정되며, 물체추출의 완성도가 떨어질 시 두 화소수의 차이가 커 평가함수(D) 역시 커지고, 물체추출의 완성도가 좋을시 두 화소수의 차이가 작아 평가함수(D) 역시 작아짐을 특징으로 하는 움직임 추정 방식과 예측 윤곽선을 사용한 모양 정보 감축방법.According to claim 1, The completeness of the object extraction in the third process is determined by the evaluation function (D) obtained by the equation given below, when the completion of the object extraction is less than the difference between the number of two pixels The shape information reduction method using the motion estimation method and the predictive contour, characterized in that the function (D) is also large, and the difference between the two pixels is small when the object extraction is good.
KR1019940038899A 1994-12-29 1994-12-29 Method for reducing shape information by using motion estimation and predictive contour KR100188534B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1019940038899A KR100188534B1 (en) 1994-12-29 1994-12-29 Method for reducing shape information by using motion estimation and predictive contour
US08/478,558 US5799109A (en) 1994-12-29 1995-06-07 Object-by shape information compression apparatus and method and coding method between motion picture compensation frames
CN95109651A CN1119027C (en) 1994-12-29 1995-07-28 Object-by shape information compression apparatus and method thereof and coding method between motion picture compensation...
JP33854495A JP3038143B2 (en) 1994-12-29 1995-12-26 Apparatus for reducing shape information for each object of video equipment, method for reducing the same, and polygon approximation method
DE1995149095 DE19549095A1 (en) 1994-12-29 1995-12-29 Method and device for reducing shape information, especially methods with successive polygon approximation
FR9515766A FR2728987B1 (en) 1994-12-29 1995-12-29 METHOD AND DEVICE FOR REDUCING SHAPE INFORMATION AND ITS METHOD OF SEQUENTIAL POLYGONAL APPROXIMATION
GB9526635A GB2296839B (en) 1994-12-29 1995-12-29 Shape information reduction apparatus and method thereof and its sequential polygonal approximation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019940038899A KR100188534B1 (en) 1994-12-29 1994-12-29 Method for reducing shape information by using motion estimation and predictive contour

Publications (2)

Publication Number Publication Date
KR960028486A KR960028486A (en) 1996-07-22
KR100188534B1 true KR100188534B1 (en) 1999-06-01

Family

ID=19405094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019940038899A KR100188534B1 (en) 1994-12-29 1994-12-29 Method for reducing shape information by using motion estimation and predictive contour

Country Status (1)

Country Link
KR (1) KR100188534B1 (en)

Also Published As

Publication number Publication date
KR960028486A (en) 1996-07-22

Similar Documents

Publication Publication Date Title
JP3038143B2 (en) Apparatus for reducing shape information for each object of video equipment, method for reducing the same, and polygon approximation method
US5799109A (en) Object-by shape information compression apparatus and method and coding method between motion picture compensation frames
US5978512A (en) Polygonal approximation method and apparatus for use in a contour encoding system
JP3725250B2 (en) Outline coding method
KR100446235B1 (en) Merging search method of motion vector using multi-candidates
EP0614318B1 (en) Video encoder and decoder
EP0720377B1 (en) Method for detecting motion vectors for use in a segmentation-based coding system
US5805221A (en) Video signal coding system employing segmentation technique
US20070064802A1 (en) Adaptive area of influence filter for moving object boundaries
US5691769A (en) Apparatus for encoding a contour of an object
JPH08275180A (en) Contour encoding device
KR100255748B1 (en) Motiom estimation method and apparatus using weighted block match algorithm
KR19990008977A (en) Contour Coding Method
JP3056120B2 (en) Video signal shape information predictive coding method
EP0871331B1 (en) Method and apparatus for adaptively coding a contour of an object
KR100314098B1 (en) An interpolation method of binary shape data using an adaptive threshold by neighboring pixel values
KR20170027509A (en) Method and apparatus for image frame interpolation using supplemental information
US5896467A (en) Method and apparatus for encoding a contour image of an object in a video signal
KR100188534B1 (en) Method for reducing shape information by using motion estimation and predictive contour
KR0180132B1 (en) Shape information reducing method using motion estimating
KR100196874B1 (en) Apparatus for selectively approximating contour of image
JP2980810B2 (en) Motion vector search method and apparatus
KR100212560B1 (en) Apparatus for determinating coding mode of contour in hybrid contour coding system
Ozcelik et al. Detection and encoding of model failures in very low bit rate video coding
KR100220680B1 (en) The vertex coding apparatus for object contour encoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20091217

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee