KR19980073963A - Vertex Position Adjustment Method for Retention Vertices in Contour Polygon Approximation during Shape Information Coding - Google Patents

Vertex Position Adjustment Method for Retention Vertices in Contour Polygon Approximation during Shape Information Coding Download PDF

Info

Publication number
KR19980073963A
KR19980073963A KR1019970009569A KR19970009569A KR19980073963A KR 19980073963 A KR19980073963 A KR 19980073963A KR 1019970009569 A KR1019970009569 A KR 1019970009569A KR 19970009569 A KR19970009569 A KR 19970009569A KR 19980073963 A KR19980073963 A KR 19980073963A
Authority
KR
South Korea
Prior art keywords
vertex
contour
holding
vertices
error
Prior art date
Application number
KR1019970009569A
Other languages
Korean (ko)
Other versions
KR100596153B1 (en
Inventor
정재원
천승문
문주희
김재균
Original Assignee
김영환
현대전자산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 현대전자산업 주식회사 filed Critical 김영환
Priority to KR1019970009569A priority Critical patent/KR100596153B1/en
Publication of KR19980073963A publication Critical patent/KR19980073963A/en
Application granted granted Critical
Publication of KR100596153B1 publication Critical patent/KR100596153B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 이진 마스크(binary mask)의 윤곽선(contour)의 효율적인 압축부호화를 위하여 시간축상의 예측(temporal prediction)을 수행하는 윤곽선 예측부호화(predictive contour coding)방식에 적용 가능하도록 하며, 유지정점이 결정되면 유지정점을 일정한 탐색창(search window)내에서 움직이면서 주어진 오차측정(error measure)을 최소화하는 점을 새로운 유지정점으로 하는 모양정보부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법에 관한 것으로, 인접한 위치에 제거정점이 있는 유지정점인 경우에는 오차중심정점 탐색방법을 적용하지 않으며, 유지정점의 움직임 정보를 체인 미분 부호화 방법을 사용하여 부호화할 수 있고, 유지정점의 움직임 정보를 일반적인 정점위치 부호화방식을 사용하여 부호화할 수 있는 것이다.The present invention is applicable to a contour predictive coding method that performs temporal prediction for efficient compression encoding of a contour of a binary mask. The present invention relates to a method of adjusting the position of a vertex for a holding vertex in contour polygonal approximation when shape information encoding is made as a new holding vertex while minimizing a given error measure while moving a holding vertex in a constant search window. In the case of the maintenance vertex with the elimination vertex at the adjacent position, the error center vertex search method is not applied, and the motion information of the maintenance vertex can be encoded by using the chain differential coding method, and the motion information of the maintenance vertex is general vertex position. It can be encoded using an encoding method.

Description

모양정보부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정 방법Vertex Position Adjustment Method for Retention Vertices in Contour Polygon Approximation during Shape Information Coding

본 발명은 모양정보 부호화방법에 관한 것으로, 특히 MPEG-4에 있어서, 이진 마스크(binary mask)의 윤관선(contour)의 효율적인 압축부호화를 위하여 시간축상의 예측(temporal prediction)을 수행하는 윤곽선 예측부호화(predictive contour coding)방식에 적용 가능하도록 하며, 유지정점이 결정되면 유지정점을 일정한 탐색창(search window)내에서 움직이면서 주어진 오차측정(error measure)을 최소화하는 점을 새로운 유지정점으로 하는 모양정보부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법에 관한 것이다.The present invention relates to a shape information encoding method. In particular, in MPEG-4, contour prediction coding is performed to perform temporal prediction for efficient compression encoding of a contour of a binary mask. The contour coding method is applicable to the contour coding method, and when the holding point is determined, the moving point is moved within a constant search window to minimize a given error measure. A vertex position adjustment method for a holding vertex in a polygon approximation.

일반적으로 초저속 동영상 신호를 부호화할 경우에 물체 중심 동영상 부호화(Object-based Moving Image Codig) 방법을 많이 사용하고 있다.In general, an object-based moving image coding method is frequently used to encode an ultra low speed video signal.

물체 중심 동영상 부호화 방법은 입력되는 영상신호를 움직이지 않는 배경(background)과, 물체의 움직임으로 인하여 발생된 변화 영역(changed region)으로 분할(segentation)한다.The object-oriented video encoding method divides an input video signal into a background that does not move and a changed region that is generated due to the movement of an object.

변화 영역의 움직임 물체들은 움직임 추정 및 이동 보상이 가능할 경우에 이동 보상 가능 물체(motion compensated object)로 분리하고, 움직임 추정 및 이동보상이 불가능할 경우에는 이동 보상 불가능 물체(motion failed object)로 분리한다.The motion objects of the change area are separated into motion compensated objects when motion estimation and motion compensation are possible, and separated into motion failed objects when motion estimation and motion compensation are impossible.

여기서, 이동 보상 가능 물체는 3차원 공간상의 물체를 2차원적인 물체의 영상으로 변환한 상태에서 수평 이동, 회전 이동 및 선형 이동 등의 일정한 원칙을 가지고 움직이는 물체를 말하는 것이고, 이동 보상 불가능 물체는 상기한 일정한 원칙들의 적용되지 않는 물체를 말하는 것이다.Herein, the movement compensable object refers to an object moving with a certain principle such as horizontal movement, rotation movement, and linear movement in a state in which an object in three-dimensional space is converted into an image of a two-dimensional object. An object that does not apply to certain principles.

소정 물체의 영상을 전송할 경우에 이동 보상 가능 물체는 영상의 움직임 정보만을 전송하고, 이동 보상 불가능 물체 및 드러난 물체의 영상은 가장 효과적인 방법으로 부호화하여 전송해야 되는 것으로서 이동 보상 불가능 물체의 신호 정보 데이터의 양이 전체 전송량의 약 60∼70%정도로 많으므로 이를 효율적으로 줄이는데 많은 노력을 기울이고 있는 실정이다.When the image of a certain object is transmitted, the motion compensable object transmits only motion information of the image, and the image of the motion compensable object and the exposed object should be encoded and transmitted in the most effective way. Since the amount is about 60-70% of the total transmission amount, much effort is being made to reduce it efficiently.

모양 정보 및/또는 형상 정보를 가지는 대상물의 영상은 데이터 양이 매우 많으므로 기록 매체에 저장할 경우에 저장 용량이 매우 커야 되고, 전송할 경우에는 많은 전송 시간이 소요되어 실시간(real time) 전송이 어렵다.Since the image of the object having the shape information and / or the shape information has a large amount of data, the storage capacity should be very large when storing on the recording medium, and when transmitting, it takes a lot of transmission time, making it difficult to transmit in real time.

그러므로 대상물의 영상은 부호화하고, 움직임을 추정하여 정보량을 줄인 후 기록 매체에 저장하며, 실시간으로 전송할 수 있도록 하고 있다.Therefore, the image of the object is encoded, the motion is estimated, the amount of information is reduced, stored in the recording medium, and transmitted in real time.

물체의 신호 정보를 부호화하는 데에는 블록 이산 코사인 변환(Discrete Cosine Transform: 이하, 'DCT'라고 약칭함) 및 벡터 양자화기 등이 사용될 수 있고, 최근에는 모양 적응형 DCT(Shape Adaptive DCT: 이하, 'SADCT'라고 약칭함)가 물체의 모양 정보(shape information)를 이용하는 물체 중심 부호화 방법에서 매우 효과적인 것으로 제안되고 있다.A block discrete cosine transform (hereinafter, abbreviated as 'DCT') and a vector quantizer may be used to encode the signal information of an object, and recently, a shape adaptive DCT (hereinafter, referred to as 'DCT') is used. SADCT 'has been proposed to be very effective in the object center coding method using shape information of an object.

SADCT는 임의의 형태를 가진 소정 물체의 신호 정보를 효율적으로 부호화하는 것을 목적으로 하는 것으로서 영상 프레임을 소정 크기의 블록으로 세분화한 후 블록안에 들어가는 물체의 신호 정보만을 부호화하는 것이다.SADCT aims to efficiently encode signal information of a predetermined object having an arbitrary shape. The SADCT subdivides an image frame into blocks having a predetermined size, and then encodes only signal information of an object entering the block.

즉, SADCT는 블록이 부호화할 정보로 모두 채워지면, 2차원 블록 DCT와 부호화 효율이 동일하게 되고, 모두 채워지지 않을 경우에는 물체의 영역에 해당하는 신호들만 X축으로 DCT를 수행하고, 1차원 DCT를 수행한 결과를 다시 Y축으로 1차원 DCT하여 최종 결과 값을 얻는 것이다.In other words, if the block is filled with all the information to be encoded, the two-dimensional block DCT and the coding efficiency are the same.If not, the SADCT performs DCT on the X axis only for signals corresponding to the region of the object. The final result is obtained by performing one-dimensional DCT on the Y axis again.

그리고 SADCT는 DCT 부호화 이득을 고려할 경우에 물체의 영상이 여러 블록으로 분리되어 부호화되는 것보다 가능하면 블록 내부에 물체의 영상이 많이 채워지는 것이 변환 계수들의 압축(compaction)효율이 높게 된다.When considering the DCT coding gain, the SADCT is more efficient to transform the transform coefficients when the image of the object is filled in the block as much as possible than when the image of the object is separated and encoded.

그러므로 SADCT를 수행할 경우에, 블록의 내부에 부호화할 물체의 영상을 효과적으로 채워 이동 보상 불가능 물체의 영상이 위치하는 블록의 수를 줄인 후 부호화하는 것이 바람직하다.Therefore, when performing SADCT, it is preferable to effectively fill the image of the object to be encoded in the block and to reduce the number of blocks in which the image of the object that cannot be compensated for motion is located before encoding.

최근 세계 표준화 기구인 ISO/IEC 산하의 WG11에서는 MPEG-1,2와는 달리 임의의 모양정보를 갖는 물체를 부호화하는 방식에 대한 표준화 작업, MPEG-4를 수행중이다.Recently, WG11 under ISO / IEC, which is a global standardization organization, is performing standardization work on MPEG-4, a method of encoding an object having arbitrary shape information unlike MPEG-1,2.

이를 위해, 이진 마스크의 모양정보 부호화를 위한 윤곽선 다각 근사화에 대한 연구가 수행 중이다.To this end, research on contour polygon approximation for shape information encoding of binary masks is being conducted.

또한, 압축 성능을 향상시키기 위한 주변 연구도 함께 수행되고 있다.In addition, peripheral research to improve the compression performance is also being performed.

기존의 윤곽선 예측 부호화 방식으로 대표적인 것이 도 1 내지 도 3에 도시된 바와같은 정점 리스트 보정 방법(vertex list update method)이다.A representative example of the conventional contour prediction encoding method is a vertex list update method as shown in FIGS. 1 to 3.

이 방법은 먼저 도 1에 도시된 바와같이 이진 프레임에서의 윤곽선(1)의 근사화에 이용된 정점들을 이용하여 현재 프레임상으로 비-/이동보상예측(non-/motion compensation)을 하고, 도 2에 도시된 바와같이 각 예측된 정점(2) 들로부터 현재 윤곽선(1)과의 거리가 주어진 정확도를 만족하는지를 판단하여 제거할 것인지(deleted vertex)아니면 유지할 것인지(maintained vertex)를 결정한다.This method first performs non- / motion compensation on the current frame using the vertices used to approximate the contour 1 in the binary frame, as shown in FIG. As shown in FIG. 2, it is determined from each predicted vertex 2 whether the distance to the current contour 1 satisfies a given accuracy and determines whether to remove (deleted vertex) or maintain (maintained vertex).

그 다음 도 3에 도시된 바와같이 유지정점(3) 들을 초기 정점들로 사용하여 주어진 정확도가 만족될 때까지 새로운 정점(4)들을 삽입(inserted vertex)한다.Then, as shown in Fig. 3, the retained vertices 3 are used as initial vertices, and new vertices 4 are inserted until the given accuracy is satisfied.

이러한 정점 리스트 보정 방법은 효과적인 윤곽선 정보량 감축이 가능하다는 장점을 가지고 있다.This vertex list correction method has an advantage that it is possible to effectively reduce the amount of contour information.

그러나, 도 4에 도시된 바와같이 예측된 위치에서 유지정점(2)을 그대로 사용하는 경우, 유지정점(2)의 바로 인접한 위치에서 새로운 삽입정점(4)이 발생할 수 있어 점선과 같은 재현 근사 다각선(5)이 발생하게 되는 문제가 있다.However, when the holding vertex 2 is used as it is in the predicted position as shown in FIG. 4, a new insertion vertex 4 may occur at a position immediately adjacent to the holding vertex 2, thus reproducing approximation such as a dotted line. There is a problem that the line 5 is generated.

이 문제점은 정보 압축 측면뿐 아니라 주관적 화질(subjective quality)측면에서 상당히 불리한 단점이 있다.This problem is quite disadvantageous not only in terms of information compression but also in terms of subjective quality.

본 발명은 상기와 같은 종래의 정점 리스트 보정 방법의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점을 조정하는 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정 방법을 제공하는데 있다.The present invention solves the problems of the conventional vertex list correction method as described above, and an object of the present invention is to maintain a vertex in a contour polygon approximation for adjusting a maintenance vertex in a vertex list correction method, which is a kind of contour prediction coding scheme. The present invention provides a method for adjusting the vertex position.

이와같은 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점 조정을 오차중심 정점 탐색 방법으로 수행함으로써 달성될 수 있다.Such an object of the present invention can be achieved by performing the maintenance vertex adjustment by the error-centered vertex search method in the vertex list correction method, which is a kind of the contour prediction coding method.

또한, 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점 조정을 오차중심 정점으로 탐색시 탐색창의 크기를 3×3 또는 5×5로 함으로써 달성될 수 있다.In addition, an object of the present invention can be achieved by setting the size of a search window to 3 × 3 or 5 × 5 when searching for a maintenance vertex as an error-centered vertex in a vertex list correction method, which is a kind of contour prediction coding.

그리고 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점 조정시 인접한 위치에 제거정점이 있는 유지정점인 경우 오차중심 정점 탐색방법을 적용하지 않음으로써 달성될 수 있다.An object of the present invention can be achieved by not applying an error-centered vertex searching method in the case of a vertex list correction method, which is a kind of contour prediction encoding, in the case of a maintenance vertex having an elimination vertex at an adjacent position when the maintenance vertex is adjusted.

또한, 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점의 보정에 대한 정보를 플레그와 움직임정보로 수신단에 전송함으로써 달성된다.In addition, an object of the present invention is achieved by transmitting information on correction of a maintenance vertex to the receiver as flag and motion information in a vertex list correction method, which is a kind of contour prediction coding scheme.

그리고 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점의 움직임정보를 체인 부호화방법을 사용하여 부호화함으로써 달성된다.In addition, an object of the present invention is achieved by encoding motion information of a sustained vertex using a chain encoding method in a vertex list correction method, which is a kind of contour prediction encoding method.

또한, 본 발명의 목적은 윤곽선 예측 부호화 방식의 일종인 정점 리스트 보정 방법에서 유지정점의 움직임정보를 일반적인 정점위치 부호화 방법을 사용하여 부호화함으로써 달성될 수 있다.In addition, an object of the present invention can be achieved by encoding the motion information of a maintenance vertex using a general vertex position encoding method in a vertex list correction method, which is a kind of contour prediction encoding method.

도 1은 종래 정점 리스트 보정 방법에서의 예측정점을 설명하기 위한 도면1 is a view for explaining a prediction vertex in the conventional vertex list correction method

도 2는 종래 정점 리스트 보정 방법에서 제거정점을 설명하기 위한 도면2 is a view for explaining a removal vertex in the conventional vertex list correction method

도 3은 종래 정점 리스트 보정 방법에서 삽입정점을 설명하기 위한 도면3 is a view for explaining the insertion vertex in the conventional vertex list correction method

도 4는 종래 정점 리스트 보정 방법의 전체적인 설명도4 is an overall explanatory diagram of a conventional vertex list correction method.

도 5는 본 발명의 P-VOP 부호화에서 윤곽선 다각 근사화의 정체 구성도5 is a block diagram illustrating the contour polygon approximation in the P-VOP encoding according to the present invention.

도 6은 도 5의 윤곽선 다각 근사화의 동작 흐름도6 is an operational flowchart of the contour polygon approximation of FIG.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

10: 번호 설정부20: 윤곽선 추출부10: number setting unit 20: contour extraction unit

30: 윤곽선 다각 예측 부호화부30: contour polygon prediction encoder

이하, 본 발명 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정 방법의 실시예를 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, an embodiment of the vertex position adjustment method for the holding vertices in the contour polygonal approximation when the shape information encoding of the present invention will be described in detail.

도 5는 일반적인 P-VOP(Predictive VOP) 부호화의 윤곽선 다각 근사화의 전체 구성을 도시한 것으로, 부호화하고자 하는 물체(VOP)에 대해 번호 매기기(Region Labeling)를 수행하는 번호 설정부(10)와, 각각의 영역(동일한 번호를 갖는 화소들로 구성)의 윤곽선을 추출하는 윤곽선 추출부(20)와, 상기 윤곽선 추출부(20)에 의해 추출된 윤곽선을 가지고 윤곽선 다각 예측 부호화를 수행하는 윤곽선 다각 예측 부호화부(30)를 포함하여 구성된다.FIG. 5 is a diagram illustrating the overall configuration of contour polygon approximation of general P-VOP (Predictive VOP) encoding, and includes a number setting unit 10 for performing number labeling on an object VOP to be encoded; Contour polygon prediction which extracts the contour of each region (consisting of the same numbered pixels) and contour contour extracted by the contour extractor 20 to perform contour polygon prediction coding. The encoder 30 is configured.

즉, P-VOP 부호화의 윤곽선 다각 근사화는 부호화하고자 하는 물체 또는 영역에 맨 먼저 번호 매기기(Region Laveling)를 수행하고 다음에 각각의 물체 또는 영역의 윤곽선을 추출한 후 여기에서 추출된 윤곽선을 가지고 윤곽선 다각 근사화를 수행한다.In other words, contour polygon approximation of P-VOP encoding performs region laveling on the object or region to be encoded first, and then extracts the contour of each object or region, and then extracts the contour with the contour extracted from it. Perform approximation

도 6은 도 5의 윤곽선 다각 근사화 블록을 VOP부분과 윤곽선 부분(Contour-unit)으로 구분하여 각각의 신호처리 순서로 나타낸 본 발명의 동작흐름도이다.FIG. 6 is a flowchart illustrating an operation of the present invention in which the contour polygon approximation block of FIG. 5 is divided into a VOP portion and a contour-unit, and each signal processing sequence is shown.

먼저, VOP움직임을 추정하고(S1), VOP 움직임 모드가 4개의 꼭지점을 이용한 모드인가 또는 윤곽선 정합 이동에 따른 모드인가 또는 no MC 모드인가를 결정한 후 VOP움직임을 보정한다(S2).First, the VOP motion is estimated (S1), and the VOP motion mode is determined by using four vertices, a mode according to contour matching movement, or a no MC mode, and then the VOP motion is corrected (S2).

그리고 VOP를 부호화할 것인가 또는 부호화하지 않을 것인가를 판단(S3)하여 VOP가 똑같은 것이 있을 경우에는 전혀 부호화를 하지 않고 바로 끝내고, 부호화할 경우에는 유사한 윤곽선을 찾고 윤곽선 움직임을 추정한다(S4,S5).Then, it is determined whether or not to encode the VOP (S3). If there is the same VOP, the operation is immediately finished without encoding at all, and when encoding, similar contours are found and the motion of the contours is estimated (S4, S5). .

여기서, VOP자체가 변하지 않는 곳에서는 모든 윤곽선이 똑같이 안변한다. 즉, VOP전체의 변화가 일정레벨 이하이어서 이전것을 그대로 사용하는 낫 부호화상태이면 윤곽선마다 부호화(Coded)/낫 부호화(Not Coded)를 할 필요가 없어진다.Here, all contours are equally unchanged where the VOP itself does not change. That is, if the change of the entire VOP is less than or equal to a certain level and the sickle coding state is used as it is, the coded / not coded need not be performed for each outline.

윤곽선 변화가 아니라 VOP 변화가 일정하거나 또는 없는 곳에서는 VOP 정보를 가지고 모든 윤곽선 정보를 콘트롤 할 수 있다.Where the VOP change is constant or not, rather than the contour change, all the contour information can be controlled with the VOP information.

다시말해서 VOP 전체에서 신호를 주면 윤곽선 각각에 신호를 보낼 필요가 없어진다.In other words, giving a signal across the VOP eliminates the need to signal each contour.

한편, 상기 S5단계에서 윤곽선 움직임을 추정한 후 인트라(Intra) 모드인가 인터(Inter) 모드인가를 판단(S6)하여 너무 불량하여 잘 맞지 않는 경우에는 인트라 모드로 하는데 이와같은 인트라 모드일 경우에는 정점을 선택 및 인코딩하여 멀티플렉서로 출력시킴(S7)과 아울러 상기 정점을 선택한 상태에서 예측 검출을 수행하고 오차를 인코딩하여 멀티플렉서로 출력시킨다(S8).On the other hand, after estimating the contour motion in step S5 (S6) to determine whether the intra mode or Inter mode (S6) is too poor to fit the intra mode if it does not fit well in this case the intra mode vertex Select and encode the output to the multiplexer (S7), perform prediction detection in the state where the vertex is selected, and encode the error to output the multiplexer (S8).

여기서, S7이외에 S8 단계를 더 수행하는 것은 정점을 선택한 것이 에러인 경우 이러한 에러를 수신단으로 전송하기 위한 것이다.In this case, the step S8 is performed to transmit the error to the receiver when the vertex is selected as an error.

한편, 상기 S6단계에서 인트라 모드가 아닌 경우에는 인터모드이므로 이때에는 움직임 보상(MC)모드가 아닌가(no MC)를 판단(S9)하여 움직임 보상모드이면 움직임 보상모드를 수행(S10)하고 움직임 보상 모드가 아니면 VOP완료인가를 판단하는 단계로 간다.On the other hand, if it is not the intra mode in step S6, since it is an inter mode, it is determined in this case whether it is a motion compensation (MC) mode (no MC) (S9). If not, go to the step of determining whether the VOP is complete.

그리고 움직임 보정 모드를 수행한 상태에서 다시 부호화를 할 것인가 또는 하지 않은 것인가를 판단(S11)하여 부호화를 하지 않을 경우에는 VOP 완료인가를 판단하는 단계로 가고, 부호화를 할 경우에는 정점 재배열을 한 후(S12), 유지정점을 조정하고, 정점을 삽입한다(S13,S14)In the state of performing the motion compensation mode, it is determined whether to perform encoding again or not (S11). If the encoding is not performed, it is determined whether the VOP is completed. If the encoding is performed, vertex rearrangement is performed. After (S12), the holding vertex is adjusted and the vertex is inserted (S13, S14).

다음에 VOP가 끝났는가를 판단(S15)하여 종료가 아니면 상기 S4 단계로 가서 다시 윤곽선을 찾는 과정을 수행하고 종료이면 바로 VOP를 종료한다.Next, it is determined whether the VOP is over (S15). If not, the process goes to the step S4 and finds the contour again.

상기 도 6의 S13단계에서 유지정점이 결정되면, 유지정점을 일정한 탐색창(search window)내에서 움직이면 주어진 오차측정(error measure)을 최소화하는 점을 새로운 유지정점으로 하는 오차중심 정점 탐색 방법을 수행한다.When the maintenance peak is determined in step S13 of FIG. 6, when the maintenance peak is moved within a predetermined search window, an error-centered vertex search method is performed by minimizing a given error measure. do.

이 개념은 블록단위의 이동정보 추정시 탐색범위(search range) 내에서 평균 절대오차(mean absolute error)가 최소화되도록 이동벡터(motion vector)를 찾는 방식의 개념과 비슷한다.This concept is similar to the concept of finding a motion vector so that the mean absolute error is minimized within the search range when estimating motion information in units of blocks.

즉, k번째 유지정점 Vk를 중심으로 한 오차 정점 탐색 방법의 자세한 설명은 다음과 같다.That is, a detailed description of the error vertex searching method centering on the k-th holding vertex V k is as follows.

먼저, 유지정점의 개수를 NV라 하고, 양쪽으로 이웃한 두 유지정점을 Vk-1(k=0 일때는 VNv-1)과 Vk+1(k=NV-1일 때는 V0)이라 하자.First, the number of holding vertices is N V , and the two adjacent holding vertices are V k-1 (V Nv-1 when k = 0) and V k + 1 ( V when k = N V-1). 0 ).

를 최대로 하는 윤곽선상의 점이다. The point on the outline that maximizes.

는 두 정점, Vk-1과, Vk를 연결하는 직선과 i번째 윤곽선 화소, Ci사이의 거리이다. Is the distance between two vertices, V k-1 and the straight line connecting V k and the i th contour pixel, C i .

이때, Vk(a,b)=((Vk,X-a), (Vk,y-b)) -ω≤a,b≤ω(1)At this time, V k (a, b) = ((V k, X -a), (V k, y -b)) -ω≤a, b≤ω (1)

라 하면, 제안한 방식은The proposed method

인 a,b를 찾는 것이다.Is to find a and b.

그리고, k번째 정점을 Vk대신 Vk(a,b)로 한다.Then, in the k-th vertex V k instead of V k (a, b).

(1)에서의 ω는 탐색창의 크기를 결정하며, ε{·}는 미리 정해진 에러 측정에 의존한다.Ω in (1) determines the size of the search window, and ε {·} depends on a predetermined error measurement.

본 발명에서는 다음과 같은 두 에러측정수단을 사용한다.In the present invention, the following two error measuring means are used.

Vk-1≤jVk,iand Vk,i≤jVk+1,i(5)V k-1 ≤ jV k, i and V k, i ≤ jV k + 1, i (5)

Vk,i는 k번째 정점이 몇 번째 윤곽선 화소인가를 나타낸다.V k, i indicates how many contour pixels the kth vertex is.

이러한 오차중심 정점 탐색 방법은 인접한 정점과의 거리가 먼 경우에는 그 효과를 보장하지 못하기 때문에 바로 인접한 정점이 제거정점이 발생한 유지정점의 경우에는 이러한 오차중심 정점 탐색방법을 수행하지 않는다.Since the error-centered vertex search method does not guarantee the effect when the distance from the adjacent vertices is far, the error-centered vertex search method is not performed in the case of the maintenance vertex in which the immediately adjacent vertex is removed.

만일, 유지정점에 대해 오차중심 정점 탐색 방법을 수행시 그 위치가 옮겨지면, 이에 대한 정보를 수신단에 전송해야 한다.If the position is shifted when the error center vertex searching method is performed for the maintenance vertex, information about the vertex should be transmitted to the receiving end.

유지정점의 조정 방식에 대한 정보는 그 위치가 옮겨졌는지 여부에 대한 플래그(flag)와 어떻게 옮겨갔는지에 대한 움직임 정보들로 구성된다.The information on the adjustment method of the holding vertex is composed of a flag of whether the position has been moved and movement information of how the movement is performed.

그 위치를 그대로 유지하는 경우(주위에 제거정점이 있는 유지정점이거나, 오차중심 정점 탐색을 수행시 위치가 변하지 않는 경우)에는 플래그만 전송하면 된다.In case of maintaining the position as it is (in case of the maintenance vertex with the removal vertex around, or the position does not change when performing the error center vertex search), only the flag is transmitted.

그렇지 않은 경우는 플래그와 함께 움직임 정보를 전송한다. 움직임 정보의 부호화 방식으로는 정점 위치 부호화를 위해 일반적으로 쓰이는 방식을 사용하면 된다.Otherwise, the motion information is transmitted along with the flag. As a method of encoding motion information, a method generally used for vertex position encoding may be used.

단, 탐색창이 커지면 이러한 정보량이 많아지는 위험성이 있기 때문에 탐색창의 크기를 키우는 것을 위험하다.However, it is dangerous to increase the size of the search window because there is a risk that this information amount increases when the search window becomes large.

탐색창의 크기를 3×3 또는 5×5로 하면 움직임 정보를 체인 미분 부호화(chain differential coding)를 사용할 수 있기 때문에 적은 정보량으로 부호화할 수 있다.If the size of the search window is 3x3 or 5x5, the motion information can be encoded using chain differential coding, so that the information can be encoded with a small amount of information.

이상, 상기 설명에서와 같이 본 발명은 이진 마스크의 시간축상의 중복성 제거를 통한 정보량 압축을 꾀하는 정점 리스트 보정 방식을 수행할 때 적용가능하다.As described above, the present invention can be applied when performing the vertex list correction method for compressing the amount of information by eliminating redundancy on the time axis of the binary mask.

그리고 삽입정점의 수가 50% 정도로 감소함과 아울러 삽입정점 전송 정보량이 약 50% 감소하는 효과를 얻을 수 있으며, 삽입정점수의 감소로 인해 모양정보를 표현하는 전체 정점 수가 감소하고 각종 플래그 정보량이 감소하는 효과를 얻을 수 있다.In addition, the number of inserted vertices decreases by about 50% and the amount of inserted vertex transmission information decreases by about 50% .In addition, the number of inserted vertices decreases the total number of vertices representing shape information and reduces the amount of flag information. You can get the effect.

또한, 주관적 화질을 향상시킬 수 있으며, 재현 오차의 감소효과를 얻을 수 있는 장점이 있다.In addition, the subjective image quality can be improved, and the effect of reducing the reproduction error can be obtained.

Claims (11)

부호화하고자 하는 물체 또는 영역에 번호 매기기를 수행하고 각각의 물체 또는 영역의 윤곽선을 추출한 후 추출된 윤곽선을 가지고 윤곽선 다각 근사화를 수행하는 윤곽선 예측 부호화 방법에 있어서, VOP단위에서 VOP움직임 모드를 추정하고 VOP움직임을 결정 및 보정하는 단계와, 윤곽선 단위에서 윤곽선을 찾고 윤곽선 움직임을 추정한 후 인터모드인 상태에서 움직임 보정 모드일 때 부호화를 수행하여 정점을 재배열하는 단계와, 유지정점이 결정되면 유지정점을 일정한 탐색창내에서 움직이면서 주어진 오차측정을 최소화하는 점을 새로운 유지정점으로 하는 단계로 이루어진 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.In the contour prediction encoding method for numbering an object or region to be encoded, extracting the contour of each object or region, and performing contour polygon approximation with the extracted contour, the VOP motion mode is estimated in VOP units and VOP Determining and correcting the motion, finding the contour in the contour unit, estimating the contour motion, rearranging the vertices by performing encoding in the motion compensation mode in the inter mode, and maintaining the vertex when the maintenance vertex is determined. A method of adjusting the position of a vertex for a holding vertex in contour polygonal approximation during shape information encoding, characterized in that it comprises a step of minimizing a given error measurement while moving within a predetermined search window. 제1항에 있어서, 상기 유지정점의 조정을 오차중심 정점 탐색 방법으로 하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.The method of claim 1, wherein the adjustment of the holding vertex is performed by an error-centered vertex searching method. 제2항에 있어서, 오차중심 정점 탐색시 탐색창의 크기를 3×3으로 하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.The method of claim 2, wherein the size of the search window is 3 × 3 when the error center vertex is searched. 제2항에 있어서, 오차중심 정점 탐색시 탐색창의 크기를 5×5로 하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점위치 조정방법.The method of claim 2, wherein the size of the search window is 5 × 5 when searching for an error center vertex. 제2항에 있어서, 인접한 위치에 제거정점이 있는 유지정점인 경우에는 오차 중심 정점 탐색을 수행하지 않는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.3. The method of claim 2, wherein a search for error center vertices is not performed when the remaining vertices have elimination vertices at adjacent positions. 제3항 또는 제5항에 있어서, 상기 유지정점의 움직임정보를 체인 미분 부호화 방식을 사용하여 부호화하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.The method according to claim 3 or 5, wherein the motion information of the holding vertices is encoded using a chain differential coding scheme. 제4항 또는 제5항에 있어서, 상기 유지정점의 움직임 정보를 일반적인 정점위치 부호화 방식을 사용하여 부호화하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.6. The method according to claim 4 or 5, wherein the motion information of the holding vertex is encoded using a general vertex position coding method. 제2항에 있어서, 오차중심 정점 탐색시 유지정점의 위치가 변하지 않는 경우에는 플래그만 수신단에 전송하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.The method of claim 2, wherein if the position of the holding vertex does not change during error center vertex searching, only a flag is transmitted to the receiving end. 제2항에 있어서, 오차중심 탐색시 유지정점의 위치가 변하는 경우에는 유지정점의 보정에 대한 정보를 플래그와 움직임 정보로 수신단에 전송하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점위치 조정방법.The method of claim 2, wherein when the position of the holding vertex changes during the error center search, information about the correction of the holding vertex is transmitted to the receiving end as flags and motion information. How to adjust the vertex position for. 제2항에 있어서, 상기 오차측정을,The method of claim 2, wherein the error measurement, 로 하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.A vertex position adjustment method for holding vertices in contour polygonal approximation during shape information encoding. 제2항에 있어서, 상기 오차측정을,The method of claim 2, wherein the error measurement, 로 하는 것을 특징으로 하는 모양정보 부호화시 윤곽선 다각 근사화에서의 유지정점에 대한 정점 위치 조정방법.A vertex position adjustment method for holding vertices in contour polygonal approximation during shape information encoding.
KR1019970009569A 1997-03-20 1997-03-20 Vertex Position Adjustment Method for Preserved Vertex in Contour Line Polygon Approximation KR100596153B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970009569A KR100596153B1 (en) 1997-03-20 1997-03-20 Vertex Position Adjustment Method for Preserved Vertex in Contour Line Polygon Approximation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970009569A KR100596153B1 (en) 1997-03-20 1997-03-20 Vertex Position Adjustment Method for Preserved Vertex in Contour Line Polygon Approximation

Publications (2)

Publication Number Publication Date
KR19980073963A true KR19980073963A (en) 1998-11-05
KR100596153B1 KR100596153B1 (en) 2006-09-15

Family

ID=37631337

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970009569A KR100596153B1 (en) 1997-03-20 1997-03-20 Vertex Position Adjustment Method for Preserved Vertex in Contour Line Polygon Approximation

Country Status (1)

Country Link
KR (1) KR100596153B1 (en)

Also Published As

Publication number Publication date
KR100596153B1 (en) 2006-09-15

Similar Documents

Publication Publication Date Title
EP0614318B1 (en) Video encoder and decoder
EP1044566B1 (en) Improved video coding and decoding using adaptive coding of block parameters for coded/uncoded blocks
EP1389016B1 (en) Improved motion estimation and block matching pattern
CA2374523C (en) A method and associated device for filtering digital video images
US7408990B2 (en) Efficient motion vector coding for video compression
KR100257614B1 (en) Image signal padding method, image signal coding apparatus, image signal decoding apparatus
US5587741A (en) Apparatus and method for detecting motion vectors to half-pixel accuracy
EP1359764B1 (en) Video encoding method with fading compensation
US20020009143A1 (en) Bandwidth scaling of a compressed video stream
KR100578433B1 (en) Fading estimation/compensation
KR100478558B1 (en) Outline Coding Method Using Error Strips
US5805221A (en) Video signal coding system employing segmentation technique
KR100637367B1 (en) Video coding
US5969766A (en) Method and apparatus for contour motion estimating a binary image by using a weighted block match algorithm
KR100227298B1 (en) Code amount controlling method for coded pictures
EP0632657B1 (en) Method of prediction of a video image
KR19980073964A (en) Contour Matched Motion Vector Estimation Method for Shape Information Coding of Image Signal
US20060140277A1 (en) Method of decoding digital video and digital video decoder system thereof
US7333543B2 (en) Motion vector estimation method and apparatus thereof
KR100596153B1 (en) Vertex Position Adjustment Method for Preserved Vertex in Contour Line Polygon Approximation
WO2012097881A1 (en) Method of coding a sequence of images and corresponding reconstruction method
KR100457231B1 (en) Moving Compensation Prediction Apparatus and Method for Shape Encoding of Image Signal
KR100413980B1 (en) Apparatus and method for estimating motion information of contour in shape information coding
KR100296098B1 (en) Apparatus for acquiring motion vectors of control points by seperated vector quantization in control grid interpolation coder
KR100220581B1 (en) The vertex coding apparatus for object contour encoder

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20040720

Effective date: 20060427

Free format text: TRIAL NUMBER: 2004101003202; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20040720

Effective date: 20060427

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100525

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee