KR100255747B1 - Method and apparatus for encoding a video signal of a contour of an object - Google Patents

Method and apparatus for encoding a video signal of a contour of an object Download PDF

Info

Publication number
KR100255747B1
KR100255747B1 KR1019960077896A KR19960077896A KR100255747B1 KR 100255747 B1 KR100255747 B1 KR 100255747B1 KR 1019960077896 A KR1019960077896 A KR 1019960077896A KR 19960077896 A KR19960077896 A KR 19960077896A KR 100255747 B1 KR100255747 B1 KR 100255747B1
Authority
KR
South Korea
Prior art keywords
contour
current
vertex
errors
generating
Prior art date
Application number
KR1019960077896A
Other languages
Korean (ko)
Other versions
KR19980058569A (en
Inventor
김진헌
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사 filed Critical 전주범
Priority to KR1019960077896A priority Critical patent/KR100255747B1/en
Publication of KR19980058569A publication Critical patent/KR19980058569A/en
Application granted granted Critical
Publication of KR100255747B1 publication Critical patent/KR100255747B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

PURPOSE: A method for encoding a contour video signal of an object and an apparatus thereof are provided to efficiently reduce the transmission volume of data by using a contour motion estimation technique on the basis of a distance between a previous contour and a current contour. CONSTITUTION: Input contour video data which represent positions of contour pixels are provided to a vertex select block(201), a primary sampling block(210), a vertex mapping block(220) and a motion estimation and motion compensation block(280). Current vertex information generated from the vertex select block(201) is provided to a switch(226). A central point of a current contour is calculated on the basis of input contour video data. A central point of a previous contour is calculated on the basis of previous contour video data generated from a memory(270). Prediction contour video data are provided to a subordinate sampling block(230). Motion compensation vertex information is provided to the vertex mapping block(220) and the subordinate sampling block(230).

Description

물체의 윤곽선 비디오 신호 부호화 방법 및 그 장치Contour video signal encoding method and apparatus therefor

본 발명은 비디오 신호로 표시된 대상물의 윤곽선 정보를 부호화하기 위한 방법 및 장치에 관한 것으로서, 더욱 상세하게는 윤곽선 움직임 추정 기법을 사용하여 전송 데이터량을 줄일 수 있는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for encoding contour information of an object represented by a video signal. More particularly, the present invention relates to a method and apparatus for reducing the amount of transmission data using a contour motion estimation technique.

일반적으로 비디오 전화, 원격회의(TELECONFERENCE) 및 고선명 텔레비전 시스템과 같이 디지털 텔레비전 시스템에 있어서, 비디오 프레임 신호의 비디오 라인 신호는 화소값이라 불리는 디지털 데이타의 시퀀스(SEQUENCE)를 포함하므로서, 각 비디오 프레임 신호를 규정하기 위해 상당한 양의 디지털 데이타가 필요하다.Generally in digital television systems such as video telephony, TELECONFERENCE and high definition television systems, the video line signal of the video frame signal includes a sequence of digital data called pixel values, so that each video frame signal is A significant amount of digital data is needed to define.

그러나, 통상의 전송 채널에서 이용 가능한 주파수 대역 폭이 제한되어 있으므로, 특히 비디오 전화와 원격회의 시스템과 같은 저전송 비디오 신호 부호화기(LOW BIT-RATE VIDEO SIGNAL ENCODER)에서는 다양한 데이타 압축 기법을 통해 데이터의 양을 압축하거나 줄여야 한다.However, due to the limited frequency bandwidth available on conventional transmission channels, especially in low-bit-rate video signal encoders such as video telephony and teleconferencing systems, the amount of data is available through various data compression techniques. Should be compressed or reduced.

이 기술분야에 이미 널리 알려진 바와같이, 저전송 부호화 시스템의 비디오 신호를 부호화하기 위한 부호화 기법 중의 하나는 소위 "물체지향 해석 및 합성 부호화 기법"(OBJECT-ORIENTED ANALYSIS-SYNTHESIS CODING TECHNIQUE)인 데, 이 기법에서 입력 비디오 신호는 복수의 물체로 분할되고, 각 물체의 움직임, 윤곽선 및 화소 데이타를 정의하기 위한 3조의 변수들이 각기 다른 부호화 채널을 통해 처리된다.As is well known in the art, one of the coding techniques for encoding video signals in low transmission coding systems is the so-called "object-oriented analysis and synthesis coding technique" (OBJECT-ORIENTED ANALYSIS-SYNTHESIS CODING TECHNIQUE). In the scheme, the input video signal is divided into a plurality of objects, and three sets of variables for defining the motion, contour, and pixel data of each object are processed through different coding channels.

이러한 물체지향 해석 및 합성 부호화 기법의 일실시예는 소위동영상 전문가 위원회 4(MPEG-4)로서, MPEG-4는 저전송 통신, 쌍방향 멀티미디어(interactive multimedia) 및 감시기와 같은 응용분야에서 주제 단위 쌍방향성(content-based interactivity), 개량 부호화 효율 및/또는 범용성을 만족시켜 주기 위한 오디오-비디오 부호화 표준을 제시하기 위해 마련되었다.(참조: MPEG-4 Video Verification Model Version 2.0, International Organization for Standardization, ISO/IEC JTC1/SC29/WG11 N1260, March 1996).One example of such an object-oriented analysis and synthesis encoding technique is the so-called Video Experts Committee 4 (MPEG-4), which is a topic-level interactive feature in applications such as low-speed communications, interactive multimedia, and monitors. It is intended to present an audio-video encoding standard to satisfy content-based interactivity, improved coding efficiency and / or versatility (see MPEG-4 Video Verification Model Version 2.0, International Organization for Standardization, ISO /). IEC JTC1 / SC29 / WG11 N1260, March 1996).

MPEG-4에 따르면 입력 비디오 영상은 다수개의 비디오 물체 평면(VOP: video object plane)으로 나뉘는 데, VOP는 사용자가 접근할 수 있고 다룰 수 있는 비트 스트림으로 된 실체에 해당한다. VOP는 물체로 지칭될 수도 있으며, 그 폭과 높이가 각 물체를 둘러싸는 16화소(마크로 블록 크기)의 최소 정수배인 경계 사각형(bounding rectangle)으로 표현되므로 부호화기가 입력 비디오 영상을 VOP 단위, 즉 물체 단위로 처리할 수 있다. VOP는 휘도 성분(Y) 및 색 성분(Cr, Cb)으로 이루어진 색상 정보와 일실시예로 이진 마스크로 표현된 윤곽선 정보를 포함한다.According to MPEG-4, an input video image is divided into a plurality of video object planes (VOPs), which correspond to entities of bit streams that can be accessed and handled by a user. A VOP may also be referred to as an object, and the encoder may represent an input video image in VOP units, i.e., because its width and height are represented by a bounding rectangle that is at least an integer multiple of the 16 pixels (macro block size) surrounding each object. Can be processed in units. The VOP includes color information consisting of the luminance component Y and the color components Cr and Cb and contour information represented by a binary mask in one embodiment.

물체의 윤곽선을 처리할 때, 물체 형상을 합성 및 분석하기 위해 윤곽선 정보가 중요하게 된다. 윤곽선 정보를 표현하기 위한 통상의 부호화 방법이 체인 부호화 방법(chain coding method)이다. 그러나 체인 부호화 방법은 윤곽선 정보의 손실이 없다 하더라도, 윤곽선 정보를 표현하기 위해 많은 양의 비트 수를 필요로 하는 단점을 가진다.When processing the contour of an object, the contour information becomes important to synthesize and analyze the object shape. A typical coding method for expressing contour information is a chain coding method. However, the chain coding method has a disadvantage in that a large amount of bits are required to express the contour information even if there is no loss of the contour information.

그러므로 이러한 문제점을 해결하기 위해 다각 근사화 방법과 B-스플라인 근사 방법과 같은 다양한 윤곽선 정보 부호화 방법이 제안되어 있다. 다각 근사화 방법은 윤곽선이 개략적으로 표현된다는 문제점을 갖는다. 반면, B-스플라인 방법은 윤곽선이 보다 정확하게 표현되긴 하지만 근사화 에러를 줄이기 위해 고차 다항식이 필요하게 되므로 결과적으로 비디오 부호화기의 전체 계산량이 증가하는 문제점을 갖는다.Therefore, in order to solve this problem, various contour information encoding methods such as a polygon approximation method and a B-spline approximation method have been proposed. Polygonal approximation has the problem that the outline is represented schematically. On the other hand, the B-spline method, although the contour is more accurately represented, requires a higher-order polynomial to reduce the approximation error, resulting in an increase in the total amount of computation of the video encoder.

이러한 근사화 방법에서 윤곽선의 개략적인 표현과 계산량의 증가와 관련된 문제점을 제거하기 위한 방법의 하나의 이산적 사인 변환(discrete sine transform: DST)에 기초한 윤곽선 근사화 기법이다.In this approximation method, a contour sine transform (DST) based on a discrete sine transform (DST) is used as a method for eliminating the problems associated with the rough representation of the contour and the increase in the amount of computation.

"물체의 윤곽을 표현하기 위한 윤곽선 근사화 장치(A CONTOUR APPROXIMATION APPARATUS FOR REPRESENTING A CONTOUR OF AN OBJECT)"라는 명칭으로 본 특허출원과 함께 공동계류중인 미국 특허 제 08/423,604호 명세서에 개시된 바와같은 다각 근사화 방법과 DST에 기초한 윤곽선 근사화 기법을 이용하는 장치에서, 복수의 정점(vertex point)이 결정되고, 윤곽선을 선분(line segment)으로 대응시키는 다각 근사화 방법을 사용하여 물체의 윤곽선이 근사된다. 그리고 각각의 선분에 대한 N개의 샘플 포인트가 선택되고, N개의 샘플 포인트 각각에서 근사화 에러가 계산되어 각 선분에 대한 1세트의 근사화 에러가 얻어진다. N샘플 포인트는 각 라인 세그먼트 상에서 등간격이며, 각각의 근사화 에러는 각각의 N개의 샘플 포인트와 윤곽선 사이의 간격(distance) 또는 변위(displacement)를 나타낸다. 그런 다음, 근사화 에러의 각 세트에 대해서 1차원 DST를 함으로써 DST 계수 세트들을 얻을 수 있다.Multiple approximation as disclosed in US Patent No. 08 / 423,604, co-pending with this patent, entitled “A CONTOUR APPROXIMATION APPARATUS FOR REPRESENTING A CONTOUR OF AN OBJECT” In the apparatus using the method and the contour approximation technique based on the DST, a plurality of vertex points are determined, and the outline of the object is approximated using a polygonal approximation method that maps the contour into line segments. N sample points for each line segment are then selected, and an approximation error is calculated at each of the N sample points to obtain one set of approximation errors for each line segment. The N sample points are equally spaced on each line segment, and each approximation error represents a distance or displacement between each N sample points and the contour. Then, DST coefficient sets can be obtained by doing one-dimensional DST for each set of approximation errors.

비록 상기에 기술한 DST에 기초한 윤곽선 근사화 기법이 개략적인 표현과 복잡한 계산을 줄여줄 수 있고, 그에 따라 전송되는 데이타 량을 줄일 수 있다 하더라도, 여전히 전송 데이타량을 줄여 주는 것이 바람직할 것이다.Although the outline approximation technique based on the DST described above can reduce the schematic representation and complicated calculations, and thus reduce the amount of data to be transmitted, it would still be desirable to reduce the amount of data to be transmitted.

그러므로 본 발명의 주목적은 전윤곽선과 현윤곽선 사이의 차이를 기초로 윤곽선 움직임 추정 기법을 사용하여 데이타의 전송량을 효과적으로 줄일 수 있는 개선된 윤곽선 부호화 방법 및 장치를 제공하는 것이다.Therefore, an object of the present invention is to provide an improved contour coding method and apparatus which can effectively reduce the amount of data transmission by using the contour motion estimation technique based on the difference between the front contour and the current contour.

상기 목적을 달성하기 위해, 본 발명에 따르면, 일정한 수의 전정점(previous vertex)이 구비된 물체의 전윤곽선(previous contour)을 기초로 상기 물체의 현윤곽선(current contour)에 대한 비디오 신호를 부호화하는 물체의 윤곽선 비디오 신호 부호화 방법은, 상기 각 전정점을 상기 현윤곽선상에 매핑(mapping)하여, 상기 각 전정점에 대응되는 예측 정점을 상기 현윤곽선상에 생성하는 제 1 과정; 상기 각 전정점과 이에 대응되는 예측 정점 사이의 정점 변위를 계산하는 제 2 과정; 상기 현 윤곽선 상에 다수개의 현정점을 결정하는 제 3 과정; 상기 현정점을 이용하여 상기 현윤곽선을 부호화하여, 내 부호화 데이타(intra-coded data)를 생성하는 제 4 과정; 상기 전윤곽선을 기준으로 상기 현윤곽선을 부호화하여, 간 부호화 데이타(inter-coded data)를 생성하는 제 5 과정; 및 상기 정점 변위를 기초로 상기 내 부호화 테이타 또는 상기 간 부호화 데이타중 하나를 상기 현윤곽선에 대한 부호화 데이타로서 선택하는 제 6 과정을 포함한다.In order to achieve the above object, according to the present invention, the video signal for the current contour of the object is encoded based on the previous contour of the object having a predetermined number of prior vertices (previous vertex) A method of encoding an outline video signal of an object includes: a first process of mapping each vertex to the current contour and generating a prediction vertex corresponding to each vertex on the current contour; Calculating a vertex displacement between each of the vertexes and a corresponding prediction vertex; Determining a plurality of current points on the current contour; A fourth step of generating intra-coded data by encoding the current contour using the current point; A fifth process of generating inter-coded data by encoding the current contour based on the entire contour; And a sixth process of selecting one of the inner encoded data or the inter encoded data based on the vertex displacement as encoded data for the current contour.

제1도는 본 발명에 따른 물체의 입력 윤곽선 영상 데이타를 부호화하기 위한 장치의 블록 다이어그램.1 is a block diagram of an apparatus for encoding input contour image data of an object according to the present invention.

제2도는 본 발명에 따른 정점 매핑 과정을 설명하기 위한 예시 다이어그램.2 is an exemplary diagram for explaining a vertex mapping process according to the present invention.

제3(a)도 및 제3(b)도는 본 발명에 따른 주 및 부 샘플링 과정을 각각 도시한 개략도.3 (a) and 3 (b) are schematic diagrams illustrating the main and sub sampling processes according to the present invention, respectively.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

200 : 윤곽선 비디오 신호 부호화 장치 201 : 정점 선택 블록200: contour video signal encoding apparatus 201: vertex selection block

210 : 주 샘플링 블록 220 : 정점 매핑 블록210: main sampling block 220: vertex mapping block

225 : 모드 결정 블록 226 : 스위치225: mode determination block 226: switch

227 : 정점 부호화기 230 : 부 샘플링 블록227: vertex encoder 230: sub-sampling block

235 : 감산기 240 : 변환 및 양자화 블록235 subtractor 240 transform and quantization block

245 : 통계적 부호화기 250 : 역변환 및 역양자화 블록245 statistical encoder 250 inverse transform and inverse quantization block

255 : 가산기 260 : 윤곽선 재생 블록255: adder 260: outline playback block

270 : 메모리 280 : 움직임 추정 및 보상 블록270: memory 280: motion estimation and compensation block

290 : 멀티플렉서(MUX) CC : 현윤곽선290: Multiplexer (MUX) CC: Hyun Contour

PC : 예측 윤곽선 A,B,C,D,E : 움직임 보상 정점PC: Predictive contours A, B, C, D, E: Motion compensation vertices

A´,B´,C´,D´,E´: 예측 정점A´, B´, C´, D´, E´: prediction peaks

P1,P2,P3,P1´,P2´,P3´: 샘플링 포인트P1, P2, P3, P1´, P2´, P3´: Sampling point

d1´,d2´,d3´: 주 에러 d1,d2,d3: 부 에러d 1 ', d 2 ', d 3 ': Major error d 1 , d 2 , d 3 : Minor error

1,Ⅰ2,Ⅰ3,Ⅰ1´,Ⅰ2´,Ⅰ3´: 교차점1 , Ⅰ 2 , Ⅰ 3 , Ⅰ 1 ´, Ⅰ 2 ´, Ⅰ 3 ´: intersection

제1도를 참조하면, 본 발명에 따라 입력 윤곽선 영상 데이타를 부호화하기 위한 장치(200)의 블록 다이어그램이 도시되어 있다.Referring to FIG. 1, a block diagram of an apparatus 200 for encoding input contour image data is shown in accordance with the present invention.

물체의 현윤곽선을 구성하는 윤곽선 화소들의 위치를 나타내는 입력 윤곽선 영상 데이타는 정점 선택 블록(201), 주 샘플링(primary sampling) 블록(210), 정점 매핑(vertex mapping) 블록(220) 및 움직임 추정 및 보상(motion estimation and motion compensation: ME & MC)블록(280)에 공급된다. 정점 선택 블록(201)은 통상의 다각 근사화 기법을 사용하여 현윤곽선상에 다수의 현정점을 결정하여, 현윤곽선에 다수의 현 라인 세그먼트를 생성하는 데, 현 라인 세그먼트는 현윤곽선상에 서로 인접 배치된 두 정점을 연결하여 형성된다. 정점 선택 블록(201)에서 생성된 현정점의 위치를 표현하는 현정점 정보는 스위치(22)에 공급된다.The input contour image data indicating the position of the contour pixels constituting the current contour of the object may include a vertex selection block 201, a primary sampling block 210, a vertex mapping block 220, and motion estimation and A motion estimation and motion compensation (ME & MC) block 280 is supplied. The vertex selection block 201 determines a number of vertices on the current contour using a conventional polygonal approximation technique to generate a plurality of current line segments on the current contour, which are adjacent to each other on the current contour. It is formed by connecting two placed vertices. Vertex information representing the position of the vertex generated in the vertex selection block 201 is supplied to the switch 22.

한편, 움직임 추정 및 보상 블록(280)은 물체의 현윤곽선과 전윤곽선에 대한 모든 화소 위치의 좌표를 평균함으로써 현윤곽선과 전윤곽선에 대한 중심점을 구하고, 두 중심점 사이의 공간 변위를 나타내는 움직임 벡터(이하, "글로발 움직임 벡터(CMV)"라 칭함)를 계산한다. 현윤곽선의 중심점은 입력 윤곽선 영상데이타를 기초로 계산되는 반면, 전윤곽선의 중심점은 메모리(270)에서 재생된 전윤곽선 영상데이타를 기초로 계산되는 데, 전윤곽선 영상 데이타는 전윤곽선을 구성하는 윤곽선 화소들과 장점들의 위치를 나타낸다.On the other hand, the motion estimation and compensation block 280 obtains a center point for the current contour and the total contour by averaging the coordinates of all pixel positions with respect to the object outline and the contour, and calculates a motion vector representing the spatial displacement between the two points. Hereinafter, referred to as "Global motion vector (CMV)"). The center point of the current contour is calculated based on the input contour image data, while the center point of the front contour is calculated based on the entire contour image data reproduced in the memory 270, and the total contour image data is the contour constituting the entire contour. The locations of the pixels and their advantages are shown.

그런 다음, 전윤곽선을 현윤곽선 상에 겹치게 함으로써 예측 윤곽선을 생성한다. 다시 말해서, 움직임 추정 및 보상 블록(280)에서 전윤곽선상에 있는 모든 화소를 GMV만큼 이동시켜 전윤곽선의 중심을 현윤곽선의 중심과 일치시킴으로서, 예측 윤곽선을 생성한다. 전정점들도 움직임 추정 및 보상 블록(280)에서 GMV만큼 이동되어 움직임 보상 정점을 생성한다. 움직임 추정 및 보상 블록(280)에서 GMV는 경로 L20을 통해 멀티플렉서(MUX)(290)로 공급되고, 예측 윤곽선의 윤곽선 화소들의 위치를 나타내는 예측 윤곽선 영상 데이타는 경로 L30을 통해 부 샘플링 블록(230)에 공급되며, 움직임 보상 정점들의 위치를 나타내는 움직임 보상 정점 정보는 경로 L40을 통해 정점 매핑 블록(220)과 부 샘플링 블록(230)에 공급된다.Then, the prediction contour is generated by overlapping the entire contour on the current contour. In other words, in the motion estimation and compensation block 280, all pixels on the front contour are moved by GMV to match the center of the front contour with the center of the current contour, thereby generating a predictive contour. The vertexes are also moved by GMV in motion estimation and compensation block 280 to generate motion compensation vertices. In the motion estimation and compensation block 280, the GMV is supplied to the multiplexer (MUX) 290 via the path L20, and the predictive contour image data indicating the position of the contour pixels of the prediction contour is subsampled through the path L30. The motion compensation vertex information indicating the position of the motion compensation vertices is supplied to the vertex mapping block 220 and the subsampling block 230 through the path L40.

움직임 보상 정점 정보 및 입력 윤곽선 영상 데이타에 응답하여, 정점 매핑 블록(220)은 각 움직임 보상 정점에 대한 예측 정점을 결정하고, 그 두 정점 사이의 변위를 계산하는 데, 예측 정점은 각 움직임 보상 정점에서 가장 가까운 현윤곽선상의 윤곽선 화소를 나타낸다. 예측 정점의 위치를 나타내는 예측 정점 정보는 경로 L50을 통해 스위치(226)에 공급되고, 각 예측 정점과 그 예측 정점에 대응하는 보상 움직임 정점 사이의 변위를 나타내는 정점 움직임 벡터는 경로 L60을 통해 모드 결정 블록(225)과 멀티플렉서(290)에 공급된다.In response to the motion compensation vertex information and the input contour image data, vertex mapping block 220 determines a prediction vertex for each motion compensation vertex and calculates a displacement between the two vertices, the prediction vertex being the respective motion compensation vertex. Represents the outline pixel on the nearest outline. Prediction vertex information indicative of the location of the prediction vertices is supplied to the switch 226 via the path L50, and a vertex motion vector representing the displacement between each prediction vertex and the compensating motion vertex corresponding to the prediction vertex is determined by the path L60. Supplied to block 225 and multiplexer 290.

제2도는 정점 매핑 블록(220)에서 실행되는 정점 매핑 과정을 예시하고 있는데, CC는 현윤곽선을 나타내고, A 내지 E는 예측 윤곽선 PC상에 있는 움직임 보상 정점을 나타낸다. 도면에 도시된 바와같이, 움직임 보상 정점 A 내지 E는 각각 예측 정점 A´내지 E´는 대응되는 움직임 보상 정점에서 가장 가까이 있는 현윤곽선 CC상의 한 점이다.2 illustrates the vertex mapping process performed in vertex mapping block 220, where CC represents the current contour and A to E represent the motion compensation vertices on the prediction contour PC. As shown in the figure, motion compensation vertices A through E are predicted vertices A 'through E', respectively, which are points on the current outline CC closest to the corresponding motion compensation vertex.

제1도를 다시 참조하면, 모드 결정 블록(225)은 정점 매핑 블록(220)에서 공급된 정점 움직임 벡터를 기초로 현윤곽선의 부호화 모드를 결정한다. 특히, 부호화 모드를 결정하기 위해, 모드 결정 블록(225)은 정점 움직임 벡터의 크기를 계산하고, 각 크기를 일정한 문턱값 TH와 비교하며, 문턱값 TH보다 큰 크기를 갖는 정점 움직임 벡터의 수를 계산한다.Referring back to FIG. 1, the mode determination block 225 determines an encoding mode of the current contour based on the vertex motion vector supplied from the vertex mapping block 220. In particular, to determine the encoding mode, mode determination block 225 calculates the magnitudes of the vertex motion vectors, compares each magnitude with a constant threshold TH, and calculates the number of vertex motion vectors having a magnitude greater than the threshold TH. Calculate

상기와 같이 계산된 수가 일정한 정수 P보다 크거나 같으면, 현윤곽선과 전윤곽선은 상당히 다른 것으로 간주되므로, 부호화 모드가 내 모드(intra-mode)로 결정되어, 전윤곽선을 고려하지 않은 채 현윤곽선을 부호화하게 된다. 반면, 계산된 수가 일정 정수 P보다 작으면, 현윤곽선과 전윤곽선간에 상당한 유사성이 있는 것으로 간주되므로, 현윤곽선에 대한 부호화 모드가 간 모드(inter-mode)로 결정되어, 현윤곽선이 전윤곽선과 현윤곽선 사이의 차이를 기초로 간 부호화된다.If the number calculated as described above is greater than or equal to a constant integer P, the current outline and the total outline are considered to be considerably different, so that the encoding mode is determined to be intra-mode, so that the current outline is extracted without considering the total outline. Will be encoded. On the other hand, if the calculated number is smaller than the constant integer P, since it is considered that there is considerable similarity between the current contour and the total contour, the coding mode for the current contour is determined as the inter-mode, so that the current contour is equal to the total contour. The liver is encoded based on the difference between the current contours.

내 모드로 결정되는 경우 모드 결정 블록(225)은 스위치(226), 부 샘플링 블록(230) 및 멀티플렉서(290)에 제1제어신호를 공급하고, 그렇지 않은 경우 제2제어신호를 공급한다.The mode determination block 225 supplies the first control signal to the switch 226, the subsampling block 230, and the multiplexer 290 when it is determined to be the inner mode, and otherwise supplies the second control signal.

내 모드에서는 모드 결정 블록(225)에서 공급된 제1제어신호에 응답하여, 스위치(226)가 현정점을 현윤곽선에 대한 정점으로 선택하고, 선택된 정점의 위치를 나타내는 정점 테이타를 경로 l10을 통하여 주 샘플링 블록(210), 정점 부호화기(227) 및 윤곽선 재생 블록(260)으로 공급하는 데, 내 모드에서의 정점 데이타는 현정점 정보와 같다. 한편, 부 샘플링 블록(230)은 0인 부 에러값을 감산기(235)와 가산기(255)에 공급한다. 정점 부호화기(227)에서는 정점 데이터가 산술 부호화 기법과 같이 공지된 정점 부호화 기법을 사용하여 부호화된 정점 데이타가 생성되고, 부호화된 정점 데이터는 경로 L70을 통하여 멀티플렉서(290)에 공급된다.In the inner mode, in response to the first control signal supplied from the mode determination block 225, the switch 226 selects the current vertex as a vertex for the current contour, and vertex data indicating the position of the selected vertex through the path l10. The main sampling block 210, the vertex encoder 227, and the contour reproduction block 260 are supplied to the vertex data in the inner mode as the current vertex information. On the other hand, the sub-sampling block 230 supplies a sub-error value of 0 to the subtractor 235 and the adder 255. In the vertex encoder 227, vertex data whose vertex data is encoded using a known vertex encoding technique such as an arithmetic encoding technique is generated, and the encoded vertex data is supplied to the multiplexer 290 through a path L70.

주 샘플링 블록(210)에서, 선택된 정점, 즉 현정점은 현윤곽선을 다수의 주윤곽선 세그먼트로 나눈다. 각각의 주 윤곽선 세그먼트는 서로 인접한 두 선택 정점과 그들 사이에 배치된 윤곽선 화소를 연결한 현윤곽선의 일부를 나타내고, 두 선택 정점으로 연결한 주 라인 세그먼트로 근사화된다. 다음에, 주 샘플링 블록(210)은 각각의 주 라인 세그먼트상에 미리 정해진 방법으로 정수개의 N샘플 포인트를 선택하고, 각 샘플 포인트에서 주 에러를 계산하여, 각각의 주 윤곽선 세그먼트에 대한 주 에러 세트를 감산기(235)에 공급한다.In main sampling block 210, the selected vertex, i.e., the current vertex, divides the current contour into a number of main contour segments. Each main contour segment represents a portion of the current contour connecting two adjacent selection vertices with the contour pixels disposed between them, and is approximated by the main line segment connecting the two selection vertices. The main sampling block 210 then selects an integer number of N sample points in a predetermined manner on each main line segment, calculates a major error at each sample point, and sets a major error for each major contour segment. To the subtractor 235.

본 발명의 바람직한 실시예에서 주 라인 세그먼트상에 선택되는 정수 N개의 샘플 포인트는 서로 등간격으로 배치된다. 주 에러는 샘플 포인트에서 주 라인 세그먼트에 수직인 직선과 주 윤곽선 세그먼트의 교차점까지의 거리를 나타내는 데, 이러한 주 에러는 샘플 포인트와 교차점까지의 거리와 주 라인 세그먼트에 대한 교차점의 상대적인 위치를 나타내는 부호를 포함한다.In a preferred embodiment of the present invention, the integer N sample points selected on the main line segment are arranged at equal intervals from each other. The major error represents the distance from the sample point to the intersection of the straight line and the main contour segment perpendicular to the main line segment, which is a sign indicating the distance to the sample point and the intersection and the relative position of the intersection with respect to the main line segment. It includes.

감산기(235)에서 0인 부 에러가 각 세트의 주 에러에서 감산되어, 각각의 주 에러 세트에 대한 차이에러 세트를 변환 및 양자화(transform and quantization:T & Q) 블록(240)에 공급한다. 내 모드에서는 부 샘플링 블록(230)에서 공급된 부 에러들이 모두 0이며, 따라서 차이 에러들은 각각 주 에러들과 같다.A negative error of zero in subtractor 235 is subtracted from each set of major errors, supplying a set of difference errors for each major error set to transform and quantization (T & Q) block 240. In my mode, the sub-errors supplied by sub-sampling block 230 are all zero, so the difference errors are equal to the main errors, respectively.

변환 및 양자화 블록(240)은 이산적 사인 변환(DST) 또는 이산적 코사인 변환(DCT)과 같은 일련의 변환 방법을 사용하여 차이 에러 세트를 변환 및 양자화하여, 각각의 차이 에러에 대한 양자화된 변환 계수를 생성한다. 각각의 양자화된 변환 계수 세트는 변환 및 양자화 블록(240)에서 통계적 부호화기(245) 및 역변환 및 역양자화(IT & IQ) 블록(250)으로 전송된다. 통계적 부호화기(245)에서는 각각의 양자화된 변환 계수가 가변 줄길이 부호화(VLC)와 같은 공지된 통계적 부호화 기법을 사용하여 부호화된다. 각각의 양자화된 변환 계수 세트에 대한 부호화된 에러 데이타는 통계적 부호화기(245)에서 경로 L80을 통해 멀티플렉서(290)에 공급된다.Transform and quantization block 240 transforms and quantizes the difference error set using a series of transform methods such as Discrete Sine Transform (DST) or Discrete Cosine Transform (DCT) to quantize the transform for each difference error. Generate coefficients. Each set of quantized transform coefficients is sent from transform and quantization block 240 to statistical encoder 245 and inverse transform and inverse quantization (IT & IQ) block 250. In statistical encoder 245, each quantized transform coefficient is encoded using known statistical coding techniques, such as variable line length coding (VLC). The coded error data for each set of quantized transform coefficients is supplied to the multiplexer 290 via path L80 at the statistical encoder 245.

내 모드에서는, 경로 L90을 통해 제1제어신호가 멀티플렉서(290)에 공급되는데, 이러한 제1제어신호에 응답하여, 멀티플렉서(290)는 경로 L80을 통한 부호화된 에러 데이타와 경로 L70을 통한 부호화된 정점 데이타를 선택하여, 현윤곽선에 대한 부호화된 윤곽선 데이타로서 전송용 트랜스미터(미도시)에 공급한다.In my mode, a first control signal is supplied to the multiplexer 290 via path L90, and in response to this first control signal, multiplexer 290 is encoded via path L80 and coded through path L70. The vertex data is selected and supplied as coded contour data for the current contour to the transmitter for transmission (not shown).

한편, 역변환 및 역양자화 블록(250)에서, 각각의 양자화 변환 계수 세트는 재생된 차이 에러 세트로 변환되어 가산기(255)에 공급되는 데, 재생된 차이 에러 세트는 재생된 주 에러 세트로 변환되고, 재생된 주 에러 세트는 윤곽선 재생 블록(260)에 공급된다. 내 모드에서, 부 샘플링 블록(230)에서 입력된 부 에러들은 모두 이므로, 각각의 재생된 주 에러들은 각각에 대응되는 재생된 차이 에러와 같다. 윤곽선 재생 블록(260)에서, 현윤곽선은 경로 L10으로 공급된 정점 데이타를 기초로 재생되고, 재생된 주 에러 세트와 재생된 현 윤곽선 영상 데이타는 메모리(70)에 공급되어, 다음 윤곽선에 대한 전윤곽선으로 저장되는 데, 재생된 현윤곽선 영상 데이타는 재생된 현윤곽선의 정점들과 윤곽선 화소들에 대한 위치 정보를 포함한다.On the other hand, in inverse transform and inverse quantization block 250, each quantization transform coefficient set is converted into a reproduced difference error set and supplied to adder 255, where the reproduced difference error set is converted into a reproduced main error set and The reproduced main error set is supplied to the contour reproduction block 260. In my mode, since the minor errors input at the sub-sampling block 230 are all equals, each reproduced major error is equal to the corresponding reproduced difference error. In the contour reproduction block 260, the current contour is reproduced based on the vertex data supplied to the path L10, and the reproduced main error set and the reproduced current contour image data are supplied to the memory 70, so as to transfer the previous contour to the next contour. Stored as outlines, the reproduced current outline image data includes positional information about vertices and outline pixels of the reproduced current outline.

간 모드에서는 모드 결정 블록(225)이 경로 L90을 통해 제2제어신호를 스위치(226), 부 샘플링 블록(230) 및 멀티플렉서(290)에 공급되는 데, 이러한 제2제어신호에 응답하여, 스위치(226)가 예측 정점을 현윤곽선에 대한 정점으로 선택하고, 선택된 정점의 위치를 나타내는 정점 데이터를 경로 L10상에 공급하며, 간 모드에서의 정점 데이타는 예측 정점 정보와 같다.In the inter mode, the mode decision block 225 supplies a second control signal to the switch 226, the subsampling block 230, and the multiplexer 290 via the path L90, in response to the second control signal. 226 selects the predicted vertex as the vertex with respect to the current contour, supplies vertex data indicating the position of the selected vertex on the path L10, and vertex data in the liver mode is the same as the predicted vertex information.

주 샘플링 블록(210)에서, 현윤곽선은 선택된 정점에 의해 다수의 주 윤곽선 세그먼트로 나뉘어진다. 간 모드에서 각각의 주 윤곽선 세그먼트는 서로 인접한 두 선택 정점, 즉 두 예측 정점과 그들 사이에 배치된 윤곽선 화소를 연결한 현윤곽선의 일부를 나타내고, 두 예측 정점을 연결한 주 라인 세그먼트로 근사화된다. 다음에, 주 에러 세트가 내 모드와 똑같은 방법으로 생성된다.In main sampling block 210, the current contour is divided into a number of main contour segments by the selected vertices. In the inter mode, each main contour segment represents a portion of two selected vertices adjacent to each other, that is, a current contour connecting two prediction vertices and a contour pixel disposed between them, and is approximated to a main line segment connecting two prediction vertices. Next, the main error set is generated in the same way as in my mode.

한편, 모드 결정 블록(225)에서 공급된 제2제어신호에 응답하여, 부 샘플링(230)은 예측 윤곽선과 예측 윤곽선상에 있는 움직임 보상 정점들을 기준으로 주 샘플링 블록(210)에서 구한 방법과 같은 방법에 의해 부 에러 세트를 결정한다. 즉, 예측 윤곽선은 다수 개의 부 윤곽선 세그먼트로 나뉘어지는 데, 각 부 윤곽선 세그먼트는 주 윤곽선 세그먼트의 말단에 위치한 두 개의 움직임 보상 정점을 연결한 부 라인 세그먼트로 근사화되고, 주 샘플링 블록(210)에 대하여 구한 방법과 같은 방법으로, 부 윤곽선 세그먼트 및 이에 대응되는 부 라인 세그먼트 사이의 N개의 변위를 나타내는 부 에러 세트가 생성된다. 부 에러 세트는 감산기(235)와 가산기(255)에 공급된다.On the other hand, in response to the second control signal supplied from the mode decision block 225, the sub-sampling 230 is the same as the method obtained in the main sampling block 210 based on the prediction contour and the motion compensation vertices on the prediction contour. The method determines the minor error set. That is, the prediction contour is divided into a plurality of subcontour segments, each subcontour segment being approximated to a subline segment connecting two motion compensation vertices located at the ends of the main contour segment, and with respect to the main sampling block 210. In the same way as the obtained method, a minor error set representing N displacements between the sub contour segment and the corresponding sub line segment is generated. The minor error set is supplied to subtractor 235 and adder 255.

제2도에 도시된 바와같이, 예측 윤곽선 PC상에 있는 움직임 보상 벡터 A 내지 E와 현윤곽선 CC상에 있는 예측 정점 A´내지 E´는 서로 일대일 대응되고, 따라서, 각각의 주 윤곽선 세그먼트, 예를들어 윤곽선 C´D´는 부 윤곽선 세그먼트, 예를들어 윤곽선 CD에 대응된다. 감산기(235)에서 각각의 부 윤곽선 세그먼트에 대한 부 에러 세트는 대응되는 주 윤곽선 세그먼트에 대한 주 에러 세트에서 감산된다. 예를들어, 제3(a)도 및 제3(b)에 도시된 바와같이, 주 윤곽선 C´D´에 대한 주 에러들이 d1´, d2´, d3´로 결정되고, 부 윤곽선 세그먼트에 대한 부 에러들이 d1, d2, d3로 계산되면, di(i=1,2,3)이 di´에서 감산되어 감산기(235)에 차이 에러 ci(di´-di)를 공급한다. 제3(a)도 및 제3(b)도에서 N은 3이고 I1´내지 I3´및 I1내지 I3은 각각 주 라인 세그먼트 C´D´상의 샘플링 포인트 P1´내지 P3´에서 그려진 직선 및 부 라인 세그먼트 CD상의 샘플링 포인트 P1내지 P3에서 그려진 직선과 주 윤곽선 세그먼트 C´D´및 부 윤곽선 세그먼트 CD 사이의 교차점을 나타낸다. 각 주 윤곽선 세그먼트에 대한 차이 에러 세트는 변환 및 양자화되어 양자화된 변환 계수를 생성한다.As shown in FIG. 2, the motion compensation vectors A to E on the prediction contour PC and the prediction vertices A 'to E' on the current contour CC correspond one-to-one to each other, and therefore, each main contour segment, eg For example, the contour C'D 'corresponds to a subcontour segment, for example contour CD. In the subtracter 235 the minor error set for each minor contour segment is subtracted from the major error set for the corresponding major contour segment. For example, as shown in FIGS. 3 (a) and 3 (b), the main errors for the main contour C′D ′ are determined as d 1 ′, d 2 ′, d 3 ′, and the subcontour If the minor errors for the segment are calculated as d 1 , d 2 , d 3 , then d i (i = 1,2,3) is subtracted from d i ′ and the difference error c i (d i ′ −) in the subtractor 235. d i ). In FIGS. 3 (a) and 3 (b), N is 3 and I 1 'to I 3 ' and I 1 to I 3 are sampling points P 1 'to P 3 ' on the main line segment C'D ', respectively. The intersection point between the straight line drawn at and the sampling points P 1 to P 3 drawn on the sub line segment CD and the main contour segment C'D 'and the sub contour segment CD is shown. The difference error set for each major contour segment is transformed and quantized to produce quantized transform coefficients.

한편, 양자화된 변환 계수 세트는 역변환 및 역양자화 블록(250)에서 재생된 차이 에러 세트로 변환되어 가산기(255)에 공급되는 데, 재생된 에러 세트는 대응되는 부 에러 세트에 가산되어 재생된 주 에러 세트를 생성하고, 그 재생된 주 에러 세트를 윤곽선 재생 블록(260)에 공급한다. 윤곽선 재생 블록(260)에서 재생된 현윤곽선은 경로 L10상의 정점 데이터와 상기 재생된 주 에러 세트를 기초로 생성된다. 재생된 현윤곽선의 정점과 윤곽선 화소에 대한 위치 정보를 나타내는 재생된 현윤곽선 영상 데이터는 윤곽선 재생 블록(260)에서 메모리(70)로 공급되어 다음 윤곽선에 대한 과정을 수행하기 위해 저장된다.Meanwhile, the quantized transform coefficient set is converted into a difference error set reproduced in the inverse transform and inverse quantization block 250 and supplied to the adder 255, where the reproduced error set is added to the corresponding sub-error set and reproduced. An error set is generated and the reproduced main error set is supplied to the contour reproduction block 260. The current outline reproduced in the outline reproduction block 260 is generated based on the vertex data on the path L10 and the reproduced main error set. The reproduced current contour image data representing the reproduced current contour vertex and the positional information about the contour pixel is supplied from the contour reproduction block 260 to the memory 70 and stored to perform a process for the next contour.

통계적 부호화기(245)에서, 양자화된 변환 계수 세트가 내 모드와 같은 방법으로 처리되어, 양자화된 변환 계수 세트에 대한 부호화된 에러 데이타를 경로 L80을 통해 멀티플렉서(290)에 공급한다. 간 모드에서, 경로 L90상의 제2 제어신호는 멀티플렉서(290)에 제공된다. 이 제2 제어신호에 응답하여 멀티플렉서(290)는 경로 L20, L60, L70 및 L80상의 여러 신호 중에서 경로 L80상의 부호화된 에러 데이터, 경로 L20상의 GMV 및 경로 L60상의 정점 움직임 벡터를 순차적으로 선택하고, 현윤곽선에 대한 부호화된 윤곽선 데이타로서 전송용 트랜스미터(도시생략)에 공급한다. 수신단의 복호화기에서는, 예측 정점 정보, 즉, 간 모드에서 스위치(226)에서 공급된 정점 정보가 GMV, 정점 움직임 벡터 및 복호화기의 메모리에 저장된 전정점 정보에 의해 생성되고, 현윤곽선은 윤곽선 재생 블록(260)에서와 같은 방법으로 재생된다.In the statistical encoder 245, the quantized transform coefficient set is processed in the same manner as in my mode, and supplies coded error data for the quantized transform coefficient set to the multiplexer 290 via path L80. In inter mode, a second control signal on path L90 is provided to multiplexer 290. In response to the second control signal, the multiplexer 290 sequentially selects coded error data on the path L80, GMV on the path L20, and vertex motion vectors on the path L60, among several signals on the paths L20, L60, L70, and L80, The coded contour data of the current contour is supplied to a transmitter for transmission (not shown). In the decoder at the receiving end, the predicted vertex information, that is, the vertex information supplied from the switch 226 in the inter mode is generated by the GMV, the vertex motion vector, and the vertex information stored in the memory of the decoder, and the outline is reproduced by the outline. Playback is the same as in block 260.

금회 개시된 실시예는 모든 점에서 예시로서 제한적인 것은 아닌 것으로 고려되어져야 한다. 본 발명의 특허청구의 범위에 의해서 도시되고 특허청구범위와 균등한 의미 및 범위 내에서의 모든 변경이 포함되는 것이 의도된다.The presently disclosed embodiment is to be considered in all respects as illustrative and not restrictive. It is intended that the present invention be shown by the claims of the invention and embrace all such changes as come within the meaning and range equivalent to the claims.

Claims (13)

물체의 전윤곽선(previous contour)을 기초로 상기 물체의 현윤곽선(current contour)에 대한 비디오 신호를 부호화하되, 상기 전윤곽선 상에 일정한 수의 전정점(previous vertex)이 구비된 윤곽선 비디오 신호 부호화 방법에 있어서, 상기 각 전정점을 상기 현윤곽선상에 매핑(mapping)하여, 상기 각 전정점에 대응되는 예측 정점을 상기 현윤곽선상에 생성하는 제 1 과정; 상기 각 전정점과 이에 대응되는 예측 정점 사이의 정점 변위를 계산하는 제 2 과정; 상기 현윤곽선상에 다수개의 현정점을 결정하는 제 3 과정; 상기 현정점을 이용하여 상기 현윤곽선을 부호화하여, 내 부호화 데이터(intra-coded data)를 생성하는 제 4 과정; 상기 전윤곽선을 기준으로 상기 현윤곽선을 부호화하여, 간 부호화 데이터(inter-coded data)를 생성하는 제 5 과정; 및 상기 정점 변위를 기초로 상기 내 부호화 데이터 또는 상기 간 부호화 데이타중 하나를 상기 현윤곽선에 대한 부호화 데이타로서 선택하는 제 6 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.A method of encoding a video signal of a current contour of the object based on a previous contour of an object, wherein a predetermined number of prior vertices are provided on the whole contour. The method of claim 1, further comprising: mapping each of the vertexes to the current contour, and generating a prediction vertex corresponding to each of the vertexes on the current contour; Calculating a vertex displacement between each of the vertexes and a corresponding prediction vertex; A third process of determining a plurality of current points on the current contour; A fourth step of generating intra-coded data by encoding the current contour using the current point; A fifth process of generating inter-coded data by encoding the current contour based on the entire contour; And a sixth step of selecting one of the inner coded data and the inter coded data as coded data for the current contour, based on the vertex displacement. 제1항에 있어서, 상기 제 1 과정은: 상기 전윤곽선 및 상기 현윤곽선상에 있는 화소의 위치를 평균함으로써 상기 두 윤곽선에 대한 두 중심점을 얻는 제 11 과정; 상기 두 중심점 사이의 중심점 변위를 계산하는 제 12 과정; 상기 두 윤곽선중 한 윤곽선을 상기 중심점 변위 만큼 다른 윤곽선쪽으로 이동함으로써 상기 전윤곽선과 상기 현윤곽선을 포개는 제 13 과정; 및 상기 포개진 전윤곽선상의 각 전정점에서 가장 가까운 상기 포개진 현윤곽선상의 한 화소를 찾아 그 화소를 예측 정점으로 결정함으로써, 상기 다수의 전정점에 대응되는 다수의 예측 정점을 생성하는 제 14 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.The method of claim 1, wherein the first process comprises: an eleventh process of obtaining two center points of the two outlines by averaging positions of the pixels on the whole outline and the current outline; A twelfth step of calculating a center point displacement between the two center points; A thirteenth step of overlapping the entire contour and the current contour by moving one of the two contours toward the other contour by the center point displacement; And a fourteenth process of generating a plurality of prediction vertices corresponding to the plurality of vertexes by finding one pixel on the nested zenith contour closest to each vertex on the nested front contour and determining the pixel as a prediction vertex. Contour video signal encoding method comprising a. 제1항에 있어서, 상기 제 4 과정은; 상기 현윤곽선을 상기 현윤곽선상에서 인접한 두 현정점을 연결하여 형성된 다수의 현 라인 세그먼트로 근사하여, 상기 현윤곽선과 상기 다수의 현 라인 세그먼트에 의해 형성된 다각 윤곽선 사이의 차이를 나타내는 다수의 현 근사화 에러를 생성하는 제 41 과정; 상기 다수의 현 근사화 에러를 변환하여, 다수의 현 변환 에러를 생성하는 제 42 과정; 및 상기 현정점의 위치를 나타내는 현정점 정보와 상기 다수의 현 변환 에러를 포함하는 내 부호화 데이터를 생성하는 제 43 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.The method of claim 1, wherein the fourth process comprises; Approximating the chord contour to a plurality of chord line segments formed by connecting two adjacent vertices on the chord outline, wherein a plurality of chord approximation errors indicative of the difference between the chord contour and the polygonal contour formed by the chord line segments A 41 st process of generating a; Converting the plurality of current approximation errors to generate a plurality of current conversion errors; And a forty-third step of generating inner coded data including the vertex information indicating the position of the vertex and the plurality of current transform errors. 제3항에 있어서, 상기 제 5 과정은: 상기 현윤곽선을 상기 현윤곽선상에서 인접한 두 예측 정점을 연결하여 형성된 다수의 주 라인 세그먼트로 근사하여, 상기 현윤곽선과 상기 다수의 주 라인 세그먼트에 의해 형성된 다각 윤곽선 사이의 차이를 나타내는 다수의 주 근사화 에러를 생성하는 제 51 과정; 상기 전윤곽선을 상기 전윤곽선 상에서 인접한 두 전정점을 연결하여 형성된 다수의 부 라인 세그먼트로 근사하여, 상기 전윤곽선과 상기 다수의 부 라인 세그먼트에 의해 형성된 다각 윤곽선 사이의 차이를 나타내는 다수의 부 근사화 에러를 생성하는 제 52 과정; 상기 다수의 주 근사화 에러 및 상기 다수의 부 근사화 에러 사이의 차이를 나타내는 다수의 차이 에러를 구하는 제 53 과정; 상기 다수의 차이 에러를 변환하여, 다수의 차이 변환 에러를 생성하는 제 54 과정; 및 상기 정점 변위와 상기 중심점 변위를 나타내는 변위 정보와 상기 다수의 차이 변환 에러를 포함하는 간 부호화 데이터를 생성하는 제 55 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.4. The method of claim 3, wherein the fifth process comprises: approximating the current contour to a plurality of main line segments formed by connecting two adjacent prediction vertices on the current contour, and formed by the current contour and the plurality of main line segments. A fifty-first step of generating a plurality of major approximation errors representing the difference between the polygonal contours; A plurality of minor approximation errors representing the difference between the fore contour and the polygonal contour formed by the plurality of sub line segments by approximating the fore contour to a plurality of sub line segments formed by connecting two adjacent vertexes on the fore contour A 52nd process of generating; Obtaining a plurality of difference errors representing a difference between the plurality of major approximation errors and the plurality of minor approximation errors; A 54th step of generating a plurality of difference conversion errors by converting the plurality of difference errors; And a fifty-fifth step of generating inter-coded data including the displacement information representing the vertex displacement, the center point displacement, and the plurality of difference transformation errors. 물체의 전윤곽선(previous contour)을 기초로 상기 물체의 현윤곽선(current contour)에 대한 비디오 신호를 부호화하되, 상기 전윤곽선상에 일정한 수의 전정점(previous vertex)이 구비된 윤곽선 비디오 신호 부호화 방법에 있어서, 상기 방법은: 상기 각 전정점을 상기 현윤곽선상에 매핑(mapping)하여, 상기 각 전정점에 대응되는 예측 정점을 상기 현윤곽선상에 생성하는 제 1 과정; 및 상기 예측 정점과 상기 전윤곽선상의 전정점을 기초로 상기 현윤곽선을 부호화하는 제 2 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.A video signal encoding method for encoding a video signal of a current contour of the object based on a previous contour of an object, wherein the contour video signal encoding method has a predetermined number of prior vertices on the whole contour. The method may include: a first process of mapping each vertex to the current contour and generating a prediction vertex corresponding to each vertex on the current contour; And a second process of encoding the current contour based on the prediction vertex and the vertexes on the contour. 제5항에 있어서, 상기 제 1 과정은: 상기 전윤곽선 및 상기 현윤곽선상에 있는 화소의 위치를 평균함으로써 상기 두 윤곽선에 대한 두 중심점을 얻는 제 11 과정; 상기 두 중심점 사이의 중심점 변위를 계산하는 제 12 과정; 상기 두 윤곽선중 한 윤곽선을 상기 중심점 변위 만큼 다른 윤곽선 쪽으로 이동함으로써 상기 전윤곽선과 상기 현윤곽선을 포개는 제 13 과정; 및 상기 포개진 전윤곽선상의 각 전정점에서 가장 가까운 상기 포개진 현윤곽선상의 한 화소를 찾아 그 화소를 예측 정점으로 결정함으로써, 상기 다수의 전정점에 대응되는 다수의 예측 정점을 생성하는 제 14 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.6. The method of claim 5, wherein the first process comprises: an eleventh process of obtaining two center points for the two outlines by averaging positions of the pixels on the whole outline and the current outline; A twelfth step of calculating a center point displacement between the two center points; A thirteenth step of superimposing the front contour and the current contour by moving one of the two contours toward the other contour by the center point displacement; And a fourteenth process of generating a plurality of prediction vertices corresponding to the plurality of vertexes by finding one pixel on the nested zenith contour closest to each vertex on the nested front contour and determining the pixel as a prediction vertex. Contour video signal encoding method comprising a. 제6항에 있어서, 상기 제 2 과정은: 상기 현윤곽선을 상기 현윤곽선상에 인접한 두 예측정점을 연결하여 형성된 다수의 주 라인 세그먼트로 근사하여, 상기 현윤곽선과 상기 다수의 주 라인 세그먼트에 의해 형성된 다각윤곽선 사이의 차이를 나타내는 다수의 주 근사화 에러를 생성하는 제 21 과정; 상기 전윤곽선을 상기 전윤곽선상에서 인접한 두 전정점을 연결하여 형성된 다수의 부 라인 세그먼트로 근사하여, 상기 전윤곽선과 상기 다수의 부 라인 세그먼트에 의해 형성된 다각윤곽선 사이의 차이를 나타내는 다수의 부 근사화 에러를 생성하는 제 22 과정; 상기 다수의 주 근사화 에러 및 상기 다수의 부 근사화 에러사이의 차이를 나타내는 다수의 차이 에러를 구하는 제 23 과정; 상기 다수의 차이 에러를 변환하여, 다수의 차이 변환 에러를 생성하는 제 24 과정; 및 상기 다수의 차이 변환 에러를 포함하는 간 부호화 데이터(inter-coded data)를 생성하는 제 25 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.7. The method of claim 6, wherein the second process comprises: approximating the current contour to a plurality of main line segments formed by connecting two prediction vertices adjacent to the current contour, by the current contour and the plurality of main line segments. A twenty-first step of generating a plurality of major approximation errors representing the difference between the formed polygonal outlines; A plurality of sub-approximation errors representing the difference between the fore contour and a polygonal contour formed by the plurality of sub-line segments by approximating the fore contour to a plurality of sub line segments formed by connecting two adjacent vertexes on the fore contour A twenty-second process of generating; A twenty-third step of obtaining a plurality of difference errors representing a difference between the plurality of major approximation errors and the plurality of minor approximation errors; A twenty-fourth step of generating the plurality of difference conversion errors by converting the plurality of difference errors; And a twenty-fifth step of generating inter-coded data including the plurality of difference transformation errors. 제7항에 있어서, 상기 제 24 과정 뒤에, 포개진 전윤곽선 상의 상기 각 전정점과 이에 대응되는 예측정점 사이의 정점변위를 계산하는 제 3 과정; 상기 현윤곽선 상에 다수의 현정점을 결정하는 제 4 과정; 상기 다수의 현정점을 상기 현윤곽선을 부호화하여, 내 부호화 데이터(intra-coded data)룰 생성하는 제 5 과정; 및 상기 정점변위를 기초로 상기 내 부호화 데이터 또는 상기 간 부호화 데이터 중 하나를 상기 현윤곽선에 대한 부호화 데이터로 선택하는 제 6 과정을 더 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.8. The method of claim 7, further comprising: a third step of calculating a vertex displacement between each of the vertexes on the superimposed all-contour and predicted vertices corresponding thereto; A fourth process of determining a plurality of current points on the current contour; A fifth step of generating an intra-coded data rule by encoding the current contour on the plurality of current points; And a sixth process of selecting one of the inner coded data and the inter coded data as the coded data for the current contour based on the vertex displacement. 제8항에 있어서, 상기 제 5 과정은: 상기 현윤곽선을 상기 현윤곽선 상에 인접한 두 현정점을 연결하여 형성된 다수의 현 라인 세그먼트로 근사하여, 상기 현윤곽선과 상기 다수의 현 라인 세그먼트에 의해 형성된 다각윤곽선 사이의 차이를 나타내는 다수의 현 근사화 에러를 생성하는 제 51 과정; 상기 다수의 현 근사화 에러를 변환하여, 다수의 현 변환 에러를 생성하는 제 52 과정; 및 상기 현정점의 위치를 나타내는 현정점정보와 상기 다수의 현 변환 에러를 포함하는 내 부호화 데이타를 생성하는 제 53 과정을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.9. The method of claim 8, wherein the fifth process comprises: approximating the current contour to a plurality of string line segments formed by connecting two adjacent vertices on the string contour, by the string contour and the plurality of string line segments. A fifty-first step of generating a plurality of chord approximation errors representing a difference between the formed polygonal outlines; A 52 th step of converting the plurality of current approximation errors to generate a plurality of current conversion errors; And a fifty-seventh step of generating inner coded data including the current point information indicating the position of the current point and the plurality of current transformation errors. 제7항에 있어서, 상기 제 24 과정 뒤에, 상기 포개진 전윤곽선상의 다수의 전정점과 그 전정점에 대응되는 예측정점들 사이의 정점 변위를 계산하는 제 3 과정; 각 정점변위의 크기를 일정한 문턱값 TH와 비교하는 제 4 과정; 및 크기가 상기 문턱값 TH 보다 큰 정점변위의 수가 일정 정수 P 보다 크면 간부호화 데이터를 현윤곽선에 대한 부호화 데이터로 선택하는 제 5 과정; 상기 정점변위의 수가 P보다 작으면, 상기 현윤곽선 상에 다수의 현정점을 결정하는 제 61 과정; 상기 다수의 현정점을 기초로 상기 현윤곽선을 부호화하여, 내 부호화 데이터(intra-coded data)로 생성하는 제 62 과정; 및 상기 내 부호화 데이터를 상기 현윤곽선에 대한 부호화 데이터로 생성하는 제 63 과정을 포함하는 제 6 과정을 더 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 방법.8. The method of claim 7, further comprising: a third step of calculating a vertex displacement between a plurality of vertexes on the superimposed entrail and predicted vertices corresponding to the vertexes; A fourth process of comparing the magnitude of each vertex displacement with a constant threshold TH; And a fifth step of selecting the coded data as the coded data for the current contour when the number of vertex displacements whose size is larger than the threshold TH is larger than a constant integer P. A sixty-first step of determining a plurality of vertices on the current contour when the number of vertex displacements is less than P; A sixty-second step of encoding the current contour based on the plurality of current vertices to generate intra-coded data; And a sixth step of generating the inner coded data as coded data for the current contour. 물체의 전윤곽선(previous contour)을 기초로 상기 물체의 현윤곽선(current contour)에 대한 비디오 신호를 부호화하되, 상기 전윤곽선 상에 일정한 수의 전정점(previous vertex)이 구비된 윤곽선 비디오 신호 부호화 장치에 있어서, 상기 장치는: 상기 현윤곽선 상에 다수 개의 현정점을 결정하는 현정점 결정 수단; 상기 각 전정점을 상기 현윤곽선 상에 매핑(mapping)하여, 상기 각 전정점에 대응되는 예측정점을 상기 현윤곽선 상에 생성하는 매핑 수단; 상기 각 전정점과 이에 대응되는 예측정점 사이의 정점변위를 계산하는 정점 변위 계산 수단; 상기 현정점을 기초로 상기 현윤곽선의 부호화 모드를 결정하여, 내 모드(intra-mode)를 나타내는 제1제어신호 또는 간 모드(inter-mode)를 나타내는 제2제어신호를 생성하는 부호화 모드 결정 수단; 상기 제1 및 제2 제어신호에 응답하여 상기 다수의 현정점 및 상기 다수의 예측정점을 각각 다수의 선택정점으로 선택하는 정점 선택 수단; 및 상기 선택정점을 기초로 상기 현윤곽선을 부호화하기 위한 부호화 수단을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 장치.A video signal encoding apparatus encoding a video signal of a current contour of the object based on a previous contour of an object, wherein a predetermined number of prior vertices are provided on the whole contour. The apparatus of claim 1, further comprising: vertex determination means for determining a plurality of vertices on the contour; Mapping means for mapping the respective vertices on the current contour and generating a prediction vertex corresponding to the respective vertices on the current contour; Vertex displacement calculation means for calculating a vertex displacement between each of the front vertices and a corresponding prediction vertex; Encoding mode determination means for determining an encoding mode of the current contour based on the current point, and generating a first control signal representing an intra-mode or a second control signal representing an inter-mode. ; Vertex selecting means for selecting the plurality of current vertices and the plurality of prediction vertices as a plurality of selection vertices respectively in response to the first and second control signals; And encoding means for encoding the current contour on the basis of the selection vertex. 제11항에 있어서, 상기 부호화 수단은: 상기 다수의 선택정점을 기초로 상기 현윤곽선을 근사하여, 다수의 주 근사화 에러를 생성하는 현윤곽선 근사화 수단; 상기 다수의 선택 정점을 기초로 상기 전윤곽선을 근사하여, 다수의 부 근사화 에러를 생성하되, 상기 제1제어신호에 응답하는 상기 다수의 부 근사화 에러가 0인 전윤곽선 근사화 수단; 상기 다수의 주 근사화 에러에서 상기 다수의 부 근사화 에러를 각각 감산하여 다수의 차이 에러를 생성하는 차감 수단; 상기 다수의 차이 에러를 변환하여 다수의 차이 변환 에러를 생성하는 변환 수단; 및 상기 제1제어신호에 응답하여 상기 다수의 현정점의 위치를 나타내는 현정점 정보와 상기 다수의 차이 변환 에러를 상기 현윤곽선에 대한 부호화 데이터로 선택하고, 상기 제2응답신호에 응답하여 상기 다수의 정점 변위를 나타내는 변위 정보와 상기 다수의 차이 변환 에러를 선택하는 선택 수단을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 장치.12. The apparatus of claim 11, wherein the encoding means comprises: chord outline approximation means for generating a plurality of main approximation errors by approximating the chord contour based on the plurality of selection vertices; Total contour approximation means for generating a plurality of sub-approximation errors by approximating the total contours based on the plurality of selection vertices, wherein the plurality of sub-approximation errors in response to the first control signal is zero; Subtraction means for generating a plurality of difference errors by subtracting the plurality of sub-approximation errors from the plurality of major approximation errors, respectively; Conversion means for converting the plurality of difference errors to generate a plurality of difference conversion errors; And selecting the current point information indicating the positions of the plurality of current points and the plurality of difference transformation errors as encoded data for the current contour in response to the first control signal, and selecting the plurality of difference transformation errors in response to the second response signal. And a selection means for selecting the plurality of difference transformation errors and the displacement information indicating the vertex displacement of the edge. 제11항에 있어서, 상기 매핑 수단은: 상기 전윤곽선 및 상기 현윤곽선 상에 있는 화소의 위치를 평균함으로써 상기 두 윤곽선에 대한 두 중심점을 얻는 평균 수단; 상기 두 중심점 사이의 중심점변위를 계산하는 중심점 변위 계산 수단; 상기 두 윤곽선중 한 윤곽선을 상기 중심점변위 만큼 다른 윤곽선 쪽으로 이동함으로써 상기 전윤곽선상의 각 전정점에서 가장 가까운 상기 포개진 현윤곽선상의 한 화소를 찾아 그 화소를 예측정점으로 결정함으로써, 상기 다수의 전정점에 대응되는 다수의 예측정점을 생성하는 예측정점 결정 수단을 포함하는 것을 특징으로 하는 윤곽선 비디오 신호 부호화 장치.12. The apparatus of claim 11, wherein the mapping means comprises: averaging means for obtaining two center points for the two contours by averaging positions of pixels on the whole contour and the current contour; Center point displacement calculating means for calculating a center point displacement between the two center points; Moving one of the two contours toward another contour by the center point displacement to find a pixel on the nested current contour closest to each vertebral point on the front contour, and determining the pixel as a predictive vertex And a prediction vertex determining means for generating a plurality of prediction vertices corresponding to the contour video signal encoding apparatus.
KR1019960077896A 1996-12-30 1996-12-30 Method and apparatus for encoding a video signal of a contour of an object KR100255747B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960077896A KR100255747B1 (en) 1996-12-30 1996-12-30 Method and apparatus for encoding a video signal of a contour of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960077896A KR100255747B1 (en) 1996-12-30 1996-12-30 Method and apparatus for encoding a video signal of a contour of an object

Publications (2)

Publication Number Publication Date
KR19980058569A KR19980058569A (en) 1998-10-07
KR100255747B1 true KR100255747B1 (en) 2000-05-01

Family

ID=19492720

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960077896A KR100255747B1 (en) 1996-12-30 1996-12-30 Method and apparatus for encoding a video signal of a contour of an object

Country Status (1)

Country Link
KR (1) KR100255747B1 (en)

Also Published As

Publication number Publication date
KR19980058569A (en) 1998-10-07

Similar Documents

Publication Publication Date Title
US5757971A (en) Method and apparatus for encoding a video signal of a contour of an object
JP3386142B2 (en) Image decoding device and image decoding method
US5748789A (en) Transparent block skipping in object-based video coding systems
JP3725250B2 (en) Outline coding method
US5587741A (en) Apparatus and method for detecting motion vectors to half-pixel accuracy
KR0171151B1 (en) Improved apparatus for approximating a control image using curvature calculation technique
US5969766A (en) Method and apparatus for contour motion estimating a binary image by using a weighted block match algorithm
Yokoyama et al. Very low bit rate video coding using arbitrarily shaped region-based motion compensation
KR20000076522A (en) Motion estimation using orthogonal transform-domain block matching
US5691769A (en) Apparatus for encoding a contour of an object
JP3859788B2 (en) Object contour video signal encoding method and apparatus
KR100229546B1 (en) Method and apparatus for coding contour of video signals
KR100239308B1 (en) Method and apparatus for adaptively coding contour of image signals
US5896467A (en) Method and apparatus for encoding a contour image of an object in a video signal
KR100239302B1 (en) Countour coding method and apparatus using vertex coding
KR100255747B1 (en) Method and apparatus for encoding a video signal of a contour of an object
KR100212552B1 (en) Method and apparatus for coding counter image
US6020933A (en) Method and apparatus for encoding a motion vector
KR19990041461A (en) Sub-pixel-based motion estimation method and apparatus therefor
US5754703A (en) Method for encoding a contour of an object in a video signal
KR100296098B1 (en) Apparatus for acquiring motion vectors of control points by seperated vector quantization in control grid interpolation coder
GB2341030A (en) Video motion estimation
KR100568532B1 (en) Method for filling contour in coding and decoding of moving ficture
KR100439418B1 (en) Method for quickly searching an error central vertex in a contour polygon approximation, especially concerned with quickening a processing speed while reducing complexity
JPH02222389A (en) Moving picture encoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110201

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee