KR100307621B1 - Method for encoding and decoding contour line based on base line - Google Patents

Method for encoding and decoding contour line based on base line Download PDF

Info

Publication number
KR100307621B1
KR100307621B1 KR1019960047716A KR19960047716A KR100307621B1 KR 100307621 B1 KR100307621 B1 KR 100307621B1 KR 1019960047716 A KR1019960047716 A KR 1019960047716A KR 19960047716 A KR19960047716 A KR 19960047716A KR 100307621 B1 KR100307621 B1 KR 100307621B1
Authority
KR
South Korea
Prior art keywords
data
outline
sample
error
outermost
Prior art date
Application number
KR1019960047716A
Other languages
Korean (ko)
Other versions
KR980007741A (en
Inventor
이시화
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to US08/967,324 priority Critical patent/US5974187A/en
Publication of KR980007741A publication Critical patent/KR980007741A/en
Application granted granted Critical
Publication of KR100307621B1 publication Critical patent/KR100307621B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: An outline encoding and decoding method based on the base line is provided to compensate motion efficiently by sampling the contour line data changing slowly, and to improve performance by keeping the contour line sample continuously. CONSTITUTION: A base line is decided for sampling the outline(60). The sampling rate is extracted according to the size of quantization step(61). The contour line is sampled according to the decided base line and the sampling rate, and the shape of the object is reconstructed(62). Data is generated with extracting outmost samples(63), and the reconstructed shape is generated with using the outmost sample data(64). The shape of the object is subtracted from the outmost sample data(65), and samples of residue contours are extracted(66). Error samples are arranged as non-shape data, and encoded by processing. Overlapping is prevented, and motion is compensated with sampling the contour line.

Description

기준선 기반 외곽선 부호화 및/또는 복호화방법Baseline Based Outline Coding and / or Decoding Method

본 발명은 영상 부호화방법에 관한 것으로서, 특히 기준선 기반 외곽선 부호화 및/또는 복호화방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image encoding method, and more particularly, to a reference line-based outline encoding and / or decoding method.

객체에 대한 외곽선의 부호화는 정지영상 혹은 동영상에서 객체를 단위로 하는 부호화에 있어서 중요한 역할을 한다. 특히, MPEG4 등과 같은 저전송률 부호화의 경우에는 외곽선이 부호화에 따르는 부담을 최대한 줄여야 하기 때문에 원래의 외곽선과 비슷하게 재현하면서도 압축효과가 높아야 한다. 또한, 외곽선들은 대부분의 경우 연속성을 갖고 있기 때문에 완만하게 변하는 1차원 데이타로 구성할 수 있으므로 변환을 이용한 부호화에 적합하다.The encoding of the outline of an object plays an important role in the encoding of an object in a still image or a moving image. In particular, in the case of low bit rate encoding such as MPEG4, the outline needs to reduce the burden of coding as much as possible, so the compression effect should be high while reproducing the original outline in a similar manner. In addition, since the outlines are continuous in most cases, they can be composed of one-dimensional data that changes slowly, and thus are suitable for encoding using transforms.

현재까지 일반적으로 사용되고 있는 외곽선 부호화방법은 컴퓨터 비젼에서 널리 사용되고 있는 체인 코딩(chain coding) 방법으로서, 각 방향에 대하여 코드를 미리 정의하고, 외곽선을 일정한 방향으로 추적하면서 추적방향에 대해 미리 정의된 코드를 사용하여 부호화하는 방법이다. 이 체인 코딩방법은 외곽선에 대한 정보를 전혀 잃지 않기 때문에 원래의 외곽선과 똑같이 재생할 수 있는 장점을 가지나, 부호화에 의하여 발생되는 비트발생량이 많고 비디오와 같은 시퀀스에서 시간적인 중복성을 고려하기 힘든 단점을 가진다. 이러한 체인 코딩방법의 단점을 극복하기 위하여 재현성과 비트발생량을 절충하는 방법이 제안되었다. 그러나, 이러한 경우 비트발생량은 절감할 수 있지만 체인 코딩방법의 근본적인 단점을 극복하지 못한다.The outline coding method generally used until now is a chain coding method which is widely used in computer vision. The code is defined in advance for each direction, and a code defined in advance for the tracking direction while tracing the outline in a predetermined direction And the like. This chain coding method has the advantage that it can reproduce the same as the original outline because it does not lose information about the outline, but it has a drawback that it takes a large amount of bits generated by encoding and time redundancy in a sequence like video . In order to overcome the disadvantages of such a chain coding method, a method of compromising the reproducibility and the bit generation amount has been proposed. However, in this case, the amount of bits can be reduced, but the fundamental drawback of the chain coding method can not be overcome.

영상처리분야에서는 아주 정확한 외곽선 재현을 요구하지 않는 많은 응용분야들이 있다. 이러한 응용분야에서는 비트발생량이 많은 체인 코딩방법이 큰 부담으로 작용하기 때문에 완전하게 외곽선정보를 재현 하지 않지만 비트발생량에서 효과적인 외곽선 부호화방법들이 제안 되었다. 이러한 방법들중의 하나가 다각형 근사화(polgonal approximation)방법으로서, 하나의 객체에 관련된 전체 외곽선에 대하여 내부 또는 외부에 다각형으로 근사시키는 방법이다. 그러나, 다각형 근사화방법은 비트발생면에서 매우 효과적이긴 하나 재현성이 떨어지는 단점을 가진다.There are many applications in the field of image processing that do not require very accurate outline representation. In this application field, since the chain coding method having a large bit generation amount is a large burden, effective outline encoding methods are not proposed in the present invention. One of these methods is a method of approximating a polygon inside or outside with respect to an entire outline related to one object as a method of a polygonal approximation. However, the polygonal approximation method has a disadvantage in that the reproducibility is poor, though it is very effective in terms of bit generation.

이러한 단점을 극복하기 위하여 스플라인 근사화(spline approximation)방법이 사용되었다. 전통적인 다각형 근사화방법이 외곽선에 대하여 직선으로 근사화시키는 것에 비하여 스플라인 근사화방법은 곡선으로 근사화함으로써 동일한 비트발생량에 대하여 보다 높은 재현성을 실현할 수 있다.A spline approximation method has been used to overcome this drawback. Conventional polygonal approximation method approximates a straight line to an outline, whereas a spline approximation method approximates to a curve to realize higher reproducibility with respect to the same bit generation amount.

한편, 스플라인 기법대신 이산사인변환(Discrete Sine Transform;이하 DST라 약함)을 사용하여 비트발생량에서 다각형 근사화방법의 효율성을 유지하면서 보다 복잡한 모양의 외곽선에 대해서도 높은 재현성을 갖는 부호화방법이 개발되었다. 이 방법에서는, 우선 다각형 근사화방법에 의하여 외곽선을 근사화시키고, 다각형과 외곽선과의 차이에 대하여 다각형의 한 직선당 일정수로 샘플링한 후, 샘플링된 에러값에 대하여 DST와 양자화를 수행하여 부호화한다. 이 방법에 의하면 비트발생량이 적을 뿐 아니라 보다 복잡한 외곽선까지 재현할 수 있는 장점을 가진다.On the other hand, a coding method having high reproducibility for a more complex outline is developed while maintaining the efficiency of the polygonal approximation method in the bit generation amount by using Discrete Sine Transform (DST) instead of the spline technique. In this method, the outline is first approximated by the polygonal approximation method, the difference between the polygon and the outline is sampled at a predetermined number per one straight line of the polygon, and the sampled error value is encoded by performing DST and quantization. According to this method, not only a small amount of bits are generated but also a more complex outline can be reproduced.

그러나 상기 언급한 여러가지의 외곽선 부호화방법들은 모두 정지영상에서의 외곽선 부호화를 수행하는 방법들이다. 동영상에서 각 객체들은 인접한 시간내에서는 대체로 비슷한 모양과 위치에 있기 때문에 일반적인 동영상에서와 같이 각 객체들의 외곽선들도 시간적인 중복성을 갖는다. 따라서 동영상의 외곽선에 대하여 시간적인 중복성을 이용하여 부호화함으로써 부호화 효율을 높일 수 있다. 동영상에서의 외곽선 부호화방법의 예로는, k번째 프레임의 객체에 대하여 k-1 번째 프레임의 객체를 움직임 평가를 통하여 움직임 평가하고 이를 보상함으로써, 객체를 중첩시켜 중첩되지 않는 부분에서 부호화되어야할 외곽선을 추출하여 이를 체인 코딩방법을 통하여 부호화하는 것이다. 그러나, 이 방법은 움직임이 발생된 객체들의 외곽선이 매우 복잡하게 변하는 경우에는 부호화되어야 할 외곽선이 작은 길이로 많이 발생함으로써 외곽선의 시작점 좌표가 빈번하게 부호화되어야 하므로 비효율적인 단점이 있다.However, all of the above-mentioned various outline encoding methods are methods for performing outline encoding on a still image. Since each object in a video is in a similar shape and position within an adjacent time, the outline of each object also has temporal redundancy as in a general video. Therefore, the encoding efficiency can be improved by encoding the outline of the moving image by using temporal redundancy. An example of an outline coding method in a moving picture is to estimate a motion of an object of a k-th frame by motion estimation through motion estimation for an object of a k-th frame, and compensate for the motion, And then encodes it through a chain coding method. However, in this method, when the outline of the generated objects changes very complexly, since the outline to be encoded is generated in a small length, the start point coordinates of the outline must be frequently encoded, which is an inefficient disadvantage.

이러한 단점을 극복하기 위하여 객체의 외곽선 부호화에서 중심점으로부터 일정한 증가각도에 대하여 외곽선까지의 거리를 측정하고, 측정된 거리를 이산여현변환을 이용하여 부호화하는 중심점 기반 외곽선 부호화방법이 동일 출원인에 의해 선출원된 바 있다. 이러한 중심점 기반 외곽선 부호화의 경우, 중심점으로부터 선택된 인접한 외곽선 샘플들간의 거리가 매우 다른 경우가 많다. 즉, 중심점으로부터 가까운 외곽선의 경우에는 매우 많은 샘플들이 추출되고, 중심점으로부터 먼 외곽선에서는 매우 적은 샘플들이 추출된다. 따라서 중심점으로부터 먼 외곽선이 복잡한 형태를 갖는다면 이를 정확하게 복원하기 위하여 샘플링을 위한 각도가 조밀해야 하고, 이러한 경우 가까운 외곽선에서는 필요 이상의 샘플들이 추출됨으로써 부호화된 데이타에서 비트 발생량이 증가하는 원인이 된다.In order to overcome this disadvantage, a center-point-based outline encoding method for measuring the distance from the center point to the outline with respect to the center line in the outline encoding of the object and encoding the measured distance using the DCT is described in There is a bar. In such a center-point-based outline encoding, the distance between adjacent outline samples selected from the center point is often very different. That is, a very large number of samples are extracted in the case of the outline near the center point, and a very small number of samples are extracted in the outline far from the center point. Therefore, if the outline far from the center point has a complicated shape, the angle for sampling must be dense in order to accurately recover it. In this case, unnecessary samples are extracted at the near outline, which causes the amount of bits generated in the encoded data to increase.

따라서 본 발명의 목적은 상술한 문제점을 해결하기 위하여 객체의 기준선을 이용하여 외곽선을 샘플링하기 위한 외곽선 샘플링방법을 제공하는데 있다.Accordingly, it is an object of the present invention to provide an outline sampling method for sampling an outline using an object baseline in order to solve the above-mentioned problems.

본 발명의 또 다른 목적은 상기 외곽선 샘플링방법에 의해 샘플링된 외곽선 데이타를 부호화 및/또는 복호화하기 위한 외곽선 부호화 및/또는 복호화방법을 제공하는데 있다.It is still another object of the present invention to provide an outline encoding and / or decoding method for encoding and / or decoding outline data sampled by the outline sampling method.

상기 목적을 달성하기 위하여 본 발명에 의한 외곽선 샘플링방법은 정지영상 혹은 동영상에서 객체에 대한 기준선과 샘플링 간격을 결정하는 단계; 상기 기준선과 샘플링 간격을 이용하여 상기 객체의 외곽선을 샘플링하여 외곽선 데이타를 생성하고, 상기 외곽선 데이타로 부터 상기 객체의 모양을 복원하는 단계; 상기 샘플링한 외곽선 데이타로 부터 상기 객체의 최외곽 샘플들을 추출하는 단계; 상기 최외곽 샘플들을 이용하여 외곽선을 복원하는 단계; 및 상기 복원된 객체의 모양에서부터 상기 복원된 외곽선의 차를 구하여 에러 샘플들을 추출하는 단계를 구비하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an outline sampling method comprising: determining a reference line and a sampling interval for an object in a still image or a moving image; Generating outline data by sampling an outline of the object using the reference line and a sampling interval, and restoring the shape of the object from the outline data; Extracting outermost samples of the object from the sampled outline data; Restoring an outline using the outermost samples; And extracting error samples by obtaining a difference between the reconstructed outline from the shape of the reconstructed object.

상기 목적을 달성하기 위하여 본 발명에 의한 외곽선 샘플링방법은 정지영상 혹은 동영상에서 객체의 모양 마스크에 대한 기준선과 샘플링 간격을 결정하는 단계; 상기 기준선에서 가장 큰 거리값을 갖는 샘플의 위치를 최초의 샘플점으로 하여 진행방향을 고려한 우선순위에 따라서 상기 객체의 외곽선을 샘플링하는 단계; 상기 샘플링 단계에서 해당 샘플점이 상기 객체의 모양 마스크에서 전환점에 해당하는 것인지를 판단하는 단계; 상기 전환점 판단단계에서 상기 해당 샘플점이 전환점인 경우 상기 기준선상에서 상기 전환점에 해당하는 좌표값을 두 번 반복처리하고, 상기 전환점의 위치데이타를 추출하는 단계; 및 상기 전환점 판단단계에서 상기 해당 샘플점이 전환점이 아닌 경우 상기 기준선상에서 상기 해당 샘플점까지의 거리데이타를 추출하는 단계를 구비하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of sampling an outline, comprising: determining a reference line and a sampling interval for a shape mask of an object in a still image or a moving image; Sampling an outline of the object in accordance with a priority in consideration of a traveling direction with a position of a sample having a largest distance value on the reference line as a first sample point; Determining whether the corresponding sample point corresponds to a turning point in the shape mask of the object in the sampling step; If the corresponding sample point is a turning point, repeating the coordinate value corresponding to the turning point twice on the reference line and extracting the position data of the turning point; And extracting distance data from the reference line to the corresponding sample point when the corresponding sample point is not a change point in the change point determination step.

상기 다른 목적을 달성하기 위하여 본 발명에 의한 기준선 기반 외곽선 부호화 및 복호화방법은 정지영상 혹은 동영상에서 객체의 외곽선을 기준선을 이용하여 샘플링하여 최외곽 데이타와 에러 데이타를 생성하는 단계; 상기 최외곽 데이타와 에러 데이타를 각각 움직임 보상-변환 구조를 이용하여 부호화하는 단계;According to another aspect of the present invention, there is provided a method of encoding and decoding a reference line-based outline, comprising the steps of: generating an outline data and error data by sampling an outline of an object in a still image or a moving image using a reference line; Encoding the outermost data and error data using a motion compensation-transform structure, respectively;

상기 부호화된 최외곽 데이타들과 에러 데이타들로 부터 각각 최외곽 샘플과 에러 샘플을 복원하는 단계; 상기 복원된 최외곽 샘플로 부터 에러 샘플을 감산하여 원래의 샘플 데이타에 양자화로 인한 에러가 첨가된 복원 데이타를 재생하는 단계; 및 상기 재생된 복원 데이타를 움직임 보상-변환 구조를 이용하여 복호화하는 단계를 구비하는 것을 특징으로 한다.Reconstructing an outermost sample and an error sample from the encoded outermost data and error data; Subtracting an error sample from the reconstructed outermost sample to reproduce reconstruction data to which error due to quantization is added to original sample data; And decoding the reproduced restoration data using a motion compensation-transform structure.

도 1은 본 발명에 의한 외곽선 부호화 및 복호화방법을 실행하기 위한 장치를 나타낸 블럭도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an apparatus for executing an outline encoding and decoding method according to the present invention; FIG.

도 2는 도 1에 있어서 외곽선 샘플링기의 제1실시예에 따른 동작을 설명하기 위한 흐름도.FIG. 2 is a flowchart for explaining an operation according to the first embodiment of the outline sampling unit in FIG. 1; FIG.

도 3은 객체의 외곽선과 기준선의 예.Figure 3 is an example of an outline and a baseline of an object.

도 4는 도 2의 방법에 의하여 추출된 도 3의 외곽선 데이터의 예.4 is an example of the outline data of FIG. 3 extracted by the method of FIG.

도 5는 도 3에서 외곽선 샘플링 데이타의 예.5 is an example of outline sampling data in FIG.

도 6은 도 3에서 최외곽 데이타(data0)로부터 재생된 데이타의 예.6 shows an example of data reproduced from the outermost data (data 0) in FIG.

도 7은 도 3에서 에러 데이타(data1, data2)로부터 재생된 데이타의 예.FIG. 7 shows an example of data reproduced from the error data (data1, data2) in FIG.

도 8은 도 1에 있어서 외곽선 샘플링기의 제2실시예에 따른 동작을 설명하기 위한 흐름도.FIG. 8 is a flowchart for explaining an operation according to the second embodiment of the outline sampling unit in FIG. 1; FIG.

도 9는 도 8에서 진행 방향성을 고려하여 다음 샘플점을 찾는 우선 순위를 나타낸 도면.FIG. 9 is a diagram showing a priority order for finding a next sample point in consideration of a traveling direction in FIG. 8; FIG.

도 10은 전환점의 예.10 shows an example of a turning point.

도 11은 도 8의 방법에 의하여 추출된 도 3의 외곽선 데이터의 예.11 is an example of the outline data of Fig. 3 extracted by the method of Fig.

도 12는 거리 데이터를 사용한 데이터 복원의 예.12 shows an example of data restoration using distance data.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 의한 외곽선 부호화기 및 복호화기를 나타낸 블럭도로서, 외곽선 부호화기(10)는 외곽선 샘플링기(20), 움직임 평가기(21), 감산기(22), 변환기(23), 양자화기(24), 가변길이 부호화기(VLC;25), 역양자화기(26), 역변환기(27), 가산기(28), 복원 외곽선 저장기(29), 움직임 보상기(30)로 구성되고, 외곽선 복호화기(11)는 가변길이 복호화기(VLD;40), 역양자화기(41), 역변환기(42), 가산기(43), 복원 외곽선 저장기(44), 움직임 보상기(45)로 구성된다.FIG. 1 is a block diagram illustrating an outline encoder and a decoder according to the present invention. The outline encoder 10 includes an outline sampling unit 20, a motion estimator 21, a subtracter 22, a converter 23, a quantizer 24, a variable length coder (VLC) 25, an inverse quantizer 26, an inverse transformer 27, an adder 28, a reconstruction contour storage 29 and a motion compensator 30, The decoder 11 includes a variable length decoder (VLD) 40, an inverse quantizer 41, an inverse transformer 42, an adder 43, a restored contour storage 44, and a motion compensator 45.

도 1에 도시된 외곽선 부호화기(10) 및 복호화기(11)의 기본적인 처리방식은 움직임 보상 및 변환 부호화이다.The basic processing schemes of the outline coder 10 and the decoder 11 shown in Fig. 1 are motion compensation and transcoding.

외곽선 부호화기(10)에 있어서, 외곽선 샘플링기(20)에서는 마스크 영상으로 부터 기준선을 기반으로 한 외곽선의 데이타를 샘플링한다. 움직임 평가기(21)에서는 외곽선 샘플링기(20)에서 생성된 데이타를 일정한 크기의 블럭들로 나누고, 각각의 블럭들에 대하여 복원 외곽선 저장기(29)에 저장된 이전 외곽선 데이타를 참조하여 움직임을 평가한다. 움직임 보상기(30)에서는 이전 외곽선 데이타를 참조하고, 움직임 평가기(21)에서 평가된 움직임값으로 움직임 보상된 데이타를 생성한다. 이렇게 생성된 움직임 보상 데이타는 감산기(22)에서 외곽선 샘플링기(20)에서 생성된 원래의 데이타로 부터 감산된다. 감산기(22)에서 구해진 차 데이타는 변환기(23) 및 양자화기(24)를 거치면서 변환과 양자화과정을 수행한다. 양자화기(24)에서 양자화된 데이타는 VLC(25)에서 부호화되어 외곽선 복호화기(11)로 전송된다. 양자화기(24)에서 양자화된 데이타는 VLC(25)로 보내짐과 동시에 역양자화기(26)와 역변환기(27)를 순차적으로 거쳐 가산기(28)에서 움직임 보상기(30)에서 생성된 데이타와 합쳐져서 이전 외곽선 데이타를 생성한다. 이 이전 외곽선 데이타는 복원 외곽선 저장기(29)에 저장되어 다음에 들어오는 데이타의 움직임 평가 및 보상에 참조된다. VLC(25)에서는 양자화기(24)로 부터 공급되는 양자화된 데이타 이외에 부호화 처리과정에서 발생하는 처리모드(32)와 움직임 정보(31)도 함께 부호화하여 외곽선 복호화기(11)로 전송하게 된다.In the outline coder 10, the outline sampler 20 samples the outline data based on the reference line from the mask image. The motion estimator 21 divides the data generated by the outline sampling unit 20 into blocks of a predetermined size and refers to the previous outline data stored in the restoration outline storage unit 29 for each of the blocks, do. The motion compensator (30) refers to the previous outline data and generates motion compensated data from the motion estimator (21). The motion compensation data thus generated is subtracted from the original data generated by the outline sampler 20 in the subtractor 22. [ The difference data obtained by the subtractor 22 is subjected to transformation and quantization through the transformer 23 and the quantizer 24. The data quantized by the quantizer 24 is encoded by the VLC 25 and is transmitted to the outline decoder 11. The data quantized by the quantizer 24 is sent to the VLC 25 and the data generated by the motion compensator 30 are sequentially sent to the adder 28 through the inverse quantizer 26 and the inverse transformer 27 Combine to create previous outline data. This previous outline data is stored in the restoration outline storage 29 and referred to in motion estimation and compensation of the incoming data. The VLC 25 also encodes the quantized data supplied from the quantizer 24 as well as the processing mode 32 and the motion information 31 generated in the encoding process and transmits the encoded data to the outline decoder 11.

외곽선 복호화기(11)에서는 전송된 부호화된 데이타를 입력받아 외곽선 영상을 재생하는 역할을 한다. VLD(40)에서는 VLC(25)에서 전송된 데이타를 해석하여 양자화 정보, 처리모드, 움직임 정보로 구분한다. 양자화 정보는 역양자화기(41)와 역변환기(42)에서 역양자화 및 역변환과정이 수행되고, 처리모드와 움직임정보는 복원 외곽선 저장기(44)에 저장된 이전 외곽선 데이타를 참조하여 움직임 보상기(45)에서 움직임 보상을 수행한다. 가산기(43)에서는 역변환기(42)에서 출력되는 데이타와 움직임 보상기(45)에서 출력되는 데이타를 합하여 최종적인 재생 외곽선 영상을 구성하며, 이 데이타는 다시 복원 외곽선 저장기(44)에 저장되어 다음에 오는 데이타의 움직임 보상을 위한 참조데이타로 사용된다.The outline decoder 11 receives the encoded data and reproduces the outline image. In the VLD 40, data transmitted from the VLC 25 is analyzed and classified into quantization information, processing mode, and motion information. The quantization information is subjected to an inverse quantization and inverse transform process by the inverse quantizer 41 and the inverse transformer 42 and the motion mode and the motion information are calculated by referring to the previous outline data stored in the reconstruction contour storage 44, ) To perform motion compensation. The adder 43 combines the data output from the inverse transformer 42 and the data output from the motion compensator 45 to construct a final reproduction outline image. The data is stored again in the restoration outline storage 44, Is used as reference data for compensating the motion of the data coming from the memory.

도 2는 도 1에 있어서 외곽선 샘플링기(20)의 제1실시예에 따른 동작을 설명하기 위한 흐름도로서, 제60단계에서는 외곽선 샘플링을 위한 기준선을 선정하는 과정으로서, 기준선은 객체를 수직과 수평으로 투영하여 생성되는 수직선과 수평선 중에서 긴 것으로 설정한다. 도 3에서 참조번호 10은 객체를 나타내며, 참조번호 11은 이렇게 생성된 기준선의 예이다.FIG. 2 is a flowchart for explaining an operation according to the first embodiment of the outline sampling unit 20 in FIG. 1. In operation 60, a reference line for sampling an outline is selected. To be longer than the vertical line and the horizontal line that are generated. In FIG. 3, reference numeral 10 denotes an object, and reference numeral 11 denotes an example of the generated reference line.

제61단계에서는 샘플링 간격을 결정하는 과정으로서, 양자화 스텝의 크기에 따라서 결정할 수 있다. 즉, 양자화과정에서 발생되는 최대 오차는 양자화 스텝의 1/2이기 때문에 샘플링 간격을 양자화 스텝의 1/2로 함으로써 수직과 수평의 최대 오차가 같도록 할 수 있다. 제62단계에서는 결정된 기준선과 샘플링 간격에 따라서 외곽선 샘플링을 수행한다.In step 61, a sampling interval is determined. The sampling interval can be determined according to the size of the quantization step. That is, since the maximum error generated in the quantization process is 1/2 of the quantization step, the sampling interval can be set to 1/2 of the quantization step, so that the maximum error in the vertical and horizontal directions can be made equal. In operation 62, outline sampling is performed according to the determined reference line and the sampling interval.

도 4는 기준선(11)과, 동일한 샘플링 간격에 따라서 수행된 외곽선 샘플들을 나타낸다. 객체의 외곽점들을 추출하기 위하여 기준선상에 같은 간격으로 샘플점들(0~28)이 선정된다. 선정된 샘플점들로부터 객체로의 격자(grid)를 형성하여 객체의 외곽선과 격자들의 교점을 샘플링된 외곽점으로 한다. 여기서는 이들의 외곽점들의 배열에 있어서 기준선의 한쪽 끝에서 시작하여 다른 쪽으로 배열하면서 샘플링된 외곽점들중 기준선에서 가장 가까이 있는 점들을 배열하고, 다음 다시 반대 방향으로 배열하면서 기준선에서 가장 멀리 있는 점들을 배열하는 방법을 사용한다. 도 4에서 모양 데이터 0(shape data 0)는 도 3의 객체(10)를 상기의 방법으로 하여 추출한 것을 나타낸 것이다. 상기한 바와 같은 방법으로 외곽선 데이터가 추출된 다음, 아직까지 추출되지 않은 샘플링된 외곽점들을 동일한 방법으로 추출한다. 이 데이터의 예는 도 4에서 '비모양 데이터 1(non shape data 1)', '비모양 데이터 2(non shape data 2)'이다.Figure 4 shows the baseline 11 and the outline samples performed according to the same sampling interval. Sample points (0 to 28) are selected at the same interval on the reference line to extract the outer points of the object. A grid from the selected sample points to the object is formed, and the intersection of the outline of the object and the grid is set as a sampled outlier point. Here, in the arrangement of these outer points, the points closest to the reference line among the sampled outer points starting from one end of the reference line and arranging to the other are arranged, and then arranged again in the opposite direction, Use the array method. In FIG. 4, the shape data 0 indicates that the object 10 of FIG. 3 is extracted by the above method. After the outline data is extracted as described above, sampled outline points that have not yet been extracted are extracted by the same method. An example of this data is 'non shape data 1' and 'non shape data 2' in FIG.

그러나, 이러한 방법에 의해 추출된 외곽선 데이터는 갑작스러운 데이터 값의 변화를 가져오는 경우가 있다. 도 4에서 20과 21, 22과 23이 그러한 경우로, 이러한 불연속성은 '비모양 데이터 1'와 '비모양 데이터 2'가 분리되면서 나타난 것이다. 이러한 부호화에서 불연속성은 데이터의 압축효과를 저하시키는 가장 큰 요인이 된다. 즉, 기준선의 한 점에 대하여 한개의 최외곽 샘플(nL,nH; 여기서 n은 샘플번호)과 0개 이상의 에러 샘플들(pLq, pHq; 여기서 p는 샘플번호, q는 에러 데이타번호)이 구성된다. 도 5는 도 3의 과정을 통하여 생성된 샘플링된 객체의 모양(org)을 나타낸 것이다.However, the outline data extracted by this method may cause a sudden change in the data value. In FIG. 4, 20, 21, 22, and 23 are such cases, and this discontinuity is represented by separating 'non-shaped data 1' and 'non-shaped data 2'. Discontinuity in such encoding is the biggest factor that lowers the compression effect of the data. That is, one outermost sample (nL, nH, where n is a sample number) and zero or more error samples (pLq, pHq, where p is a sample number and q is an error data number) do. FIG. 5 shows the shape (org) of the sampled object generated through the process of FIG.

다시 도 2로 돌아가서, 제63단계에서는 최외곽 샘플들을 데이타로 생성한다. 도 4의 '모양 데이터 0'는 최외곽 샘플들에 대한 데이타를 나타낸 것이다. 변환을 사용하는 부호화에서 완만하게 변하는 데이타의 경우에 효과적인 부호화가 가능하다. 따라서 데이타를 1차원 데이터로 변환할 때, H에서 L로 배열되는 과정에서 작은 차이가 나도록 하는 것이 효과적인 부호화에 유리하다. 도 4의 '모양 데이터 0'과 같이 28L에서 부터 0L까지 배열하고, 다음 0H에서 부터 28H까지 배열하는 것이 0L∼28L, 28H∼0H로 배열하는 것 보다 유리하다. 이와 같이 효과적인 배열은 0H-0L, 28H-28L의 크기를 비교하여 큰 쪽에서 배열을 시작하면 된다. 이때 배열방법에 대한 표시비트를 별도로 사용하지 않기 위하여 0부터 시작할 때에는 0H부터 시작하여 시계방향으로 배열하고 28부터 시작할 때에는 28L부터 시작하여 시계 반대방향으로 배열하도록 한다. 이와 정반대의 경우로 해도 상관없으나, 외곽선 복호화기(11)에서도 같은 방법으로 배열이 되도록 하면 된다. 제63단계에서 생성된 '모양 데이터 0'는 여러개의 일정한 크기의 블럭들로 나누어져 도 1과 같은 처리구조에서 처리되어 부호화된다.Returning to FIG. 2, in operation 63, the outermost samples are generated as data. The 'shape data 0' of FIG. 4 shows data of the outermost samples. Effective encoding is possible in the case of data that changes slowly in encoding using transforms. Therefore, when converting data into one-dimensional data, it is advantageous to make a small difference in the process of arranging from H to L in order to effectively encode. It is advantageous to arrange from 28L to 0L as shown in 'shape data 0' of FIG. 4, and to arrange from 0H to 28H in the order of 0L to 28L and 28H to 0H. In such an effective arrangement, the sizes of 0H-0L and 28H-28L are compared and the array is started on the larger side. At this time, in order to not use the indication bit for the arrangement method, when starting from 0, start from 0H and arrange clockwise. When starting from 28, start from 28L and arrange in the counterclockwise direction. Alternatively, the outline decoder 11 may be arranged in the same manner as described above. The 'shape data 0' generated in operation 63 is divided into a plurality of blocks of a predetermined size and processed and coded in a processing structure as shown in FIG.

다음, 에러샘플 데이타를 추출하기 위하여 제64단계에서는 제63단계에서 생성된 최외곽 샘플데이타를 이용하여 복원된 영상을 만든다. 도 6은 도 4의 '모양 데이터 0'를 이용하여 복원된 최외곽 샘플 데이타(rec0)이다. 제65단계에서는 제64단계에서 생성된 최외곽 샘플 영상에서 제62단계에서 생성된 'org' 샘플데이타를 빼는 과정을 수행한다. 도 7은 제65단계에서 생성된 에러 샘플 데이타이다. 제66단계에서는 도 7에서와 같이 생성된 에러 샘플들이 각각 도 4의 '비모양 데이터 1' 및 '비모양 데이터 2'와 같이 별도로 배열되며, 배열방법은 최외곽 샘플들의 경우와 같은 방법으로 한다. 여기서 배열된 데이타들은 각각 일정한 크기의 블럭들로 나누어져 도 1과 같은 처리구조에서 처리되어 부호화된다.Next, in order to extract the error sample data, in operation 64, reconstructed images are created using the outermost sample data generated in operation 63. FIG. 6 is the outermost sample data rec0 restored using 'shape data 0' of FIG. In operation 65, a process of subtracting 'org' sample data generated in operation 62 from the outermost sample image generated in operation 64 is performed. 7 is the error sample data generated in operation 65. FIG. In step 66, error samples generated as shown in FIG. 7 are separately arranged as 'non-shape data 1' and 'non-shape data 2' in FIG. 4, and the arrangement method is the same as that of the outermost samples . Here, the arranged data are divided into blocks each having a predetermined size, and are processed and coded in a processing structure as shown in FIG.

한편, 도 1에 있어서, 외곽선 복호화기(11)에서는 도 2의 샘플링 방법의 역으로 복원된 데이타를 생성한다. 먼저, 재생된 최외곽 데이타들로 부터 제6도와 같은 데이타를 만든 다음 복원된 에러 데이타들로 제7도와 같은 데이타를 만들어 빼면 원래의 샘플 데이타에 양자화로 인한 에러가 첨가된 복원 데이타를 재생할 수 있다. 재생된 샘플데이타를 사용하여 최종적으로 외곽선을 복원한다.On the other hand, in Fig. 1, the outline decoder 11 generates restored data in the reverse of the sampling method of Fig. First, if data like the sixth diagram is generated from the reproduced outermost data, and then data similar to the seventh diagram is generated by using the reconstructed error data, restoration data to which an error due to quantization is added to the original sample data can be reproduced . Finally, the outline is restored using the reproduced sample data.

움직임 평가는 최외곽 데이타들의 경우에는 일정한 크기의 블럭이 재생된 이전의 최외곽 데이타들을 참조하여 현재의 위치에서 일정한 범위내에서 가장 작은 차이값을 갖는 위치변위를 움직임 정보를 사용한다. 에러 데이터의 경우에는 재생된 이전의 에러 데이타들 중에서 가장 비슷한 에러 데이타를 선정하고, 선정된 데이타에서 일정한 범위내에서 가장 작은 차이값을 갖는 위치변위를 움직임 정보로 한다. 따라서 에러 데이타의 경우에는 참조된 이전의 에러 데이타 번호도 함께 움직임 정보로 사용된다. 에러 데이타에서 데이타 수의 차이로 인하여 부분적으로 참조할 샘플 데이타가 없는 경우에는 양방향으로 각각 양 끝값을 사용하여 확장한다. 움직임 보상의 경우에는 움직임 평가와 같은 방법으로 참조영상을 결정하며, 에러 데이타의 경우에도 양방향으로 각각 양 끝값을 사용하여 참조 에러데이터로 사용한다.In the case of the outermost data, the motion estimation uses the motion information of the positional displacement having the smallest difference value within a certain range at the current position with reference to the outermost data of the previous block in which the block of a predetermined size is reproduced. In the case of error data, the most similar error data among the previously reproduced error data is selected, and the positional displacement having the smallest difference value within a certain range in the selected data is regarded as motion information. Therefore, in the case of error data, the previous error data number referenced is also used as the motion information. If there is no sample data to be partially referenced due to the difference in the number of data in the error data, both ends are used in both directions. In the case of motion compensation, the reference image is determined in the same way as the motion estimation. In the case of error data, both ends are used as reference error data in both directions.

도 8은 도 1에 있어서 외곽선 샘플링기(20)의 제2실시예에 따른 동작을 설명하기 위한 흐름도로서, 제100단계에서는 입력된 모양 마스크(shape mask)에 대하여 기준선을 선정하는 부분으로, 수평과 수직축중 긴축을 기준선으로 선정한다. 제101단계에서는 외곽선의 정확도를 조절하는 부분으로, 샘플링의 간격을 결정한다. 이때, 샘플링 간격이 넓으면 발생하는 데이터의 수가 적어지지만 재생된 외곽선의 질이 좋지 않고, 샘플링의 간격이 작으면 발생하는 데이터의 수는 많아지지만 재생된 외곽선의 질이 좋아지게 된다. 제102단계에서는 추출할 최초 데이터를 찾는 부분으로, 기준선 0에서의 샘플링 데이터중에서 가장 큰 값의 거리값을 갖는 샘플이 선정된다. 제103단계에서는 진행방향을 고려하여 현재의 샘플점에서 다음 샘플점을 찾는 부분이다. 이때는 사방 8개의 위치에 연결된 샘플들을 고려하며, 도 9와 같이 진행방향을 고려한 우선순위에 따라서 해당 위치에 처리되지 않은 샘플점이 있는 지를 확인하여 다음 샘플점을 선정한다. 제104단계에서는 모든 샘플점들이 처리되었는지를 판단하는 것으로 처음의 위치로 되돌아 오면 끝난 것으로 판단한다. 제105단계에서는 현재의 샘플점이 전환점(turning point)인지를 판단하는 부분으로, 전환점에서는 기준선상의 좌표값이 두번 반복된다. 한편, 하나의 샘플점에서 되돌아가는 경우에는 그 샘플점을 1회 반복하여 처리하므로써 이 판단기준을 일반화할 수 있다. 이는 도 10에 그 예를 나타내었다. 제106단계에서는 제105단계에서의 판단결과에 의하여 전환점으로 판단되면 전환점 위치값을 추출하여 전환점 리스트에 추가한다. 제107단계에서는 제105단계에서의 판단에 의하여 전환점이 아닌 것으로 판단되면 기준선으로부터 현재 샘플점까지의 거리를 추출하여 거리 리스트에 추가한다.FIG. 8 is a flowchart for explaining an operation according to the second embodiment of the outline sampling unit 20 in FIG. 1. In operation 100, a reference line is selected for the input shape mask. And the long axis of the vertical axis is selected as the reference line. In step 101, the accuracy of the outline is adjusted, and the sampling interval is determined. At this time, if the sampling interval is wide, the number of generated data is small, but the quality of the reproduced outline is not good, and if the interval of sampling is small, the number of data generated increases, but the quality of the reproduced outline is improved. In operation 102, a portion having the largest distance value among the sampling data at the reference line 0 is selected as a portion for searching for the initial data to be extracted. In operation 103, the next sample point is found in the current sample point in consideration of the traveling direction. In this case, the samples connected to eight positions in each of the four directions are considered, and the next sample point is selected by confirming whether there is a sample point that is not processed at the corresponding position according to the priority order considering the traveling direction as shown in FIG. In operation 104, it is determined whether all sample points have been processed. In operation 105, it is determined whether the current sample point is a turning point. At the change point, the coordinate value on the reference line is repeated twice. On the other hand, in the case of returning from one sample point, this judgment point can be generalized by repeating the sample point once. This is shown in Fig. In operation 106, if it is determined that the change point is a change point in operation 105, the change point location value is extracted and added to the change point list. In operation 107, if it is determined in operation 105 that the change point is not a change point, the distance from the reference line to the current sample point is extracted and added to the distance list.

상기와 같은 과정을 통하여 최종적으로 전환점들의 위치와 거리 데이타들이 추출되어 도 1에 도시된 바와 같은 외곽선 부호화기로 보내진다. 도 11는 도 8의 r과정에 의하여 추출된 도 3의 외곽선 데이터의 예이다. 도 8의 과정에 의해 추출된 외곽선 샘플 데이터는 DPCM(Differential Pulse Code Modulation)이나 DCT와 같은 변환을 통해서 효과적으로 부호화할 수 있다. 즉, 데이터의 연속성이 뛰어나기 때문에 DPCM이나 DCT를 통해서 데이터의 집중효과가 우수하다.The position and distance data of the switching points are finally extracted and sent to the outline coder as shown in FIG. 1 through the above process. 11 is an example of the outline data of FIG. 3 extracted by the r process of FIG. The outline sample data extracted by the procedure of FIG. 8 can be efficiently encoded through a conversion such as DPCM (Differential Pulse Code Modulation) or DCT. That is, since the continuity of data is excellent, the data concentration effect is excellent through DPCM or DCT.

도 12는 도 8의 과정에 의해 추출된 거리데이타와 전환점 데이터를 사용하여 복원이 가능함을 보인다. n 번째에 입력된 21번의 데이터에 의하여 a)와 같이 복원되고, (n+1)번째에 입력된 20번의 데이타에 의하여 b)와 같이 복원된다. 여기서 20번 상에서 전환점이 있다는 정보가 있기 때문에 복원되던 방향은 바뀌게 된다. 또한 전환점에서는 반복하여 전환점 위치에서 다음 입력되는 샘플데이타로 복원되야 하기 때문에 (n+2)번째에는 c)와 같이 복원된다. (n+3)번째에서는 이미 복원 방향이 바뀐데로 입력되는 샘플을 복원한다. 이와 같은 방법에 의여 모든 데이터를 사용하면 최종적으로 모든 데이터를 복원할 수 있다. 본 발명에 의한 기준선 기반 외곽선 부호화방법 및/또는 복호화방법은 동영상의 외곽선 부호화 뿐만 아니라 정지영상의 외곽선 부호화에도 사용될 수 있다.12 shows that restoration is possible by using the distance data and the turning point data extracted by the process of FIG. the data is restored as shown in a) by the n-th data 21 and restored as shown in b) by the 20 data n-1. Since there is information that there is a turning point in 20 times, the direction of restoration is changed. Also, at the transition point, since it is necessary to repeatedly restore the next input sample data at the turning point, it is restored as in (c) in the (n + 2) th. (n + 3) -th sample is restored as the restoration direction has already been changed. In this way, all data can be used to restore all the data at the end. The method and / or the method for decoding a reference line based contour line according to the present invention can be used not only for contour coding of a moving image but also for contour coding of a still image.

상술한 바와 같이 본 발명에 의한 기준선 기반 외곽선 부호화 및/또는 복호화방법에 의하면, 기존의 중심점 기반 외곽선 부호화방법이 갖는 단순한 처리구조와 효과적인 시간적 중복성 제거라는 장점을 이용하면서 각 샘플들에 대한 중요도를 동등하게 하는 외곽선 샘플링방법을 채택함으로써, 중심점 기반 외곽선 부호화방식에서 가지고 있던 데이타의 중복을 근본을 방지할 수 있다.As described above, according to the method of encoding and / or decoding a reference line based contour according to the present invention, the importance of each sample is equalized using a simple processing structure of the existing center-point based contour coding method and effective elimination of temporal redundancy. , It is possible to prevent the duplication of data in the center-based outline encoding method.

또한, 완만한 변화를 갖는 외곽선 데이타의 특성을 이용하여 변환을 통한 정기영상의 외곽선 부호화에서 작은 비트 발생량으로 우수한 재현성을 가지며, 변환 및 움직임 평가를 통한 동영상의 외곽선 부호화에서 작은 비트 발생량으로 우수한 재현성을 가진다. 또한, 본 발명에 의한 기준선 기반 외곽선 부호화 및/또는 복호화방법을 실현하는 장치가 기존의 움직임 보상-변환 부호화구조를 가지므로 하드웨어 구현에 따르는 비용을 절감할 수 있다.In addition, by using characteristics of outline data with gentle change, it has good reproducibility in small bit generation in outline coding of regular image through conversion, and excellent reproducibility in small bit generation in outline coding of moving image through conversion and motion estimation I have. In addition, since the apparatus for realizing the method of encoding and / or decoding a reference line based on the present invention has a conventional motion compensation-transform coding structure, it is possible to reduce the cost of hardware implementation.

동영상에서 외곽선들은 완만하게 변하는 성향을 가지므로 역시 본 발명에 의한 외곽선 샘플링방법을 이용하여 샘플링한 1차원 데이타 상에서도 효과적으로 움직임 평가와 보상이 가능하다. 따라서 기존의 외곽선 부호화방식보다 효과적인 부호화가 가능하다. 또한, 추출된 외곽선 샘플들은 연속성을 유지하고 있기 때문에 DPCM이나 DCT와 같은 변환을 통한 부호화에 매우 우수한 성능을 갖는다. 또한, 여러 가지 종류의 데이터로 분리되지 않기 때문에 움직임 보상시에도 구조가 간단해지며, 특히 이전 외곽선 샘플들을 참조할 수 있기 때문에 움직임 보상에서도 우수한 성능을 갖는다.Since the outline of the moving image has a tendency to change smoothly, motion estimation and compensation can be effectively performed even on the one-dimensional data sampled using the outline sampling method according to the present invention. Therefore, it is possible to perform coding more effectively than the conventional outline coding method. In addition, since the extracted outline samples maintain continuity, they have excellent performance in encoding through conversion such as DPCM or DCT. In addition, since it is not separated into various types of data, the structure is simplified even when motion compensation is performed. In particular, since the previous outline samples can be referred to, excellent performance is obtained in motion compensation.

Claims (13)

정지영상 혹은 동영상에서 객체에 대한 기준선과 샘플링 간격을 결정하는 단계;Determining a reference line and a sampling interval for an object in a still image or a moving image; 상기 기준선과 샘플링 간격을 이용하여 상기 객체의 외곽선을 샘플링하여 외곽선 데이타를 생성하고, 상기 외곽선 데이타로 부터 상기 객체의 모양을 복원하는 단계;Generating outline data by sampling an outline of the object using the reference line and a sampling interval, and restoring the shape of the object from the outline data; 상기 샘플링한 외곽선 데이타로 부터 상기 객체의 최외곽 샘플들을 추출하는 단계;Extracting outermost samples of the object from the sampled outline data; 상기 최외곽 샘플들을 이용하여 외곽선을 복원하는 단계; 및Restoring an outline using the outermost samples; And 상기 복원된 객체의 모양에서부터 상기 복원된 외곽선의 차를 구하여 에러 샘플들을 추출하는 단계를 구비하는 것을 특징으로 하는 외곽선 샘플링방법.And extracting error samples by obtaining a difference between the reconstructed outline from the shape of the reconstructed object. 제1항에 있어서, 상기 기준선은 상기 객체를 수직과 수평으로 투영하여 생성되는 수직선과 수평선 중에서 긴 것으로 설정하는 것을 특징으로 하는 외곽선 샘플링방법.2. The method according to claim 1, wherein the reference line is set to be longer than a vertical line and a horizontal line generated by projecting the object vertically and horizontally. 제2항에 있어서, 상기 샘플링 간격은 양자화 스텝의 크기에 따라서 결정하는 것을 특징으로 하는 외곽선 샘플링방법.3. The method of claim 2, wherein the sampling interval is determined according to a size of a quantization step. 제3항에 있어서, 상기 샘플링 간격은 상기 양자화 스텝의 크기의 1/2로 설정하는 것을 특징으로 하는 외곽선 샘플링방법.4. The method according to claim 3, wherein the sampling interval is set to 1/2 of a size of the quantization step. 제1항과 같은 방법으로 샘플링된 외곽선 데이타를 1차원 데이타로 변환하기 위하여, 상기 최외곽 샘플 및 에러 샘플을 배열할 경우 상기 객체의 왼쪽과 오른쪽에서 각 가장자리 샘플의 상단 외곽선과 하단 외곽선의 차이값을 비교하여, 차이값이 큰쪽에서 부터 배열을 시작하는 것을 특징으로 하는 샘플 배열방법.When the outermost samples and the error samples are arranged in order to convert the sampled outline data into the one-dimensional data, a difference value between the upper and lower outlines of each edge sample on the left and right sides of the object And the array is started from the side having a larger difference value. 제5항에 있어서, 왼쪽 가장자리 샘플에서부터 배열을 시작할 경우에는 상기 왼쪽 가장자리 상단 외곽선 샘플부터 시작하여 시계방향으로 배열하고, 상기 오른쪽 가장자리 샘플에서부터 배열을 시작할 경우에는 상기 오른쪽 가장자리 외곽선 샘플부터 시작하여 시계 반대방향으로 배열하는 것을 특징으로 하는 샘플 배열방법.6. The method of claim 5, wherein, when starting the array from the left edge sample, the samples are arranged in a clockwise direction starting from the sample of the left edge upper edge outline, and when arranging is started from the right edge sample, Lt; RTI ID = 0.0 > direction. ≪ / RTI > 제1항과 같은 방법으로 정지영상 혹은 동영상에서 객체의 외곽선을 기준선을 이용하여 샘플링하여 최외곽 데이타와 에러 데이타를 생성하는 단계; 및The method of claim 1, further comprising: sampling an outline of an object in a still image or a moving image using a reference line to generate outlier data and error data; And 상기 최외곽 데이타와 에러 데이타를 각각 움직임 보상-변환 구조를 이용하여 부호화하는 단계를 구비하는 것을 특징으로 하는 기준선 기반 외곽선 부호화방법.And encoding the outermost data and error data using a motion compensation-transform structure, respectively. 제7항과 같은 방법으로 부호화된 최외곽 데이타들과 에러 데이타들로 부터 각각 최외곽 샘플과 에러 샘플을 복원하는 단계;Reconstructing an outermost sample and an error sample from the encoded outermost data and the error data, respectively; 상기 복원된 최외곽 샘플로 부터 에러 샘플을 감산하여 원래의 샘플 데이타에 양자화로 인한 에러가 첨가된 복원 데이타를 재생하는 단계; 및Subtracting an error sample from the reconstructed outermost sample to reproduce reconstruction data to which error due to quantization is added to original sample data; And 상기 재생된 복원 데이타를 움직임 보상-변환 구조를 이용하여 복호화하는 단계를 구비하는 것을 특징으로 하는 기준선 기반 외곽선 복호화방법.And decoding the reconstructed reconstructed data using a motion compensation-transform structure. 제1항과 같은 방법으로 정지영상 혹은 동영상에서 객체의 외곽선을 기준선을 이용하여 샘플링하여 최외곽 데이타와 에러 데이타를 생성하는 단계;The method of claim 1, further comprising: sampling an outline of an object in a still image or a moving image using a reference line to generate outlier data and error data; 상기 최외곽 데이타와 에러 데이타를 각각 움직임 보상-변환 구조를 이용하여 부호화하는 단계;Encoding the outermost data and error data using a motion compensation-transform structure, respectively; 상기 부호화된 최외곽 데이타들과 에러 데이타들로 부터 각각 최외곽 샘플과 에러 샘플을 복원하는 단계;Reconstructing an outermost sample and an error sample from the encoded outermost data and error data; 상기 복원된 최외곽 샘플로 부터 에러 샘플을 감산하여 원래의 샘플 데이타에 양자화로 인한 에러가 첨가된 복원 데이타를 재생하는 단계; 및Subtracting an error sample from the reconstructed outermost sample to reproduce reconstruction data to which error due to quantization is added to original sample data; And 상기 재생된 복원 데이타를 움직임 보상-변환 구조를 이용하여 복호화하는 단계를 구비하는 것을 특징으로 하는 기준선 기반 외곽선 부호화 및 복호화방법.And decoding the reconstructed reconstructed data using a motion compensation-transform structure. ≪ Desc / Clms Page number 19 > 제7항 내지 제9항 중 어느 한 항에 있어서, 상기 최외곽 샘플들의 경우 움직임 평가 및 보상시, 일정한 크기의 블럭이 재생된 이전의 최외곽 샘플 데이타들을 참조하여 현재의 위치에서 일정한 범위내에서 가장 작은 차이값을 갖는 위치변위를 움직임 정보로 사용하는 것을 특징으로 하는 기준선 기반 외곽선 부호화방법.The method as claimed in any one of claims 7 to 9, wherein, in the motion estimation and compensation of the outermost samples, referring to the previous outermost sample data in which blocks of a predetermined size are reproduced, And the positional displacement having the smallest difference value is used as the motion information. 제7항 내지 제9항 중 어느 한 항에 있어서, 상기 에러 샘플들의 경우 움직임 평가 및 보상시, 재생된 이전의 에러 데이타들 중에서 가장 비슷한 에러 데이타를 선정하고, 선정된 에러 데이타에서 일정한 범위내에서 가장 작은 차이값을 갖는 위치변위를 움직임 정보로 사용하는 것을 특징으로 하는 기준선 기반 외곽선 부호화방법.10. The method according to any one of claims 7 to 9, wherein, in the case of the motion estimation and compensation for the error samples, the most similar error data among the previously reproduced error data is selected, And the positional displacement having the smallest difference value is used as the motion information. 정지영상 혹은 동영상에서 객체의 모양 마스크에 대한 기준선과 샘플링 간격을 결정하는 단계;Determining a baseline and a sampling interval for a shape mask of an object in a still image or a moving image; 상기 기준선에서 가장 큰 거리값을 갖는 샘플의 위치를 최초의 샘플점으로 하여 진행방향을 고려한 우선순위에 따라서 상기 객체의 외곽선을 샘플링하는 단계;Sampling an outline of the object in accordance with a priority in consideration of a traveling direction with a position of a sample having a largest distance value on the reference line as a first sample point; 상기 샘플링 단계에서 해당 샘플점이 상기 객체의 모양 마스크에서 전환점에 해당하는 것인지를 판단하는 단계;Determining whether the corresponding sample point corresponds to a turning point in the shape mask of the object in the sampling step; 상기 전환점 판단단계에서 상기 해당 샘플점이 전환점인 경우 상기 기준선상에서 상기 전환점에 해당하는 좌표값을 두 번 반복처리하고, 상기 전환점의 위치데이타를 추출하는 단계; 및If the corresponding sample point is a turning point, repeating the coordinate value corresponding to the turning point twice on the reference line and extracting the position data of the turning point; And 상기 전환점 판단단계에서 상기 해당 샘플점이 전환점이 아닌 경우 상기 기준선상에서 상기 해당 샘플점까지의 거리데이타를 추출하는 단계를 구비하는 것을 특징으로 하는 외곽선 샘플링방법.And extracting distance data from the reference line to the corresponding sample point if the corresponding sample point is not a change point in the change point determination step. 제12항과 같은 방법으로 정지영상 혹은 동영상에서 객체의 외곽선을 소정의 기준선을 이용하여 샘플링하여 전환점의 위치데이타와 거리데이타를 생성하는 단계; 및The method of claim 12, further comprising: sampling an outline of an object in a still image or a moving image using a predetermined reference line to generate position data and distance data of a turning point; And 상기 전환점의 위치데이타와 거리데이타를 각각 움직임 보상-변환 구조를 이용하여 부호화하는 단계를 구비하는 것을 특징으로 하는 기준선 기반 외곽선 부호화방법.And encoding the position data and the distance data of the switching point using a motion compensation-conversion structure, respectively.
KR1019960047716A 1996-06-30 1996-10-21 Method for encoding and decoding contour line based on base line KR100307621B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US08/967,324 US5974187A (en) 1996-10-21 1997-10-21 Baseline-based contour coding and decoding method and apparatus therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR19960026932 1996-06-30
KR26932 1996-06-30
KR1019960026932 1996-06-30

Publications (2)

Publication Number Publication Date
KR980007741A KR980007741A (en) 1998-03-30
KR100307621B1 true KR100307621B1 (en) 2001-11-30

Family

ID=37530461

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960047716A KR100307621B1 (en) 1996-06-30 1996-10-21 Method for encoding and decoding contour line based on base line

Country Status (1)

Country Link
KR (1) KR100307621B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182910A1 (en) * 2014-05-26 2015-12-03 김대영 High definition image broadcasting
KR101593316B1 (en) * 2014-08-18 2016-02-11 경희대학교 산학협력단 Method and apparatus for recontructing 3-dimension model using stereo camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100371868B1 (en) * 2001-02-19 2003-02-12 학교법인 한국정보통신학원 Object mask tracking apparatus for object-based access in image encoding/decoding system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182910A1 (en) * 2014-05-26 2015-12-03 김대영 High definition image broadcasting
KR101593316B1 (en) * 2014-08-18 2016-02-11 경희대학교 산학협력단 Method and apparatus for recontructing 3-dimension model using stereo camera

Also Published As

Publication number Publication date
KR980007741A (en) 1998-03-30

Similar Documents

Publication Publication Date Title
CA2087802C (en) Arrangement of encoding motion image signals using motion compensation and orthogonal transformation
KR100235347B1 (en) Method and apparatus for encoding a video signal of a contour of an object
JP3888597B2 (en) Motion compensation coding apparatus and motion compensation coding / decoding method
US4281344A (en) Video interframe transform coding technique
ES2275037T3 (en) VIDEO CODING PROCEDURE WITH CAST COMPENSATION.
US5943096A (en) Motion vector based frame insertion process for increasing the frame rate of moving images
GB2375673A (en) Image compression method using a table of hash values corresponding to motion vectors
KR100442844B1 (en) Method for coding a contour of an object by using a central point and a coding device using the coding method, especially in connection with very effectively performing a contour coding in a moving image as well as a contour coding in a still image
KR100235064B1 (en) Apparatus for coding objects using block based coding technique
KR100307621B1 (en) Method for encoding and decoding contour line based on base line
KR20040035390A (en) Method and apparatus for motion estimation using of adaptive search pattern for video sequence compression
JPH07135660A (en) Movement vector coder
US5754703A (en) Method for encoding a contour of an object in a video signal
KR101500300B1 (en) Selective Low-Power Video Codec with Interaction Between Encoder and Decoder, and an Encoding/Decoding Method Thereof
KR100601935B1 (en) Method and apparatus for processing digital motion image
KR100316766B1 (en) Method for estimating and compensating contour motion of object and method for coding and/or decoding contour using the same
JPH08186722A (en) Device and method for encoding
Chang Gradient match and side match fractal vector quantizers for images
JP2616552B2 (en) Video encoding / decoding device
KR100269205B1 (en) An interpolation method of binary shape using an adaptive threshold
Shen et al. Benefits of adaptive motion accuracy in H. 26L video coding
KR100239299B1 (en) Method for encoding a contour of an object in a video signal
KR100216600B1 (en) Method of transmitting multi-code for vector quantizer of image signal
JP2005354174A (en) Motion-searching apparatus
KR100245790B1 (en) Apparatus for coding video signals

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080731

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee