KR20000073770A - Contour extraction method for video coding and decoding - Google Patents

Contour extraction method for video coding and decoding Download PDF

Info

Publication number
KR20000073770A
KR20000073770A KR1019990017264A KR19990017264A KR20000073770A KR 20000073770 A KR20000073770 A KR 20000073770A KR 1019990017264 A KR1019990017264 A KR 1019990017264A KR 19990017264 A KR19990017264 A KR 19990017264A KR 20000073770 A KR20000073770 A KR 20000073770A
Authority
KR
South Korea
Prior art keywords
pixel
value
contour
contour pixel
starting
Prior art date
Application number
KR1019990017264A
Other languages
Korean (ko)
Other versions
KR100568531B1 (en
Inventor
정재원
이진학
김재균
문주희
Original Assignee
김영환
현대전자산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 현대전자산업 주식회사 filed Critical 김영환
Priority to KR1019990017264A priority Critical patent/KR100568531B1/en
Publication of KR20000073770A publication Critical patent/KR20000073770A/en
Application granted granted Critical
Publication of KR100568531B1 publication Critical patent/KR100568531B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: A method of extracting a contour in moving image coding/decoding process is proposed to eliminate an area labeling operation requiring a long time, thereby increasing a processing efficiency. CONSTITUTION: The method of extracting a contour in moving image coding/decoding process comprises the steps: performing a rester scanning in a direction from a left upper side of a binary mask to a right lower side thereof until detecting a pixel satisfying a condition 1 or detecting the right lower side of the mask and selecting the pixel as a starting contour pixel when detecting the pixel satisfying the condition 1 and changing an existing object value into an object boundary value and ending the process when detecting the right lower side of the mask; in case the starting contour pixel is selected, rotating in a counter-clockwise until detecting a pixel having the object value and changing a background value of the pixel into a background boundary value and extracting the pixel having the object value as a next contour pixel and also changing the existing object value into an object boundary value. In the condition 1, a pixel value is the object value and also a left pixel value is the background value, the pixel value is the object boundary value and also the left pixel value is the background boundary value, or the pixel value is the object boundary value and also the left pixel value is the background value.

Description

동영상부호화 및 복호화에 있어서의 윤곽선추출방법{Contour extraction method for video coding and decoding}Contour extraction method for video coding and decoding

본 발명은, 동영상의 부호화 및 복호화 과정에서 이진마스크를 이용해서 윤곽선을 추출하기 위해 적용되는 동영상부호화 및 복호화에 있어서의 윤곽선추출방법(contour extraction method)에 관한 것이다.The present invention relates to a contour extraction method in video encoding and decoding, which is applied to extract contours using a binary mask in a video encoding and decoding process.

우선, 이하에서 본 발명의 배경기술을 이루는 동영상 부호화 방식을 개괄해보기로 한다.First, a video encoding method of the background of the present invention will be outlined.

동영상 부호화 방식은 직사각형의 프레임을 부호화하는 프레임 단위 부호화(frame-based coding) 방식과 임의 형태의 영역(arbitrary shape region)만을 부호화하는 물체 단위 부호화(object-based coding) 방식으로 나누어볼 수 있다. 상기 프레임 단위 부호화 방식은 전체 프레임의 화소를 부호화해서 전송하는 동영상 부호화 방식이며, 반면에 상기 물체 단위 부호화 방식은 부호화하고자 하는 대상영역만을 부호화해서 전송하는 동영상 부호화 방식이다. 그리고, 상기 프레임 단위 부호화 방식은 ITU-T(International Telecommunication Union-Telecommunicat -ion standardization sector; 국제전기통신연합-전기통신표준화부문)에서 제정한 표준인 H.261과 H.263 및 ISO/IEC JTC1/SC29/WG11(International Standardization Organization/ International Electrotechnical Commission Joint Technical Committee 1/Sub-Committee 29/Working Group 11)의 MPEG(Moving Picture Experts Group)에서 제정한 표준인 MPEG-1과 MPEG-2 등에 채택되고 있는 한편, 상기 물체 단위 부호화 방식은 ISO/IEC JTC1/SC29/WG11의 MPEG에서 제정한 표준인 MPEG-4 등에 채택되고 있다.The video encoding method may be divided into a frame-based coding method for encoding a rectangular frame and an object-based coding method for encoding only an arbitrary shape region. The frame unit encoding method is a video encoding method for encoding and transmitting pixels of an entire frame, whereas the object unit encoding method is a video encoding method for encoding and transmitting only a target region to be encoded. In addition, the frame-based coding scheme is H.261, H.263 and ISO / IEC JTC1 /, which are standards established by the International Telecommunication Union-Telecommunicat-ion standardization sector (ITU-T). Adopted by MPEG-1 and MPEG-2, standards set by the Moving Picture Experts Group (MPEG) of SC29 / WG11 (International Standardization Organization / International Electrotechnical Commission Joint Technical Committee 1 / Sub-Committee 29 / Working Group 11) The object unit coding scheme is adopted to MPEG-4, which is a standard established by MPEG of ISO / IEC JTC1 / SC29 / WG11.

상기 물체 단위 부호화 방식은 상기 프레임 단위 부호화 방식에 비하여 여러가지 응용이 가능해진다. 즉, 프레임 단위 부호화 방식에 의하면, 물체만을 복호화한 후 배경을 다른 영상으로 대치해서 양자를 합성시키거나 물체를 화면내의 임의의 영역으로 옮기거나 확대 내지 축소시키는 것이 모두 가능해진다.The object unit coding method can be used in various ways as compared with the frame unit coding method. That is, according to the frame-by-frame coding method, it is possible to decode only an object, replace the background with another image, synthesize both, or move or enlarge or reduce the object to an arbitrary area of the screen.

한편, 물체 단위 부호화 방식을 채택하는 경우에는 전체 프레임의 화소들 중에서 어떤 화소가 물체에 속한 화소이며 어떤 화소가 배경에 속한 화소인가를 표시하는 정보인 모양정보(shape information)가 필요해진다.On the other hand, when the object unit coding scheme is adopted, shape information, which is information indicating which pixel belongs to the object and which pixel belongs to the background, is required among the pixels of the entire frame.

그리고, 상기 모양정보를 압축부호화하는 방식에는 다시 이진마스크(binary mask)를 부호화하는 방식과 윤곽선의 형태(contour configuration)를 부호화하는 방식이 있다. 상기 이진마스크를 부호화하는 방식은 도 1a와 도 1b에서 볼 수 있듯이 전체 프레임을 구성하는 모든 화소들에 대해 각 화소가 배경에 속하는 화소이면 배경값을 지정하는 한편 물체에 속하는 화소이면 물체값을 지정함으로써 이진영상(binary image) 내지 이진마스크(binary mask)로서 모양정보를 나타내는 방식이며, 반면에 윤곽선의 형태를 부호화하는 방식은 도 1a와 도 1c에서 볼 수 있듯이 배경과 물체의 경계로서 모양정보를 나타내는 방식이다. 그리고, 상기 이진마스크를 부호화하는 방식은 물체 단위 부호화 방식이 적용되기 이전에 실시된 이진영상 부호화 작업인 ISO/IEC JTC1/SC29/WG11의 JBIG(Joint Bi-level Image coding experts Group)이나 G3와 G4 팩스를 위한 ITU-T의 T.4와 T.6 등의 표준화를 위해서 연구되어 왔으며 또한 최근에는 MPEG-4에서 적용되는 컨텍스트 기반 산술 부호화(CAE, Context-based Arithmetic Encoding)방식으로 채택되고 있는 한편, 윤곽선의 형태를 부호화하는 방식은 이미 오래전부터 컴퓨터 비젼(computer vision)·패턴 인식 및 컴퓨터 그래픽등의 분야에서 연구되어 온 방식으로 특징 추출이나 모양정보조작등을 위한 것이 대부분이었으나 최근에는 영상압축에 응용되면서 정점 기반 부호화(vertex-based coding) 방식 등에 있어서 적용되고 있다.The compression encoding of the shape information may include a method of encoding a binary mask and a method of encoding a contour configuration. As shown in FIGS. 1A and 1B, the binary mask encoding method designates a background value for all pixels constituting the entire frame if the pixel belongs to the background and an object value for the pixel belonging to the object. By using the binary image (binary image) or binary mask (binary mask) to represent the shape information, on the other hand, the method of encoding the shape of the contour as shown in Figure 1a and 1c as shown in Figure 1a and 1c the shape information as a boundary between the object It is a way of indicating. In addition, the binary mask encoding method is a joint bi-level image coding experts group (JBIG) of ISO / IEC JTC1 / SC29 / WG11 or G3 and G4, which is a binary image coding operation performed before object unit coding is applied. It has been studied for standardization of T.4 and T.6 of ITU-T for facsimile, and recently has been adopted as Context-based Arithmetic Encoding (CAE) applied to MPEG-4. However, the method of encoding the shape of the contour has been studied in the fields of computer vision, pattern recognition, and computer graphics for a long time. Most of them have been used for feature extraction and shape information manipulation. As it is applied, it is applied in vertex-based coding.

이하에서는 도 2a 내지 도 2c를 참조해서 전술한 동영상 부호화 방식이 적용되는 동영상 부호기의 예를 살펴보기로 한다.Hereinafter, an example of a video encoder to which the video encoding method described above is applied will be described with reference to FIGS. 2A to 2C.

도 2a를 참조해서 물체 단위 부호화기의 구성을 살펴보면, 상기 물체 단위 부호화기는, 입력된 동영상 신호를 물체(VOP, Vidio Object Plane)별로 분리하는 한편 각 물체별로 모양정보와 텍스춰정보(texture information)를 구하는 VOP 형성부(100), 상기 VOP 형성부(100)로부터 입력되는 신호를 받아 VOP 별로 부호화를 수행하는 다수의 VOP 부호화부(200), 및 상기 VOP 부호화부(200)로부터 입력되는 비트열(bitstream)을 다중화해주는 다중화부(300; MUX, multiplexer)로 이루어져 있음을 알 수 있다.Referring to FIG. 2A, a configuration of an object unit encoder is performed. The object unit encoder separates an input video signal for each object (VOP, Vidio Object Plane) and obtains shape information and texture information for each object. A VOP forming unit 100, a plurality of VOP encoders 200 which receive a signal input from the VOP forming unit 100 and perform encoding for each VOP, and a bitstream input from the VOP encoder 200. It can be seen that it consists of a multiplexer 300 (MUX, multiplexer) for multiplexing.

도 2b를 참조해서 상기 물체 단위 부호화기에 포함되어 있는 각 VOP 부호화부(200)의 구성을 살펴보면, 상기 각각의 상기 VOP 부호화부(200)는, 입력되는 이진마스크 형태의 모양정보를 부호화하는 한편 재현하는 모양정보 부호화부(210), 입력되는 텍스춰정보·재현된 이전 VOP 텍스춰정보 및 상기 모양정보 부호화부(210 )의 재현된 모양정보를 이용해서 현재 VOP 텍스춰정보의 이동정보를 찾아주는 이동정보 추정부(220), 입력되는 상기 이동정보 추정부(220)의 이동정보·재현된 이전 VOP 텍스춰정보 및 상기 모양정보 부호화부(210)의 재현된 모양정보를 이용해서 이동보상예측(motion compensated prediction)을 행하는 이동보상부(230), 입력되는 텍스춰정보와 상기 이동보상부(230)의 이동보상예측 텍스춰정보 사이의 차이인 예측오차(prediction error)를 구하는 감산기(240; subtractor), 입력되는 상기 감산기(240)의 예측오차와 상기 모양정보 부호화부(210)의 재현된 모양정보를 이용해서 예측오차를 부호화하는 한편 재현하는 텍스춰정보 부호화부(250), 입력되는 상기 이동보상부(230)의 이동보상예측 텍스춰정보와 상기 텍스춰정보 부호화부(250)의 재현 예측오차를 더하여 재현된 이전 VOP 텍스춰 정보를 형성하는 가산기(260; adder), 입력되는 상기 가산기(260)의 재현된 이전 VOP 텍스춰정보를 저장하고 있다가 다음에 입력되는 VOP를 부호화할때 상기 이동정보 추정부(220)와 상기 이동보상부(230)에 재현된 이전 VOP 텍스춰정보를 출력하는 재현된 이전 VOP부(270), 및 입력되는 상기 모양정보 부호화부(210)의 모양정보 비트열·상기 이동정보 추정부(220)의 이동정보 비트열 및 상기 텍스춰정보 부호화부(250)의 텍스춰정보 비트열을 다중화해주는 VOP 다중화부(280)로 구성되어 있음을 알 수 있다.Referring to FIG. 2B, a configuration of each VOP encoder 200 included in the object unit encoder is described. Each of the VOP encoders 200 encodes and reproduces shape information of an input binary mask. A motion information adder which finds movement information of the current VOP texture information by using the shape information encoder 210, the input texture information and the reproduced previous VOP texture information, and the reproduced shape information of the shape information encoder 210. A motion compensated prediction is performed using the moving part 220, the inputted motion information and the reproduced previous VOP texture information of the moving information estimating unit 220, and the reproduced shape information of the shape information encoder 210. A subtractor 240 for obtaining a prediction error, which is a difference between the texture information to be inputted and the texture information to be inputted and the texture information to be predicted by the mobile compensation unit 230. ctor), the texture information encoder 250 which encodes and reproduces a prediction error by using the predicted error of the subtractor 240 and the reproduced shape information of the shape information encoder 210. An adder 260 which adds the moving compensation prediction texture information of the compensator 230 and the reproduction prediction error of the texture information encoder 250 to form the reproduced previous VOP texture information, and the input of the adder 260. Reproduced previous VOP texture information which is stored and reproduced the previous VOP texture information which is reproduced in the movement information estimator 220 and the movement compensator 230 when the next VOP is encoded. A shape information bit string of the shape information encoder 210, a movement information bit string of the movement information estimator 220, and a texture information bit string of the texture information encoder 250. Multiplex VOP can be seen that consists of multiplexer 280.

도 2c를 참조해서 상기 VOP 부호화부(200)에 포함되어 있는 모양정보 부호화부(210)의 일예로서 본 발명이 적용될 수 있는 정점기반 모양정보 부호화부의 구성을 살펴보면, 상기 정점기반 모양정보 부호화부는, 입력되는 이진마스크 형태의 모양정보를 이용해서 이진마스크의 윤곽선을 추출해내는 윤곽선 추출부(211), 입력된 상기 윤곽선 추출부(211)로부터의 윤곽선에서 정점(vertex)을 찾아내는 정점 선택부(212), 입력되는 상기 정점 선택부(212)로부터의 추출 정점을 부호화하는 정점 부호화부(213), 입력되는 상기 정점 선택부(212)로부터의 추출 정점을 이용해서 근사윤곽선을 만드는 윤곽선 재현부(214), 및 입력되는 상기 윤곽선 재현부(214)로부터의 재현된 윤곽선을 이용해서 이진마스크를 재현하는 윤곽선 충진부(215)로 구성되어 있음을 알 수 있다.Looking at the configuration of the vertex-based shape information encoder to which the present invention can be applied as an example of the shape information encoder 210 included in the VOP encoder 200 with reference to Figure 2c, the vertex-based shape information encoder, Contour extraction unit 211 for extracting the contour of the binary mask using the shape information of the binary mask type input, vertex selection unit 212 for finding a vertex in the contour from the input contour extraction unit 211 A vertex encoding unit 213 for encoding an extracted vertex from the vertex selecting unit 212 that is input, a contour reproducing unit 214 for making an approximate outline using the extracted vertex from the vertex selecting unit 212 that is input, And a contour filling unit 215 which reproduces a binary mask by using the reproduced contour from the contour reproducing unit 214 inputted.

한편, 본 발명은 상기 정점기반 모양정보 부호화부의 윤곽선 추출부(211) 및 설명을 생략한 정점기반 모양정보 복호화부의 윤곽선 추출부 등에서 입력되는 이진마스크를 이용하여 윤곽선을 추출하기 위해 적용될 수 있는 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 관련된 것이다.On the other hand, the present invention is a video encoding that can be applied to extract the contour using a binary mask input from the contour extractor 211 of the vertex-based shape information encoder and the contour extractor of the vertex-based shape information decoder omitted description And a contour extraction method in decoding.

이하에서는 종래에 적용되어 온 동영상부호화 및 복호화에 있어서의 윤곽선추출방법을 살펴보기로 한다.Hereinafter, a method of extracting contours in video encoding and decoding, which has been conventionally applied, will be described.

우선, 입력된 이진마스크를 각각의 영역들로 구분(region labeling)하는 제 1 단계가 수행된다. 이때, 동일한 영역에 속한 화소들은 동일한 값을 가지는 한편 다른 영역에 속한 화소들은 서로 구분가능한 다른 값을 가지게 함으로써 각 윤곽선을 정의하기 위한 영역구분이 이루어진다. 영역구분의 구체적인 구현방법으로는 여러가지가 공지되어 있다. 그리고, 도 3a에 도시된 이진마스크를 이용해서 제 1 단계를 수행하여 영역구분을 실시한 결과가 도 3b에 도시되어 있다.First, a first step of region labeling the input binary mask into respective regions is performed. At this time, the pixels belonging to the same area have the same value, while the pixels belonging to the other area have different values that can be distinguished from each other. As a specific method of realizing the region division, various methods are known. In addition, a result of performing region division by performing the first step using the binary mask illustrated in FIG. 3A is shown in FIG. 3B.

다음, 스캔을 시작하는 영역과 다른 영역임을 표시하는 값을 가지는 화소를 처음 만나거나 또는 이진마스크의 우하단과 만날 때까지 영역이 구분된 이진마스크의 좌상단에서 상기 이진마스크의 우하단에 이르는 방향으로 래스터 스캔(raster scan)을 실시하면서, 스캔을 시작하는 영역과 다른 영역임을 표시하는 값을 가지는 화소를 처음 만나는 경우에는 이 화소를 당해 영역에 대한 윤곽선을 시작하는 화소인 시작 윤곽선 화소(initial contour pixel)로 선택하는 한편, 이진마스크의 우하단과 만나는 경우에는 처리를 종료하는 제 2 단계를 수행한다. 상기한 바와 같이 래스터 스캔에 의해 시작 윤곽선 화소를 선택하는 과정이 도 4에 도시되어 있다.Next, in the direction from the upper left end of the divided binary mask to the lower right end of the binary mask until the pixel first having a value indicating that the area is different from the area to start scanning or the lower end of the binary mask is met. When performing a raster scan and first encountering a pixel having a value indicating that the area is different from the area where the scan starts, this pixel is the initial contour pixel which is the pixel which starts the contour of the area. On the other hand, in the case where it meets the lower right end of the binary mask, a second step of terminating the process is performed. As described above, a process of selecting a starting contour pixel by raster scanning is illustrated in FIG. 4.

다음, 상기한 바와 같이 시작 윤곽선 화소를 선택한 경우에 있어서, 현재 윤곽선 화소의 주위에 있는 8개의 화소중에서 이전 윤곽선 화소로부터 반시계방향으로 회전하면서 처음 만나는 당해 영역의 화소를 다음 윤곽선 화소로 추출하는 제 3 단계(다만, 현재 윤곽선 화소가 시작 윤곽선 화소인 경우에는 시작 윤곽선 화소의 좌측 화소를 이전 윤곽선 화소로 간주한다)가 수행된다. 상기한 바와 같이 다음 윤곽선 화소를 추출하는 과정이 도 5에 도시되어 있다.Next, in the case where the starting contour pixel is selected as described above, among the eight pixels around the current contour pixel, the first contour pixel is extracted as the next contour pixel from the first pixel that meets the first pixel while rotating counterclockwise from the previous contour pixel. Step 3 (however, if the current contour pixel is the starting contour pixel, the left pixel of the starting contour pixel is regarded as the previous contour pixel). As described above, a process of extracting the next contour pixel is illustrated in FIG. 5.

마지막으로, 상기한 바와 같이 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인지의 여부를 판단하여, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소가 아닌 경우에는 상기 다음 윤곽선 화소를 현재 윤곽선 화소로 둔 후 상기 제 3 단계로 피드백하는 한편 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인 경우에는 상기 제 2 단계로 피드백하는 제 4 단계가 수행된다.Lastly, as described above, it is determined whether the extracted next contour pixel is a starting contour pixel. If the extracted next contour pixel is not a starting contour pixel, the next contour pixel is set as a current contour pixel, and then the third contour pixel is determined. If the extracted next contour pixel is the starting contour pixel while feeding back to the step, a fourth step of feeding back to the second step is performed.

그러나, 종래 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따르면 여러가지 문제점이 발생한다.However, according to the contour extraction method in the conventional video encoding and decoding, various problems occur.

첫째, 상기 제 1 단계에서 수행되는 영역구분이 매우 복잡하고 시간이 많이 걸려서 전체 처리효율이 떨어지는 문제점이 있다.First, there is a problem in that the area separation performed in the first step is very complicated and takes a long time, resulting in a decrease in overall processing efficiency.

둘째, 상기 제 1 단계에서 영역구분을 해줌과 아울러 상기 제 2 단계와 제 3 단계에서 이를 기준으로 해서 시작 윤곽선 화소를 선택한 후 다음 윤곽선 화소를 추적하도록 되어 있기 때문에, 홀(hole)이 독립적인 영역으로 구분되므로 상기 홀의 윤곽선 추출과정에서 홀 영역의 외곽선이 상기 홀의 윤곽선으로 추출되는 결과 윤곽선의 추출이 부정확해지는 문제점이 있다. 이러한 문제점은 도 3a에 대해 종래 기술을 적용하여 윤곽선을 추출한 결과가 도시된 도 6에 나타나 있다.Secondly, since the area is separated in the first step, the start contour pixel is selected based on the second and third steps, and the next contour pixel is tracked. Since the contour of the hole is extracted from the contour of the hole, the extraction of the contour is inaccurate. This problem is illustrated in FIG. 6, in which the result of extracting the contour by applying the prior art to FIG. 3A is shown.

세째, 상기 제 3 단계에서 현재 윤곽선 화소의 주위에 있는 8개의 화소중에서 이전 윤곽선 화소로부터 반시계방향으로 회전하면서 처음 만나는 당해 영역의 화소를 다음 윤곽선 화소로 선택하는 8-커넥티비티(8-connectivity) 관계를 이용해서 윤곽선을 추출하는 경우 추출되지 않는 윤곽선 화소들이 존재하여 윤곽선의 추출이 부정확해지는 문제점이 있다. 이러한 문제점은 도 7a에 도시된 이진마스크에 대해 종래 기술을 적용하여 윤곽선을 추출한 결과가 도시된 도 7b에 나타나 있는 바, 상기 도 7b는 홀의 내부에 존재하는 물체에 대한 윤곽선이 추출되지 않았음을 보여준다.Third, in the third step, an 8-connectivity relationship of selecting, as the next contour pixel, the pixel of the region that meets first while rotating counterclockwise from the previous contour pixel among the eight pixels around the current contour pixel. In the case of extracting the contour by using the contour pixels that are not extracted there is a problem that the extraction of the contour is inaccurate. This problem is illustrated in FIG. 7B, in which a result of extracting a contour by applying the prior art to the binary mask illustrated in FIG. 7A is shown. In FIG. 7B, the contour of the object existing in the hole is not extracted. Shows.

본 발명의 목적은, 복잡한 동시에 시간이 많이 걸리는 영역구분이 필요없어서 처리효율이 증대되고, 홀의 윤곽선 추출과정에서 홀 영역을 감싸는 윤곽선이 상기 홀의 윤곽선으로 추출되어 정확한 윤곽선의 추출이 가능하며, 또한 8-커넥티비티 관계를 적용한 경우에도 홀의 내부에 존재하는 물체의 윤곽선이 추출되어 역시 정확한 윤곽선의 추출이 가능한 동영상부호화 및 복호화에 있어서의 윤곽선추출방법을 제공하기 위한 것이다.The object of the present invention is that the processing efficiency is increased by eliminating complex and time-consuming area division, and the contours surrounding the hole areas are extracted as the contours of the holes in the process of extracting the contours of the holes, so that the exact contours can be extracted. In order to provide a method of extracting contours in video encoding and decoding, in which a contour of an object existing in a hole is extracted even when a connection relationship is applied, the contour can be extracted accurately.

도 1a는 실험영상의 예를 보여주는 도면,1A is a view showing an example of an experimental image,

도 1b는 상기 도 1a의 영상에 대한 모양정보를 이진마스크로 나타낸 것을 예시하는 도면,FIG. 1B is a diagram illustrating shape information of the image of FIG. 1A represented by a binary mask; FIG.

도 1c는 상기 도 1a의 영상에 대한 모양정보를 윤곽선으로 나타낸 것을 예시하는 도면,FIG. 1C is a diagram illustrating shape information of an image of FIG. 1A as outlines; FIG.

도 2a는 물체 단위 부호화기의 개략적인 구성을 도시하는 블록도,2A is a block diagram illustrating a schematic configuration of an object unit encoder;

도 2b는 도 2a에 도시된 VOP 부호화기의 구성을 도시하는 블록도,FIG. 2B is a block diagram showing the configuration of the VOP encoder shown in FIG. 2A;

도 2c는 도 2b에 도시된 모양정보 부호화부의 일례로서 정점 기반 모양정보 부호화부의 구성을 보여주는 블록도,FIG. 2C is a block diagram illustrating a configuration of a vertex-based shape information encoder as an example of the shape information encoder illustrated in FIG. 2B;

도 3a는 영상에 대한 모양정보를 이진마스크로 도시한 도면,3A is a diagram illustrating shape information of an image as a binary mask;

도 3b는 도 3a에 도시된 이진마스크를 종래 동영상부호화 및 복호화에 있어서의 윤곽선추출방법을 적용하여 영역구분을 실시한 결과를 도시하는 도면,FIG. 3B is a view showing the result of region division by applying the contour extraction method in the conventional video encoding and decoding to the binary mask shown in FIG. 3A; FIG.

도 4는 종래 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따른 시작 윤곽선 화소 선택과정을 도시하는 도면,4 is a diagram illustrating a starting contour pixel selection process according to the contour extraction method in conventional video encoding and decoding;

도 5은 종래 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따른 다음 윤곽선 화소 추출과정을 도시하는 도면,5 is a diagram illustrating a process of extracting the next contour pixel according to the contour extraction method in conventional video encoding and decoding;

도 6은 도 3a에 도시된 이진마스크에 대해서 종래 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따른 홀의 윤곽선추출 결과를 도시하는 도면,FIG. 6 is a diagram illustrating a result of hole contour extraction according to the contour extraction method in the conventional video encoding and decoding for the binary mask shown in FIG. 3A; FIG.

도 7a는 내부에 홀이 존재하는 동시에 홀의 내부에 물체가 존재하는 이진마스크를 도시하는 도면,FIG. 7A illustrates a binary mask in which a hole is present inside and an object is present inside the hole; FIG.

도 7b는 도 7a에 도시된 이진마스크에 대해서 종래 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따른 홀의 윤곽선추출 결과를 도시하는 도면,FIG. 7B is a view showing a contour extraction result of a hole according to the contour extraction method in the conventional video encoding and decoding for the binary mask shown in FIG. 7A;

도 8는 본 발명에 따른 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따른 시작 윤곽선 화소 선택과정을 도시하는 도면,8 is a diagram illustrating a starting contour pixel selection process according to the contour extraction method in video encoding and decoding according to the present invention;

도 9은 도 3a에 도시된 이진마스크에 대해서 본 발명에 따른 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 의한 홀의 윤곽선추출 결과를 도시하는 도면,FIG. 9 is a diagram showing a result of hole contour extraction by the contour extraction method in video encoding and decoding according to the present invention for the binary mask shown in FIG. 3A; FIG.

도 10은 도 7a에 도시된 이진마스크에 대해서 본 발명에 따른 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 의한 홀의 윤곽선추출 결과를 도시하는 도면.FIG. 10 is a view showing a contour extraction result of a hole by the contour extraction method in video encoding and decoding according to the present invention for the binary mask shown in FIG. 7A; FIG.

전술한 본 발명의 목적을 달성하기 위하여, 본 발명은: 조건 1(단, 조건 1; 당해 화소의 값이 "물체값"인 동시에 좌측 화소의 값이 "배경값"임, 당해 화소의 값이 "물체값"인 동시에 좌측 화소의 값이 "배경경계값"임, 또는 당해 화소의 값이 "물체경계값"인 동시에 좌측 화소의 값이 "배경값"임)을 충족시키는 화소를 만나거나 또는 이진마스크의 우하단과 만날 때까지 이진마스크의 좌상단에서 상기 이진마스크의 우하단에 이르는 방향으로 래스터 스캔을 실시하면서, 상기 조건 1을 충족시키는 화소를 만나는 경우에는 이 화소를 시작 윤곽선 화소로 선택함과 아울러 그 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어주는 한편, 이진마스크의 우하단과 만나는 경우에는 처리를 종료하는 제 1 단계; 상기 제 1 단계에서 시작 윤곽선 화소를 선택한 경우에 있어서, 현재 윤곽선 화소의 주위에 있는 화소들중에서 이전 윤곽선 화소로부터 시작하여 "물체값"을 가지는 화소를 만날때까지 반시계방향으로 회전하면서, 회전과정에서 만나는 화소의 "배경값"을 "배경경계값"으로 바꾸어주는 한편, 회전이 종료되는 위치에 있는 상기 "물체값"을 가지는 화소를 다음 윤곽선 화소로 추출함과 아울러 그 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어주는 제 2 단계(다만, 현재 윤곽선 화소가 시작 윤곽선 화소인 경우에는 시작 윤곽선 화소의 좌측 화소를 이전 윤곽선 화소로 간주한다); 및 상기한 바와 같이 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인지의 여부를 판단해서, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소가 아닌 경우에는 상기 다음 윤곽선 화소를 현재 윤곽선 화소로 둔 후 상기 제 2 단계로 피드백하는 한편, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인 경우에는 상기 제 1 단계로 피드백하는 제 3 단계로 구성되는 것을 특징으로 하는 동영상부호화 및 복호화에 있어서의 윤곽선추출방법을 제공해준다.In order to achieve the object of the present invention described above, the present invention provides: Condition 1 (condition 1; the value of the pixel is the "object value" while the value of the left pixel is the "background value". A pixel that satisfies the "object value" and the value of the left pixel is "background boundary value", or the value of the pixel is "object boundary value" and the value of the left pixel is "background value", or When raster scan is performed from the upper left end of the binary mask to the lower right end of the binary mask until it meets the lower right end of the binary mask, the pixel is selected as the starting contour pixel when the pixel satisfying the condition 1 is met. And a first step of changing the " object value " already assigned to the pixel to " object boundary value " and ending the process when it meets the lower right end of the binary mask; In the case where the starting contour pixel is selected in the first step, the rotation process is performed while rotating counterclockwise until a pixel having an "object value" is encountered starting from the previous contour pixel among the pixels around the current contour pixel. While changing the "background value" of the pixel to "background boundary value" while extracting the pixel having the "object value" at the position where the rotation is terminated as the next contour pixel, " A second step of changing the object value "to an" object boundary value "(however, if the current contour pixel is the starting contour pixel, the left pixel of the starting contour pixel is regarded as the previous contour pixel); And determining whether the extracted next contour pixel is the starting contour pixel, and if the extracted next contour pixel is not the starting contour pixel, the next contour pixel is the current contour pixel, and then proceeds to the second step. On the other hand, when the extracted next contour pixel is a starting contour pixel, a third step of feeding back to the first step is provided, which provides an outline extraction method in video encoding and decoding.

또한, 전술한 본 발명의 목적을 달성하기 위하여, 본 발명은: 전술한 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 있어서, 상기 제 2 단계에서, 현재 윤곽선 화소의 주위에 있는 화소들중에서 이전 윤곽선 화소로부터 시작하여 "물체값"이나 "물체경계값"을 가지는 화소를 만날때까지 반시계방향으로 회전하면서, 회전과정에서 만나는 화소의 "배경값"을 "배경경계값"으로 바꾸어주는 한편, 회전이 종료되는 위치에 있는 상기 "물체값"이나 "물체경계값"을 가지는 화소를 다음 윤곽선 화소로 추출하는 것을 특징으로 하는 동영상부호화 및 복호화에 있어서의 윤곽선추출방법을 제공해준다.Further, in order to achieve the above object of the present invention, the present invention provides a method for extracting the contour in the above-described video encoding and decoding, wherein, in the second step, the previous contour among the pixels around the current contour pixel. Starting from the pixel, it rotates counterclockwise until it encounters a pixel with "object value" or "object boundary value", changing the "background value" of the pixel that is encountered in the rotation process to "background boundary value", while rotating Provided is a method for extracting an outline in video encoding and decoding, wherein a pixel having the "object value" or "object boundary value" at the end position is extracted as the next contour pixel.

이하에서는 도 8 내지 도 10을 참조해서 본 발명에 따른 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 대한 바람직한 일실시예를 살펴보기로 한다.Hereinafter, a preferred embodiment of the contour extraction method in video encoding and decoding according to the present invention will be described with reference to FIGS. 8 to 10.

우선, 조건 1(단, 조건 1; 당해 화소의 값이 "물체값"인 동시에 좌측 화소의 값이 "배경값"임, 당해 화소의 값이 "물체값"인 동시에 좌측 화소의 값이 "배경경계값"임, 또는 당해 화소의 값이 "물체경계값"인 동시에 좌측 화소의 값이 "배경값"임)을 충족시키는 화소를 만나거나 또는 이진마스크의 우하단과 만날 때까지 이진마스크의 좌상단에서 상기 이진마스크의 우하단에 이르는 방향으로 래스터 스캔을 실시하면서, 상기 조건 1을 충족시키는 화소를 만나는 경우에는 이 화소를 시작 윤곽선 화소로 선택함과 아울러 그 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어주는 한편, 이진마스크의 우하단과 만나는 경우에는 처리를 종료하는 제 1 단계를 수행한다. 상기한 바와 같이 래스터 스캔에 의해 시작 윤곽선 화소를 선택하는 과정이 도 8에 도시되어 있다. 상기 제 1 단계에 있어서는, 각 영역에 별개의 값을 부여함으로써 각 영역을 각각 정의하는 영역구분을 하지 않은 상태에서 이미 추출된 영역의 윤곽선이 추출되지 않도록 하기 위해서, 우선 상기 조건 1에서 「당해 화소의 값이 "물체경계값"인 동시에 좌측 화소의 값이 "배경경계값"인 경우」가 제외되도록 하는 한편 추출된 시작 윤곽선 화소에 이미 지정되어 있는 "물체값"이 "물체경계값"으로 바꾸어준다.First, condition 1 (condition 1; the value of the pixel is "object value" and the value of the left pixel is "background value", the value of the pixel is "object value" and the value of the left pixel is "background"). Upper bound of the binary mask until a pixel meets the pixel satisfying the threshold value, or the pixel value is " object boundary value " while the value of the left pixel is " background value " If a pixel satisfying the condition 1 is encountered while performing a raster scan in the direction to the lower right end of the binary mask, the pixel is selected as the starting contour pixel and the "object value" already assigned to the pixel. Is changed to " object boundary value ", and the first step of terminating the process in the case of encountering the lower right end of the binary mask is performed. As described above, a process of selecting a starting contour pixel by raster scanning is illustrated in FIG. 8. In the first step, in order not to extract the contour of the region already extracted without assigning each region to each region by giving a separate value to each region, first, in the above condition 1 When the value of is "object boundary value" and the value of the left pixel is "background boundary value", the "object value" already assigned to the extracted starting contour pixel is replaced with "object boundary value". give.

다음, 상기 제 1 단계에서 시작 윤곽선 화소를 선택한 경우에 있어서, 현재 윤곽선 화소의 주위에 있는 8개의 화소중에서 이전 윤곽선 화소로부터 시작하여 "물체값"이나 "물체경계값"을 가지는 화소를 만날때까지 반시계방향으로 회전하면서, 회전과정에서 만나는 화소의 "배경값"을 "배경경계값"으로 바꾸어주는 한편, 회전이 종료되는 위치에 있는 상기 "물체값"이나 "물체경계값"의 화소를 다음 윤곽선 화소로 추출함과 아울러 그 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어주는 제 2 단계(다만, 현재 윤곽선 화소가 시작 윤곽선 화소인 경우에는 시작 윤곽선 화소의 좌측 화소를 이전 윤곽선 화소로 간주한다)가 수행된다. 상기 제 2 단계에 있어서는, 역시, 영역구분을 하지 않은 상태에서 이미 추출된 윤곽선이 추출되지 않도록 하기 위해서, 회전과정에서 만나는 화소의 "배경값"을 "배경경계값"으로 바꾸어주는 한편, 추출된 다음 윤곽선 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어준다Next, in the case where the start contour pixel is selected in the first step, half of the eight pixels around the current contour pixel starting from the previous contour pixel until a pixel having an "object value" or "object boundary value" is encountered. While rotating in the clockwise direction, the "background value" of the pixel meeting in the rotation process is changed to "background boundary value" while the pixel of the "object value" or "object boundary value" at the position where the rotation is finished is contoured next. The second step of extracting the pixel and converting the "object value" already assigned to the pixel to the "object boundary value" (but, if the current contour pixel is the starting contour pixel, transfer the left pixel of the starting contour pixel Is regarded as contour pixels). In the second step, in order not to extract the contour lines already extracted in the state where the region is not separated, the "background value" of the pixels encountered in the rotation process is changed to "background boundary value" while the extracted Changes the "object value" already assigned to the next contour pixel to "object boundary value"

마지막으로, 상기한 바와 같이 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인지의 여부를 판단해서, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소가 아닌 경우에는 상기 다음 윤곽선 화소를 현재 윤곽선 화소로 둔 후 상기 제 2 단계로 피드백하는 한편, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인 경우에는 상기 제 1 단계로 피드백하는 제 3 단계가 수행된다.Lastly, as described above, it is determined whether the extracted next contour pixel is the starting contour pixel. If the extracted next contour pixel is not the starting contour pixel, the next contour pixel is set as the current contour pixel, and then the second contour pixel is set as the current contour pixel. While feeding back to the step, if the extracted next contour pixel is the starting contour pixel, a third step of feeding back to the first step is performed.

상기 실시예에 따른 작용을 살펴보면 다음과 같다.Looking at the operation according to the embodiment is as follows.

상기 제 1 단계에 따르면, 조건 1에 의해서 상기 제 1 단계와 상기 제 2 단계를 거쳐 이미 윤곽선 화소로 추출됨으로써 당해 화소에 "물체경계값"이 지정된 동시에 그 좌측 화소에 "배경경계값"이 지정된 당해 화소가 다시 시작 윤곽선 화소로 선택되지 않게 되고, 이를 뒷받침하기 위해서 처음으로 추출된 시작 윤곽선 화소의 "물체값"은 "물체경계값"으로 바뀌게 되며, 또한 래스터 스캔시 이진마스크의 우하단과 만나는 경우에는 모든 윤곽선이 추출되었음을 의미하므로 윤곽선 추출과정이 종료되게 된다. 그리고, 상기 조건 1을 적용하여 상기 도 9에서와 같이 시작 윤곽선 화소를 선택하면 홀의 윤곽선 추출과정에서 홀 영역을 감싸는 윤곽선이 상기 홀의 윤곽선으로 추출되는 바, 이러한 작용은 도 3a에 대해 본 발명을 적용하여 윤곽선을 추출한 결과를 도시한 도 9에 나타나 있다.According to the first step, the first object and the second step are already extracted as contour pixels by the condition 1, so that the "object boundary value" is assigned to the pixel and the "background boundary value" is assigned to the left pixel. The pixel is not selected as the starting contour pixel again, and in order to support this, the "object value" of the starting contour pixel extracted for the first time is changed to the "object boundary value", and when the raster scan meets the lower right end of the binary mask. In this case, since all contours have been extracted, the contour extraction process is terminated. In addition, when the starting contour pixel is selected as shown in FIG. 9 by applying the condition 1, an outline surrounding the hole region is extracted as the contour of the hole in the process of extracting the contour of the hole. This operation applies the present invention to FIG. 3A. 9 shows the result of extracting the contour.

상기 제 2 단계에 따르면, 상기 조건 1을 뒷받침하기 위해서 추출되는 화소의 좌측에 존재하는 화소의 "배경값"이 "배경경계값"으로 바뀌는 한편 처음으로 추출된 다음 윤곽선 화소의 "물체값"은 "물체경계값"으로 바뀐다. 그리고, 8-커넥티비티 관계를 이용해서 윤곽선을 추출하는 경우에도 홀 영역의 내부에 존재하는 물체에 대한 윤곽선이 추출되는 바, 이러한 작용은 도 7a에 도시된 이진마스크에 대해 본 발명을 적용하여 윤곽선을 추출한 결과를 도시한 도 10에 나타나 있다.According to the second step, the "background value" of the pixel existing on the left side of the pixel extracted to support the condition 1 is changed to the "background boundary value" while the first "object value" of the next contour pixel is extracted. It changes to "object boundary value". In addition, even when the contour is extracted using the 8-connectivity relationship, the contour of the object existing inside the hole region is extracted. This operation applies the present invention to the binary mask illustrated in FIG. 7A. The result of extraction is shown in FIG.

그리고, 상기 제 3 단계에 따르면, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소가 아닌 경우에는 당해 윤곽선이 완전히 추출되지 않았음을 의미하므로 계속해서 다음 윤곽선 화소를 추출하게 되는 한편, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인 경우에는 당해 윤곽선이 완전히 추출되었음을 의미하므로 추출되지 않은 다른 윤곽선을 추출하는 과정이 진행된다.In addition, according to the third step, if the extracted next contour pixel is not the starting contour pixel, it means that the contour is not completely extracted, so that the next contour pixel is continuously extracted, while the extracted next contour pixel is In the case of the starting contour pixel, since the contour is completely extracted, the process of extracting another contour that is not extracted is performed.

본 발명에 따른 동영상부호화 및 복호화에 있어서의 윤곽선추출방법에 따르면, 복잡한 동시에 시간이 많이 걸리는 영역구분이 필요없어서 처리효율이 증대되고, 홀의 윤곽선 추출과정에서 홀 영역을 감싸는 윤곽선이 상기 홀의 윤곽선으로 추출되어 정확한 윤곽선의 추출이 가능해지며, 또한 8-커넥티비티 관계를 적용한 경우에도 홀 영역의 내부에 존재하는 물체에 대한 윤곽선이 추출되어 역시 정확한 윤곽선의 추출이 가능해지는 효과가 발휘된다.According to the contour extraction method in video encoding and decoding according to the present invention, processing efficiency is increased by eliminating complicated and time-consuming area division, and the contour covering the hole area is extracted as the contour of the hole in the contour extraction process of the hole. Therefore, accurate contours can be extracted, and even when the 8-connectivity relationship is applied, the contours of the objects existing in the hole region are extracted, and the accurate contours can be extracted.

Claims (2)

조건 1(단, 조건 1; 당해 화소의 값이 "물체값"인 동시에 좌측 화소의 값이 "배경값"임, 당해 화소의 값이 "물체값"인 동시에 좌측 화소의 값이 "배경경계값"임, 또는 당해 화소의 값이 "물체경계값"인 동시에 좌측 화소의 값이 "배경값"임)을 충족시키는 화소를 만나거나 또는 이진마스크의 우하단과 만날 때까지 이진마스크의 좌상단에서 상기 이진마스크의 우하단에 이르는 방향으로 래스터 스캔을 실시하면서, 상기 조건 1을 충족시키는 화소를 만나는 경우에는 이 화소를 시작 윤곽선 화소로 선택함과 아울러 그 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어주는 한편, 이진마스크의 우하단과 만나는 경우에는 처리를 종료하는 제 1 단계;Condition 1 (condition 1; the value of the pixel is "object value" and the value of the left pixel is "background value", the value of the pixel is "object value" and the value of the left pixel is "background boundary value"). At the upper left of the binary mask until it meets a pixel that satisfies " im, or the pixel value is " object boundary value " and the value of the left pixel is " background value " When performing a raster scan in the direction to the bottom right of the binary mask and encountering a pixel that satisfies the condition 1 above, the pixel is selected as the starting contour pixel and the " object value " A first step of changing the object boundary value "and terminating the process when it meets the lower right end of the binary mask; 상기 제 1 단계에서 시작 윤곽선 화소를 선택한 경우에 있어서, 현재 윤곽선 화소의 주위에 있는 화소들중에서 이전 윤곽선 화소로부터 시작하여 "물체값"을 가지는 화소를 만날때까지 반시계방향으로 회전하면서, 회전과정에서 만나는 화소의 "배경값"을 "배경경계값"으로 바꾸어주는 한편, 회전이 종료되는 위치에 있는 상기 "물체값"을 가지는 화소를 다음 윤곽선 화소로 추출함과 아울러 그 화소에 이미 지정되어 있는 "물체값"을 "물체경계값"으로 바꾸어주는 제 2 단계(다만, 현재 윤곽선 화소가 시작 윤곽선 화소인 경우에는 시작 윤곽선 화소의 좌측 화소를 이전 윤곽선 화소로 간주한다); 및In the case where the starting contour pixel is selected in the first step, the rotation process is performed while rotating counterclockwise until a pixel having an "object value" is encountered starting from the previous contour pixel among the pixels around the current contour pixel. While changing the "background value" of the pixel to "background boundary value" while extracting the pixel having the "object value" at the position where the rotation is terminated as the next contour pixel, " A second step of changing the object value "to an" object boundary value "(however, if the current contour pixel is the starting contour pixel, the left pixel of the starting contour pixel is regarded as the previous contour pixel); And 상기한 바와 같이 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인지의 여부를 판단해서, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소가 아닌 경우에는 상기 다음 윤곽선 화소를 현재 윤곽선 화소로 둔 후 상기 제 2 단계로 피드백하는 한편, 추출된 다음 윤곽선 화소가 시작 윤곽선 화소인 경우에는 상기 제 1 단계로 피드백하는 제 3 단계로 구성되는 것을 특징으로 하는 동영상부호화 및 복호화에 있어서의 윤곽선추출방법.It is determined whether the extracted next contour pixel is the starting contour pixel as described above, and if the extracted next contour pixel is not the starting contour pixel, the next contour pixel is left as the current contour pixel and then fed back to the second step. On the other hand, if the extracted next contour pixel is a starting contour pixel, and comprises a third step of feeding back to the first step, the contour extraction method for video encoding and decoding. 제 1 항에 있어서, 상기 제 2 단계에서, 현재 윤곽선 화소의 주위에 있는 화소들중에서 이전 윤곽선 화소로부터 시작하여 "물체값"이나 "물체경계값"을 가지는 화소를 만날때까지 반시계방향으로 회전하면서, 회전과정에서 만나는 화소의 "배경값"을 "배경경계값"으로 바꾸어주는 한편, 회전이 종료되는 위치에 있는 상기 "물체값"이나 "물체경계값"을 가지는 화소를 다음 윤곽선 화소로 추출하는 것을 특징으로 하는 동영상부호화 및 복호화에 있어서의 윤곽선추출방법.2. The method of claim 1, wherein in the second step, among the pixels surrounding the current contour pixel, rotating in a counterclockwise direction until a pixel with an "object value" or "object boundary value" is encountered, starting from the previous contour pixel. While changing the "background value" of the pixels encountered in the rotation process to the "background boundary value" while extracting the pixel having the "object value" or "object boundary value" at the position where the rotation is completed as the next contour pixel. An outline extraction method in video encoding and decoding characterized by the above-mentioned.
KR1019990017264A 1999-05-14 1999-05-14 Contour extraction method for video coding and decoding KR100568531B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990017264A KR100568531B1 (en) 1999-05-14 1999-05-14 Contour extraction method for video coding and decoding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990017264A KR100568531B1 (en) 1999-05-14 1999-05-14 Contour extraction method for video coding and decoding

Publications (2)

Publication Number Publication Date
KR20000073770A true KR20000073770A (en) 2000-12-05
KR100568531B1 KR100568531B1 (en) 2006-04-06

Family

ID=19585427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990017264A KR100568531B1 (en) 1999-05-14 1999-05-14 Contour extraction method for video coding and decoding

Country Status (1)

Country Link
KR (1) KR100568531B1 (en)

Also Published As

Publication number Publication date
KR100568531B1 (en) 2006-04-06

Similar Documents

Publication Publication Date Title
US6404814B1 (en) Transcoding method and transcoder for transcoding a predictively-coded object-based picture signal to a predictively-coded block-based picture signal
US5805221A (en) Video signal coding system employing segmentation technique
EP1933567B1 (en) Apparatus for encoding interlaced macroblock texture information
KR19990072370A (en) Image synthesis method, image synthesis device, and data recording medium
JP3056120B2 (en) Video signal shape information predictive coding method
US6259738B1 (en) Video encoding apparatus and video decoding apparatus
JP2000050305A (en) Method and device for filtering color difference signal of image
GB2328821A (en) Encoding a binary shape signal
KR19980073964A (en) Contour Matched Motion Vector Estimation Method for Shape Information Coding of Image Signal
US6049567A (en) Mode coding method in a binary shape encoding
KR100568531B1 (en) Contour extraction method for video coding and decoding
KR100568532B1 (en) Method for filling contour in coding and decoding of moving ficture
JP3056121B2 (en) Video signal contour line predictive coding method
KR100439418B1 (en) Method for quickly searching an error central vertex in a contour polygon approximation, especially concerned with quickening a processing speed while reducing complexity
KR100457231B1 (en) Moving Compensation Prediction Apparatus and Method for Shape Encoding of Image Signal
KR100413980B1 (en) Apparatus and method for estimating motion information of contour in shape information coding
JPH11196415A (en) Device and method for encoding/decoding shape information by adaptive bordering
JPH11331867A (en) Method and device for extracting color difference signal shape information for video of interlaced scanning system
EP0942604B1 (en) Method and apparatus for generating a bounding rectangle of a vop for interlaced scan type video signals
JPH11346363A (en) Image processing unit and its method
KR100467787B1 (en) Starting point encoding method of contour region to be used for encoding in vertex-based shape information encoding
KR100477795B1 (en) Method for coding information for deciding encoding mode information in scalablely coding of binary shape information
KR100335629B1 (en) Method and apparatus for generating bounding rectangle of VOP for interlaced scan type video signal
KR100483675B1 (en) Loss-Encoding Method for Encoding Flexible Shape Information
KR100483672B1 (en) Shape Information Encoding Method of Image Signal Processing

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110302

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee