KR19980074269A - Starting point coding method of contour region to be used for encoding in vertex-based shape information coding - Google Patents

Starting point coding method of contour region to be used for encoding in vertex-based shape information coding Download PDF

Info

Publication number
KR19980074269A
KR19980074269A KR1019970010006A KR19970010006A KR19980074269A KR 19980074269 A KR19980074269 A KR 19980074269A KR 1019970010006 A KR1019970010006 A KR 1019970010006A KR 19970010006 A KR19970010006 A KR 19970010006A KR 19980074269 A KR19980074269 A KR 19980074269A
Authority
KR
South Korea
Prior art keywords
contour
encoding
vertex
pixels
image
Prior art date
Application number
KR1019970010006A
Other languages
Korean (ko)
Other versions
KR100467787B1 (en
Inventor
정재원
문주희
김재균
권지헌
Original Assignee
김영환
현대전자산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 현대전자산업 주식회사 filed Critical 김영환
Priority to KR1019970010006A priority Critical patent/KR100467787B1/en
Publication of KR19980074269A publication Critical patent/KR19980074269A/en
Application granted granted Critical
Publication of KR100467787B1 publication Critical patent/KR100467787B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야1. TECHNICAL FIELD OF THE INVENTION

정점기반 모양정보 부호화방법Vertex-based Shape Information Coding Method

2. 발명이 해결하려고 하는 기술적 과제2. The technical problem to be solved by the invention

기존의 부호화 초기점 부호화시 움직임 보상이 가능한 영역이 존재하는 윤곽선에 대한 부호화임에도 불구하고, 복원된 윤곽선과 현재영상의 윤곽선이 일치하는 점을 VOP영상의 최좌측, 최상단점으로부터의 x축 방향과 y축 방향의 절대 좌표값을 이용하여 가로방향좌표는 (log2(VOP영상의 가로방향의 픽셀수-1))+1의 비트수로 표현하고, 세로방향좌표는 (log2(VOP영상의 세로방향의 픽셀수-1))+1의 비트수로 표현하므로 부호화할 영역이 많으면 많을수록 영역수의 배수만큼 비트수가 증가하여 부호화 효율을 감소시키는 문제점을 해결하고자 한 것임.In spite of the encoding of the contour where the motion compensation region exists in the existing encoding initial point encoding, the point where the reconstructed contour and the contour of the current image coincide with the x-axis direction from the leftmost and topmost points of the VOP image. Using the absolute coordinates in the y-axis direction, the horizontal coordinates are represented by the number of bits of (log2 (number of pixels in the VOP image-1)) + 1, and the vertical coordinates are (log2 (the vertical direction of the VOP image). Since the number of pixels is equal to the number of pixels-1)) + 1, the number of bits to be encoded increases as the number of bits increases by a multiple of the number of areas, thereby reducing the coding efficiency.

3. 발명의 해결방법의 요지3. Summary of Solution to Invention

수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 상기 위치정보를 부호화하고자 하는 화소가 윤곽선(또는 정점)상에 존재하면 윤곽선(또는 정점)의 몇번째 화소 위치에 위치하는가를 결정하고, 이를 모든 윤곽선 화소(또는 정점)의 위치를 표현할 수 있도록 화소갯수(또는 정점갯수)를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 한 것이다.When the same contour is stored in the receiving end and the transmitting end, if the pixel to encode the position information exists on the contour (or vertex), it is determined which pixel position of the contour (or vertex) is located, and all the contour pixels. (Or vertices) to encode the starting point bits by using the number of pixels (or the number of vertices) to represent the position of the vertices.

4. 발명의 중요한 용도4. Important uses of the invention

이진 마스크(binary mask)의 윤곽선(contour)의 효율적인 압축 부호화를 위한 영상간 정점기반 모양정보 부호화(inter vertex-based shape coding) 방식에 적용되는 것임.It is applied to an inter-vertex-based shape coding scheme for efficient compression coding of contours of binary masks.

Description

정점 기반 모양정보 부호화에서 부호화에 이용될 윤곽선영역의 시작점 부호화방법Starting point coding method of contour region to be used for encoding in vertex-based shape information coding

일반적으로, 영상 및 음향 부호화 기술 및 시스템 구성에 관한 국제 표준안(MPEG-1, MPEG-2)을 개발하고 의결한 MPEG그룹이 현재는 98년 11월에 국제 표준으로 채택할 예정의 차세대 영상 및 음향 부호화 기술 및 시스템 구성에 관한 국제 표준안(MPEG-4)을 연구, 개발중에 있다. MPEG-4의 개발은 기존의 알려진 표준안으로 지원할 수 없는 차세대 영상 및 음향 응용물들을 지원할 필요성에서 출발했다. MPEG-4는 영상 및 음향 데이타의 통신과 접속, 그리고 조작을 위한 새로운 방법들(예를 들자면, 특성이 다른 네트워크를 통한 물체 중심 대화형 기능 및 접속 등)을 제공한다. 또한 에러가 쉽게 발생되는 통신 환경과 저전송율의 통신환경에서도 유용하게 동작하는 특성을 제공한다. 더우기 컴퓨터 그래픽 기술을 통합하여 자연영상 및 음향과 인공영상 및 음향들을 함께 부호화하고 조작할 수 있는 기능들을 제공한다. 요약컨대, MPEG-4는 여러 응용분야에서 요구되고 예상되는 여러 기능들을 지원해야 한다. 따라서, 멀티미디어 정보의 급팽창과 기술 향상에 의해 새롭게 개발됐거나 개발될 저가, 고기능의 모든 가능한 응용 분야들에서 요구되는 모든 기능들을 지원할 수 있도록 확장가능하고 개방적인 구조를 가지게 된다. 그중에는 전송 및 저장 기능과 비용 절감에 필요한 부호화 효과의 향상 기능(Improved Compression Efficiency)이 있는데 본 발명은 이러한 기능을 지원할 뿐 아니라, 여러 다른 기능들을 기반으로 하는 응용분야에도 이용될 수 있다.In general, the MPEG Group, which developed and decided on international standards (MPEG-1 and MPEG-2) on video and audio coding technology and system construction, is now the next generation of video and audio, which is expected to be adopted as an international standard in November 1998. The International Standard for the Coding Technique and System Construction (MPEG-4) is being researched and developed. The development of MPEG-4 began with the need to support the next generation of video and audio applications that could not be supported by existing known standards. MPEG-4 provides new methods for communicating and accessing and manipulating video and audio data, such as object-oriented interactive functionality and access over networks of differing characteristics. In addition, it provides a characteristic that operates usefully in a communication environment where errors are easily generated and a low transmission rate communication environment. Moreover, the integration of computer graphics technology provides the ability to encode and manipulate natural and artificial images and sounds together. In summary, MPEG-4 must support many of the features required and expected in many applications. Therefore, it is possible to have an extensible and open structure to support all functions required in all low cost, high performance possible applications that are newly developed or developed by the rapid expansion and improvement of multimedia information. Among them, there is an improved compression efficiency required for transmission and storage functions and cost reduction. The present invention not only supports such a function but also can be used for an application based on various other functions.

기존의 응용물이나 앞으로 기대되는 응용물들을 지원하기 위해서는 유저들이 영상내의 원하는 객체만을 통신할 수 있고, 찾고 읽을 수 있도록 접근할 수 있고, 자르고 붙일 수 있도록 편집할 수 있는 영상 부호화기술이 필요하다. 98년 11월 완성을 위해 현재 세계표준화 작업이 진행중인 새로운 영상 및 음향 부호화 기술인 MPEG-4는 이러한 필요를 충족시키기 위한 것이다.In order to support existing applications or applications expected in the future, an image encoding technology that allows users to communicate only with desired objects in an image, access to find and read, and edit to cut and paste can be required. MPEG-4, a new video and audio encoding technology that is currently undergoing global standardization for completion in November 1998, is designed to meet this need.

ISO/IEC 산하의 MPEG-4 표준화 작업은 임의의 모양을 갖는 물체의 부호화에 대한 것이며, 이는 종전의 MPEG-1, 2와 구별짓는 가장 큰 특징이다. 이러한 이유에 의해 모양정보의 부호화의 필요성이 최근 주목 받고 있다. 표준화 기법으로 고려되는 대표적인 모양정보 부호화 방법으로 정점기반 부호화 방식이 있다.The MPEG-4 standardization work under ISO / IEC is for the encoding of objects of arbitrary shape, which is the most distinguishing feature of the previous MPEG-1 and 2. For this reason, the necessity of encoding shape information has attracted attention in recent years. A representative shape information coding method considered as a standardization method is a vertex-based coding method.

이러한 정점기반 부호화 방식을 적용한 종래 MPEG-4의 검증 모델(Verification Model)에서 사용하는 부호화기는 첨부된 도면 도 1과 같다.The encoder used in the verification model of the conventional MPEG-4 to which the vertex-based coding scheme is applied is shown in FIG. 1.

이에 도시된 바와 같이, 물체 모양정보를 선택하기 위한 스위치(1)와, 스위치(1)에 의해 선택된 모양정보를 부호화하는 모양정보 부호화부(2)와, 모양정보 부호화부(2)에서 부호화된 모양정보와 임의의 모양정보중 하나를 선택하기 위한 선택 스위치(3)와, 스위치(1)에 의해 선택된 모양정보를 재현된 이전 모양정보 또는 임의 모양의 모양정보에 따라 움직임을 추정하는 움직임 추정부(4)와, 움직임 추정부(4)에서 추정되는 움직임량에 따라 모양정보의 움직임을 보상하는 움직임 보상부(5)와, VOP형성부(도면에는 도시하지 않았음)에서 얻어지는 영상에서 상기 움직임 보상부(5)에서 보상된 영상을 감산하는 감산기(6)와, 감산기(6)에서 얻어지는 영상신호를 부호화하는 영상신호 부호화부(7)와, 움직임 부상부(5)에서 보상된 영상신호와 영상신호 부호화부(7)에서 얻어지는 영상신호를 가산하는 가산기(8)와, 가산기(8)로부터 얻어지는 영상신호로 VOP를 재현시키는 VOP재현부(9)와, 선택스위치(3)와 움직임 추정부(4) 및 영상신호 부호화부(7)에서 각각 얻어지는 모양정보와 움직임정보 및 신호정보를 다중화하는 다중화부(10)와, 그 다중화부(10)에서 다중화된 신호를 버퍼링하여 출력시키는 버퍼부(11)로 구성되었다.As shown here, the switch 1 for selecting the object shape information, the shape information encoder 2 for encoding the shape information selected by the switch 1, and the shape information encoder 2 are encoded. A selection switch 3 for selecting one of the shape information and the arbitrary shape information, and a motion estimating unit for estimating the motion according to the shape information selected by the switch 1 according to the previous shape information or the shape information of the arbitrary shape. (4), the motion compensator 5 for compensating the motion of the shape information according to the motion amount estimated by the motion estimator 4, and the motion in the image obtained from the VOP forming unit (not shown). A subtractor 6 subtracting the image compensated by the compensator 5, an image signal encoder 7 encoding the image signal obtained by the subtractor 6, and a video signal compensated by the motion floating unit 5; To the video signal encoder 7 An adder 8 for adding the obtained video signal, a VOP reproducing section 9 for reproducing the VOP with the video signal obtained from the adder 8, a selection switch 3, a motion estimating section 4, and a video signal encoding section ( The multiplexer 10 multiplexes the shape information, motion information, and signal information obtained in step 7), and a buffer unit 11 for buffering and outputting the signal multiplexed by the multiplexer 10.

도 2는 상기 모양정보 부호화부(2)의 상세 구성도로서, (A)는 영상내 부호화시의 구성도이고, (B)는 영상간 부호화시의 구성도이다.2 is a detailed configuration diagram of the shape information encoding unit 2, (A) is a configuration diagram at the time of intra-image encoding, and (B) is a configuration diagram at the time of inter-image encoding.

여기서 영상내 부호화시의 모양정보 부호화부(2)는, (A)와 같이 스위치(1)를 통한 모양정보를 배경과 물체와 물체내부의 빈영역별로 각각의 영역을 표시하는 영역표시부(2a)와, 영역표시부(2a)에서 표시된 각 영역별로 그 외곽의 윤곽선을 추출하는 윤곽선 추출부(2b)와, 윤곽선 추출부(2b)에서 추출된 윤곽선으로부터 부호화할 정점을 추출하는 정점추출부(2c)와, 정점추출부(2c)로부터 추출된 정점중 초기정점을 부호화하는 초기정점 부호화부(2d)와, 초기정점 부호화부(2d)에서 출력되는 정점을 부호화하는 정점 부호화부(2e)로 구성되며, 영상간 부호화시의 모양정보 부호화부(2)는, (B)와 같이 스위치(1)를 통한 모양정보를 배경과 물체와 물체내부의 빈영역별로 각각의 영역을 표시하는 영역표시부(2a)와, 영역표시부(2a)에서 표시된 각 영역별로 그 외곽의 윤곽선을 추출하는 윤곽선 추출부(2b)와, 이전 모양정보를 이용하여 윤곽선 추출부(2b)에서 추출된 현재 영상의 윤곽선 정보를 예측하여 그 오차영역만 전송하는 윤곽선 예측부(2f)와, 윤곽선 예측부(2f)로부터 얻어지는 윤곽선 정보로부터 부호화할 정점을 추출하는 정점추출부(2c)와, 정점추출부(2c)로부터 추출된 정점중 초기정점을 부호화하는 초기정점 부호화부(2d)와, 초기정점 부호화부(2d)에서 출력되는 정점을 부호화하는 정점 부호화부(2e)로 구성된다.Here, the shape information encoding unit 2 during intra-image encoding, as shown in (A), displays the shape information through the switch 1 and displays the respective areas for the background, the object, and the empty areas inside the object. And an outline extracting section 2b for extracting outlines of the outer area for each region displayed by the area display section 2a, and a vertex extracting section 2c for extracting vertices to be encoded from the outlines extracted by the outline extracting section 2b. And an initial vertex encoder 2d for encoding the initial vertices among the vertices extracted from the vertex extracting unit 2c, and a vertex encoder 2e for encoding the vertices output from the initial vertex encoder 2d. The shape information encoding unit 2 at the time of the inter-image encoding, as shown in (B), displays the shape information through the switch 1 and displays the respective areas for the background, the object, and the empty areas inside the object. And the outline of the outer area for each area displayed on the area display section 2a. A contour extractor 2b for extracting the data, a contour predictor 2f for predicting the contour information of the current image extracted by the contour extractor 2b using previous shape information, and transmitting only an error region thereof, and a contour prediction. A vertex extracting unit 2c for extracting vertices to be encoded from the contour information obtained from the section 2f, an initial vertex encoding unit 2d for encoding initial vertices among the vertices extracted from the vertex extracting unit 2c, and an initial vertex It consists of the vertex encoding part 2e which codes the vertex output from the coding part 2d.

이와 같이 구성되는 현재 MPEG-4에서 고려중인 모양정보 부호화 기술중의 하나인 정점기반 기술을 설명하면 다음과 같다. MPEG-4는 기존의 MPEG-1, MPEG-2, H.261, H.263과 같은 영상부호화 국제표준과는 달리 영상내의 의미있는 객체만을 부호화하여 부호화기와 복호화기에서 영상내 객체를 자유자재로 접근하고, 편집가능하도록 부호화하는 기술을 표준화하고 있다.The vertex-based technique, which is one of the shape information encoding techniques under consideration in the current MPEG-4, is constructed as follows. Unlike conventional video encoding international standards such as MPEG-1, MPEG-2, H.261, and H.263, MPEG-4 encodes only meaningful objects in an image and freely encodes objects in the image by encoders and decoders. Techniques for accessing and editing code are standardized.

이에 따라 의미있는 객체를 포함한 영상이 도 3의 (a)와 같은 모양정보와 함께 MPEG-4 부호화기내에 들어오면, 모양정보 부호화기에서는 도 2의 영역표시부(2a)에서 도 3의 (a)와 같은 영상내의 의미있는 객체를 도 3의 (b) ~ (e)와 같이 배경과 물체와 물체내부의 빈영역을 영역별로 각각 표시한다. 영역 표시부(2a)에서 표시된 각 영역별로 그 외곽의 윤곽선이 윤곽선 추출부(2b)에서 추출되고, 그 구해진 영상내 각 영역의 윤곽선 정보는 영상내 부호화시에는 정점추출부(2c), 초기정점 부호화부(2d), 정점 부호화부(2e)에 의해 부호화되고, 영상간 부호화시에는 윤곽선 예측부(2f)에서 이전 모양정보를 이용하여 예측한 후, 예측이 성공하면 부호화해야 하는 움직임 벡터를 부호화한 후 윤곽선 부호화 과정을 스킵하고, 예측이 실패하면 현재 영상의 윤곽선 정보를 정점추출부(2c)로 출력하여 정점추출부(2c), 초기정점 부호화부(2d), 정점 부호화부(2e)에 의해 부호화한다.Accordingly, when an image including a meaningful object enters the MPEG-4 encoder together with the shape information as shown in FIG. 3A, the shape information encoder uses the area display unit 2a of FIG. 2 as shown in FIG. 3A. As shown in (b) to (e) of FIG. 3, a meaningful object in the image is displayed for each region by the background, the object, and the empty area inside the object. For each area displayed by the area display unit 2a, the outline of the outline is extracted by the outline extracting unit 2b, and the outline information of each area in the image obtained is obtained from the vertex extracting unit 2c and the initial vertex encoding in the image encoding. 2d, the vertex encoder 2e encodes the motion vector to be encoded if the prediction is successful after predicting the previous shape information by the contour predicting unit 2f during inter-image encoding. After skipping the contour encoding process, if the prediction fails, the contour information of the current image is output to the vertex extracting unit 2c, and the vertex extracting unit 2c, the initial vertex encoding unit 2d, and the vertex encoding unit 2e are used. Encode

도 3에서 (a)는 입력되는 모양정보이고, (b)는 배경 영역을 표시한 것이며, (c)는 물체 1의 영역표시이며(윤곽선 타입 = 물체), (d)는 물체 2의 영역표시이고(윤곽선타입 = 물체), (e)는 물체3의 영역표시이다(윤곽선타입 = 물체내 빈 영역).In FIG. 3, (a) is input shape information, (b) shows a background area, (c) shows an area of object 1 (contour line type = object), and (d) shows an area of object 2 And (contour type = object), (e) is the area mark of object 3 (contour type = empty area in the object).

모양정보 부호화에는 모양정보의 부호화시 현재영상의 윤곽선 정보만을 이용하여 부호화하는 영상내 부호화와, 이전영상의 윤곽선정보를 이용하여 현재 윤곽선 정보를 예측하여 한계 오차영역안에 존재하는 윤곽선내의 영역은 부호화하지 않고, 오차영역밖에 존재하는 윤곽선내의 영역을 부호화하는 윤곽선의 영상간 부호화 방법이 있다.In shape information encoding, in-image encoding that encodes only shape information of the current image when encoding shape information, and predicts current contour information by using contour information of a previous image, and does not encode an area in the contour that exists within the marginal error area. Instead, there is a method for inter-image encoding of a contour that encodes an area within the contour that exists outside the error region.

정점기반의 영상간 모양정보 부호화시에 움직임 추정을 한 이후에 도 4와 같이 이전 영상의 물체 1의 윤곽선 정보가 현재 영상의 물체 A의 윤곽선을 예측하는데 사용되고, 이전 영상의 물체 2가 현재 영상의 물체 B를 예측하는데 사용되고, 현재 영상의 물체 C의 윤곽선은 이전 영상에서 예측에 사용할 수 있는 윤곽선을 구하지 못해서 영상내 부호화 모드로 결정되었다고 할 때, 현재 영상의 윤곽선을 기준으로 현재 영상의 물체 A 윤곽선, 물체 B 윤곽선은 이전 영상의 물체 윤곽선을 이용하여 이동보상한 후 영상간 부호화가 가능한 윤곽선 영역은 제외한 나머지 영역에 대하여 영상내 부호화를 적용하고, 물체 C 윤곽선도 예측가능한 윤곽선이 아니므로 영상내 부호화를 적용한다. 물체 A 윤곽선과 물체 B 윤곽선을 부호화할 때 이동보상후 예측된 윤곽선과 원영상의 윤곽선이 허용된 오차를 넘는 영역에 대해서는 영상간 부호화를 해야 하는데, 이때 적용되는 영상간 부호화를 위해 적용되는 부호화를 위한 기준점으로 사용될 부호화 초기점의 위치정보를 부호화해야 한다.After the motion estimation is performed in the encoding of the shape information between the vertices, the contour information of the object 1 of the previous image is used to predict the contour of the object A of the current image as shown in FIG. 4, and the object 2 of the previous image is Used to predict object B, and the contour of object C of the current image is determined to be the intra-image coding mode because the contour that can be used for prediction in the previous image is determined, the object A contour of the current image based on the contour of the current image In this case, the object B contour is encoded using the object contour of the previous image, and then intra-image coding is applied to the remaining regions except for the contour region that can be encoded between images, and the object C contour is not a predictable contour. Apply. When encoding the object A contour and the object B contour, inter-image coding should be performed on the areas where the predicted contour after the moving compensation and the contour of the original image exceed the allowable error. The location information of the encoding initial point to be used as a reference point for the encoding should be encoded.

이때 부호화 초기점을 부호화하는 기존 방법은 부호화 초기점을 예측된 이전 복원된 윤곽선과 현재영상의 윤곽선이 일치하는 점을 VOP영상과 최좌측, 최상단점으로부터의 x축 방향과 y축 방향의 절대 좌표값을 이용하여 가로방향좌표는 (log2(VOP영상의 가로방향의 픽셀수-1))+1의 비트수로 표현하고, 세로방향좌표는 (log2(VOP영상의 세로방향의 픽셀수-1))+1의 비트수로 표현한다.At this time, the existing method of encoding the encoding initial point is the absolute coordinate of the x-axis direction and the y-axis direction from the VOP image, the leftmost side, and the topmost point where the previously reconstructed contour predicted as the encoding initial point and the contour of the current image match. By using the values, the horizontal coordinates are expressed as the number of bits of (log2 (pixels in the horizontal direction of the VOP image-1)) + 1, and the vertical coordinates are (log2 (number of pixels in the vertical direction of the VOP image-1)). The number of bits is +1.

그러나 이러한 부호화 초기점의 부호화방법은 움직임 보상이 가능한 영역이 존재하는 윤곽선에 대한 부호화임에도 불구하고, 복원된 윤곽선과 현재영상의 윤곽선이 일치하는 점을 VOP영상의 최좌측, 최상단점으로부터의 x축 방향과 y축 방향의 절대 좌표값을 이용하여 가로방향좌표는 (log2(VOP영상의 가로방향의 픽셀수-1))+1의 비트수로 표현하고, 세로방향좌표는 (log2(VOP영상의 세로방향의 픽셀수-1))+1의 비트수로 표현하므로 부호화할 영역이 많으면 많을수록 영역수의 배수만큼 비트수가 증가하여 부호화 효율을 감소시키는 문제점이 있었다.However, although the encoding method of the initial point of encoding is the encoding of the contour where the region capable of motion compensation exists, the x-axis from the leftmost and uppermost endpoints of the VOP image corresponds to the point where the reconstructed contour matches the contour of the current image. By using the absolute coordinate values in the direction and y-axis direction, the horizontal coordinates are represented by the number of bits of (log2 (number of pixels in the horizontal direction of the VOP image-1)) + 1, and the vertical coordinates are represented by (log2 (the Since the number of pixels to be encoded in the vertical direction is represented by the number of pixels-1)) + 1, the more the number of regions to be encoded, the more the number of bits increases by a multiple of the number of regions, thereby reducing the coding efficiency.

이에 본 발명은 상기와 같은 정점기반 모양정보 부호화에서 예측이 실패한 윤곽선 영역을 부호화할 때 발생하는 제반 문제점을 해결하기 위해서 제안된 것으로, 본 발명의 목적은 윤곽선 정보의 영상간 부호화시 예측시 윤곽선과 원영상의 윤곽선이 일치하는 점과 주위 정점을 부호화해야 할 영역의 시작점으로 결정하고 윤곽선상의 화소수 또는 정점들상의 정점 갯수에 따라 비트를 할당하여 윤곽선 부호화의 효율을 향상토록 정점 기반 모양정보 부호화에서 부호화에 이용될 윤곽선 영역의 시작점 부호화방법을 제공하는데 있다.Accordingly, the present invention has been proposed to solve various problems that occur when encoding the contour region whose prediction fails in the vertex-based shape information encoding as described above. In vertex-based shape information encoding to determine the point where the contour of the original image coincides with the surrounding vertices as the starting point of the region to be encoded, and allocate the bits according to the number of pixels on the contour or the number of vertices on the vertices. The present invention provides a method of encoding a starting point of an outline region to be used for encoding.

이러한 본 발명의 목적을 달성하기 위한 방법은, 수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 위치정보를 부호화하고자 하는 화소가 윤곽선상에 존재하면 윤곽선의 몇번째 화소 위치에 위치하는가를 결정하고, 이를 모든 윤곽선 화소의 위치를 표현할 수 있도록 화소갯수를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 한 것이다.The method for achieving the object of the present invention, when the same contour is stored in the receiving end and the transmitting end, if the pixel to be encoded the position information is located on the contour, it determines the position of the pixel position of the contour, and In order to represent the positions of all the contour pixels, the start point bits are assigned and encoded using the number of pixels.

본 발명의 목적을 달성하기 위한 다른 방법은, 수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 위치정보를 부호화하고자 하는 화소가 정점상에 존재하면 정점의 몇번째 화소 위치에 위치하는가를 결정하고, 이를 모든 정점의 위치를 표현할 수 있도록 정점 갯수를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 한 것이다.Another method for achieving the object of the present invention, when storing the same contour at the receiving end and the transmitting end, if the pixel to be encoded the position information is located on the vertex, it determines the position of the pixel position of the vertex, and In order to represent the positions of all the vertices, the vertex number is allocated and encoded using the starting point bits.

이하, 본 발명의 바람직한 실시예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail.

도 1은 종래 및 본 발명이 적용되는 MPEG-4 부호화기의 블럭 구성도,1 is a block diagram of a conventional MPEG-4 encoder to which the present invention is applied;

도 2는 정점기반 모양정보 부호화부의 상세 구성도로서,2 is a detailed configuration diagram of a vertex-based shape information encoder;

(A)는 영상내 부호화시의 모양정보 부호화부의 상세 구성도,(A) is a detailed block diagram of the shape information encoder at the time of intra-image encoding;

(B)는 영상간 부호화시의 모양정보 부호화부의 상세 구성도,(B) is a detailed configuration diagram of the shape information encoding unit at the time of encoding between images;

도 3은 도 2의 영역표시부의 영역표시 일예도,3 is a view illustrating an area display of the area display unit of FIG. 2;

도 4는 본 발명을 설명하기 위한 영상구성의 일예도.Figure 4 is an example of the image configuration for explaining the present invention.

도 5는 영상간 부호화가 적용되는 윤곽선 영역의 존재할 때의 이전영상의 모양정보의 움직임보상된 윤곽선과 원영상의 모양정보의 윤곽선의 일예도.FIG. 5 is an example diagram of motion compensated contours of shape information of a previous image and contours of shape information of an original image when there is a contour region to which inter-image encoding is applied; FIG.

*도면의 주요 부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

2 : 모양정보 부호화부2a : 영역 표시부2: shape information encoding unit 2a: area display unit

2b : 윤곽선 추출부2c : 정점 추출부2b: contour extraction unit 2c: vertex extraction unit

2d : 초기정점 부호화부2e : 정점 부호화부2d: initial vertex encoder 2e: vertex encoder

2f : 윤곽선 예측부2f: contour prediction unit

본 발명은 기존의 모양정보 부호화 기술중 영상간 부호화 방법인 도 2 (B)의 윤곽선 예측부와 정점추출부와 초기정점 부호화부 및 정점 부호화부에 적용되는 기술이다.The present invention is a technique applied to the contour predictor, the vertex extractor, the initial vertex encoder, and the vertex encoder of FIG.

이에 본 발명은 전술한 바와 같은 기술 구성을 참조하고, 수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 위치정보를 부호화하고자 하는 화소가 윤곽선상에 존재하면 윤곽선의 몇번째 화소 위치에 위치하는가를 결정하고, 이를 모든 윤곽선 화소의 위치를 표현할 수 있도록 화소갯수를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 한 것이다.Accordingly, the present invention refers to the above-described technical configuration, and when the same contour is stored in the receiving end and the transmitting end, if the pixel to be encoded is located on the contour, it is determined which pixel position of the contour is located. In this case, the start point bits are allocated by using the number of pixels so as to represent the positions of all the contour pixels.

또한 본 발명은 수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 위치정보를 부호화하고자 하는 화소가 정점상에 존재하면 정점의 몇번째 화소 위치에 위치하는가를 결정하고, 이를 모든 정점의 위치를 표현할 수 있도록 정점 갯수를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 한 것이다.In the present invention, when the same contour is stored at the receiving end and the transmitting end, when the pixel to encode the position information is located on the vertex, it is determined which pixel position of the vertex is located, so that the positions of all vertices can be expressed. By using the number of vertices is characterized in that the start point bits are assigned and encoded.

이하 본 발명의 바람직한 실시예의 작용을 설명하면 다음과 같다.Hereinafter will be described the operation of the preferred embodiment of the present invention.

윤곽선의 영상간 부호화기술이 적용될 때, 도 5와 같이 이전 복원영상의 움직임 보상된 윤곽선을 추정된 움직임 벡터에 의해 움직임 보상시킨 윤곽선과 현재영상의 윤곽선 사이에는 허용된 오차보다 작은 영역들과 허용된 오차영역보다 큰 영역들로 구분된다. 예를 들면 A와 B사이는 허용된 오차보다 큰 영역이 되고, B와 C사이는 허용된 오차보다 작은 영역으로, C와 D사이는 허용된 오차보다 큰 영역이 되고, D와 A사이는 허용된 오차보다 작은 영역이 된다. 윤곽선의 영상간 부호화시 A~D영역과 B~C영역은 부호화하지 않고, A~B영역과 C~D영역은 영상내 부호화하거나 오차정보를 부호화한다. A~B영역과 C~D영역을 부호화하기 위해서는 그 영역을 부호화할 때의 초기점을 결정해야 하고, 그 정점의 위치정보를 부호화해 주어야 한다. 현재 사용되는 기존기술은 움직임 보상된 이전 복원영상의 윤곽선과 현재 윤곽선이 일치하는 A와 B 두 점 중에서 결정하고, 그 점의 위치정보는 VOP영상의 최좌측, 최상단의 픽셀로부터 절대좌표값을 사용하여 부호화한다.When the inter-image encoding technique of the contour is applied, regions smaller than the allowable error and the allowable error between the contour of the motion compensated contour of the previous reconstructed image by the estimated motion vector and the contour of the current image as shown in FIG. It is divided into areas larger than the error area. For example, between A and B is an area larger than the allowed error, between B and C is smaller than the allowed error, between C and D is greater than the allowed error, and between D and A is allowed. The area becomes smaller than the error. In the inter-image encoding of the contour, the areas A to D and B to C are not encoded, and the areas A to B and C to D are encoded in the image or error information is encoded. In order to encode areas A to B and areas C to D, an initial point when encoding the area must be determined, and position information of the vertex must be encoded. The existing technology currently used is determined from two points A and B where the contour of the motion-compensated previous reconstructed image and the current contour coincide, and the position information of the point uses absolute coordinate values from the leftmost and top pixels of the VOP image. To encode it.

VOP너비와 높이를 알고 있으므로, 위치정보를 부호화하기 위해서는 (log2(VOP너비-1) +1) + (log2(VOP높이-1) +1)비트가 필요하다.Since the VOP width and height are known, (log2 (VOPwidth-1) +1) + (log2 (VOP height-1) +1) bits are required to encode the position information.

그러나 본 발명은 이전 복원영상의 윤곽선 정보를 부호화기와 복호화기에서 모두 갖고 있으므로 두 윤곽선이 일치하는 점(A,B,C,D)을 부호화를 시작하는 초기정점으로 하거나, 그 주위의 정점(Vertex)(A,B,C,D)을 부호화를 시작하는 초기정점으로 정할 수 있다. 윤곽선상의 점을 부호화 초기정점으로 결정할 경우는 그 위치정보를 윤곽선상의 화소수에 따라 결정하고, 윤곽선상의 점 주위의 정점을 부호화 초기점으로 결정할 경우는 그 위치정보를 정점의 갯수에 따라 결정할 수 있다. 즉, 임의로 정한 시작점으로부터 몇번째의 화소인가를 나타내는 정보만 전송하면 부호화가 가능해진다.However, in the present invention, since both the encoder and the decoder have the contour information of the previous reconstructed image, the point (A, B, C, D) where the two contours coincide is used as an initial vertex to start encoding or vertex around it. (A, B, C, D) can be defined as the initial vertex to start coding. When determining the point on the contour as the encoding initial vertex, the positional information may be determined according to the number of pixels on the contour, and when determining the vertex around the point on the contour as the encoding initial point, the positional information may be determined according to the number of vertices. . In other words, encoding is possible only by transmitting information indicating the number of pixels from a predetermined start point.

본 발명은 이러한 점을 이용한 기술이고, 이때 부호화를 위해 필요한 비트수는 복원된 이전영상의 윤곽선상의 점을 이용할 때는 log2(윤곽선상의 픽셀수-1) + 1비트가 필요하고, 그 점 주위의 정점을 이용할 때는 log2(정점의 갯수-1) +1비트가 필요하게 된다. 따라서, 기존기술을 이용할 경우, VOP크기가 176×145이고 복원된 이전 영상의 윤곽선상의 픽셀수가 350개, 정점의 수가 40개라고 가정하면, 기존기술이 적용되면 16비트가 필요하지만, 본 발명의 기술을 적용하면 윤곽선상의 점을 초기정점으로 할 때 9비트가 필요하고, 그 점 주위의 정점을 초기정점으로 할 때 6비트가 필요하다. 일례와 같이 초기정점 부호화시에만 5비트 혹은 7비트의 비트감소효과를 볼 수 있으나, 일반적으로 도 5와 같이 부호화해야 할 영역이 1개 이상이 될 수 있으므로, (5비트 혹은 7비트) * 윤곽선내의 부호화해야 하는 영역수만큼 비트감소효과를 볼 수 있게 되는 셈이다.The present invention is a technique using such a point, wherein the number of bits required for encoding requires log2 (number of pixels on the contour-1) + 1 bit when using the point on the contour of the reconstructed previous image, and vertices around the point. When using, log2 (number of vertices-1) +1 bit is needed. Therefore, when using the existing technology, assuming that the VOP size is 176 × 145, the number of pixels on the contour of the reconstructed previous image is 350 and the number of vertices is 40, 16 bits are required when the existing technology is applied. The technique requires 9 bits to set the point on the contour as the initial vertex, and 6 bits to set the vertex around the point as the initial vertex. As an example, the bit reduction effect of 5 bits or 7 bits can be seen only at the time of initial vertex encoding. However, since there may be more than one region to be encoded as shown in FIG. 5, (5 or 7 bits) * contour The bit reduction effect can be seen as much as the number of regions to be encoded in the frame.

따라서 이전영상과 현재 영상의 윤곽선내의 부호화해야 하는 영역수가 많으면 많을수록 부호화효율은 더욱 향상될 수 있다.Therefore, as the number of regions to be encoded in the contour of the previous image and the current image increases, the encoding efficiency may be further improved.

이상에서 상술한 바와 같이 본 발명은 정점 기반 모양정보 부호화에서 영상간 부호화시 부호화해야 할 영역을 부호화할 때, 부호화할 영역의 시작점을 나타내는 비트가 log2(윤곽선상의 픽셀수-1) +1비트 혹은 log2(정점의 갯수-1) + 1비트만 필요하므로, 윤곽선내의 부호화해야 할 하는 영역수만큼 시작점 위치 결정 비트를 감소시킬 수 있어 부호화 효율을 상승시키는 효과가 있다.As described above, according to the present invention, when the region to be encoded is encoded during inter-image encoding in vertex-based shape information encoding, a bit representing the start point of the region to be encoded is log2 (number of pixels on the outline-1) +1 bit or Since only log2 (number of vertices-1) + 1 bit is required, the starting point positioning bits can be reduced by the number of regions to be encoded in the contour, thereby increasing the coding efficiency.

또한, 부호화해야 할 영역이 많으면 많을수록 영역수의 배수만큼 비트가 감소함으로 부호화효율을 더욱 향상시키는 효과가 있다.In addition, the more regions to be encoded, the more the bit is reduced by a multiple of the number of regions, thereby improving the coding efficiency.

본 발명은 윤곽선 정보의 영상간 부호화시 예측된 윤곽선과 원영상의 윤곽선이 일치하는 점과 주위 정점을 부호화해야 할 영역의 시작점으로 결정하고 윤곽선상의 화소수 또는 정점들상의 정점 갯수에 따라 비트를 할당하여 윤곽선 부호화의 효율을 향상토록 정점 기반 모양정보 부호화에서 부호화에 이용될 윤곽선영역의 시작점 부호화방법을 제공하고자 한 것이다.The present invention determines the point where the predicted contour and the contour of the original image coincide with each other and the surrounding vertices as the starting point of the region to be encoded, and allocates bits according to the number of pixels on the contour or the number of vertices on the vertices. The purpose of the present invention is to provide a method of encoding a starting point of a contour region to be used for encoding in vertex-based shape information encoding to improve efficiency of contour coding.

Claims (2)

정점기반 모양정보 부호화방식의 윤곽선 정보 영상간 부호화시 부호화해야 할 영역의 시작점을 결정하고 그 위치정보를 부호화하는 방법에 있어서,In the method of determining the starting point of the region to be encoded when encoding the contour information between the vertex-based shape information encoding method and encoding the position information, 수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 상기 위치정보를 부호화하고자 하는 화소가 윤곽선상에 존재하면 윤곽선의 몇번째 화소 위치에 위치하는가로 결정하고, 이를 모든 윤곽선 화소의 위치를 표현할 수 있도록 화소갯수를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 하는 정점 기반 모양정보 부호화에서 부호화에 이용될 윤곽선영역의 시작점 부호화방법.When the same contour is stored at the receiving end and the transmitting end, if the pixel to encode the position information exists on the contour, it is determined by which pixel position of the contour, and the number of pixels to express the position of all contour pixels. A start point encoding method of a contour region to be used for encoding in vertex-based shape information encoding, characterized by assigning and encoding a start point bit. 정점기반 모양정보 부호화방식의 윤곽선 정보 영상간 부호화시 부호화해야 할 영역의 시작점을 결정하고 그 위치정보를 부호화하는 방법에 있어서,In the method of determining the starting point of the region to be encoded when encoding the contour information between the vertex-based shape information encoding method and encoding the position information, 수신단과 송신단에 동일한 윤곽선을 저장하고 있을시 위치정보를 부호화하고자 하는 화소가 정점상에 존재하면 정점의 몇번째 화소 위치에 위치하는가로 결정하고, 이를 모든 정점의 위치를 표현할 수 있도록 정점 갯수를 이용하여 시작점 비트를 할당하여 부호화하는 것을 특징으로 하는 정점 기반 모양정보 부호화에서 부호화에 이용될 윤곽선영역의 시작점 부호화방법.When the same contour is stored in the receiver and the transmitter, if the pixel to encode the location information is located on the vertex, it is determined by which pixel position of the vertex it is located and the number of vertices is used to express the position of all vertices. And a starting point bit is allocated and encoded, wherein the starting point encoding method of the contour region to be used for encoding in the vertex-based shape information encoding.
KR1019970010006A 1997-03-24 1997-03-24 Starting point encoding method of contour region to be used for encoding in vertex-based shape information encoding KR100467787B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970010006A KR100467787B1 (en) 1997-03-24 1997-03-24 Starting point encoding method of contour region to be used for encoding in vertex-based shape information encoding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970010006A KR100467787B1 (en) 1997-03-24 1997-03-24 Starting point encoding method of contour region to be used for encoding in vertex-based shape information encoding

Publications (2)

Publication Number Publication Date
KR19980074269A true KR19980074269A (en) 1998-11-05
KR100467787B1 KR100467787B1 (en) 2005-04-20

Family

ID=37302098

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970010006A KR100467787B1 (en) 1997-03-24 1997-03-24 Starting point encoding method of contour region to be used for encoding in vertex-based shape information encoding

Country Status (1)

Country Link
KR (1) KR100467787B1 (en)

Also Published As

Publication number Publication date
KR100467787B1 (en) 2005-04-20

Similar Documents

Publication Publication Date Title
US7408990B2 (en) Efficient motion vector coding for video compression
US8275036B2 (en) Moving picture encoding device, moving picture decoding device, moving picture encoding method, moving picture decoding method, program, and computer readable recording medium storing program
JP4757080B2 (en) Motion detection device, motion detection method, motion detection integrated circuit, and image encoding device
US20080063073A1 (en) Moving picture prediction system
JP3056120B2 (en) Video signal shape information predictive coding method
US7715479B2 (en) Power-aware on-chip memory management for video coding algorithms
KR100467787B1 (en) Starting point encoding method of contour region to be used for encoding in vertex-based shape information encoding
KR100475059B1 (en) Image Coding Method of Contour Line Information in Vertex-based Shape Information Coding
KR100475055B1 (en) Contour Line Type Encoding Method in Vertex-based Shape Information Coding
KR100475057B1 (en) Apparatus and Method for Contour Encoding Mode Determination in Vertex-based Shape Information Coding Method
KR100467785B1 (en) Contour Line Encoding Method for Vertex-based Shape Lossless Encoding
KR100482282B1 (en) Flexible (Enhanced) coding Enhancement Layer coding method
KR100466592B1 (en) Boundary block video data coding method
KR100362969B1 (en) Apparatus for variable block size motion compensation using template pattern coding in an image compressing system
KR100491998B1 (en) Image size information representation / encoding method in video encoding
JP3056121B2 (en) Video signal contour line predictive coding method
KR100466591B1 (en) A method of encoding pixel values in a merged block after object boundary block merge
KR100488421B1 (en) Lossy coding method of binary image
KR100500381B1 (en) How to set Context information when flexible (scalable) encoding of binary mask
KR100475058B1 (en) Video location information expression / encoding method in video encoding
KR100467788B1 (en) Vop(video object planes)
KR100413980B1 (en) Apparatus and method for estimating motion information of contour in shape information coding
KR19980068137A (en) Vertex Position Coding Method According to Extraction Direction of Object Image and Vertex Position Coding Method of MPEG-4 VOP Using the Same
JP2005175821A (en) Image coding apparatus, image coding method, computer program, and computer-readable recording medium

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20091217

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee