KR100483674B1 - Loss-Encoding Method for Encoding Flexible Shape Information - Google Patents
Loss-Encoding Method for Encoding Flexible Shape Information Download PDFInfo
- Publication number
- KR100483674B1 KR100483674B1 KR1019970032445A KR19970032445A KR100483674B1 KR 100483674 B1 KR100483674 B1 KR 100483674B1 KR 1019970032445 A KR1019970032445 A KR 1019970032445A KR 19970032445 A KR19970032445 A KR 19970032445A KR 100483674 B1 KR100483674 B1 KR 100483674B1
- Authority
- KR
- South Korea
- Prior art keywords
- encoding
- coding
- shape information
- probability table
- image
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
Abstract
본 발명은 영상 입력장치를 통해 인가되는 동영상을 임의의 모양 정보(SHAPE INFORMATION)를 갖는 각각의 대상물 영상과 배경 영상으로 분리하여 처리하는 모양 정보 부호화 방법(SHAPE INFORMATION CODING METHOD)에 관한 것으로, 특히, 신축형 모양정보 부호화(SCALABLE SHAPE CODING) 과정 중 스캔 인터리빙(SCAN INTERLEAVING)을 사용하여 손실 부호화가 가능할 수 있도록 저해상도이 베이스 레이어의 영상을 스캔 인터리빙 방법을 사용하여 고해상도의 인헨스먼트 레이어의 영상으로 부호화 할 경우, 산술 부호화 방법의 확률표를 변경하여 적용함으로써 부호화 효율을 향상시킨 것이다.The present invention relates to a SHAPE INFORMATION CODING METHOD for separating and processing a moving image applied through an image input apparatus into a target image and a background image having arbitrary shape information. In order to enable lossy coding using SCAN INTERLEAVING during SCALABLE SHAPE CODING, the low resolution base layer image can be encoded into the high resolution enhancement layer image using the scan interleaving method. In this case, the coding efficiency is improved by changing and applying the probability table of the arithmetic coding method.
Description
본 발명은 영상 입력장치를 통해 인가되는 동영상을 임의의 모양 정보(SHAPE INFORMATION)를 갖는 각각의 대상물 영상과 배경 영상으로 분리하여 처리하는 모양 정보 부호화 방법(SHAPE INFORMATION CODING METHOD)에 관한 것으로, 특히, 신축형 모양정보 부호화(SCALABLE SHAPE CODING) 과정 중 스캔 인터리빙(SCAN INTERLEAVING)을 사용하여 손실 부호화가 가능할 수 있도록 산술 부호화에 사용되는 확률표를 수정한 것이다.The present invention relates to a SHAPE INFORMATION CODING METHOD for separating and processing a moving image applied through an image input apparatus into a target image and a background image having arbitrary shape information. During the SCALABLE SHAPE CODING process, SCAN INTERLEAVING is used to modify the probability table used in arithmetic coding to enable lossy coding.
주지하다시피, 최근의 영상 처리 기술은, 인가되는 한 프레임(FRAME) 분의 영상을 전체적으로 압축 부호화하는 방법에서 탈피하여, 임의의 모양 정보를 갖는 소정의 단위블럭으로 구분하여 그 각각에 대해 압축 부호화하여 전송하는 방향으로 흐르고 있다.As is well known, the recent image processing technology breaks away from a method of compressing and encoding an image corresponding to one frame (FRAME) as a whole, and divides it into predetermined unit blocks having arbitrary shape information and compresses and encodes each of them. In the direction of transmission.
즉, 인가되는 영상을 각각의 대상물 영상과 배경 영상으로 분리하여, 상기 대상물 영상의 변화 여부만을 전송하므로써 압축 효율화 및 부호화 효율을 꾀하고 있으며, 이에 대한 국제 표준안을 마련하고 있다.That is, the applied image is separated into each object image and the background image, and the compression efficiency and the encoding efficiency are intended by transmitting only the change of the object image, thereby preparing an international standard.
예를 들어, 세계 표준화 기구인 ISO/IEC 산하의 WG11에서는 MPEG(MOVIGN PICTURE EXPERTS GROUP:미디어 통합계 동영상 압축의 국제표준:이하 MPEG이라 한다)-1, MPEG-2와는 달리 임의의 모양정보를 갖는 물체를 부호화하는 방식에 대한 표준화작업인 MPEG-4를 진행하고 있으며, 상기 표준화가 진행되고 있는 MPEG-4는 임의의 모양정보를 갖는 단위블럭으로 VOP(VIDEO OBJECT PLANE:이하 VOP라 한다)의 개념을 기초로 하고 있다.For example, WG11 under ISO / IEC, a world standardization organization, has arbitrary shape information unlike MPEG (MOVIGN PICTURE EXPERTS GROUP). MPEG-4, which is a standardization method for encoding an object, is in progress, and MPEG-4, which is being standardized, is a unit block having arbitrary shape information. The concept of VOP (VIDEO OBJECT PLANE) is called. Is based on.
여기서 상기 VOP는, 인가되는 영상을 배경 영상과 각각의 대상물 영상으로 분리하고, 상기 분리한 배경 영상과 대상물 영상을 포함하는 사각형으로 정의 되는 것으로, MPEG-4에서는, 영상 내에 소정의 물체, 또는 소정의 영역으로 이루어진 대상물의 영역이 존재할 경우, 그 대상물의 영상을 각각의 VOP로 분리하고, 분리한 상기 VOP를 각기 부호화 하는 것을 골격으로 하고 있다.Here, the VOP is defined as a quadrangle that divides the applied image into a background image and each object image, and includes the separated background image and the object image. In MPEG-4, a predetermined object or a predetermined object is included in the image. If there is a region of the object consisting of the region of, the video of the object is divided into respective VOPs, and the separated VOPs are encoded respectively.
이러한 VOP는 자연 영상, 또는 인공 영상 등을 대상물 영상의 단위로 하여 자유자재로 합성 내지는 분해할 수 있는 장점을 가지는 것으로, 컴퓨터 그래픽스 및 멀티미디어 분야 등에서 대상물의 영상을 처리하는 데 기본이 되고 있다.The VOP has the advantage of freely synthesizing or decomposing a natural image or an artificial image as a unit of an object image, and is fundamental to processing images of an object in the field of computer graphics and multimedia.
도1은 국제표준 산하기구(ISO/IEC JTC1/SC29/WG11 MPEG96/N1172 JANUARY)에서 1차적으로 확정한 VM(VERIFICATION MODEL:검증모델:이하 VM이라 한다)인코더(ENCODER)(100)의 구성을 나타낸 블록도이다.Fig. 1 shows the configuration of an encoder (ENCODER) 100, which is primarily determined by the International Standards Organization (ISO / IEC JTC1 / SC29 / WG11 MPEG96 / N1172 JANUARY). The block diagram shown.
여기서, VOP형성부(VOP FORMATION)(100)는 전송 또는 저장할 영상 시퀀스(SEQUENCE)가 입력될 경우에 이를 대상물 영상 단위로 나누어 각기 다른 VOP로 형성한다.Here, when the
도2는 대상물 영상으로 고양이의 영상을 설정하여 하나의 VOP를 형성한 일례를 나타낸 것이다.2 shows an example in which one VOP is formed by setting an image of a cat as an object image.
여기서, VOP의 가로 방향 크기는 VOP폭으로 정의되고, 세로 방향의 크기는 VOP높이로 정의되며, 형성된 VOP는 좌측 상단을 그리드(GRID) 시작점으로 하여, X축 및 Y축으로 각기 M개 및 N개의 화소를 가지는 M×N 매크로 블럭으로 구획된다. 예를 들면 X축 및 Y축으로 각기 16개의 화소를 가지는 16×16 매크로 블럭으로 구획된다.Here, the horizontal size of the VOP is defined by the width of the VOP, the vertical size is defined by the height of the VOP, the formed VOP is M and N respectively in the X-axis and Y-axis with the upper left as the grid (GRID) starting point. It is partitioned into an MxN macroblock having two pixels. For example, it is divided into 16x16 macroblocks each having 16 pixels on the X-axis and the Y-axis.
이때, VOP의 우측과 하단에 형성되는 매크로 블럭의 X축 및 Y축 화소가 각기 M개 및 N개가 아닐 경우에는 VOP의 크기를 확장하여 각각의 매크로 블럭의 X축 및 Y축 화소가 모두 M개 및 N개로 되게 한다.In this case, when there are not M and N pixels of the X and Y axes of the macroblock formed on the right and the bottom of the VOP, the size of the VOP is extended to M and both of the X and Y axes pixels of each macro block are expanded. And N.
그리고, 상기 M 및 N은 후술하는 대상물내부부호화부(TEXTURE CODING) 에서 서브 블럭의 단위로 부호화를 수행할 수 있도록 하기 위하여 각기 짝수로 설정된다.In addition, M and N are set to an even number in order to perform encoding in units of sub-blocks in a text encoding unit to be described later.
한편, 상기 VOP형성부(110)에서 형성된 각각의 VOP는 VOP부호화부(120a, 120b, …, 120n)에 각기 입력되어 VOP 별로 부호화 되고, 멀티플렉서(13)에서 다중화되어 비트열(BIT STREAM)로 전송된다.On the other hand, each VOP formed in the
도4는 국제표준 산하기구에서 1차적으로 확정한 VM코인더(100)의 VOP부호화부(120a, 120b, …, 120n)의 구성을 나타낸 블럭도로 이를 설명하면 다음과 같다.FIG. 4 is a block diagram showing the configuration of the
먼저, 상기 VOP형성부(110)에서 형성된 각각의 대상물 영상에 대한 VOP가 움직임추정부(MOTION ESTIMATION)(121)에 입력되면, 상기 움직임추정부(121)는 인가된 VOP로부터 매크로 블럭 단위의 움직임을 추정하게 된다.First, when a VOP for each object image formed by the
또한, 상기 움직임추정부(121)에서 추정된 움직임 정보는 움직임보상부(MOTION COMPENSTION)(122)에 입력되어 움직임이 보상된다.In addition, motion information estimated by the
그리고, 상기 움직임보상부(122)에서 움직임이 보상된 VOP는 상기 VOP형성부(110)에서 형성된 VOP와 함께 감산기(123)에 입력되어 차이값이 검출되고, 상기 감산기(123)에서 검출된 차이값은 대상물내부부호화부(124)에 입력되어 매크로 블럭의 서브 블럭 단위로 대상물의 내부정보가 부호화된다.In addition, the VOP whose motion is compensated by the
예를 들면, 매크로 블럭의 X축 및 Y축이 M/2×N/2으로 각기 8개의 화소를 가지는 8×8의 서브 블럭으로 세분화된 후 대상물 내부정보가 부호화된다.For example, after the X and Y axes of the macroblock are subdivided into 8x8 subblocks having 8 pixels each with M / 2 x N / 2, the object internal information is encoded.
한편, 상기 움직임보상부(122)에서 움직임이 보상된 VOP와, 상기 대상물내부부호화부(124)에서 부호화된 대상물의 내부정보는 가산기(125)에 입력되어 가산되고, 상기 가산기(125)의 출력신호는 이전VOP검출부(PREVIOU RECONSTRUCTED VOP)(126)에 입력되어 현재영상 바로 전 영상의 VOP인 이전VOP가 검출된다.Meanwhile, the VOP whose motion is compensated by the
또한, 상기 이전VOP검출부(126)에서 검출된 상기 이전VOP는 상기 움직임추정부(121) 및 움직임보상부(122)에 입력되어 움직임 추정 및 움직임 보상에 사용된다.In addition, the previous VOP detected by the
그리고, 상기 VOP형성부(110)에서 형성된 VOP는 모양부호화부(SHAPE CODING BLOCK)(127)에 입력되어 모양 정보가 부호화된다.The VOP formed by the
여기서, 상기 모양부호화부(127)의 출력신호는 상기 VOP부호화부(120a, 120b, …, 120n)가 적용되는 분야에 따라 사용 여부가 가변되는 것으로, 점선으로 표시된 바와 같이, 상기 모양부호화부(127)의 출력신호를 움직임추정부(121), 움직임보상부(122) 및 대상물내부부호화부(124)에 입력시켜 움직임 추정, 움직임 보상 및 대상물의 내부 정보를 부호화 하는 데 사용할 수 있다.Here, the output signal of the
또한, 상기 움직임추정부(121)에서 추정된 움직임 정보와, 상기 대상물내부부호화부(124)에서 부호화된 대상물 내부 및 상기 모양부호화부(127)에서 부호화된 모양 정보는 멀티플렉서(128)에 인가되어 다중화 된 후, 버퍼9129)를 통해 도1의 멀티플렉서(130)로 출력되어 비트열로 전송된다.In addition, motion information estimated by the
도3은 국제표준 산하기구에서 1차적으로 확정된 VM디코더(DECODER)(200)의 구성을 나타낸 블록도이다.FIG. 3 is a block diagram showing the configuration of a VM decoder (DECODER) 200, which is determined primarily by an international standard subdivision.
상기 VM인코더(100)를 통해 부호화되고, 비트열로 전송되는 정보인 VOP의 부호화 신호는 VM디코더(200)의 디멀티플렉서(210)에서 VOP 별로 각기 분리된다.The encoded signal of the VOP, which is encoded through the
또한, 상기 분리된 각가의 VOP 부호화 신호는 VOP리코더(120a, 120b, …, 120n)에 의해 각기 디코딩되며, 상기 VOP디코더(120a, 120b, …, 120n)에서 출력되는 디코딩신호는 합성부(230)에서 합성되어 원래의 영상으로 출력된다.In addition, the separated VOP coded signals are decoded by the
이러한 MPEG-4에 있어서, 상기 VOP형성부(110)에서 전송된 각각의 VOP를 부호화하는 상기 모양부호화부(127)에 적용되는 기술로는, N×N 블럭 (N=16, 8, 4)을 기반으로 하는 모양 정보를 부호화하는 MMR 모양 정보 부호화 기술(MMR SHAPE CODING TECHNIQUE)과, 정점을 기반으로 하여 모양 정보를 부호화하는 정점 기반 모양 정보 부호화 기술(VERTEX-BASED SHAPE CODING TECHNIQUE)과, 기초선 기반 모양 정보 부호화기술(BASELINE-BASED SHAPE CODING TECHNIQUE) 및 상황 기반 산술 부호화 기술(CONTEXT-BASED ARITHMETIC CODING) 등이 있다.In such MPEG-4, as a technique applied to the
한편, 신축형 모양 정보 부호화 기술은, 해상도가 높아 정보량이 많은 영상(정지영상, 또는 동영상)을 해상도가 낮은 영상으로 변환하여 전송한 후, 이를 다시 해상도가 높은 원래의 영상으로 변환함으로써 전송 정보량을 감축시키는 기술이다.On the other hand, the stretched shape information encoding technology converts an image having a high amount of information (still image or a video) into a low resolution image and transmits it, and then converts it to an original image having a high resolution. It is a technology to reduce.
즉, 인코더에서 고해상도의 영상을 정보량이 적은 저해상도의 영상으로 변환하여 인코딩한 후 디코더로 전송하면, 디코더에서 전송된 저해상도의 영상을 디코딩하여 고해상도의 영상으로 복원하는 것으로, 신축형 모양 정보 부호화 방법을 인코딩 과정과 디코딩 과정으로 나누어 설명하면 다음과 같다.That is, when the encoder converts a high resolution image into a low resolution image having a small amount of information, encodes the image, and then transmits the encoded image to the decoder, the decoder decodes the low resolution image transmitted by the decoder to restore the high resolution image. The encoding process and the decoding process will be described as follows.
본 설명에서는 설명의 편의상, 도5, 도6에서 도시되는 바와 같이, 4×4의 인헨스먼트 레이어의 영상을 베이스 레이어의 영상으로 변환하여 부호화하여 전송한 후, 이를 다시 스캔 인터리빙 방법에 의해 인헨스먼트 레이어의 영상으로 부호화하는 과정을 상세히 설명하면 다음과 같다.In the present description, for convenience of description, as shown in FIGS. 5 and 6, an image of a 4 × 4 enhancement layer is converted into an image of a base layer, encoded, transmitted, and then, again, is scanned by a scan interleaving method. The process of encoding the image of the health layer will be described in detail as follows.
인코더에서는, 도5a와 같은 4×4의 인헨스먼트 레이어의 영상을 4등분 한 후 그 우측 아래의 화소(A5, A7, A13, A15)를 선택하여 도5b와 같이 원 영상의 1/4 크기를 갖는 베이스 레이어의 영상을 만들어, 이를 손실 부호화, 또는 무손실 부호화하여 디코더에 전송한다.In the encoder, the image of the 4x4 enhancement layer as shown in Fig. 5A is divided into four sections, and the pixels A5, A7, A13, and A15 at the lower right side are selected. Create an image of the base layer with a lossy encoding or lossless encoding and transmit the image to the decoder.
또한, 베이스 레이어의 영상을 추출하였을 경우에는, 베이스 레이어의 영상(축소된 영상)과 인헨스먼트 레이어의 영상(원래의 영상)을 비교하여, 트랜지셔날 샘플 데이터(TRANSITIONAL SAMPLE DATA :이하 TSD라 한다.)와 익셉셔날 샘플 데이터(EXCEPTIONAL SAMPLE DATA:이하 ESD라 한다)의 존재 유무를 검출한다. 이때, TSD, 또는 ESD가 검출되었을 경우에는 이를 컨택스트 기반 산술부호화 (CONTEXT-BASED ARITHMETIC ENCODING:이하 CAE라 한다.)하여 베이스 레이어의 영상과 함께 디코더에 전송한다.In addition, when the image of the base layer is extracted, the image of the base layer (reduced image) is compared with the image of the enhancement layer (original image), and the transitional sample data (TRANSITIONAL SAMPLE DATA: hereinafter referred to as TSD). And EXCEPTIONAL SAMPLE DATA (hereinafter referred to as ESD). In this case, when a TSD or ESD is detected, the context-based arithmetic encoding (CONTEXT-BASED ARITHMETIC ENCODING: hereinafter referred to as CAE) is transmitted to the decoder along with the image of the base layer.
여기서, 상기 TSD와 ESD를 검출하여 부호화 하는 이유는 다음과 같다.Here, the reason for detecting and encoding the TSD and ESD is as follows.
도7은 베이스 레이어의 영상과 인헤스먼트 영상을 비교하는 과정 중 수평방향의 검색(HORIZONTALSCANNING)을 나타낸 것으로, 도면중에서 페러런스 스캔 라인(REFERENCE SCAN LINE:이하 RSL라 한다.)은 베이스 레이어 영상의 수평방향 화소가 포함된 화소열이며, 코드 스캔 라인(CODED SCAN LINE:이하 CSL이라 한다.)은 베이스 레이어 영상 추출과정에서 제외된 인헨스먼트 레이어 영상의 수평방향 화소열을 나타낸 것이다. 또한, 상기 CSL을 부호화 하기 위해서는, 부호화할 화소의 아래와 위에 존재하는 RSL을 이용하는데, 도6에서 도시되는 바와 같이 이에는 일정한 규칙이 있음을 알 수 있다.7 shows a horizontal search (HORIZONTALSCANNING) in the process of comparing the image of the base layer and the ingestion image. In the figure, a reference scan line (hereinafter referred to as RSL) is a representation of a base layer image. A pixel column including the horizontal pixels, and a code scan line (hereinafter referred to as CSL) represents a horizontal pixel column of an enhancement layer image that is excluded from the base layer image extraction process. In addition, in order to encode the CSL, an RSL existing under and above the pixel to be encoded is used. As shown in FIG. 6, it can be seen that there are certain rules.
즉, CSL 상에 존재하는 부호화할 화소의 아래와 위에 존재하는 RSL 상의 두 이웃 화소의 값이 같을 경우에는 부호화 하고자 하는 현재 위치의 화소값도 같은 값을 가질 가능성이 많으므로, 두 이웃 화소값이 같고 현재 위치의 화소값도 두 이웃 화소값과 같을 경우는 부호화를 하지 않는다.That is, when two neighboring pixels on the RSL existing under and above the pixel to be encoded on the CSL have the same value, the pixel values of the current position to be encoded may have the same value. If the pixel value at the current position is also the same as the two neighboring pixel values, no encoding is performed.
그러나, 두 이웃 화소값이 다를 경우는 현재 위치의 화소값이 다를 가능성이 많으므로, 부호화 하고자 하는 현재위치의 화소값을 부호화 해주어야 하는데, 이 경우를 트랜지셔날 샘플(TRANSITIONAL SAMPLE)(도6 중 실선으로 표시한 타원)이라 한다.However, when two neighboring pixel values are different, the pixel values of the current position are likely to be different. Therefore, the pixel values of the current position to be encoded should be encoded. In this case, the transitional sample (TRANSITIONAL SAMPLE) ( Ellipses in solid lines).
또한, 두 이웃 화소값은 같지만 현재 위치의 화소값이 다를 경우도 부호화를 해주어야 하는데, 이 경우를 익셉셔날 샘플(EXCEPTIONAL SAMPLE)(도6 중 점선으로 표시한 타원)이라 한다.In addition, when two neighboring pixel values are the same but the pixel values of the current position are different, encoding should be performed. This case is called an EXCEPTIONAL SAMPLE (ellipse indicated by a dotted line in FIG. 6).
따라서, 인헨스먼트 레이어를 부호화 하기 위해서는 두 가지 종류의 데이터, 즉, TSD와 ESD가 존재할 수 있으며, 상기 TSD와 ESD가 존재할 경우에는 이에 대한 정보를 디코더에 전송해 주어야 인헨스먼트 레이어의 영상을 정확하게 복원할 수 있게 된다. CAE는 상기 TSD와 ESD에 대한 정보를 부호화 할 경우, 소요되는 비트수를 절감하기 위해 사용하는 기법이다.Accordingly, in order to encode the enhancement layer, two types of data, that is, TSD and ESD, may exist. When the TSD and ESD exist, information about the TSD and ESD must be transmitted to the decoder to display the image of the enhancement layer. It can be restored accurately. CAE is a technique used to reduce the number of bits required when encoding the information on the TSD and ESD.
한편 디코더에서는, 인코더에서 전송된 상기 베이스 레이어 영상에 대한 부호화 신호와 TSD, 또는 ESD에 대한 부호화 신호를 디코딩하여 인헨스먼트 레이어의 영상을 복원하게 되는 것으로, 이를 수평 방향 검색과 수직 방향 검색(VERTICAL SCANNING)으로 나누어 상세히 설명하면 다음과 같다.On the other hand, the decoder decodes the coded signal for the base layer image transmitted from the encoder and the coded signal for TSD or ESD, thereby reconstructing the image of the enhancement layer, which is a horizontal search and a vertical search (VERTICAL). SCANNING) divided in detail as follows.
도6a는 수평 방향 검색 방법을 설명하기 위한 것으로, 현재 X(A10)점의 화소를 부호화 할 차례라 할 경우, 상기 X점에 이웃하는 화소는 도면에서 도시되는 바와 같이, A5, A6, A7, A13, A14, A15 및 BO(A9)이다. 이때, 상기 A5, A6, A7, A13, A14, A15 및 BO 화소는 전단계의 스캔인터리빙 방법에 의해 그 값이 구해진 것으로, 구하고자 하는 X점의 화소는, 상기 A5, A6, A7, A13, A14, A15, B0의 값을 CAE를 수행하여 구한다. 즉, 수평, 수직방향에 존재하는 7개 화소에 대한 컨택스트(CONTEXT)를 이용하여 CAE를 수행하여 부호화를 하는 것이다.FIG. 6A is a view for explaining a horizontal direction search method. When the pixel at the current X (A10) point is encoded, the pixels adjacent to the X point are A5, A6, A7, as shown in the figure. A13, A14, A15 and BO (A9). In this case, the values of A5, A6, A7, A13, A14, A15, and BO pixels are obtained by the scan interleaving method of the previous step, and the pixel of X point to be obtained is A5, A6, A7, A13, A14. The values of, A15 and B0 are obtained by performing CAE. That is, CAE is encoded by using a CONTEXT of seven pixels in the horizontal and vertical directions.
마찬가지로, 수직 방향 검색 방법은, 도6b에서 도시되는 바와 같이, C0, C1, C2, A5, A7, A13, A15의 화소값으로부터 구하고자 하는 Y점의 화소값을 구하게 된다.Similarly, in the vertical search method, as shown in Fig. 6B, the pixel value of Y point to be obtained is obtained from the pixel values of C0, C1, C2, A5, A7, A13, and A15.
여기서, BO, CO, C2의 화소는 수평 방향 검색 방법에 의해 구한 값을 나타낸 것이고, C1화소는 수직 방향 검색 방법에 의해 구한 값을 나타낸 것이며, 빗금친 화소는 다음번에 구할 화소를 나타낸 것이다.Here, the pixels BO, CO, and C2 represent values obtained by the horizontal direction search method, the C1 pixels represent values obtained by the vertical direction search method, and the hatched pixels represent pixels to be next obtained.
따라서, 수평 방향 검색을 행하면 세로 방향의 화소가 2배로, 수직 방향 검색을 행하면 가로 방향의 화소가 2배로 증가되어, 결국 2×2의 베이스 레이어 영상으로 부터 4×4의 인헨스먼트 레이어의 영상으로 복원되게 되는 것이다.Therefore, when the horizontal direction search is performed, the pixels in the vertical direction are doubled, and when the vertical search is performed, the pixels in the horizontal direction are doubled, resulting in a 4 × 4 enhancement layer image from the 2 × 2 base layer image. Will be restored.
또한, 동영상의 경우에는 MPEG-4에서 신축형 모양정보 부호화 기능을 지원하고 있는데, MPEG-4의 경우에는, 도8에서 도시되는 바와 같이, 그 동영상 전송 특성상 베이스 레이어 영상의 I-VOP(INTRA VIDEO OBJECT PLANE:이하 I-VOP라 한다.)를 이용하여 인헨스먼트 레이어의 영상을 복원하는 방법과, P-VOP(PREDICTED VIDEO OBJECT PLANE:이하 P-VOP라 한다.)이용하여 인헨스먼트 레이어의 영상을 복원하는 방법 및 B-VOP(BY-DIRECTION VIDEO OBJECT PLANE:이하 P-VOP라 한다.)을 이용하여 인헨스먼트 레이어의 영상을 복원하는 방법 등이 있다.In addition, in the case of a video, MPEG-4 supports elastic shape information encoding. In the case of MPEG-4, as shown in FIG. 8, the I-VOP (INTRA VIDEO) of the base layer video is displayed due to its video transmission characteristics. Reconstruction of the enhancement layer image using OBJECT PLANE: (hereinafter referred to as I-VOP), and P-VOP (PREDICTED VIDEO OBJECT PLANE: hereafter referred to as P-VOP). There is a method of restoring an image and a method of restoring an image of an enhancement layer using B-VOP (BY-DIRECTION VIDEO OBJECT PLANE).
한편, MPEG-4의 가장 큰 특징 중 하나의 객체(OBJECT)를 기반으로 처리를 한다는 것이다. 즉, 한 영상을 여러 개의 객체로 나누고 그 각각의 객체를 개별적으로 부호화하고 처리할 수 있는 것이다. 따라서 객체를 만들기 위해서 모양정보를 알아야 한다. 여기서 말하는 모양정보를 흔히 마스크(MASK)라고 하는데 영상에서 객체 부분은 '1'로 표현하고 객체 바깥 부분(배경 부분)은 '0'으로 표현한다. 이 모양정보를 이용하여 영상에서 한 객체를 얻을 수 있다. 그리고 이 모양정보를 이용하여 복호기 측에서 객체 부분을 복호하기 때문에 모양정보를 부호화하여 복호기측에 전송해주어야 한다.On the other hand, one of the biggest features of MPEG-4 is to process based on the object (OBJECT). In other words, one image can be divided into several objects and each object can be individually encoded and processed. So you need to know the shape information to make an object. The shape information referred to here is commonly referred to as a mask. In the image, the object part is represented by '1' and the outside part of the object (background part) is represented by '0'. This shape information can be used to obtain an object from the image. Since the decoder decodes the object part using the shape information, the shape information should be encoded and transmitted to the decoder side.
현재 MPEG-4에서 모양정보 부호화를 하기 위해서 CAE를 이용한다. CAE는 16×16 BAB(BINARY ALPHA BLOCK)단위로 각 화소에 도 9와 같은 컨텍스트 탬플렛(CONTEXT TEMPLATE)를 이용하여 식 [1]과 같이 컨택스트 번호를 구하고 구해진 컨텍스트 번호를 이용하여 그 컨텍스트가 발생하였을 경우 '0'이 발생할 확률과 '1'이 발생할 확률을 구하고 그 구해진 확률을 이용하여 산술(ARITHMETIC) 부호화 방법을 사용하여 부호화를 한다.CAE is currently used to encode shape information in MPEG-4. CAE uses a context template as shown in FIG. 9 in each pixel in 16 × 16 BAB (BINARY ALPHA BLOCK) units to obtain a context number as shown in Equation [1]. When it occurs, the probability of occurrence of '0' and the probability of occurrence of '1' are obtained, and then the encoding is performed using the arithmetic coding method using the obtained probability.
C=SIGMA CK×2K --------[1]이 때 손실 부호화를 하기 위해서는 산술 부호화하기 이전에 CR(CONVERSION RATIO:이하 CR이라 한다.)에 의하여 BAB의 크기를 줄이고, 줄여진 BAB를 다시 원래의 크기로 복원했을 경우 원 BAB와 복원된 BAB의 차의 절대값이 임계치 이하이면 줄어든 크기로 CAE를 이용하여 부호화 하고 임계치보다 크다면 원 BAB를 이용해서 CAE에 의해서 부호화 한다. CR은 BAB의 크기를 변화시키는 변수로써 MxM BAB가 (MxCR)x(MxCR)로 줄어든다. 따라서 CR=1/2일 경우는 부호화 할 화소 수가 1/4로 줄어든다. 따라서 CR을 이용하여 도면 2와 같이 BAB의 크기를 줄이고 그 BAB를 다시 복원한 값과 원 BAB의 차의 절대값을 구했을 때 오차가 임계치 이하일 때는 줄어든 BAB를 이용하여 CAE를 수행하게 된다.C = SIGMA CK × 2K -------- [1] In order to perform lossy coding, the size of BAB is reduced and reduced by CR (CONVERSION RATIO: CR) before arithmetic coding. When the BAB is restored to its original size, if the absolute difference between the original BAB and the restored BAB is less than or equal to the threshold, the CAB is encoded using the reduced size and if it is larger than the threshold, the original BAB is encoded by the CAE. CR is a variable that changes the size of BAB. MxM BAB is reduced to (MxCR) x (MxCR). Therefore, when CR = 1/2, the number of pixels to be encoded is reduced to 1/4. Therefore, as shown in FIG. 2, the CRB is used to reduce the size of the BAB, and when the absolute value of the difference between the restored BAB and the original BAB is obtained, the CAE is performed using the reduced BAB when the error is less than the threshold.
그러나, 상기와 같은 종래의 CAE는, 컨텍스트 탬플렛 식을 이용하여 컨택스트 번호를 구하고, 구해진 이 컨텍스트 번호를 이용하여 그 컨텍스트가 발생했을 경우 '0'이 발생할 확률과 '1'이 발생할 확율을 구하고 그 구해진 확률을 이용하여 산술 부호화 하므로 인해 부호화 효율이 저하된다는 문제점이 있었다.However, in the conventional CAE, the context number is used to obtain a context number, and when the context is generated using the obtained context number, the probability of occurrence of '0' and the probability of occurrence of '1' are calculated. There is a problem that the coding efficiency is lowered due to arithmetic coding using the obtained probability.
본 발명의 목적은, 상기와 같은 종래의 문제점을 해소하기 위한 것으로, 특히, 산술 부호화에 사용되는 확률표를 수정하므로 인해, 스캔 인터리빙을 사용하여 손실 부호화가 가능하도록 한 신축형 모양정보 부호화 시 손실 부호화 방법을 제공하는 데 있다.An object of the present invention is to solve the above-mentioned conventional problems. In particular, since the probability table used for arithmetic coding is modified, loss in coding of elastic shape information enabling loss coding using scan interleaving is possible. The present invention provides a coding method.
상기와 같은 목적을 달성하기 위하여 본 발명 신축형 모양정보 부호화 시 손실 부호화 방법은, 영상 입력장치를 통해 인가되는 동영상을 임의의 모양 정보를 갖는 각각의 대상물 영상과 배경 영상으로 분리한 후, 해상도가 다른 복수개의 레이어로 전송하여 복호화하는 신축형 모양정보 부호화 방법에 있어서, 저해상도인 베이스 레이어의 영상을 스캔 인터리빙 방법을 사용하여 고해상도의 인헨스먼트 레이어의 영상으로 부호화 할 경우, 산술 부호화 방법의 확률표를 변경하여 적용함을 그 방법적 구성상의 특징으로 한다.In order to achieve the above object, according to the present invention, the lossy coding method of the flexible shape information encoding includes separating a moving picture applied through an image input device into respective object images and background images having arbitrary shape information, and then resolving the resolution. In the flexible shape information encoding method which is transmitted and decoded to a plurality of different layers, a probability table of the arithmetic encoding method when a low resolution base layer image is encoded into a high resolution enhancement layer image by using a scan interleaving method It is characterized by the methodological configuration that is applied to change.
이하, 본 발명 신축형 대상물 영상의 스캔 인터리빙 방법의 기술적 사상에 따른 일 실시예를 들어 그 구성 및 동작을 첨부된 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, the configuration and operation of the present invention will be described in detail with reference to the accompanying drawings, in accordance with an embodiment of the present invention.
먼저, 모양정보 부호화를 손실 부호화 하기 위해서 본 실시예에서는 CAE의 확률표를 적용하는 방법을 사용한다.First, in order to lossy encode shape information encoding, the present embodiment uses a method of applying a probability table of CAE.
우선 CAE에서 사용되는 기준의 확률표에서 물체의 내부를 1, 물체의 외부를 0이라 했을 경우 0 또는 1이 발생할 확률 중 큰 값은 1, 작은 값은 0의 값을 갖도록 확률표를 새로 만든다. 수정된 확률표를 이용할 경우는 모든 확률이 1, 또는 0이므로 부가적인 부호화 과정을 거치지 않고 컨텍스트 번호만 안다면 그 확률표를 이용하여 부호화할 위치의 화소값을 바로 알 수 있다.First, if the inside of the object is 1 and the outside of the object is 0 in the standard probability table used in CAE, the probability table is newly created so that the larger value is 1 and the smaller value is 0. In the case of using the modified probability table, all the probabilities are 1 or 0, so if the context number is known without additional coding, the pixel value of the position to be encoded can be immediately known using the probability table.
즉, 예를 들어 확률표가 아래와 같다면,That is, for example, if the probability table is
종래의 경우, 확률표의 최대값은 2의 16제곱인 65535(=216-1)으로부호화대상인 TSD, ESD가 물체 내부일 확률을 표현하고 있다. 참조한 index의 값이 확률표 최대값의 1/2보다 크면 물체 내부로 판단하고, 1/2보다 작으면 물체외부로 판단하였다. 그러나, 본 발명에서는 상술한 바와 같이, 참조하는 index에 해당하는 값이 1/2보다 큰지 작은지를 계산할 필요도 없이 상기 예시한 확률표를 수정하여 1/2보다 크면 당연히 물체내부일 것이므로 해당값 대신 '1'을, 1/2보다 작으면 '0'으로 해당값을 대체하는 방식으로 확률표를 수정하여 물체내부인지 물체외부인지를 확률표로부터 직접 참조 할 수 있다.In the conventional case, the maximum value of the probability table is 65535 (= 2 16-1 ), which is a power of 2, which represents the probability that the TSD and ESD to be encoded are inside the object. If the value of the referenced index is greater than 1/2 of the maximum value of the probability table, it is determined to be inside the object, and if smaller than 1/2, it is determined to be outside of the object. However, in the present invention, as described above, it is not necessary to calculate whether the value corresponding to the reference index is larger or smaller than 1/2, but if it is larger than 1/2 by modifying the above-described probability table, it will naturally be inside the object. If '1' is smaller than 1/2, the probability table can be modified by replacing the corresponding value with '0' to directly refer to whether the object is inside or outside the object.
따라서, 수정될 확률표를 이용하여 복원한 BAB가 부호화하고자하는 본래의 BAB정보 사이의 오차가 임계치 이하가 될 경우 수정된 확률표를 이용했다는 정보만을 전송해줌으로써 손실 부호화할 수 있으므로 효율을 높일 수 있다.Therefore, if the error between the original BAB information to be encoded by the restored BAB using the corrected probability table is less than or equal to the threshold, only the information indicating that the modified probability table is used can be loss encoded to improve efficiency. have.
이 방법에서 사용되는 입계치로는 하나의 BAB를 4×4의 서브블럭(SUB-BLOCK)으로 나누고 각 서브 블록에 대해서 16*alphaTH를 임계치로 정한다. 그리고 모든 서브 블록이 임계치를 만족하면 수정된 확률표를 이용한다.The threshold used in this method is to divide one BAB into 4 × 4 subblocks (SUB-BLOCK) and set a threshold of 16 * alphaTH for each subblock. If all subblocks meet the threshold, the modified probability table is used.
이 방법은 I-VOP 뿐 아니라, P, B-VOP를 부호화 할 경우에도 똑같이 적용할 수 있다.This method is equally applicable to encoding P and B-VOP as well as I-VOP.
즉, I-VOP를 이용할 경우에는 210개의 컨텍스트에 대한 확률표를 새로 만들고, P,B-VOP의 경우는 29개의 컨텍스트에 대한 확률표를 새로 만들면 된다.In other words, if I-VOP is used, a new probability table for 210 contexts is created, and for P and B-VOP, a new probability table for 29 contexts is created.
한편, 상기의 실시예에서와는 별개로, 기존의 CR을 이용하여 손실 부호화를 하는 방법에 본 실시예에서 제시한 방법을 병합해서 이용할 수 있다.On the other hand, apart from the above embodiment, the method proposed in this embodiment can be combined with the existing lossy coding method using the existing CR.
즉, 도11에서 도시되는 바와 같이, CR을 적용했을 때 CR 오차가 임계치보다 작은 경우 CR에 따라 BAB 크기를 줄인 후 CAE를 수행하는데, 본 예에서는 CAE를 수행하기 전에 먼저 수정된 확률표를 적용하여 새롭게 BAB를 재구성하였을 때 오차가 임계치보다 작을 경우에는 CR과 수정된 확률표를 이용했다는 정보만 전송하고, 오차가 임계치보다 큰 경우에는 CR과 CAE 정보를 전송한다. 이를 도12에 나타내었다. 또한 이때, 수정된 확률표를 이용할지 안할지에 대한 임계치는 16*alphaTH*CR2를 사용한다.That is, as shown in FIG. 11, when the CR error is smaller than the threshold value when applying the CR, the CAB is performed after reducing the BAB size according to the CR. In this example, the modified probability table is first applied before performing the CAE. When the BAB is newly reconstructed, if the error is smaller than the threshold, only the information of using the CR and the modified probability table is transmitted. If the error is larger than the threshold, the CR and CAE information is transmitted. This is shown in FIG. In this case, the threshold of whether or not to use the modified probability table uses 16 * alphaTH * CR2.
또한, CR을 이용하여 영상의 크기를 전환하기 전에 수정된 확률값을 이용했을 때의 오차가 임계치보다 작을 경우에는 수정된 확률값을 이용하였다는 정보를 보내주고, 오차가 클 경우에는 CR을 이용하여 손실 부호화를 할 수 있다.In addition, if the error when using the modified probability value is smaller than the threshold value before converting the image size using the CR, the information indicating that the modified probability value is used is transmitted. Encoding can be done.
또한, CR을 이용하여 영상의 크기를 전환하기 전에 수정된 확률값을 이용했을 때의 오차가 임계치보다 작을 경우에는 수정된 확률값을 이용하였다는 정보를 보내주고, 오차가 클 경우에는 상기의 방법을 이용하여 손실 부호화를 할 수 있다.In addition, if the error when the corrected probability value is smaller than the threshold value before switching the size of the image using the CR is sent, the information indicating that the corrected probability value is used, and when the error is large, the above method is used. Loss coding can be performed.
또한, 수정된 확률표를 이용했는지에 대한 부가정보를 보내기 위해서 기존의 모양정보 부호화 모드(MODE) 7가지 ((!)∼(7))에 다음의 세가지((8), (9), (10))를 첨가한다.In addition, in order to send additional information on whether the modified probability table is used, the following three ((8), (9), ( 10)) is added.
(1)MVDs== 0 No Update(2) MVDs != 0 No Update(3) all_0(4) all_255(5) intraCAE(6)MVDs== 0 interCAE(7)MVDs != 0 interCAE(8)intraCAE with modified probability table(9)MVDs== 0 interCAE with modified probability table(10) MVDs != 0 interCAE with modified probability tableI-VOP일 경우는 위 모드 중 (3), (4), (5), (8)만 사용한다.(1) MVDs == 0 No Update (2) MVDs! = 0 No Update (3) all_0 (4) all_255 (5) intraCAE (6) MVDs == 0 interCAE (7) MVDs! = 0 interCAE (8) intraCAE with modified probability table (9) MVDs == 0 interCAE with modified probability table (10) MVDs! = 0 interCAE with modified probability table (I), (4), (5), (8) ) Only.
그리고, 모양정보 부호화 모드를 가변 길이 부호(VIRIABLE LENGTH CODE)로 부호화할 수 있다.The shape information encoding mode may be encoded using a variable length code.
또한, 모양정보 부호화 모드를 다르게 설정하는 것이 아니라 각 BAB에 대해서 CAE과정에서 수정된 확률표를 이용했는지에 대한 부가정보를 첨가하는 방법이 있다.In addition, instead of setting the shape information encoding mode differently, there is a method of adding additional information on whether the modified probability table is used in the CAE process for each BAB.
이 경우는 모양정보 모드를 7가지 중에서 CAE를 수행하는 BAB((5), (6), (7))에 대해 부가 정보를 표현해주는 방식과 첨가된 부호화 모드를 고려한 가변 길이 부호로 부호화 하는 방법이 있다.In this case, the shape information mode is encoded with a variable length code considering the method of expressing additional information about the BAB ((5), (6), (7)) performing CAE among seven types and the added coding mode. There is this.
또한, 신축형 부호화 과정에 인헨스먼트 레이어의 영상을 부호화할 때, TSD 를 부호화할 때 사용되는 CAE 알고리즘에서도 수정된 확률표를 이용했을 경우 오차가 임계치 이하일 경우는 산술 부호화를 하지 않고 수정된 확률표를 이용했다는 부가정보만을 보내줌으로써 인헨스먼트 레이어의 영상을 부호화할 수 있다.In addition, the CAE algorithm used for encoding the TSD when encoding the enhancement layer image in the flexible encoding process uses the modified probability table, and if the error is less than or equal to the threshold, the modified probability without performing arithmetic coding By sending only the additional information that the table is used, the image of the enhancement layer can be encoded.
이상에서 살펴본 바와 같이 본 발명 신축형 모양정보 부호화 시 손실 부호화 방법은, 특히, CAE를 이용하여 모양정보 손실 부호화를 할 때, 모든 확률을 1, 또는 0으로 바꾼 수정된 확률표를 이용해서 그 오차가 임계치를 넘지 않을 경우 부호화를 하지 않고 수정된 확률표를 적용했다는 부가 정보만을 전송함으로써 부호화 효율을 향상시킬 수 있게 되는 효과가 있는 것이다.As described above, the lossy coding method of the flexible shape information encoding according to the present invention uses the modified probability table that changes all the probabilities to 1 or 0, especially when performing shape information loss coding using CAE. If is not exceeded the threshold is effective to improve the coding efficiency by transmitting only the additional information that the modified probability table is applied without encoding.
도 1은 국제표준 산하기구에서 1차적으로 확정한 VM 엔코더의 구성을 나타낸 블럭도,1 is a block diagram showing the configuration of a VM encoder primarily determined by the International Standards Organization.
도 2는 모양 정보를 가지는 VOP를 매크로 블럭으로 구획하여 나타낸 도면,2 is a diagram illustrating a VOP having shape information divided into macro blocks;
도 3은 국제표준 산하기구에서 1차적으로 확정한 VM 디코더의 구성을 나타낸 블럭도,3 is a block diagram showing the configuration of a VM decoder primarily determined by an international standard subdivision;
도 4는 국제표준 산하기구에서 1차적으로 확정한 VOP 부호화부의 구성을 나타낸 블럭도,4 is a block diagram showing a configuration of a VOP encoder determined primarily by an international standard computing instrument;
도 5 내지 도 7은 신축형 부호화 중 스캔 인터리빙 방법을 설명하기 위한 도면,5 to 7 are diagrams for explaining a scan interleaving method in flexible encoding;
도 8은 공간적 신축형 부호화를 설명하기 위한 도면,8 is a diagram for explaining spatial stretching coding;
도 9(a)는 인트라 컨텍스트 템플렛을 나타낸 도면,9 (a) shows an intra context template,
도 9(b)는 인터 컨텍스트 템플렛을 나타낸 도면,9 (b) shows an inter-context template,
도 10은 크기 전환관계를 나타낸 도면,10 is a diagram showing a size switching relationship;
도 11은 CR의 결정과정을 나타낸 신호 흐름도,11 is a signal flow diagram illustrating a CR determination process;
도 12는 본 발명의 수정된 확률값을 적용했을 때의 모양정보 부호화 과정을 나타낸 신호 흐름도.12 is a signal flow diagram illustrating a shape information encoding process when a modified probability value of the present invention is applied.
도면의 주요부분에 대한 부호의 설명Explanation of symbols for main parts of the drawings
10:VM엔코더 11:VOP형성부10: VM encoder 11: VOP forming unit
12A, 12B, …, 12N:VOP부호화부 13, 38:멀티플렉서12A, 12B,... , 12N: VOP coder 13, 38: multiplexer
20:VM디코더 21:디멀티플렉서20: VM decoder 21: Demultiplexer
22A, 22B, …22N:VOP리코더 23:합성부22A, 22B,... 22N: VOP Recorder 23: Synthesis
31:움직임추정부 32:움직임보상부31: Motion tracking 32: Motion compensation
33:감산기 34:대상물내부부호화부33: Subtractor 34: Object internal coding unit
35:가산기 36:이전VOP검출부35: Adder 36: Old VOP detector
37:모양부호화부37: Shape coding department
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970032445A KR100483674B1 (en) | 1997-07-12 | 1997-07-12 | Loss-Encoding Method for Encoding Flexible Shape Information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970032445A KR100483674B1 (en) | 1997-07-12 | 1997-07-12 | Loss-Encoding Method for Encoding Flexible Shape Information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990009879A KR19990009879A (en) | 1999-02-05 |
KR100483674B1 true KR100483674B1 (en) | 2005-08-24 |
Family
ID=37304154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970032445A KR100483674B1 (en) | 1997-07-12 | 1997-07-12 | Loss-Encoding Method for Encoding Flexible Shape Information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100483674B1 (en) |
-
1997
- 1997-07-12 KR KR1019970032445A patent/KR100483674B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR19990009879A (en) | 1999-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5748789A (en) | Transparent block skipping in object-based video coding systems | |
KR100501902B1 (en) | Image information encoding / decoding apparatus and method | |
KR100278733B1 (en) | Moving picture coding system and moving picture decoding system | |
KR100463004B1 (en) | Method for encoding mpeg-4 vop | |
US6133955A (en) | Method for encoding a binary shape signal | |
US6285795B1 (en) | Method and apparatus for encoding/decoding a binary shape signal | |
KR100483674B1 (en) | Loss-Encoding Method for Encoding Flexible Shape Information | |
KR100483676B1 (en) | Flexible shape information encoding apparatus and method | |
KR100477795B1 (en) | Method for coding information for deciding encoding mode information in scalablely coding of binary shape information | |
KR100476386B1 (en) | Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method | |
KR100483675B1 (en) | Loss-Encoding Method for Encoding Flexible Shape Information | |
KR100476384B1 (en) | Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method | |
KR100476387B1 (en) | Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method | |
KR100476383B1 (en) | Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method | |
KR100463001B1 (en) | Method for encoding position imformation of points based vertex | |
KR100482282B1 (en) | Flexible (Enhanced) coding Enhancement Layer coding method | |
KR100186980B1 (en) | Information hierarchical encoding method for an object of image data | |
KR19990016416A (en) | Additional Information Encoding Method in Coding of Flexible Shape Information of Binary Shape Information | |
KR100463003B1 (en) | Method for encoding contour of MPEG-4 VOP | |
KR19990027349A (en) | How to convert video information | |
KR100535630B1 (en) | Encoding / Decoding Method of Digital Gray Shape Information / Color Information | |
KR100466592B1 (en) | Boundary block video data coding method | |
KR100417131B1 (en) | Shape-Adaptive Video Encoding Device Using Merging and Padding of Macroblocks | |
KR100462999B1 (en) | Method for mpeg4-vop | |
KR100417129B1 (en) | Coding method of macro block |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110405 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |