KR19980068411A - Position information encoding method of generating a point location is random - Google Patents

Position information encoding method of generating a point location is random Download PDF

Info

Publication number
KR19980068411A
KR19980068411A KR19970004986A KR19970004986A KR19980068411A KR 19980068411 A KR19980068411 A KR 19980068411A KR 19970004986 A KR19970004986 A KR 19970004986A KR 19970004986 A KR19970004986 A KR 19970004986A KR 19980068411 A KR19980068411 A KR 19980068411A
Authority
KR
Grant status
Application
Patent type
Prior art keywords
method
position
random
block
image
Prior art date
Application number
KR19970004986A
Other languages
Korean (ko)
Other versions
KR100463001B1 (en )
Inventor
정재원
문주희
권지헌
김재균
Original Assignee
김영환
현대전자산업 주식회사
Filing date
Publication date

Links

Images

Abstract

본 발명은 영상 입력장치를 통해 인가되는 동영상을 임의의 모양 정보(SHAPE INFORMATION)를 갖는 각각의 대상물 영상과 배경 영상으로 분리하여 처리하는 모양 정보 부호화 방법(SHAPE INFORMATION CODING METHOD)에 관한 것으로, 특히, 발생위치가 무작위인 점들로 이루어진 영상을 부호화 하는 방법에 있어서, 무작위로 발생하는 상기 점의 위치를 부호화 할 시, 소정의 길이를 갖는 블럭을 사용하여 상기 점들의 위치를 나타냄을 특징으로 하는 발생 위치가 무작위인 점들의 위치 정보 부호화 방법이다. The present invention relates to each of the encoding target image and a shape that processes to separate the background image information method with arbitrary shape information (SHAPE INFORMATION) a video to be applied through an image input device (SHAPE INFORMATION CODING METHOD), in particular, a method for generating position encoding the image consisting of random the dots, when coding the positions of the points generated at random, occurs, characterized by using a block having a predetermined length indicates the position of the center position a position information encoding method of the random point.
이러한 본 발명은, 영상의 변화가 없는 정지영상이나, 또는 초기 영상등에서와 같이, 무작위로 발생하는 점(화소, 또는 정점)의 위치를 부호화 할 경우, 소정의 길이를 갖는 블럭런을 이용하여 상기 점들의 위치를 나타내므로 인해, 압축 부호화 효율을 향상시킬 수 있게 되는 효과가 있는 것이다. The present invention, as there is no change in the video still image and, or, etc. The initial image, when coding the position of the point (pixel, or vertices) randomly generated by the using the block run having a predetermined length because it represents the position of the point, there is a effect of being able to enhance the compression coding efficiency.

Description

발생 위치가 무작위인 점들의 위치 정보 부호화 방법 Position information encoding method of generating a point location is random

본 발명은 영상 입력장치를 통해 인가되는 동영상을 임의의 모양 정보(SHAPE INFORMATION)를 갖는 각각의 대상물 영상과 배경 영상으로 분리하여 처리하는 모양 정보 부호화 방법(SHAPE INFORMATION CODING METHOD)에 관한 것으로, 특히, 무작위로 발생하는 점(화소, 또는 정점(VERTEX))의 위치를 부호화 할 경우, 소정의 길이를 가지는 블럭런(BLOCK RUN:1차원블럭)을 이용하여 상기 점들의 위치를 나타내므로 인해, 압축 부호화 효율을 향상시키기 위한 것이다. The present invention relates to each of the encoding target image and a shape that processes to separate the background image information method with arbitrary shape information (SHAPE INFORMATION) a video to be applied through an image input device (SHAPE INFORMATION CODING METHOD), in particular, when coding the position of the point at which a random occurrence in (pixel, or vertices (vERTEX)), a block having a predetermined length of run: because it represents the position of the point by using the (bLOCK rUN 1-dimensional block), compression-encoding It intended to improve efficiency.

주지하다시피, 최근의 동영상 처리 기술은, 인가되는 한 프레임(FRAME) 분의 영상을 전체적으로 압축 부호화하는 방법에서 탈피하여, 임의의 모양 정보를 갖는 소정의 단위블럭(또는 VOP(VIDEO OBJECT PLANE:이하 VOP라 한다)으로 구분하여 그 각각에 대해 압축 부호화하여 전송하는 방향으로 흐르고 있다. Not be see, the latest video processing technology, to break away from the applied frame method (FRAME) min image compression encoding whole of which is a predetermined unit block having an arbitrary shape information (or VOP (VIDEO OBJECT PLANE: less separated by VOP quot;) it flows in a direction of transport to a compression-encoding process for each.

즉, 인가되는 영상을 각각의 대상물 영상과 배경 영상으로 분리하여, 상기 대상물 영상의 변화 여부만을 전송하므로써 압축 효율화 및 부호화 효율을 꾀하고 있으며, 이에 대한 국제 표준안을 마련하고 있다. That is, by separating the image to be applied to each of the object image and a background image, By transmitting only changes whether the object image has been seeking a more efficient compression and encoding efficiency, and raise the international standard for it.

예를 들어, 세계 표준화 기구인 ISO/IEC 산하의 WG11에서는 MPEG(MOVING PICTURE EXPERTS GROUP:미디어 통합계 동영상 압축의 국제표준:이하 MPEG이라 한다)-1, MPEG-2와는 달리 임의의 모양정보를 갖는 물체를 부호화 하는 방식에 대한 표준화작업인 MPEG-4를 진행하고 있으며, 상기 표준화가 진행되고 있는 MPEG-4는 VOP의 개념을 기초로 하고 있다. For example, the World Organization for Standardization WG11 of ISO / IEC under the MPEG (MOVING PICTURE EXPERTS GROUP: Media integration based video compression international standard: hereinafter referred to as MPEG) -1, MPEG-2, unlike with arbitrary shape information and proceeds to the MPEG-4 standardization of the method for encoding objects, MPEG-4, which is the standardization progress has been based on the concept of a VOP.

여기서 상기 VOP는, 인가되는 영상을 배경 영상과 각각의 대상물 영상으로 분리하고, 상기 분리한 배경 영상과 대상물 영상을 포함하는 사각형으로 정의 되는 것으로, MPEG-4에서는, 영상 내에 소정의 물체, 또는 소정의 영역으로 이루어진 대상물의 영역이 존재할 경우, 그 대상물의 영상을 각각의 VOP로 분리하고, 분리한 상기 VOP를 각기 부호화 하는 것을 골격으로 하고 있다. Wherein in the VOP is to separate the video data applied to the background image and each object image, defined by a rectangle containing the separated background image and an object image, MPEG-4, a predetermined object in an image, or some If the area of ​​the object consisting of a region of the present, has been to separate the image of the object in each VOP, and each encoding a VOP the backbone separated.

이러한 VOP는 자연 영상, 또는 인공 영상 등을 대상물 영상의 단위로 하여 자유자재로 합성 내지는 분해할 수 있는 장점을 가지는 것으로, 컴퓨터 그래픽스 및 멀티미디어 분야 등에서 대상물의 영상을 처리하는 데 기본이 되고 있다. The VOP is to have the advantage of decomposing synthetic naejineun freely to the image such as natural or artificial image as the unit of object image, may be the primary treatment for the image of the object, etc. Computer graphics and multimedia.

도 1은 국제표준 산하기구(ISO/IEC JTC1/SC29/WG11 MPEG96/N1172 JANUARY)에서 1차적으로 확정한 VM(VERIFICATION MODEL:검증모델:이하 VM이라 한다) 엔코더(ENCODER)(10)의 구성을 나타낸 블럭도이다. Figure 1 is an international standard agencies (ISO / IEC JTC1 / SC29 / WG11 MPEG96 / N1172 JANUARY) from the primary one VM commits (VERIFICATION MODEL: Validation Model: hereinafter referred to as VM) configuration of the encoder (ENCODER) (10) It is shown a block diagram.

여기서, VOP형성부(VOP FORMATION)(11)는 전송 또는 저장할 영상 시퀀스(SEQUENCE)가 입력될 경우에 이를 대상물 영상 단위로 나누어 각기 다른 VOP로 형성한다. Here, VOP formation unit (VOP FORMATION) (11) is divided in this case be a video sequence (SEQUENCE) input transfer or save it as a video object unit is formed with a different VOP.

도 2는 대상물의 영상으로 고양이의 영상을 설정하여 하나의 VOP를 형성한 일례를 나타낸 것이다. Figure 2 shows an example of forming a single VOP by setting the image of the cat in the image of the object.

여기서, VOP의 가로 방향 크기는 VOP폭으로 정의되고, 세로 방향의 크기는 VOP높이로 정의되며, 형성된 VOP는 좌측 상단을 그리드 시작점으로 하고, X축 및 Y축으로 각기 M개 및 N개의 화소를 가지는 M×N 매크로 블럭으로 구획된다. Here, the lateral size of the VOP is defined as a VOP width and longitudinal size is defined as a VOP height, formed VOP is a and the upper left corner of the grid start point, X-axis and each of the Y-axis the M and N pixels It has is divided into M × N macroblocks. 예를 들면 X축 및 Y축으로 각기 16개의 화소를 가지는 16×16 매크로 블럭으로 구획된다. For instance, it divided into 16 × 16 macroblock having sixteen pixels each in the X-axis and Y-axis.

이때, VOP의 우측과 하단에 형성되는 매크로 블럭의 X축 및 Y축 화소가 각기 M개 및 N개가 아닐 경우에는 VOP의 크기를 확장하여 각각의 매크로 블럭의 X축 및 Y축 화소가 모두 M개 및 N개로 되게 한다. At this time, if a macroblock which is formed at the right and bottom of the VOP X-axis and Y-axis pixels are each not a dog the M and N have all X and Y-axis pixels of each macro block to extend the size of the VOP is the M and it causes the open-circuit N.

그리고, 상기 M 및 N은 후술하는 대상물내부부호화부(TEXTURE CODING)에서 서브 블럭의 단위로 부호화를 수행할 수 있도록 하기 위하여 각기 짝수로 설정된다. In addition, the M and N are each set to an even number in order to be able to perform the encoding in the encoding unit, which will be described later inside the object (CODING TEXTURE) in units of sub-blocks.

한편, 상기 VOP형성부(11)에서 형성된 각각의 VOP는 VOP부호화부(12A, 12B, …, 12N)에 각기 입력되어 VOP별로 부호화 되고, 멀티플렉서(13)에서 다중화되어 비트열(BIT STREAM)로 전송된다. On the other hand, in each VOP is VOP encoding unit (12A, 12B, ..., 12N), respectively, and are inputted encoded by each VOP, the multiplexer 13, the multiplexed bit stream (BIT STREAM) in the formed in the VOP formation unit 11, It is transmitted.

도 3은 국제표준 산하기구에서 1차적으로 확정힌 VM디코더(DECODER)(20)의 구성을 나타낸 블럭도이다. 3 is a block diagram showing the configuration of the defined primarily by the International Standards Organization under the hinge VM decoder (DECODER) (20) Fig.

상기 VM엔코더(10)를 통해 부호화되고, 비트열로 전송되는 정보인 VOP의 부호화 신호는 VM디코더(20)의 디멀티플렉서(21)에서 VOP 별로 각기 분리된다. The VM is encoded through the encoder 10, the coded signal of the VOP information transmitted in each bit string is separated by each VOP from the demultiplexer 21 of the VM decoder 20.

또한, 상기 분리된 각각의 VOP 부호화 신호는 VOP디코더(22A, 22B, …, 22N)에 의해 각기 디코딩되며, 상기 VOP디코더(22A, 22B, …, 22N)에서 출력되는 디코딩신호는 합성부(23)에서 합성되어 원래의 영상으로 출력된다. Further, the separated individual VOP coded signals VOP decoder (22A, 22B, ..., 22N) are respectively decoded by the VOP decoders (22A, 22B, ..., 22N) decode signal output from the synthesis unit (23 ) is prepared in is output to the original image.

도 4는 국제표준 산하기구에서 1차적을 확정한 VM엔코더(10)의 VOP부호화부(12A, 12B, …, 12N)의 구성을 나타낸 블럭도로 이를 설명하면 다음과 같다. Figure 4 it will be described a configuration of the VOP encoding unit (12A, 12B, ..., 12N) of a VM encoder 10 which determine the primary mechanism shown in the international standard under the road block as follows.

먼저, 상기 VOP형성부(11)에서 형성된 각각의 대상물 영상에 대한 VOP가 움직임추정부(MOTION ESTIMATION)(31)에 입력되면, 상기 움직임추정부(31)는 인가된 VOP로부터 매크로 블럭 단위의 움직임을 추정하게 된다. First, VOP is input to the motion estimation (MOTION ESTIMATION) 31, the motion estimator 31, the motion of a macroblock unit from the authorized VOP for each of the object image formed by the VOP formation unit 11, a is estimated.

또한, 상기 움직임추정부(31)에서 추정된 움직임 정보는 움직임보상부(MOTION COMPENSATION)(32)에 입력되어 움직임이 보상된다. Further, the motion information estimated by the motion estimation unit 31 is the motion-compensated is inputted to the motion compensation unit (MOTION COMPENSATION) (32).

그리고, 상기 움직임보상부(32)에서 움직임이 보상된 VOP는 상기 VOP형성부(11)에서 형성된 VOP와 함께 감산기(33)에 입력되어 차이값이 검출되고, 상기 감산기(33)에서 검출된 차이값은 대상물내부부호화부(34)에 입력되어 매크로 블럭의 서브 블럭 단위로 대상물의 내부정보가 부호화된다. In addition, the motion compensation unit of from 32 motion is compensated VOP has a differential value is detected and is input to the subtractor 33 with the VOP formed by the VOP formation unit 11, the difference detected by the subtracter 33 value is input to the internal object encoder 34, the internal information of the object is encoded in units of sub-block of a macroblock.

예를 들면, 매크로 블럭의 X축 및 Y축이 M/2×N/2으로 각기 8개의 화소를 가지는 8×8의 서브 블럭으로 세분화된 후 대상물 내부정보가 부호화된다. For instance, after the X and Y axes of a macroblock in a granular sub-blocks of 8 × 8 with each of eight pixels in the M / 2 × N / 2 is inside the object information is encoded.

한편, 상기 움직임보상부(32)에서 움직임이 보상된 VOP와, 상기 대상물내부부호화부(34)에서 부호화된 대상물의 내부정보는 가산기(35)에 입력되어 가산되고, 상기 가산기(35)의 출력신호는 이전VOP검출부(PREVIOUS RECONSTRUCTED VOP)(36)에 입력되어 현재영상 바로 전 영상의 VOP인 이전VOP가 검출된다. On the other hand, with the movement from the motion compensation unit 32 compensated VOP, internal information of the coded object in the object inside the encoder 34 are added is inputted to the adder 35, the output of the adder 35 previous VOP is input to the signal detection unit (PREVIOUS RECONSTRUCTED VOP) (36) is detected, the current VOP is earlier VOP of an image just before the image.

또한, 상기 이전VOP검출부(36)에서 검출된 상기 이전VOP는 상기 움직임추정부(31) 및 움직임보상부(32)에 입력되어 움직임 추정 및 움직임 보상에 사용된다. In addition, the previous VOP detected by the previous VOP detector 36 is input to the motion estimation unit 31 and motion compensation unit 32 is used for motion estimation and motion compensation.

그리고, 상기 VOP형성부(11)에서 형성된 VOP는 모양부호화부(SHAPE CODING)(37)에 입력되어 모양 정보가 부호화된다. And, VOP formed by the VOP formation unit 11 is input to the shape coding unit (SHAPE CODING) (37) is encoded shape information.

여기서, 상기 모양부호화부(37)의 출력신호는 상기 VOP부호화부(12A, 12B, …, 12N)가 적용되는 분야에 따라 그 사용 여부가 가변되는 것으로, 점선으로 표시된 바와 같이, 상기 모양부호화부(37)의 출력신호를 움직임추정부(31), 움직임 보상부(32)및 대상물내부부호화부(34)에 입력시켜 움직임 추정, 움직임 보상 및 대상물의 내부 정보를 부호화 하는 데 사용할 수 있다. Here, the output signal from the shape coder 37 is to be whether or not their use vary depending on the field to which the VOP encoding unit (12A, 12B, ..., 12N) applied, as indicated by a broken line, the shape coding section as input the output signal of the 37 to the motion estimator 31, motion compensator 32 and the object inside the encoder 34 can be used to code the internal information of the motion estimation, motion compensation and the object.

또한, 상기 움직임추정부(31)에서 추정된 움직임 정보와, 상기 대상물내부부호화부(34)에서 부호화된 대상물 내부 정보 및 상기 모양부호화부(37)에서 부호화된 모양 정보는 멀티플렉서(38)에 인가되어 다중화 된 후, 버퍼(39)를 통해 도 1의 멀티플렉서(13)로 출력되어 비트열로 전송된다. In addition, the shape information coded by the motion estimator 31, the motion information and the object inside the encoder 34, the object inside the information and the shape coding unit 37 coding the estimated in is applied to the multiplexer 38 It is outputted to the multiplexer 13 of Figure 1 through the after-multiplexed, the buffer 39 is transferred to the bit string.

이러한 MPEG-4에 있어서, 상기 VOP형성부(11)에서 전송된 각각의 VOP를 부호화하는 상기 모양부호화부(37)에 적용되는 기술로는, N×N 블럭(N=16, 8, 4)을 기반으로 하는 모양 정보를 부호화하는 MMR 모양 정보 부호화 기술(MMR SHAPE CODING TECHNIQUE)과, 정점을 기반으로 하여 모양 정보를 부호화하는 정점 기반 모양 정보 부호화 기술(VERTEX-BASED SHAPE CODING TECHNIQUE)과, 기초선 기반 모양 정보 부호화 기술(BASELINE-BASED SHAPE CODING TECHNIQUE) 및 상황 기반 산술 부호화 기술(CONTEXT-BASED ARITHMETIC CODING) 등이 있다. In such MPEG-4, a technique that is applied to the shape coding unit 37 for coding the respective VOP transmitted from the VOP formation unit 11, N × N blocks (N = 16, 8, 4) MMR shape information encoding technique (MMR sHAPE cODING tECHNIQUE) and a vertex-based encoding the shape information on the basis of the peak shape information encoding technique (vERTEX-bASED sHAPE cODING tECHNIQUE) and the base line for coding the shape information that is based on the based on the shape information and the like encoding technique (BASELINE-bASED cODING tECHNIQUE sHAPE) and situation-based arithmetic coding technique (cONTEXT-bASED aRITHMETIC cODING).

한편, 상기 정점 기반 모양 정보 부호화 기술은, 인가되는 영상을 소정의 단위블럭, 또는 VOP 내에 존재하는 대상물 영상의 윤곽선 및 상기 윤곽선을 이루는 정점 등을 추출하여, 상기 정점의 상대 위치에 대한 방향과 크기 및 기타의 모양 정보를 신호 수신단, 즉, VM디코더부(20)로 전송하는 것으로, 이를 MPEG-4를 예로하여 상세히 설명하면 다음과 같다. On the other hand, the vertex-based shape information encoding technique, extracts such as the video data applied to a predetermined unit block, or vertices constituting a contour and the contour of the object image existing in the VOP, the direction and magnitude of the relative position of the vertex and the other form of information to be transmitted to the signal receiving end, that is, VM decoder section 20, when it described in detail in the MPEG-4 example, as follows.

도 5는 상기 정점 기반 모양 정보 부호화 기술을 사용하여 상기 모양부호화부(37) 중 정점부호화부의 구성을 나타낸 블럭도로, 도면에서 도시되는 바와 같이, VOP형성부(11)에서 전송된 VOP는 영역분할부(REGION LABEL- ING)(37a)에서 대상물 영상과 주변 영상이 분할된 후, 윤곽선추출부(CONTOUR EXTRACTION)(37b)에 의해 윤곽선이 추출되어, 정점선택부(VERTEX SELECTION)(37c)를 통해 정점이 선택되게 된다. 5 is as shown in the shape coding unit (37) blocks the road, shows the structure vertex encoding unit of using the vertex-based shape information encoding technique, the VOP transmitted in VOP formation unit 11 is a region minutes dividing the outline extracted by the (REGION LABEL- ING) (37a) after the object image and the peripheral image is divided, the contour extracting unit (cONTOUR eXTRACTION) (37b) in, over the selected vertex portion (vERTEX sELECTION) (37c) vertex is to be selected.

그러면, 이를 정점부호화부(VERTEX ENCODING)(37f)에서 부호화 하여 멀티플랙서(38)를 통해 VM디코더(20)로 전송하게 되는 것이며, 상기 VM디코더(20)에서는 수신된 비트열을 가지고 정점의 위치를 복호화 한 후에 정점 사이를 직선으로 연결하여 윤곽선을 재현하기 되는 것으로, 정점 위치 부호화는 정점 추출과 함께 영상 내 정점 기반 부호화기의 성능을 결정짓는 중요한 부분이다. Then, will by encoding them in the vertex encoder (VERTEX ENCODING) (37f) that is transmitted to the multiplexer VM decoder 20 through 38, wherein the VM decoder 20 in the vertex with a received bit sequence after decoding the position as being to reproduce the outlines connecting the vertices with straight lines, where the vertex coding is an important part that determines the performance of the image within the vertex-based encoder with a vertex extraction.

여기서, 영상근사화재현부(APPROXIMATED RECONSTRUCTION)(37d)와 에러부호화부(ERROR ENCODING)(37e)는 선택된 정점을 기준으로 영상을 재현하였을 시 발생하는 에러값을 검출하여 이를 전송하기 위한 것이다. Here, the approximation image recapitulation (APPROXIMATED RECONSTRUCTION) (37d) and an error encoder (ERROR ENCODING) (37e) is for transmitting them to the detection of an error value generated when hayeoteul reproduce the image based on the selected vertices.

한편, 정점 부호화를 위해 정점 기반 모양 정보 부호화 기술에서 최근 연구되는 정점부호화 방법으로는 일반적 물체 적응 체인 부호화 방법(OBJECT ADAPTIVE GENERALIZED CHAIN CODE METHODE)이 있다. On the other hand, the vertex coding method recent study from the vertex information based shape coding technique for encoding vertex has the general object adapted chain coding method (OBJECT GENERALIZED ADAPTIVE CODE CHAIN ​​METHODE).

상기 일반적 물체 적응 체인 부호화 방법은, 도 6에서 도시되는 바와 같이, 정점들의 상대 위치를 크게 8개의 방향으로 나누고, 상기 상대 위치의 방향과 크기로 정보를 분리한다. The general object adapted chain coding method, as shown in Figure 6, the larger divided into eight directions the relative position of the vertices, to separate information in the direction and magnitude of the relative position.

예를 들어, k번째 정점을 V k 라 하고, 이전 정점을 V k-1 이라 하며, 그 상대 위치를 R이라 할때, 이전 정점 V k-1 에 대한 V k 의 상대 위치 R=(R x , R y )=(V k,x -V k-1,x , V k,y -V k-1,y )로 나타내어지며 도 6에서 도시되는 바와 같이 상대 위치의 방향이 결정된다. For example, the k-th vertex V k d, and the previous vertex is referred to as V k-1, that the relative position to as R, the relative position of the V k for the previous vertex V k-1 R = (R x , R y) = the direction of the relative position is determined as (V k, x -V k- 1, x, V k, y -V k-1, y) shown in Figure 6 is represented by.

또한, 정점의 상대 위치가 결정되면 이를, 도 7a에서 도시되는 바와 같이, 숫자로 나타낼 수 있는데, 상대 위치의 전송시에는 상기 상대 위치를 나타내는 숫자 대신 도 7b에서 도시되는 바와 같이, 인접한 상대 위치 숫자와의 차이를 전송하게 된다. Further, when the relative positions of the peaks determined as this, as is shown in Figure 7a, can represent the number, the transmission of the relative position, adjacent to the relative position numbers as shown in Figure 7b instead of the number that represents the relative position and it transmits the difference between.

다시말해, 도 7a에서 4번째 숫자 위치에 이전 정점이 존재하는 것으로 한 후, 상기 이전 정점에서 출발한 현재 정점의 방향이 어느 방향인가를 판단하여, 이에 대한 값을 도 7b에서와 같이 인접한 상대 위치 숫자와의 차이값(DIFFERENTIAL OCTANT CODE)으로 전송하게 되는 것이다. That is, after that, the previous peak present in from Fig. 7a 4 second number position, to the direction of the current vertex from the previous vertex is determined whether either direction, adjacent thereto an on value, as shown in Figure 7b relative position It will be transmitted to the difference value (DIFFERENTIAL OCTANT CODE) of the number.

이때, 상기 인접한 상대 위치 숫자와의 차이값을 전송할 경우에는 그 숫자와의 차이가 적은 쪽에 적은 수의 비트를 할당하는 허프만(HUFFMAN) 부호화 방법을 사용한다. At this time, when the transfer of the difference value and the neighboring relative position number is to use Huffman (HUFFMAN) coding method to assign a small number of bits on the side if the difference between the number less.

즉, 윤곽선을 이루는 정점들을 일정한 방향으로 연속하여 추출할 경우, 이전 정점에 대한 현재 정점의 방향은 변화가 거의 없으므로 상대적으로 그 차이값이 작게 되며, 이로인해 이전 정점을 깃점으로 한 현재 정점의 위치 검출시 상기 인접한 상대 위치 숫자와의 차이값이 작은 쪽이 발생할 확률이 높게 된다. That is, when to extract continuously the vertices constituting a contour line in a predetermined direction, the relative orientation of the current vertex to the previous vertex is changed almost not be smaller this difference value, which in the current vertex one of the previous vertex as gitjeom because of location when the detection probability of the relative position adjacent the smaller the difference value of the number becomes high.

따라서, 일률적인 비트할당 보다는 인접한 상대 위치 숫자와의 차이값이 작은쪽에 적은 수의 비트를 할당하는 허프만 부호화 방법이 개발되었다. Therefore, developed is the Huffman coding method to assign a small number of bits on the side of a smaller difference value close to the relative position number than the uniform bit allocation.

아래의 [표 1]은, 도 7b와 같이 정점들의 상대위치를 8개의 방향으로 나눈 후, 각각의 상대 위치 숫자와의 차이값을 정하였을 경우의 허프만 부호화 방법을 나타낸 것이다. Table 1, below, as shown in Fig. 7b shows a Huffman coding method in a case, and then divided by the relative positions of the vertices of eight directions, appointed on the difference between the number and the respective relative positions.

[표 1] TABLE 1

상기 [표 1]에서 도시되는 바와 같이, 발생확률이 높은 “0”, “1”, “-1”등의 방향에는 1비트부터 3비트 까지의 적은 수의 비트를 할당하고, 발생확률이 낮은 “-3”, “4”에는 7비트라는 많은 비트를 할당하여 정보량을 줄이고 있다. The table 1 as shown in, the occurrence probability is high, "0", "1", "-1" it is assigned to the direction of such a small number of bits from 1 bit to 3 bits, and the probability is low "-3", "4" has to reduce the information amount by assigning a number of bits of 7 bits.

이하, VOP에 존재하는 정점을 부호화하는 방법에 대해 예를 들어 설명하면 다음과 같다. If, for example describes the method for encoding the vertex existing in the below, VOP as follows.

도 8은 각 정점(V 0 ~ V 9 )이 추출된 어떤 대상물 영상을 포함하는 VOP를 나타낸 것이다. Figure 8 shows the VOP containing the video object to which each vertex (V 0 ~ V 9) are extracted.

전술한 바와 같이, VOP의 정점 위치 부호화는, 이전 정점에 대한 상대 위치의 방향 및 그 거리를 나타내는 비트열로 이루어진다. As described above, the vertex location encoding of the VOP is composed of a bit string that represents the direction and the distance relative to the previous vertex.

이때, 이전 정점에 대한 상대 위치의 방향은, 첫번째 부호화를 수행하는 시작 정점에 대한 상대위치를 나타내는 일반적 물체 적응 체인 부호화 방법에 의해 도 6 및 도 7에 의거 결정하며, 정점들 사이의 거리는, 각 정점들간의 거리를 검출하여 가장 긴 거리를 포함할 수 있는 비트수로 결정되어, 각 정점들간의 거리를 나타낸다. At this time, the direction of the relative to the previous vertex, and determining based on the Figs. 6 and 7 by the general object adapted chain coding method represents the relative position of the starting vertex of performing the first encoding, the distance between the vertices, each as it determined by the number of bits that can contain the longest distance to detect the distance between the vertices, the distance between each vertex.

예를 들어, 도 8에서 도시된 VOP에 존재하는 정점들 간의 거리는, 각 정점들 사이의 상대 거리가 가장 긴 정점(V 3 )와 정점(V 4 ) 사이의 거리를 나타낼 수 있는 비트수로 결정되는 것으로, 상기 거리를 나타내는 비트수를, 거리를 나타내는 비트앞에 배열하여 전송하므로써, 후속하는 비트열의 몇 비트가 거리를 나타내는 비트인지를 인지시켜주게 되는 것이다. For example, the decision to the existing VOP distance between the apex, the relative distance between each vertex of the longest vertex (V 3) to the number of bits that can represent the distance between the vertex (V 4) shown in FIG. 8 that is, it is the number of bits indicative of the distance, by transmitting the bit arrangement that is the distance in front, dropped to recognize that the subsequent bit sequence number bit is the bit that is the distance.

또한, 상기와 같이 거리를 나타내는 비트수를 할당한 후에는, 첫번째 부호화를 시작하는 시작 정점에 대한 좌표값을 부호화 한 후, 상기 시작 정점에서 부터 시계방향, 또는 반시계방향으로 정점 추출을 수행하여 다시 시작 비트에 도달하기 까지의 각 정점에 대한 상대 방향 및 상대 거리를 부호화 하게 되는 것이다. In addition, after allocating the number of bits that is the distance as described above, after coding the coordinates for the start vertex to start the first encoding, performing a vertex extraction clockwise or counterclockwise direction from in the start vertex It will be re-encoded to the relative direction and relative distance for each vertex until reaching the start bit.

예를 들어, 도 8의 경우 시작 정점을 (V 0 )로 하였을 경우에는, 상기 (V 0 )에 대한 좌표값을 부호화 한 후, 반시계방향으로 정점을 추출 시에는, (V 0 )→(V 1 )→(V 2 )→(V 3 )→(V 4 )→(V 5 )→(V 6 )→(V 7 )→(V 8 )→(V 9 )의 순으로 부호화를 수행하고, 시계방향으로 정점을 추출할 시에는, (V 0 )→(V 9 )→(V 8 )→(V 7 )→(V 6 )→(V 5 )→(V 4 )→(V 3 )→(V 2 )→(V 1 )의 순으로 부호화를 수행하게 된다. For example, where hayeoteul to the start vertex (V 0) In the case of Figure 8, at the time after the coding the coordinates for the (V 0), extracting a vertex in the counterclockwise direction, (V 0) → ( V 1) → (V 2) → (V 3) → (V 4) → (V 5) → (V 6) → (V 7) → (V 8) → do order encoded by the (V 9) and , at the time of extracting a vertex in a clockwise direction, (V 0) → (V 9) → (V 8) → (V 7) → (V 6) → (V 5) → (V 4) → (V 3) → and performs a unique encoding of the (V 2) → (V 1 ). 이때, 마지막번째 정점인 상기 (V 9 ), 또는 (V 1 )은, 시작 정점인 (V 0 )로 부터 그 상대 거리를 알 수 있으므로, 상기 (V 0 )와의 상대 거리는 부호화 하지 않는다. At this time, the second peak the last (V 9), or (V 1) is, it is possible to know the relative distance from the start vertex of (V 0), no relative distance between the coded (V 0).

한편, 상기와 같은 정점 위치 부호화 방법에 부가하여 최근 연구되고 있는 사항으로는, 본 출원인의 선출원 발명인 대한민국 특허출원 제97-4602호 “대상물 영상의 추출방향에 따른 정점 위치 부호화 방법 및 이를 이용한 MPEG-4 VOP의 정점 위치 부호화 방법”에서 제시한 바와 가이, 정점 위치 부호화 시, 정점, 또는 윤곽선의 추출방향(스캔(SACN))을 고려하는 방법 및, 역시 본 출원인의 선출원 발명인 대한민국 특허출원 제97-4602호 “단위블럭 경계를 고려한 대상물 영상의 정점 위치 부호화 방법 및 이를 이용한 MPEG-4 VOP의 정점 위치 부호화 방법”에서 제시한 바와 같이, 정점 위치 부호화 시 경계점에 위치한 정점을 고려하는 방법 등이 있다. On the other hand, in addition to the vertex position encoding method as described above in details in the recent research, the inventors earlier application of the Applicant Republic of Korea Patent Application No. 97-4602 "vertex location encoding method according to the extraction direction of the object video image and using the same MPEG- when a guide bar, the apex position coding proposed in the four vertices positions of a VOP encoding method ", the vertex, or the direction of the contour extraction method considering (scan (SACN)) and, also the earlier application of the applicant inventors Republic of Korea Patent Application No. 97- as it suggested 4602 No. in the "unit blocks considering a boundary vertex position encoding the object image method and an MPEG-4 vertex position encoding of the VOP method using the same", and a method for considering the vertices located on the boundary when the vertex position encoding.

그러나, 상기와 같은 종래의 정점 위치 부호화 방법들은, 이전 정점이 존재하는 동영상등에 있어서는 효과적이나, 정지된 영상, 또는 비교대상이 없는 초기 영상에 대해서는 그 방법을 적용할 수 없어, 상기 각 정점에 대한 위치 정보를 독립적으로 부호화 하여야 하므로 인해 압축 부호화 효율이 저하된다는 문제점이 있었다. However, in the conventional vertex location encoding method as described above are, for the In effective, a still image, or comparing the initial image is not the subject or the like to the previous vertex existing video can not be applied to that method, for each of the vertices Since the location information to be coded independently, there is a problem in that the compression coding efficiency is lowered due.

즉, 동영상의 최초영상인 초기 영상이나, 영상의 변호가 없는 정지 영상의 경우에는 이전 영상에 근거한 압축을 실시 할 수 없어, 각 점(화소, 또는 정점)에 대한 부호화 시 필요 이상의 정보량이 증가하여 압축 부호화 효율을 저하시킨다는 문제점이 있었다. That is, in the case of the first image of the initial image or not the defense of the video still image of the video has not be subjected to compression based on the previous image, to increase more than is required for coding the information amount for each dot (pixel, or vertices) there was a problem that decreases the compression coding efficiency.

본 발명의 목적은, 상기와 같은 종래의 문제점을 해소하기 위한 것으로, 특히, 영상의 변화가 없는 정지영상이나, 또는 초기 영상등에서와 같이, 무작위로 발생하는 점(화소, 또는 정점)의 위치를 부호화 할 경우, 소정의 길이를 가지는 블럭런을 이용하여 상기 점들의 위치를 나타내므로 인해, 압축 부호화 효율을 향상시킬 수 있는 “발생 위치가 무작위인 점들의 위치 정보 부호화 방법”을 제공하는 있다. An object of the present invention is intended to solve the conventional problems as described above, in particular, the position of the as there is no change in the video still image and, or, etc. The initial image, that randomly occurring (pixel, or vertices) when coding using a block having a predetermined run length because it represents the position of the point, and to provide a "point of generation of a random position location information encoding method" for improving the compression coding efficiency.

상기와 같은 목적을 달성하기 위하여 본 발명 “발생 위치가 무작위인 점들의 위치 정보 부호화 방법”은, 발생위치가 무작위인 점들로 이루어진 영상을 부호화하는 방법에 있어서, 무작위로 발생하는 상기점의 위치를 부호화 할 시, 소정의 길이를 갖는 블럭을 사용하여 상기 점들의 위치를 나타냄을 그 방법적 구성상의 특징으로 한다. A method for coding an image composed of the present invention, "the occurrence of point position is random location information encoding method", occurred in a random points in order to achieve the above object, the position of the point at which a random occurrence in to use the city to be coded, a block having a predetermined length indicates the position of the point is characterized on the method configurations.

또한, 상기 점은 화소인 것을 특징으로 한다. Also, the point is characterized in that pixel.

또한, 상기 점은 정점인 것을 특징으로 한다. Also, the point is characterized in that the vertex.

또한, 상기 소정의 길이를 갖는 블럭은 블럭런(1차원블럭)인 것을 특징으로 한다. In addition, the block having the predetermined length is characterized in that blocks the run (one-dimensional block).

또한, 상기 소정의 길이를 갖는 블럭은 2차원블럭인 것을 특징으로 한다. In addition, the block having the predetermined length is characterized in that the 2-dimensional block.

또한, 상기 소정의 길이를 갖는 블럭은 다수개의 차원을 갖는 블럭인 것을 특징으로 한다. In addition, the block having the predetermined length is characterized in that the block having a plurality of dimensions.

또한, 상기 소정의 길이를 갖는 블럭은, 부호화 할 점의 갯수의 소정 배수의 길이로 형성됨을 특징으로 한다. In addition, the block having the predetermined length is characterized in the formed of a length of a predetermined multiple of the number of points to be coded.

상기 소정 배수는 2배인 것을 특징으로 한다. The predetermined multiple is characterized by two times.

또한, 상기 소정의 길이를 갖는 블럭에서 발생하는 위치의 표현은 이전 화소와의 상대적 위치를 전송하여서 표현함을 특징으로 한다. In addition, expression of the position generated in the block having the predetermined length is characterized by expressing hayeoseo transfer the relative position of the previous pixel.

이러한 본 발명은 “발생 위치가 무작위인 점들의 위치 정보 부호화 방법”은, 영상의 변화가 없는 정지영상이나, 또는 초기 영상등에서와 같이, 무작위로 발생하는 점(화소, 또는 정점)의 위치를 부호화 할 경우, 소정의 길이를 가지는 블럭런을 이용하여 상기 점들의 위치를 나타내므로 인해, 압축 부호화 효율을 향상시킬 수 있게 되는 것이다. The present invention encoding the position of the "of dots caused in the location is random location information encoding method", as there is no change in the video still image and, or, etc. The initial image, that randomly occurring (pixel, or vertices) If, because it represents the position of said point using a block having a predetermined run length, it is possible to enhance the compression coding efficiency.

도 1은 국제표준 산하기구에서 1차적으로 확정한 VM 엔코더의 구성을 나타낸 블럭도, Figure 1 is a block diagram showing the configuration of a VM encoder defined primarily in international standards agencies,

도 2는 모양 정보를 가지는 VOP를 매크로 블럭으로 구획하여 나타낸 도면, Figure 2 is a view of the compartment with the VOP shape information in the macroblock,

도 3은 국제표준 산하기구에서 1차적으로 확정한 VM 디코더의 구성을 나타낸 블럭도, Figure 3 is a block diagram showing the configuration of a decoder VM determined primarily by the International Standard agencies,

도 4는 국제표준 산하기구에서 1차적으로 확정한 VOP 부호화부의 구성을 나타낸 블럭도, Figure 4 is a block diagram showing the configuration VOP encoding unit a confirmation primarily in international standards agencies,

도 5는 모양부호화부 중 정점 위치 부호화부의 구성을 나타낸 블럭도, Figure 5 is a block diagram showing the configuration vertex location encoding portion of the shape coding section,

도 6은 정점의 상대 위치 결정을 위해 나눈 8개의 영역을 나타낸 도면, Figure 6 is a view of the eight regions divided for determination of the relative position of the vertex,

도 7a는 상대위치를 나타내는 숫자를 나타낸 도면, Figure 7a is a view of the number that represents the relative position,

도 7b는 인접항 상대 위치 숫자와의 차이를 나타낸 도면, Figure 7b is a view of the difference between the adjacent numbers, wherein the relative position,

도 8a는 윤곽선 추출방향이 반시계방향인 것을 나타낸 도면, Figure 8a is a diagram showing that the edge detection direction in the counterclockwise direction,

도 8b는 윤곽선 추출방향이 시계방향인 것을 나타낸 도면, Figure 8b is a view showing that the edge detection direction in the clockwise direction,

도 9는 본 발명에 따라, 무작위로 발생하는 영상에 블럭런을 위치시킨 경우를 나타낸 도면, 9 is a view showing a case where the block position a run in the image generated at random, according to the invention,

도 10는도 9의 경우를 부호화한 경우를 나타낸 부호화값. Figure 10 is showing a case where the encoded value encoded in the case of Fig.

* 도면의 주요부분에 대한 부호의 설명 * * Description of the Related Art *

10:VM엔코더11:VOP형성부 10: VM encoder 11: VOP forming portion

12A, 12B, … 12A, 12B, ... , 12N:VOP부호화부13, 38:멀티플렉서 , 12N: VOP encoding unit 13, 38: multiplexer

20:VM엔코더21:디멀티플렉서 20: VM encoder 21: demultiplexer

22A, 22B, … 22A, 22B, ... , 22N:VOP디코더23:합성부 , 22N: VOP decoder 23: synthesis unit

31:움직임추정부32:움직임보상부 31. A motion estimation unit 32: a motion compensation unit

33:감산기34:대상물내부부호화부 33: subtracter 34: inside the object encoder

35:가산기36:이전VOP검출부 35: adder 36: the previous VOP detector

37:모양부호화부37a:영역분할부 37: the shape encoder 37a: area division

37b:윤곽선추출부37c:정점선택부 37b: contour extraction unit 37c: Select apex portion

37d:영상근사화재현부37e:에러부호화부 37d: approximation image recapitulation 37e: error coding unit

37f:정점부호화부39:버퍼 37f: vertex coding unit 39: buffer

V 0 ~V 9 , V I :정점 V 0 ~ V 9, V I : apex

이하, 본 발명 “발생 위치가 무작위인 점들의 위치 정보 부호화 방법”의 기술적 사상에 따른 일 실시예를 들어 그 구성 및 동작을 첨부된 도면에 의거 상세히 설명하면 다음과 같다. One embodiment in accordance with the following, the technical concept of the present invention, "the occurrence of the point where the random location information encoding method," for example, is described in detail based on the accompanying drawings, the structure and operation as follows.

도 9는 위치를 부호화할 점(화소, 또는 정점(V I ))이 10인 경우를 나타낸 것이다. 9 illustrates the point to encode the position (pixel, or vertices (V I)) If the 10. 여기서, 1차원블럭(블럭런)을 전체 영상에 겹치지 않게 위치 시켰을 경우 상기 모든 화소가 블럭런에 위치하게 된다. Here, all the pixels are placed in the block when the run sikyeoteul a one-dimensional block (Block run) do not overlap the entire image position.

이때, 각 블럭의 점(화소, 또는 정점)에 겹쳐지는 점의 수의 예가 도 10이다. At this time, an example of the number of points 10 overlap each block of dots (pixel, or vertices).

이 경우 부호화 방법은 다음과 같이 된다. In this case, the encoding method is as follows.

먼저, 부호화 방법은 블럭의 처음부터 0의 갯수(ZERO RUN:이하 제로런이라 한다)를 부호화 한다. First, the encoding method for the first time from the number of the block 0: encodes the (ZERO RUN following the run is referred to as zero).

그 부호화 방법은 다음과 같은 방식으로 한다. The encoding method in the following manner.

제로런이 0개인 경우:1:같은 위치에 있는 경우 When the zero run is 0 individuals: 1: and in the same position

제로런이 1개인 경우:01 When the zero run is one individual: 01

제로런이 2개인 경우:001 If the zero run two individuals: 001

제로런이 3개인 경우:0001 If the zero run with three 0001

: :

제로런이 n개인 경우:000… If the zero run is n personal: 000 ... 001:0이 n개 001: 0 n pieces

다시말해서 블럭런의 위치에서 이전 점의 위치와의 상대적인 위치를 말한다. In other words, it refers to the relative position between the old center position of the block in the run position.

만일, 도 10에서의 4나 2와 같이 여러개가 겹친 경우 제로런이 “0”인 경우가 있슴을 말한다. If, even when there are multiple overlapping as in the 4 or 2 at 10 refers to the asked if the zero run "0".

그 다음으로는 전체 화면위에서 블럭런의 위치를 나타내는 정보를 보낸다. The next sends information indicating the position of the blocks run over the entire screen.

여기에 소모되는 비트수(BBP)는 다음과 같다. The number of bits consumed here (BBP) is as follows.

BBP=Ceil(log(영상의 가로크기×영상의 세로크기+블럭런의 길이)/log2 BBP = Ceil (log (vertical size + block length of run of the horizontal size of the video image ×) / log2

위의 식에서 영상의 가로크기와 영상의 세로크기는 각각 영상의 가로길이와 세로길이를 나타내며, ceil(A)는 A를 올림한 정수로 만들어 주는 것을 말한다. Height of the horizontal image size and the image in the equation above represents the vertical length and the horizontal length of each image, ceil (A) refers to that made by increasing the constant A.

그러므로 도 10의 예의 경우 발생하는 비트열을 다음과 같이 구성된다. Therefore, also in the example of 10 bits constituting the heat generated as follows.

01+BBP+001+BBP+1+BBP+1+BBP+1+BBP+0001+BBP+1+BBP… BBP + + 001 + + BBP 01 + 1 + 1 + BBP BBP BBP + 1 + 0001 + + + 1 + BBP BBP ...

본 발명에서 블럭런의 길이는 발생하는 점(화소, 또는 정점)의 수의 2배로 한다. The length of a run block in the present invention doubles the number of dots (pixel, or vertices) generated.

도 9에서의 점의 수가 10개 이므로 도 10의 블럭런의 길이를 20으로 하였다. Because the number of points 10 in Fig. 9 was the length of a run of blocks 10 to 20.

무작위로 발생하는 점(화소, 또는 정점)의 위치를 전송하는 경우 본 발명을 사용하는 경우에 발생하는 점(화소, 또는 정점)의 수에 따라 정도의 차이는 있지만, 상기 점(화소, 또는 정점)의 수가 많아져서 보내야 하는 정보량이 많아지는 경우 약 30%의 정도의 이득을 얻을 수 있다. When transmitting the location of the random point (pixel, or vertices) caused by variations in degree depending on the number of points generated in the case of using the present invention (the pixels, or vertex), but the dot (pixel, or vertices if) the number of which is the amount of information that must be sent so much more of it to get enough gain of about 30%.

이상에서 살펴본 바와 같이 본 발명 “발생 위치가 무작위인 점들의 위치 정보 부호화 방법”은, 영상의 변화가 없는 정지영상이나, 또는 초기 영상등에서와 같이, 무작위로 발생하는 점(화소, 또는 정점)의 위치를 부호화 할 경우, 소정의 길이를 가지는 블럭런을 이용하여 상기 점들의 위치를 나타내므로 인해, 압축 부호화 효율을 향상시킬 수 있게 되는 효과가 있는 것이다. Of the present invention "of the dots occurs in the location is random location information encoding method" As described above is, as there is no change in the video still image and, or, etc. The initial image, that randomly occurring (pixel, or vertices) when coding the positions, because it represents the position of said point using a block having a predetermined run length, it is effective to be able to enhance the compression coding efficiency.

Claims (9)

  1. 발생위치가 무작위인 점들로 이루어진 영상을 부호화 하는 방법에 있어서, A method for generating a position encoding the image consisting of the random points,
    무작위로 발생하는 상기 점의 위치를 부호화 할 시, 소정의 길이를 갖는 블럭을 사용하여 상기 점들의 위치를 나타냄을 특징으로 하는 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. When coding the positions of the points to generate a random, position information encoding method of generating a point location is random, characterized by using a block having a predetermined length indicates the position of the point.
  2. 제1항에 있어서, 상기 점은 화소인 것을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 1, wherein the position information encoding method of the above point is generated in a random location to be the pixel.
  3. 제1항에 있어서, 상기 점은 정점인 것을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 1, wherein the point is position information encoding method of the points of occurrence location is random in that the peaks.
  4. 제1항에 있어서, 상기 소정의 길이를 갖는 블럭은 1차원블럭인 것을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 1, wherein the position information coding method of the block having the predetermined length is a one-dimensional block of the point where the randomly generated one.
  5. 제1항에 있어서, 상기 소정의 길이를 갖는 블럭은 2차원블럭인 것을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 1, wherein the position information coding method of the block having the predetermined length is a two-dimensional blocks of the point where the randomly generated one.
  6. 제1항에 있어서, 상기 소정의 길이를 갖는 블럭은 다수개의 차원을 갖는 블럭인 것을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 1, wherein the position information coding method of the block having the predetermined length is that of the generation position is random in that the block having a plurality of dimensions.
  7. 제1항에 있어서, 상기 소정의 길이를 갖는 블럭은, 부호화 할 점의 갯수의 소정 배수의 길이로 형성됨을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 1, wherein the block having the predetermined length, the position information of the coding method to the generation position of a predetermined length formed of a multiple of the number of points to be encoded random point.
  8. 제7항에 있어서, 상기 소정 배수는 2배인 것을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. The method of claim 7, wherein the location information of the predetermined encoding method is a multiple of that to double the generation position is random.
  9. 제1항에 있어서, 상기 소정의 길이를 갖는 블럭에서 발생하는 위치의 표현은 이전 화소와의 상대적 위치를 전송하여서 표현함을 발생 위치가 무작위인 점들의 위치 정보 부호화 방법. In expressive of the position generated in the block having the predetermined length is a position information encoding method of the prior pixel is the relative hayeoseo sending location occurs where the expressed random with respect to claim 1.
KR19970004986A 1997-02-17 1997-02-17 Method for encoding position imformation of points based vertex KR100463001B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR19970004986A KR100463001B1 (en) 1997-02-17 1997-02-17 Method for encoding position imformation of points based vertex

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR19970004986A KR100463001B1 (en) 1997-02-17 1997-02-17 Method for encoding position imformation of points based vertex

Publications (2)

Publication Number Publication Date
KR19980068411A true true KR19980068411A (en) 1998-10-15
KR100463001B1 KR100463001B1 (en) 2004-12-13

Family

ID=37301960

Family Applications (1)

Application Number Title Priority Date Filing Date
KR19970004986A KR100463001B1 (en) 1997-02-17 1997-02-17 Method for encoding position imformation of points based vertex

Country Status (1)

Country Link
KR (1) KR100463001B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7009838B2 (en) 2002-12-11 2006-03-07 Samsung Electronics Co., Ltd. Computer disk drive adapter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7009838B2 (en) 2002-12-11 2006-03-07 Samsung Electronics Co., Ltd. Computer disk drive adapter

Similar Documents

Publication Publication Date Title
US5732157A (en) Image processing apparatus and method using lossless encoding of a difference between image blocks
US5345317A (en) High efficiency coding method for still natural images mingled with bi-level images
US6314209B1 (en) Video information coding method using object boundary block merging/splitting technique
US20060039617A1 (en) Method and assembly for video encoding, the video encoding including texture analysis and texture synthesis, and corresponding computer program and corresponding computer-readable storage medium
US5933105A (en) Context-based arithmetic encoding/decoding method and apparatus
US6263115B1 (en) Method and apparatus for encoding a binary shape signal
US5675669A (en) Apparatus for encoding/decoding an image signal having a still object
US20020129253A1 (en) Watermarking a compressed information signal
US6754269B1 (en) Video encoding apparatus and video decoding apparatus
EP0932306A2 (en) Method and apparatus for encoding video shape and texture information
US20050036759A1 (en) Efficient motion vector coding for video compression
US20040179601A1 (en) Image encoding method, image decoding method, image encoder, image decode, program, computer data signal, and image transmission system
KR19990027469A (en) Motion vector coding method and apparatus
EP0711078A2 (en) Picture coding apparatus and decoding apparatus
US20040131272A1 (en) Image encoding method, image decoding method, image encoder, image decode, computer data signal, and image transmission system
US6307885B1 (en) Device for and method of coding/decoding image information
JPH08256266A (en) Image coding system
US5701368A (en) Apparatus for encoding an image signal having a still object
US5978510A (en) Method and apparatus for predictively coding contour of video signal
JPH09326024A (en) Picture coding and decoding method and its device
US20030128759A1 (en) Segment-based encoding system including segment-specific metadata
US20100189172A1 (en) Methods and devices for coding and decoding an image sequence represented with the aid of motion tubes, corresponding computer program products and signal
Steliaros et al. Locally accurate motion estimation for object-based video coding
US6463179B1 (en) Image compression and decompression based on a flat pixel group level, group pixel coorindinate positions, and the number of pixels for the group
CN1190824A (en) Signal self-adaptive wave filter method and filter