KR100389893B1 - Apparatus for coding image by using image feature classification system - Google Patents

Apparatus for coding image by using image feature classification system Download PDF

Info

Publication number
KR100389893B1
KR100389893B1 KR1019960053081A KR19960053081A KR100389893B1 KR 100389893 B1 KR100389893 B1 KR 100389893B1 KR 1019960053081 A KR1019960053081 A KR 1019960053081A KR 19960053081 A KR19960053081 A KR 19960053081A KR 100389893 B1 KR100389893 B1 KR 100389893B1
Authority
KR
South Korea
Prior art keywords
image
complexity
pct
color
encoded
Prior art date
Application number
KR1019960053081A
Other languages
Korean (ko)
Other versions
KR19980034880A (en
Inventor
김성진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1019960053081A priority Critical patent/KR100389893B1/en
Publication of KR19980034880A publication Critical patent/KR19980034880A/en
Application granted granted Critical
Publication of KR100389893B1 publication Critical patent/KR100389893B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: An apparatus for coding an image by using an image feature classification system is provided to classify the image complexity by using an original image, and classify and remove perceptual prediction errors according to the complexity, thereby improving the image coding efficiency. CONSTITUTION: A perceptual error processing unit(200) includes an image complexity classifier(300), a tolerance perceptual color adjusting unit(302), and a perceptual prediction generator(304). The image complexity classifier receives a pixel 0(x,y)(0<=x<=N-1, 0<=y<=N-1) of an original image for defining the image complexity of an MxM window by using color perception. The image complexity classifier grants a PCT(Perceptual Color Tolerance) weight to pixels to be coded. The tolerance perceptual color adjusting unit receives the complexity for dividing the same into complexity intervals for granting image features to an encoder by granting PCT weights according to the complexity. A perceptual prediction generator compares the PCT weights with the sizes of color components of a predictive error image, and substitutes 0 for the predictive errors smaller than the PCT weights, thereby defining a perceptual prediction error image.

Description

영상 특성 분류법을 이용한 영상 부호화 장치Image Coding Apparatus Using Image Feature Classification

본 발명은 영상 특성 분류법을 이용한 영상 부호화 장치에 관한 것으로서, 특히 움직임 예측 오차에서 시감적으로 느끼지 못하는 오차들을 시감 색차 특성을 이용해 정의한 영상 복잡도와 허용 시감 색차를 이용해 제거하여 영상 부호화 효율을 향상시키기 위한 영상 특성 분류법을 이용한 영상 부호화 장치에 관한 것이다.The present invention relates to an image encoding apparatus using an image characteristic classification method, and to improve image coding efficiency by removing an error that cannot be visually sensed from a motion prediction error using an image complexity and an allowable gamma color difference, which are defined using a gaze color difference characteristic. An image encoding apparatus using an image characteristic classification method.

부호화된 영상 데이터량을 최소화하면서 아울러 복원된 영상의 화질열화를 최소화하는 것을 목적으로하는 영상 부호화 기술에서는 시간 영역대에서 이전 영상과 현재 영상간의 영상 데이터의 상관성과 공간 영역대에서 영상 데이터들간의 상관성을 이용해 복원 영상의 화질 열화 정도를 최소화하면서 부호화할 영상 데이터량을 줄이는 압축 부호화 방법을 사용하고 있다. 특히, 시간 영역대에서는 이전 시간에 있는 영상과 현재 시간에 있는 영상간의 움직임을 이용해 예측 오차 영상을 구성하고, 이 예측 오차 영상을 부호화하고 보상하는 방법을 일반적으로 사용한다. 한편, 이와 같이 영상 데이터들간의 상관성을 높이기 위해 사용되는 영상 예측 오차들중에는 실제로 육안으로 구별할 수 없는 오차들도 존재하는데 이런 예측 오차만을 선별하고 이를 제거한다면 영상 부호화 효율을 더욱 높일 수 있다.In the video encoding technique aimed at minimizing the amount of encoded image data and minimizing deterioration of the reconstructed image, the correlation between the image data between the previous image and the current image in the time domain and the correlation between the image data in the spatial domain A compression encoding method is used to reduce the amount of image data to be encoded while minimizing the degree of deterioration of the quality of the reconstructed image. In particular, in the time domain, a prediction error image is constructed by using a motion between an image at a previous time and an image at a current time, and a method of encoding and compensating the prediction error image is generally used. On the other hand, among the image prediction errors used to increase the correlation between the image data, there are actually errors that cannot be distinguished by the naked eye. If only such prediction errors are selected and removed, the image encoding efficiency can be further increased.

종래의 디지탈 영상 부호화 방법에서 입력된 영상 데이터에 대한 상관성을 이용해 부호화 효율을 높이는 방법으로 도 1에 도시한 것과 같이 일반적으로 두가지 부호화 기법을 사용한다.In the conventional digital image encoding method, two encoding techniques are generally used as shown in FIG. 1 as a method of increasing encoding efficiency by using correlation between input image data.

도 1은 종래의 영상 부호화 장치의 블록도이다.1 is a block diagram of a conventional video encoding apparatus.

입력 영상 저장부(100)는 현재 부호화할 디지탈 영상(t)와 움직임 추정부에서 움직임 벡터를 추정하는데 이용되는 이전이나 이후 시간대에 있는 원영상들을 저장한다. 움직임 추정부(102)는 현재 부호화할 영상 블록(n)과 가장 유사한 영상 특성을 갖는 블록을 이전 원영상 이나 이후의 원영상을 이용해 찾고 이 블록에 대한 위치정보 즉, 움직임 벡터를 부호화기에 전달하는 기능을 한다. 부호화할 영상은 16 × 16 크기의 영상 블록 단위로 처리된다. 움직임 추정부(102)에서는 현재 부호화할 영상 블록(n)과 가장 유사한 영상 데이타 특성을 갖는다고 추정하는 예측영상 블록과의 차이값을 부호화할 영상 신호 데이터로 이용할 수 있게 함으로써 부호화할 영상 데이터량을 줄이는 효과를 갖게 된다. 움직임 보상부(104)는 움직임 추정부(102)에서 구한 n번째 부호화할 원영상 블록의 움직임 벡터값이 지정한 곳의 영상 블록을 영상복원부(106)에 저장되어 있는 이전 복원 영상에서 가져오는 기능을 수행한다. 영상복원부(106)는 움직임 보상부에서 움직임 벡터를 이용해 현재 부호화할 영상 블럭의 예측 영상 블럭을 정의할 수 있도록 부호화된 이전 영상들을 복원하고 저장하는 기능을 한다. 예측오차계산부(108)에서는 입력영상저장부(100)에서 n번째 부호화할 영상(O)을 입력 받았을 경우 n-1번째 부호화한 이전 영상과 비교하여 부호화 영상 단위별 움직임 정도를 벡터값을 이용해 추정하고, 추정된 움직임 벡터에 의해 n번째 부호화할 원영상에 대한 예측영상(P)를 생성한다. 이산여현변환부(110)는 부호화할 n번째 원영상 블록과 움직임 벡터에 의해 움직임 보상부(104)에서 구한 복원영상블록과의 차영상에 정보를 주파수 성분별 특성치로 정의한다. 양자화기(112)는 이산여현변환부(110)에서 생성된 DCT 계수들을 양자화하여 실제 영상을 압축시키는 기능을 수행한다. 가변길이부호화부(114)는 양자화기(112)에서 양자화된 DCT 계수들 값에 따라 복호화기에서 사용되는 비트 스트림을 구성시키는 기능을 수행한다. 버퍼(116)는 가변길이부호화부(114)에서 출력된 신호를 버퍼링하는 기능을 수행한다. 역양자화기(118)와 역이산여현변환부(120)는 역양자화 과정을 정의하는 것으로 현재 부호화된 n번째 영상 블록을 다시 복원해 영상복원부(106)에 저장하여 (t+1)번째 원영상을 부호화할 때 움직임 보상을 하기 위한 t번째 복원 영상을 제공하는 기능을 수행한다. 비트조정부(122)는 부호화된 영상의 실제 총비트 발생량을 총목표 비트 발생량에 정확히 맞추기 위해 버퍼(116)의 버퍼링된 량에 따라 양자화 크기값을 조절시키는 기능을 수행한다.The input image storage unit 100 stores the digital image (t) to be encoded currently and the original images in a before or after time slot used to estimate a motion vector in the motion estimation unit. The motion estimator 102 finds a block having an image characteristic most similar to that of the current image block n to be encoded using a previous original image or a subsequent original image, and transmits position information about the block, that is, a motion vector to the encoder. Function The image to be encoded is processed in units of 16 × 16 image blocks. The motion estimator 102 uses the difference value between the predicted video block, which is estimated to have the most similar video data property to the video block n to be encoded, as the video signal data to be encoded, thereby calculating the amount of video data to be encoded. It will have a reducing effect. The motion compensator 104 obtains the image block of the place designated by the motion vector value of the n-th original block to be encoded obtained by the motion estimation unit 102 from the previous reconstructed image stored in the image restorer 106. Do this. The image restorer 106 restores and stores the previous encoded images so that the motion compensator may define a predictive image block of the image block to be currently encoded using the motion vector. When the prediction error calculating unit 108 receives the nth encoded image O from the input image storage unit 100, the predicted error calculating unit 108 compares the previous image encoded by the n−1th encoding with the motion degree of each encoded image unit using a vector value. The prediction image P is generated for the original n-th image to be encoded using the estimated motion vector. The discrete cosine transforming unit 110 defines information as a characteristic value for each frequency component in a difference image between the reconstructed image block obtained by the motion compensation unit 104 by the n th original image block to be encoded and the motion vector. The quantizer 112 quantizes the DCT coefficients generated by the discrete cosine transform unit 110 to compress a real image. The variable length encoder 114 performs a function of constructing a bit stream used in the decoder according to the values of the DCT coefficients quantized by the quantizer 112. The buffer 116 performs a function of buffering the signal output from the variable length encoder 114. The inverse quantizer 118 and the inverse discrete cosine transforming unit 120 define an inverse quantization process, reconstruct the current encoded nth image block, and store it in the image restoring unit 106 to store the (t + 1) th circle. A function of providing a t-th reconstructed image for motion compensation when encoding an image is performed. The bit adjuster 122 adjusts the quantization size value according to the buffered amount of the buffer 116 in order to accurately match the actual total bit generation amount of the encoded image with the total target bit generation amount.

첫 번째 방법은 이산여현변환(DCT)을 이용해 부호화할 입력 영상 데이터들을 시간 주파수 영역에서 공간 주파수 영역으로 변환하여 공간 주파수 영역에서 영상 데이터들의 상관성을 정의하는 변환 부호화 방법이다. 이 부호화 방법은 영상 데이터의 손실없이 영상 데이터의 공간 주파수 특성만을 추출하여 영상의 압축, 부호화 방법에 이용하는 것을 그 특징으로 하며 정지 영상 부호화 방법에 많이 이용된다.The first method is a transform encoding method that defines correlation of image data in a spatial frequency domain by converting input image data to be encoded using a discrete cosine transform (DCT) from a time frequency domain to a spatial frequency domain. This encoding method is characterized by extracting only spatial frequency characteristics of the image data without loss of the image data and using the same for the compression and encoding method of the image.

두 번째 방법은 DPCM(Differential Pulse Code Modulation)에 의한 예측 부호화 방법으로 시간 영역에서 부호화할 영상 데이터들의 상관성을 정의하게 한다. 이 방법은 도 1에 도시한 것과 같이 영상 입력부에서 n번째 부호화할 영상(0)을 입력받았을 경우 n-1번째 부호화한 이전 영상과 비교하여 부호화 영상 단위별 움직임 정도를 벡터값을 이용해 추정하고, 추정된 움직임 벡터에 의해 n번째 부호화할 원영상에 대한 예측 영상을 구성하게 한다. 이와 같이 구성된 예측 영상은 실제 n번째 원영상과 비교했을 때 움직임에 의한 오차를 갖고 있는데 이런 움직임에 의한 오차를 예측 오차(e)라 하고 수학식 1과 같이 정의한다.The second method is a predictive coding method using differential pulse code modulation (DPCM) to define the correlation of image data to be encoded in the time domain. In this method, as shown in FIG. 1, when the image input unit receives an n-th coded image (0), the motion degree of each encoded image unit is estimated by using a vector value, compared to the n-1th previous image. The predicted image of the original image to be n-th encoded is configured by the estimated motion vector. The predicted image configured as described above has an error due to movement when compared with the actual nth original image. The error caused by such movement is called a prediction error (e) and is defined as Equation (1).

e = O - Pe = O-P

상기 수학식 1과 같이 정의된 예측 오차는 시간 영역에서 영상 데이터들의 상관 정도를 의미하는 것으로 이 예측 오차에 의해 구성된 영상 데이터만을 실제 부호화기에서 사용하므로서 영상 데이터의 손실은 있으나 영상의 부호화 효율을 높일 수 있는 특성을 갖고 있다. 따라서, 동화상 부호화 방법에서는 도 1과 같이 영상 신호의 공간 상관성을 추출하는 이산여현변환(DCT)와 시간 상관성을 추출하는 DPCM 방법을 모두 적용한 혼합형 부호화 방법을 많이 사용한다.The prediction error defined as in Equation 1 refers to the degree of correlation of the image data in the time domain. Since only the image data configured by the prediction error is used in the actual encoder, there is a loss of the image data, but the encoding efficiency of the image can be improved. Has the characteristics. Therefore, in the moving picture coding method, as shown in FIG. 1, a mixed coding method using both a discrete cosine transform (DCT) for extracting spatial correlation and a DPCM method for extracting temporal correlation is frequently used.

한편, 이와 같은 영상 데이터의 상관성 추출 방법에 인간의 색시감 특성(Human Color Perception)을 고려한다면 보다 높은 효율의 부호화 효과를 기대할 수 있다. 예를 들어, DPCM 과정을 통해 얻은 예측 오차값들중에는 실제 사람의 눈으로는 식별할 수 없는 예측 오차들이 상당량 존재하고 있다. 따라서, 이와 같은 예측 오차들을 시감 색차 특성(PCT)을 이용해 제거한다면 동일한 복원 영상의 화질을 제공하면서도 영상 데이터의 상관성만을 상대적으로 높여 주는 효과를 갖게하여 부호화 효율을 향상시키는 결과를 갖게 할 수 있다. 아울러, 부호화할 영상이 복잡한 영상인 경우 단순한 영상에 비해 오차에 대한 식별력이 상대적으로 감소하는 시감 특성이 있는데, 이와 같은 시감 특성은 시감색차특성(PCT)을 이용한 영상 복잡도 분류법을 이용해 정의하므로써 영상 복잡도가 큰 값으로 분류된 부호화 영상에서 예측한 영상 오차들중 식별 불가능한 예측 오차를 선별하기 위해 사용되는 문턱치를 보다 큰 값으로 정의할 수 있게하여 예측 오차의 제거 효과를 더욱 높이게 할 수 있다.On the other hand, if human color perception is considered in the correlation extraction method of the image data, a higher efficiency encoding effect can be expected. For example, among the prediction error values obtained through the DPCM process, there are a considerable amount of prediction errors that cannot be identified by the human eye. Therefore, if the prediction errors are eliminated by using the PCT, the image quality of the same reconstructed image may be provided, but only the correlation of the image data may be relatively increased, thereby improving the coding efficiency. In addition, when the image to be encoded is a complex image, there is a visual perception characteristic in which the discriminating power of an error is relatively lower than that of a simple image. It is possible to further define the threshold value used to select an unidentifiable prediction error among the image errors predicted from the encoded images classified into the larger value as a larger value, thereby further increasing the effect of removing the prediction error.

본 발명의 목적은 인간의 시감 특성을 실시간 처리가 가능하도록 룩업-테이블로 모델링하여 원 영상을 이용해 영상 복잡도를 분류하고 분류된 복잡도에 따라 차별적으로 시감 예측 오차들을 분류하여 제거시킴으로써 영상 부호화 효율을 향상시키기 위한 영상 부호화 장치를 제공함에 있다.An object of the present invention is to improve the image coding efficiency by classifying the image complexity using the original image by classifying the human visual characteristics as a look-up table for real-time processing, and classifying and removing visual prediction errors according to the classified complexity. The present invention provides an image encoding apparatus for rendering.

도 1은 종래의 영상 부호화 장치의 블록도이다.1 is a block diagram of a conventional video encoding apparatus.

도 2는 본 발명에 따른 영상 부호화 장치의 블록도이다.2 is a block diagram of a video encoding apparatus according to the present invention.

도 3은 도 2의 시감오차처리부(200)의 상세 블록도이다.3 is a detailed block diagram of the visual error processing unit 200 of FIG. 2.

도 4는 시감 색차 룩업-테이블 구성도이다.4 is a diagram illustrating the visual perception color difference look-up table.

도 5는 영상 복잡도 분류도이다.5 is an image complexity classification diagram.

도 6은 오차 영상 데이터와 시감 오차 영상 데이터를 비교하기 위한 도면이다.6 is a diagram for comparing error image data and visual error image data.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 장치는 예측 오차 영상 e를 영상 복잡도에 따라 PCT 가중치를 부호화할 각 화소들마다 달리 부여하도록하여 시감 색차를 발생하는 오차들만으로 구성된 시감 오차 영상 S를 구성시켜 영상 데이터의 시간적 상관성을 높이기 위한 영상 부호화 장치에 있어서, Y 성분을 이용하는 분산 대신에 원영상의 화소 O(x,y)(0≤x≤N-1, 0≤y≤N-1)을 입력받아 이 화소를 중심으로 하는 M×M 윈도우(단, M-1은 4의 배수)의 영상 복잡도를 시감 색차 특성을 이용해 정의하여 부호화할 화소에 시감 특성을 고려한 PCT 가중치를 부여할 수 있도록 하는 영상복잡도 분류부; 상기 영상복잡도 분류부에서 정의된 복잡도를 입력받아 특정 크기의 복잡도 구간들로 나누고, 복잡도가 크면 큰 PCT 가중치를 그렇지 않으면 작은 PCT 가중치를 영상복잡도에 따라 차별적으로 부여할 수 있게하여 부호화기에 부호화할 영상 특성을 제공하도록 하는 허용시감색차 조정부; 및 상기 허용시감색차 조정부에서 정의된 PCT 가중치(Ty, Tu, Tv)와 예측 오차 영상 e의 각 색성분별 크기(ey, eu, ev)를 비교하여 PCT 가중치보다 작은 예측 오차들은 시감 색차를 갖지 않는 오차들로 판단하여 모두 0으로 치환시킴으로써 시감 색차 특성에 따른 시감 예측 오차 영상 S를 정의하는 시감예측 발생부를 구비하는 시감 오차 처리부를 포함한다.The apparatus of the present invention for achieving the above object is configured to give a prediction error image e differently for each pixel to be coded PCT weight according to the image complexity to configure a gaze error image S consisting of only errors that generate a color gamut In the video encoding apparatus for improving the temporal correlation of the image data, the pixels O (x, y) (0≤x≤N-1, 0≤y≤N-1) of the original image are substituted instead of the variance using the Y component. M × M window centering on this pixel An image complexity classification unit for defining an image complexity of M-1 is a multiple of 4 by using a luminous color difference characteristic to give a PCT weight considering a luminous characteristic to a pixel to be encoded; The complexity defined by the image complexity classification unit is input and divided into complexity intervals of a specific size. If the complexity is large, a large PCT weight can be given otherwise or a small PCT weight can be differentially assigned according to the image complexity to encode an image to be encoded. Allowable time difference difference adjusting unit to provide a characteristic; And comparing the PCT weights (Ty, Tu, Tv) defined by the permissible color perception difference adjusting unit with the size (ey, eu, ev) for each color component of the prediction error image e, the prediction errors smaller than the PCT weight have no visual perception color difference. It includes a luminous error processing unit having a luminous prediction generating unit for defining a luminous prediction error image S according to luminous color difference characteristics by determining all errors as 0.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

도 2는 본 발명에 따른 영상 부호화 장치의 블록도이다.2 is a block diagram of a video encoding apparatus according to the present invention.

도 2에 있어서, 시감오차처리부(200)를 제외한 구성요소들은 도 1과 동일하기 때문에 그 설명을 생략한다.In FIG. 2, components except for the visual error processing unit 200 are the same as those of FIG. 1, and thus description thereof is omitted.

도 2의 시감오차처리부(200)는 이산여현변환부(110)에 입력되기 전의 예측 오차 영상 데이터를 시감색차특성을 모델링한 룩업-테이블을 이용해 영상 복잡도를 분류하고 육안으로 인식할 수 없는 예측 오차들을 제거한다.The visual error processing unit 200 of FIG. 2 classifies image complexity using a look-up table modeling visual color difference characteristics of the prediction error image data before being input to the discrete cosine transform unit 110 and predicts the visual error that cannot be visually recognized. Remove them.

도 3은 도 2의 시감오차처리부(200)의 상세 블록도이다.3 is a detailed block diagram of the visual error processing unit 200 of FIG. 2.

도 3에 있어서, 참조부호 300은 영상복잡도 분류부이고, 302는 허용시감색차 조정부이며, 304는 시감예측오차 발생부이다.In Fig. 3, reference numeral 300 denotes an image complexity classification unit, 302 denotes a permissible visual color difference adjusting unit, and 304 denotes a visual perception prediction error generating unit.

먼저, 영상복잡도 분류부(300)를 설명한다.First, the image complexity classification unit 300 will be described.

하나의 화소는 주변의 영상 특성에 따라 달리 보인다. 즉, 주변 영상의 색이 다양하게 분포되거나 복잡한 영상일 경우 이 화소의 값이 조금 변해도 쉽게 눈에 뛰질 않는 특성이 있다. 이와 같은 시감 특성을 색시감 특성치를 이용해 모델링한 처리부이다. 이때 사용되는 색시감 특성이란 한 임의의 화소의 Y, U, V 색 값들을 각각 변화시켰을 때 육안으로 색 변화를 인식하지 못하는 Y, U, V 값 각각에 대한 최대값과 최소값을 일컫는다.One pixel looks different depending on the surrounding image characteristics. That is, when the color of the surrounding image is distributed in various ways or the image is complicated, even if the value of this pixel is slightly changed, it is not easily noticeable. It is a processing part which modeled such a visual characteristic using the visual characteristic characteristic value. In this case, the color perception characteristic used refers to the maximum and minimum values for each of the Y, U, and V values that are not visually recognized when the Y, U, and V color values of one pixel are changed.

허용시감색차 조정부(302)를 설명한다.The permissible time difference difference adjusting unit 302 will be described.

영상 복잡도 분류부(300)에서 정의된 각 화소별 주변 영상의 복잡도에 대한 특성치에 따라 화소의 색시감 특성값들을 조정하는 처리부이다.The image complexity classifier 300 is a processor that adjusts color perception characteristic values of pixels according to characteristics of the complexity of the surrounding image for each pixel.

시감예측오차 발생부(304)를 설명한다.The visibility prediction error generation unit 304 will be described.

영상 부호화 방법에서 원영상과 복원영상간의 차이값으로 정의된 오차 영상 데이터들중 허용 시감 색차 조정부(302)에서 정의된 색시감 특성값보다 절대값이 작은 오차 신호 데이터들은 실제 육안으로는 식별할 수 없는 오차이므로 이런 오차는 제거시킴으로써 실제 시감적으로 느끼는 오차 데이터만을 이산여현변환부(110)로 보내게 된다. 이는 복원 영상의 화질 열화없이 부호화할 영상 데이터량을 줄여주기 때문에 부호화 효율을 높일 수 있다.Among the error image data defined as the difference between the original image and the reconstructed image in the image encoding method, error signal data having an absolute value smaller than the color perception characteristic value defined by the permissible perceptual chrominance adjustment unit 302 may be identified by the naked eye. Since this error is eliminated, only the error data that is actually sensed visually is sent to the discrete cosine conversion unit 110 by removing the error. This reduces the amount of image data to be encoded without degrading the quality of the reconstructed image, thereby increasing the encoding efficiency.

본 발명의 동작 원리는 다음과 같다.The operating principle of the present invention is as follows.

영상복잡도 분류부(300)는 Y, U, V 색값으로 구성된 N × N 원영상 블록 O를 입력받아 각 영상 화소들 O(x, y) 단,,에 대한 PCT 값을 결정하고, 입력 영상 블록내의 각 화소들에 대한 주변 영상 복잡도를 PCT를 이용해 k가지 종류로 분류시키는 처리부로 연산의 복잡성을 줄이기 위해 룩업-테이블을 사용한다. 먼저, 이 처리부에서 사용되는 PCT용 룩업-테이블은 CIE L*a*b 균등 시감 색좌표계상에서 수학식 2와 같이 정의된 CMC(Color Measurement Committee) 시감색차공식을 적용해 각 색성분들(L, a, b)에 대한 허용 시감색차 크기를 Y, U, V 색좌표계로 변환시켜 도 4에 도시한 것과 같이 구성한다.The image complexity classifier 300 receives an N × N original image block O composed of Y, U, and V color values, and receives each image pixel O (x, y). , A lookup-table is used to determine the PCT value for and classify the surrounding image complexity of each pixel in the input image block into k types using the PCT. First, the look-up table for the PCT used in this processing unit applies each color component (L, a) by applying the CMC (Color Measurement Committee) visual color difference formula defined in Equation 2 on the CIE L * a * b uniform color gamut color coordinate system. , b) allowable time-sensitive color difference size is converted into a Y, U, V color coordinate system and configured as shown in FIG.

그리고, 입력된 원영상 화소의 색값(Oy, Ou, Ov)에 의해 룩업-테이블을 이용한 PCT 값(Ty, Tu, Tv)를 정의하는 방법은 수학식 3, 수학식 4와 같다.The method of defining the PCT values Ty, Tu, and Tv using the look-up table based on the color values Oy, Ou, and Ov of the input image pixel is expressed by Equations 3 and 4 below.

index = (Oy/32)*64 + (Ou/32)*8 + (Ov/32)index = (Oy / 32) * 64 + (Ou / 32) * 8 + (Ov / 32)

수학식 4는 영상 입력 형태가 4:4:4 형태일 경우 Tu와 Tv를 정의하는 식으로 영상의 입력 형태에 따라 Tu와 Tv의 결정 방법은 다르게 정의된다. 예를 들면, 4개의 Y 성분에 1개의 u와 v 성분이 결합되는 4:2:0 영상 입력 형태일 경우 상기 수학식 3과 수학식 4를 적용하면 1개의 u 성분에 4가지 Tu 값이 정의되는데(v 성분도 동일함) 이런 경우 4가지 Tu 값들중 최소값으로 결정하게 한다.Equation 4 defines Tu and Tv when the image input form is 4: 4: 4. The method of determining Tu and Tv is defined differently according to the input form of the image. For example, in the case of a 4: 2: 0 image input form in which one u and v components are combined with four Y components, four Tu values are defined for one u component by applying Equations 3 and 4 above. In this case, the minimum of four Tu values is determined.

이와 같은 방법으로 입력 영상의 각 화소들에 대한 PCT 값들이 정의되면 입력 영상 블록내의 각 화소들을 중심으로 한 주변 영상들의 복잡도를 결정해야 하는데 이는 도 5의 (a)와 같이 대상 화소를 중심으로 한 N × N 영상에 대해 인접 화소들간의 색차 특성을 이용해서 결정한다. 즉, 부호화할 영상 블록이 두 방향에 대한 색차 비교치를 이용해 정의한다.In this way, when the PCT values for each pixel of the input image are defined, the complexity of surrounding images centered on each pixel in the input image block must be determined. As shown in (a) of FIG. For the N × N image, the determination is made using the color difference characteristics between adjacent pixels. That is, an image block to be encoded is defined using color difference comparison values for two directions.

M × M 크기의 윈도우내의 한 화소 W(i, j)에 대해 수평 방향으로 인접한 화소 (i, j+1)과의 색차 크기 hE와 수평 방향으로 인접한 화소 (i-1, j)와의 색차 크기 vE를 수학식 5를 이용해 구한 후, (i, j) 화소의 PCT 값(Ty, Tu, Tv)에 대한 색차 크기 pE와 각기 비교해 hE나 vE가 pE보다 큰 값을 가질 경우(i, j)화소는 인접화소와 색차를 갖는 화소로 판단하여 복잡도를 각 방향에 따라 1 만큼 증가시킨다. 이와 같은 방법으로 윈도우내 모든 화소들의 색차를 비교하여 복잡도를 계산한다.M × M size windows The color difference magnitude vE with the horizontally adjacent pixels (i, j + 1) for one pixel W (i, j) and the color difference magnitude vE with the horizontally adjacent pixels (i-1, j) After the calculation, the pixels (i, j) are compared with the color difference size pE for the PCT values (Ty, Tu, Tv) of the pixels (i, j). The complexity is determined to be pixels, and the complexity is increased by 1 in each direction. Windows in this way Compute the complexity by comparing the color differences of all my pixels.

단, i=M-1 일 경우에는 수평 방향에 대해서만 색차 크기를 비교하고, j=M-1 일 경우에는 수직 방향으로만 색차 크기를 비교한다. 이와 같은 방법은 시감적으로 차이를 느낄 수 없는 색차를 갖는 화소들은 동일한 색값을 갖는 화소로 처리함으로써 영상 특성중 복잡도를 대표하는 특성치로 이용할 수 있도록 한 것이다. 또한, M× M 영상 블록에 대한 최대 복잡도 크기는 수학식 6과 같이 정의된다.However, when i = M-1, the color difference is compared only in the horizontal direction, and when j = M-1, the color difference is compared only in the vertical direction. In this method, pixels having color differences that cannot be visually noticed are treated as pixels having the same color value so that they can be used as characteristic values representing complexity among image characteristics. In addition, the maximum complexity size for the M × M image block is defined as in Equation 6.

MaxC = 2 * M * MMaxC = 2 * M * M

한편, 이와 같은 방법으로 결정된 영상 복잡도는 실제 영상을 양자화할 때 양자화 간격 특성과 불일치하는 경우가 발생할 수 있다. 예를 들면, 부호화할 영상 블록에서 대부분의 영역은 색이 민감한 화소들로 구성되고 낮은 복잡도를 갖고 있으나 임의의 한 부분에만 복잡도가 높은 영상이 치우쳐 나타날 경우 전체 복잡도는 높게 정의되는데, 이는 복잡한 영상은 상대적으로 둔감하다는 시감 특성에 따라 큰 값의 양자화 간격을 할당하게하여 복원 영상의 화질 열화를 두드러지게 하는 결과를 초래한다. 따라서, 본 발명에서는 아래와 같이 입력 영상 블록을 4×4 크기의 종속 영상 블록들 s(단, 0≤s≤n, n은 종속 영상 블록들의 총수)로 나누고, 각 종속 영상 블록들의 특성을 이용해 부호화할 영상 블록의 복잡도를 정의하는 방법을 사용해 상기의 문제점을 보완한다. 단, (M-1)은 4의 배수로 정의한다.On the other hand, the image complexity determined by the above method may be inconsistent with the quantization interval characteristic when the actual image is quantized. For example, in the image block to be encoded, most areas are composed of color-sensitive pixels and have a low complexity, but when a high complexity image appears in only one portion, the overall complexity is defined as high. A large value of quantization intervals are assigned according to the visual characteristics of being relatively insensitive, resulting in a deterioration of image quality of the reconstructed image. Accordingly, in the present invention, the input image block is divided into 4 × 4 sized dependent image blocks s (where 0 ≦ s ≦ n, n is the total number of dependent image blocks), and encoding is performed using the characteristics of the respective dependent image blocks. The above problem is solved by using a method of defining the complexity of an image block to be performed. However, (M-1) is defined as a multiple of four.

1) 종속 영상 블록들에서 색차를 발생하는 화소들의 수(spel(s))를 구한다. 즉, 수평이나 수직방향으로 pE 보다 큰 색차를 갖는 화소들을 종속 영상 블록 내에서 정의한다.1) The number of pixels (spel (s)) generating color differences in dependent image blocks is obtained. That is, pixels having a color difference greater than pE in the horizontal or vertical direction are defined in the dependent image block.

2) spel(s)≥3을 만족하는 종속 영상 블록의 총수(sblk)를 구한다.2) The total number of dependent image blocks (sblk) satisfying spel (s) ≥3 is obtained.

3) sblk≥(n/2)+1을 만족하거나 sblk=(n/2)이고, spel≥3을 만족하는 종속 영상 블록이 도 5의 (c)와 같이 나타날 경우 부호화할 영상 블록의 복잡도는 상기에서 정의한 값으로 정의하지만 위의 조건들을 만족하지 않는 경우 복잡도를 4M-2로 정의한다. 복잡도 4M-2는 도 5의 (b)와 같이 한 성분이 동일한 색으로 구성된 영상 블록을 대각선 방향으로 지나갈 때 정의되어지는 복잡도로 이 복잡도 이하 값을 갖는 영상은 민감한 영상으로 분류한다.3) When the dependent image block satisfying sblk≥ (n / 2) +1 or sblk = (n / 2) and spel≥3 appears as shown in FIG. 5 (c), the complexity of the image block to be encoded is If it is defined as the value defined above but does not satisfy the above conditions, the complexity is defined as 4M-2. The complexity 4M-2 is a complexity defined when one component passes diagonally through an image block composed of the same color as shown in (b) of FIG. 5, and images having a value below this complexity are classified as sensitive images.

상기의 방법으로 분류된 영상 복잡도는 수학식 7과 같이 k가지의 복잡도 구간(C[k])으로 특성화되는데, 이는 시감 예측 오차 결정부에서 영상 특성에 따라 허용 예측 오차 크기를 달리 결정하도록 하는데 이용된다.The image complexity classified by the above method is characterized by k complexity intervals (C [k]) as shown in Equation 7, which is used to determine the allowable prediction error size according to the image characteristic in the visual perception prediction error determiner. do.

0 ≤ complexity ≤4M-2, C[0]=complexity0 ≤ complexity ≤4M-2, C [0] = complexity

4M-2 < complexity ≤2, C[complexity/10-2]=complexity4M-2 <complexity ≤2 , C [complexity / 10-2] = complexity

허용시감색차 조정부(302)는 수학식 1과 같이 발생된 예측 오차 영상 데이터 e에는 실제 시감적으로 느끼지 못하는 오차가 분포되어 있다. 그리고, 이런 오차들은 영상 특성에 따라 시감적 차이를 달리하는 특성을 갖고 있다. 이와 같은 특성은 부호화할 영상 블록 O에서 각 화소들마다의 주변 영상 복잡도 특성치 C를 영상 복잡도 분류부에서 입력받아 C에 따라 PCT 가중치를 할당해야만 하는데 대한 타당성을 제공한다. 즉, 복잡도가 높으면 PCT 값을 상대적으로 높여주고, 낮으면 상대적으로 낮추어야 한다는 것을 의미한다. 따라서, 허용 시감 색차 조정부(302)에서는 영상 복잡도와 PCT 가중치(WY, WU, WV) 관계를 주변 영상의 복잡도에 따라 정의하고, 이를 이용해 수학식 8과 같이 영상 복잡도에 따른 PCT 값을 정의하게 한다.The allowable time-difference difference adjusting unit 302 has an error that is not actually sensed visually in the prediction error image data e generated as shown in Equation (1). In addition, these errors have characteristics that vary the visual perception depending on the image characteristics. This characteristic provides the validity of having to assign the PCT weight value according to C by receiving the image complexity characteristic value C for each pixel in the image block O to be encoded from the image complexity classifier. In other words, if the complexity is high, the PCT value should be relatively high, and if it is low, it should be relatively low. Therefore, the permissible gamma color difference adjusting unit 302 defines the relationship between the image complexity and the PCT weights (WY, WU, WV) according to the complexity of the surrounding image, and uses this to define the PCT value according to the image complexity as shown in Equation (8). .

Ty = Ty * WYTy = Ty * WY

Tu = Tu * WUTu = Tu * WU

Tv = Tv * WVTv = Tv * WV

시감예측오차 발생부(304)는 입력된 예측 오차 영상 e에서 시감적으로 느끼지 못하는 오차들은 영상 복잡도를 고려해 정의한 PCT 값을 이용해 Y, U, V 색성분별로 예측 오차를 제거하여 전체적으로 오차 발생량을 줄인 예측 오차 영상 S를 발생하며 수학식 9과 같이 정의된다.The visual prediction error generation unit 304 predicts errors that are not visually sensed in the input prediction error image e by reducing prediction errors for Y, U, and V color components by using PCT values defined in consideration of image complexity. An error image S is generated and defined as in Equation 9.

if (eY≤Ty) SY = 0;if (eY ≦ Ty) SY = 0;

else SY = eY;else SY = eY;

if (eU≤Tu) SU = 0;if (eU ≦ Tu) SU = 0;

else SU = eY;else SU = eY;

if (eV≤Tv) SV = 0;if (eV ≦ Tv) SV = 0;

else SV = eY;else SV = eY;

본 발명은 종래의 영상 부호화 장치에서 부호화할 각 화소들마다 인간의 시감 색차 특성을 적용하여 주변 영상 복잡도를 적용하여 복원된 영상에 대한 화질 열화는 초래하지 않으면서도 영상 데이터들의 시간적 상관성을 높일 수 있도록 구성하여 영상의 부호화 효율을 향상시키는 효과를 갖게 한다. 한편, 본 발명에서는 영상 복잡도를 시감 색차 특성을 이용해 정의하였는데 이는 종래의 영상 복잡도를 정의하기 위해 주로 사용했던 분산값보다 다음과 같은 점에서 효과적인 점을 제공할 수 있는 잇점이 있다.According to the present invention, a human visual perception chrominance characteristic is applied to each pixel to be encoded in a conventional image encoding apparatus so that the temporal correlation of image data can be improved without causing image quality deterioration for a reconstructed image. In this way, the coding efficiency of the image can be improved. On the other hand, in the present invention, the image complexity is defined using the gaze color difference characteristic, which has an advantage that can be provided in the following points more effective than the variance value mainly used to define the conventional image complexity.

1) 영상에서 Y 성분만으로는 정의할 수 없었던 색특성을 고려할 수 있다.1) We can consider the color characteristics that could not be defined by the Y component alone.

2) 복잡도에 대한 최대값을 알 수 있어 복잡도 정도를 한 번에 알 수 있다.2) The maximum value of complexity can be known, so the degree of complexity can be known at once.

3) 복잡도 범위를 알 수 있어 영상을 분류하는데 용이하다.3) It is easy to classify images because the complexity range can be known.

아울러, 발생된 예측 오차를 제거하는데 있어 영상 복잡도를 고려하게하여 보다 많은 오차 제거 효과를 기대할 수 있도록하여 부호화 효율을 향상시키는 효과를 갖는다. 이는 도 6에서 비교할 수 있다. 도 6의 (a)는 오차 영상 데이터를 나타내고, (b)는 시감 오차 영상 데이터를 나타낸다. 그리고, 인간의 색시감 특성을 룩업-테이블에 구현하므로서 영상 부호화 방법에 적용시 연산을 위한 부가적 처리 시간을 요구하지 않아 연산의 효율을 꾀할 수 있다는 장점을 갖는다. 또한, 종래의 영상 부호화 장치들과 호환성이 유지되도록 적용할 수 있다는 장점을 가지고 있다.In addition, in order to remove the prediction error, the image complexity may be taken into consideration so that more error elimination effects can be expected, thereby improving encoding efficiency. This can be compared in FIG. 6. 6A illustrates error image data, and FIG. 6B illustrates visual error image data. In addition, since the human color gamut is implemented in a look-up table, the application of the image coding method does not require an additional processing time for computation, and thus, the computation efficiency can be achieved. In addition, it has the advantage that it can be applied to maintain compatibility with the conventional video encoding apparatus.

Claims (1)

예측 오차 영상 e를 영상 복잡도에 따라 PCT 가중치를 부호화할 각 화소들마다 달리 부여하도록하여 시감 색차를 발생하는 오차들만으로 구성된 시감 오차 영상 S를 구성시켜 영상 데이터의 시간적 상관성을 높이기 위한 영상 부호화 장치에 있어서,A video encoding apparatus for constructing a gaze error image S composed only of errors for generating a gaze chrominance by assigning a prediction error image e to each pixel to be encoded with a PCT weight according to image complexity, wherein the video encoding apparatus improves the temporal correlation of image data. , Y 성분을 이용하는 분산 대신에 원영상의 화소 O(x,y)(0≤x≤N-1, 0≤y≤N-1)을 입력받아 이 화소를 중심으로 하는 M×M 윈도우(단, M-1은 4의 배수)의 영상 복잡도를 시감 색차 특성을 이용해 정의하여 부호화할 화소에 시감 특성을 고려한 PCT 가중치를 부여할 수 있도록 하는 영상복잡도 분류부;Instead of variance using Y component, M × M window centering on this pixel by receiving pixel O (x, y) (0≤x≤N-1, 0≤y≤N-1) of original image An image complexity classification unit for defining an image complexity of M-1 is a multiple of 4 by using a luminous color difference characteristic to give a PCT weight considering a luminous characteristic to a pixel to be encoded; 상기 영상복잡도 분류부에서 정의된 복잡도를 입력받아 특정 크기의 복잡도 구간들로 나누고, 복잡도가 크면 큰 PCT 가중치를 그렇지 않으면 작은 PCT 가중치를 영상복잡도에 따라 차별적으로 부여할 수 있게하여 부호화기에 부호화할 영상 특성을 제공하도록 하는 허용시감색차 조정부; 및The complexity defined by the image complexity classification unit is input and divided into complexity intervals of a specific size. If the complexity is large, a large PCT weight can be given otherwise or a small PCT weight can be differentially assigned according to the image complexity to encode an image to be encoded. Allowable time difference difference adjusting unit to provide a characteristic; And 상기 허용시감색차 조정부에서 정의된 PCT 가중치(Ty, Tu, Tv)와 예측 오차 영상 e의 각 색성분별 크기(ey, eu, ev)를 비교하여 PCT 가중치보다 작은 예측 오차들은 시감 색차를 갖지 않는 오차들로 판단하여 모두 0으로 치환시킴으로써 시감 색차 특성에 따른 시감 예측 오차 영상 S를 정의하는 시감예측 발생부를 구비하는 시감 오차 처리부를 포함하는 영상 부호화 장치.By comparing the PCT weights (Ty, Tu, Tv) defined by the allowable color perception difference adjusting unit with the size (ey, eu, ev) for each color component of the prediction error image e, the prediction errors smaller than the PCT weight do not have the color perception color difference. And a vision error processing unit including a vision prediction generation unit that defines a vision prediction error image S according to the visual chrominance characteristic by judging all errors by 0.
KR1019960053081A 1996-11-09 1996-11-09 Apparatus for coding image by using image feature classification system KR100389893B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960053081A KR100389893B1 (en) 1996-11-09 1996-11-09 Apparatus for coding image by using image feature classification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960053081A KR100389893B1 (en) 1996-11-09 1996-11-09 Apparatus for coding image by using image feature classification system

Publications (2)

Publication Number Publication Date
KR19980034880A KR19980034880A (en) 1998-08-05
KR100389893B1 true KR100389893B1 (en) 2003-09-19

Family

ID=37421822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960053081A KR100389893B1 (en) 1996-11-09 1996-11-09 Apparatus for coding image by using image feature classification system

Country Status (1)

Country Link
KR (1) KR100389893B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US9197912B2 (en) 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612849B1 (en) 2003-07-18 2006-08-14 삼성전자주식회사 Apparatus and method for encoding and decoding image
CN112132091A (en) * 2020-09-29 2020-12-25 陕西省交通规划设计研究院 Interpretation method and device of remote sensing image, computer equipment and storage medium thereof

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US9197912B2 (en) 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8879856B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Content driven transcoder that orchestrates multimedia transcoding using content information
US8879635B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US9071822B2 (en) 2005-09-27 2015-06-30 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US9088776B2 (en) 2005-09-27 2015-07-21 Qualcomm Incorporated Scalability techniques based on content information
US9113147B2 (en) 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus

Also Published As

Publication number Publication date
KR19980034880A (en) 1998-08-05

Similar Documents

Publication Publication Date Title
KR0184905B1 (en) Code amount control device and encoding apparatus using the same
KR100298416B1 (en) Method and apparatus for block classification and adaptive bit allocation
JP2509469B2 (en) Method and apparatus for adaptive encoding and decoding of continuous image by conversion
US5473384A (en) Method of and system for enhancing distorted graphical information
JP3109854B2 (en) Image coding method and apparatus
KR100788220B1 (en) Quality based image compression
US6148027A (en) Method and apparatus for performing hierarchical motion estimation using nonlinear pyramid
KR100307618B1 (en) Device and method for encoding image
JP2783534B2 (en) Encoding device
US4851906A (en) Data compression using orthogonal transform and vector quantization
WO1991014295A1 (en) Digital image coding using a random scanning of image frames
WO1998036553A2 (en) Method and apparatus for recovering quantized coefficients
KR100389893B1 (en) Apparatus for coding image by using image feature classification system
WO1999043163A2 (en) Method and device for coding a sequence of pictures
KR100220582B1 (en) Image encoder having adaptive coding
KR100387229B1 (en) Apparatus for encoding images
KR100316770B1 (en) Method and system for encoding images in consideration of perceptual color tolerance
KR19990067355A (en) Motion estimation method
KR100203712B1 (en) Quantation apparatus in the picture coding system and method
KR100403804B1 (en) Image coding method and image coder in consideration of perceptual color tolerance
JPH0711832B2 (en) High-efficiency image coding device
KR100220583B1 (en) Image encoder having adaptive encoder
JPH07236138A (en) Moving image encoding device
KR100261251B1 (en) Quantization length decision method &amp; apparatus using image signal characteristics classification
KR0128877B1 (en) Method for decision central value of quantizer in moving image ending system51 h 04 n 7/24

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080312

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee