KR19990039267A - Structure and Compression / Restoration Method of Image Data Compression / Restoration Device Using Neural Network - Google Patents

Structure and Compression / Restoration Method of Image Data Compression / Restoration Device Using Neural Network Download PDF

Info

Publication number
KR19990039267A
KR19990039267A KR1019970059299A KR19970059299A KR19990039267A KR 19990039267 A KR19990039267 A KR 19990039267A KR 1019970059299 A KR1019970059299 A KR 1019970059299A KR 19970059299 A KR19970059299 A KR 19970059299A KR 19990039267 A KR19990039267 A KR 19990039267A
Authority
KR
South Korea
Prior art keywords
neural network
vector
karhnen
transform
image data
Prior art date
Application number
KR1019970059299A
Other languages
Korean (ko)
Other versions
KR100248072B1 (en
Inventor
이전우
한동원
정하재
하정현
Original Assignee
정선종
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정선종, 한국전자통신연구원 filed Critical 정선종
Priority to KR1019970059299A priority Critical patent/KR100248072B1/en
Publication of KR19990039267A publication Critical patent/KR19990039267A/en
Application granted granted Critical
Publication of KR100248072B1 publication Critical patent/KR100248072B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/93Run-length coding

Abstract

본 발명은 신경망을 이용한 영상 데이터 압축/복원 장치의 구조 및 압축/복원 방법에 관한 것이다. 일반적으로 하나의 신경망을 이용하여 모든 영상 데이터를 처리할 경우, 영상의 내용이 신경망 훈련에 사용된 샘플과 많이 달라지게 되면 복구 영상의 화질을 보장 할 수 없으므로 영상 데이터를 그 내용에 따라 분류하고 각 종류의 영상 데이터 처리를 담당하는 신경망을 별개로 채용하므로써 여러 개의 신경망을 병렬로 구성하여 사용한다. 그러나 이와 같은 영상 데이터의 압축 및 복원 방법은 영상 데이터에 변환 압축만을 적용한 것으로 영상 데이터의 압축률 및 복구 화질의 고품질화를 얻을 수 없었다. 이러한 문제점을 해결하기 위하여, 본 발명에서는 최적의 변환 부호화 방법으로 알려져 있는 카르흐넨-루베 변환(Karhunen-Loeve Transform ;KLT) 방식을 신경망으로 수행하고 에지 열화의 단점을 보완할 수 있고 신경망 각각의 출력 특성에 따라 특화된 벡터 양자화를 수행하는 분류 벡터 양자화를 결합한 분류 카르흐넨-루베 변환(Karhunen-Loeve Transform ;DKLT) 방식을 이용하여 정확성이 요구되는 영상 데이터를 압축 및 복원할 수 있는 신경망을 이용한 영상 데이터의 압축/복원 장치의 구조 및 압축/복원 방법이 제시된다.The present invention relates to a structure and a compression / restoration method of an image data compression / restoration apparatus using neural networks. In general, when processing all the image data using a single neural network, if the image content is significantly different from the sample used for the neural network training, the quality of the recovered image cannot be guaranteed. Therefore, the image data is classified according to the content. By separately employing neural networks that are in charge of processing image data, several neural networks are used in parallel. However, such a method of compressing and restoring image data applies only transform compression to the image data, and thus it is not possible to obtain a high quality of the compression ratio and the restored image quality of the image data. In order to solve this problem, in the present invention, the Karhunen-Loeve Transform (KLT) method, which is known as an optimal transform coding method, can be performed by a neural network, and the disadvantages of edge degradation can be compensated. Image data using neural networks that can compress and reconstruct image data requiring accuracy by using classification Karhnen-Loeve Transform (DKLT) method that combines classification vector quantization that performs specialized vector quantization according to characteristics. The structure and compression / restore method of the compression / restore device of is presented.

Description

신경망을 이용한 영상 데이터 압축/복원 장치의 구조 및 압축/복원 방법Structure and Compression / Restoration Method of Image Data Compression / Restoration Device Using Neural Network

본 발명은 영상 데이터 압축/복원 장치의 구조 및 압축/복원 방법에 관한 것으로, 특히 선형 부호화 방법인 카르흐넨-루베 변환(Karhunen-Loeve Transform ;이하 KLT라 함) 방식과 복구 화질 및 압축률이 우수한 분류 양자화 방법을 결합한 분류 기능을 갖는 KLT 변환 신경망인 DKLT 신경망을 이용하므로써 높은 압출률을 유지하면서 동시에 복구 화질을 개선시킬 수 있는 신경망을 이용한 영상 데이터의 압축/복원 장치의 구조 및 압축/복원 방법에 관한 것이다.The present invention relates to a structure and a compression / restoration method of an image data compression / restoration device. In particular, a linear coding method, a Karhunen-Loeve Transform (hereinafter referred to as a KLT) method, and a classification with excellent recovery quality and compression ratio On the structure and compression / restore method of compression / restore device of image data compression / restore device using neural network that can improve recovery quality while maintaining high extrusion rate by using DKLT neural network, which is a KLT transform neural network with classification function combining quantization method will be.

일반적으로 KLT 방법은 변환 계수의 에너지 집중성과 무상관성의 측면에서 다른 선형 변환 함수보다 우수한 특성을 갖는 부호화 방법이다. 그러나 입력 데이터에 따라 변환을 위한 기저 행렬이 달라지는 신호 의존적 특성과 변환을 위해서는 그 연산량이 방대해지는 문제점이 있다. 이러한 KLT의 문제점 때문에 적정 화질을 유지하면서 빠른 속도가 요구되는 일반적인 영상 데이터의 압축/복원에는 KLT보다 성능은 낮지만 고속의 변환이 가능한 이산 코사인 변환(Discrete Cosine Transform ;DCT) 방법이 사용되고 있다. 그러나 의학 화상 통신 데이터베이스 시스템(Picture Archiving and Communication System ;PACS)과 같이 높은 압축률을 유지하면서 영상 데이터의 손실이 적어야 하는 응용 분야에서는 DCT 방식 역시 적합하지 않은 문제점이 있다. 이에 따라, 종래에는 정확한 복구 영상이 필요한 응용 분야를 위해 DCT와 분류 벡터 양자화를 결합한 혼합 부호화 방법을 사용하거나 여러개의 KLT 신경망을 병렬로 사용하는 변환 부호화 방법을 이용하였다. 영상을 블럭 단위로 분류하고 각 블럭 종류마다 별도의 기저 행렬을 갖는 KLT 신경망을 병렬로 채용하는 변환 부호화 방법을 채용하는 이유는 다음과 같다.In general, the KLT method is an encoding method that has superior characteristics to other linear transform functions in terms of energy concentration and correlation of transform coefficients. However, there is a problem in that a signal dependent characteristic in which the base matrix for transformation is changed according to the input data and the amount of computation is huge for the transformation. Due to the problems of KLT, the Discrete Cosine Transform (DCT) method, which has lower performance than KLT but enables high-speed conversion, is used for compression / restore of general image data requiring high speed while maintaining proper image quality. However, there is a problem that the DCT method is also not suitable for applications in which loss of image data is low while maintaining a high compression ratio such as a picture archiving and communication system (PACS). Accordingly, conventionally, a hybrid encoding method combining DCT and classification vector quantization or a transform encoding method using multiple KLT neural networks in parallel has been used for applications requiring accurate recovery images. The reason for employing the transform coding method that classifies an image in units of blocks and employs a KLT neural network in parallel with a separate basis matrix for each block type is as follows.

신경망을 이용한 영상 데이터의 압축 및 복원시에는 먼저 데이터를 압축하여 채널로 전송하는 압축기에 입력 뉴런수보다 출력 뉴런수가 적은 압축 신경망을 사용한다. 또한 복원기에는 압축 신경망에 대응되는 복원 신경망으로서 복원 신경망의 입력 뉴런 수는 압축 신경망의 출력 뉴런 수와 같고 복원 신경망의 출력 뉴런 수는 압축 신경망의 입력 뉴런 수와 같다. 복원 신경망은 압축 신경망의 역변환 기능을 수행하며 압축 신경망과 복원 신경망은 사전에 입력 영상 데이터의 샘플로 훈련된다. 그러나 하나의 신경망을 이용하여 모든 영상 데이터를 처리할 경우, 영상의 내용이 신경망 훈련에 사용된 샘플과 달라지게 되면 복구 영상의 화질을 보장할 수 없게 된다. 이러한 이유로 영상 데이터를 내용에 따라 분류하고 각 종류의 영상 데이터 처리를 담당하는 신경망을 별개로 채용하므로써 여러 개의 신경망을 병렬로 구성하여야 한다.When compressing and restoring image data using a neural network, a compressed neural network having fewer output neurons than an input neuron is used for a compressor that compresses data and transmits the data to a channel. Also, in the reconstructor, as a reconstructed neural network corresponding to the compressed neural network, the number of input neurons of the reconstructed neural network is equal to the output neurons of the compressed neural network, and the number of output neurons of the reconstructed neural network is the same as the number of input neurons of the compressed neural network. The reconstructed neural network performs the inverse transformation function of the compressed neural network, and the compressed neural network and the reconstructed neural network are trained with a sample of input image data in advance. However, when all the image data is processed using one neural network, the image quality of the recovered image cannot be guaranteed if the image content is different from the sample used for the neural network training. For this reason, several neural networks must be configured in parallel by classifying image data according to its contents and employing neural networks that handle each type of image data separately.

이와 같이 KLT 신경망에 변환 부호화 방법을 적용할 경우에는 입력 블럭을 별도 처리하여 블럭을 구분하는 블럭 분류기 및 압축기 내에서 각 신경망의 출력을 역변환하고 복구하여 최고의 복구 화질을 얻을 수 있는 신경망을 선택하게 하는 출력 선택기가 필요하다. 그러나 이러한 방법에서는 KLT 변환 계수의 에너지 집중성이 최대가 되는 측면에서 여러 개의 변환 신경망 중 해당 블럭에 최적인 신경망을 선택하기 때문에 우수한 혼합 부호화 특성을 제공할 수 없는 문제점이 있다.In this case, when the transform coding method is applied to the KLT neural network, an input block is processed separately, and the output of each neural network is inversely transformed and restored in a block classifier and a compressor that separates the blocks, thereby selecting a neural network that can obtain the best reconstructed picture quality. An output selector is required. However, in this method, since the optimal energy concentration of the KLT transform coefficients is selected, an optimal hybrid coding characteristic cannot be provided because the optimal neural network is selected among a plurality of transform neural networks.

따라서, 본 발명은 입력되는 영상 블럭의 종류를 판별하고 최적의 변환 부호화 변환을 위한 DKLT 신경망을 이용하므로써 영상 데이터의 고속 병렬 처리를 가능하게 하고, 각 블럭의 종류에 따라 특화된 벡터 양자화기를 채용하여 압축률과 복구 화면의 화질을 개선할 수 있는 신경망을 이용한 영상 데이터의 압축/복원 장치의 구조 및 압축/복원 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention enables high-speed parallel processing of image data by determining the type of input image block and using the DKLT neural network for optimal transcoding, and adopts a vector quantizer specialized for each type of block. It is an object of the present invention to provide a structure and a compression / restore method of a compression / restoration device of image data using a neural network that can improve the quality of a recovery screen.

상술한 목적을 달성하기 위한 본 발명에 따른 신경망을 이용한 영상 데이터의 압축/복원 장치의 구조는 영상 블럭 내의 픽셀 수만큼의 차원으로 벡터화된 영상 블럭 데이터를 입력으로 하여 상기 입력된 영상 블럭 데이터를 압축하기 위한 카르흐넨-루베 변환을 수행하여 카르흐넨-루베 변환 계수 및 분류 카르흐넨-루베 변환 계수를 출력하는 다수의 분류 카르흐넨-루베 변환 신경망과, 상기 다수의 분류 카르흐넨-루베 변환 신경망의 출력단에 하나씩 존재하면서 상기 다수의 분류 카르흐넨-루베 변환 신경망에서 출력되는 카르흐넨-루베 변환 계수를 각각 입력받아 벡터 코드북에 있는 계수 벡터들과 비교하여 입력 벡터와 가장 유사한 값을 갖는 벡터의 코드북 주소를 출력하는 다수의 벡터 양자화기와, 상기 각각의 분류 카르흐넨-루베 변환 신경망에서 출력되는 분류 카르흐넨-루베 변환 계수들을 입력받아 입력된 영상 블럭의 벡터가 어느 분류 카르흐넨-루베 변환 신경망에서 담당해야할 종류의 블럭인지를 판단하여 출력 선택 제어 코드를 생성하는 출력 선택기와, 상기 벡터 양자화기에서 사용하는 것과 동일한 코드북을 그 내용으로 포함하고 있으며 상기 코드북 주소를 입력받아 그 주소에 저장되어있는 카르흐넨-루베 변환 계수를 출력하고 상기 벡터 양자화기에 대응하면서 역 양자화를 담당하는 다수의 벡터 테이블과, 상기 다수의 벡터 테이블과 짝을 이루고 있으며 상기 다수의 벡터 테이블에서 출력되는 KLT 계수를 입력받아서 역변환하여 복구된 영상 블럭 데이터를 출력하는 역 카르흐넨-루베 변환 신경망을 포함하여 구성되는 것을 특징으로 한다.The structure of the apparatus for compressing and restoring image data using a neural network according to the present invention for achieving the above object is to compress the input image block data by inputting the vectorized image block data in the same dimension as the number of pixels in the image block. A plurality of classification Karhnen-Rube transformed neural networks for performing the Karhnen-Rube transformed to output the Karhnen-Lube transformed coefficients and the classification Karhnen-Rube transformed coefficients The codebook address of the vector having the most similar value to the input vector is compared with the coefficient vectors in the vector codebook by receiving each of the Karhnen-Rube transform coefficients output from the plurality of classification Karchenen-Lube transform neural networks. A plurality of vector quantizers to be output, and to each of the classification Karchenen-Rube transform neural networks. An output selector for generating an output selection control code by determining which classification Karhnen-Lube transform neural network is a vector of the input image block by receiving the classification Karhnen-Lube transform coefficients output from the The codebook contains the same codebook as the one used in the vector quantizer, receives the codebook address, outputs the Karchenn-Lube transform coefficients stored in the address, and corresponds to the vector quantizer. A vector table and an inverse Karchenen-Rube transform neural network that is paired with the plurality of vector tables and receives KLT coefficients output from the plurality of vector tables and inversely converts the outputted image block data. It features.

또한 상술한 목적을 달성하기 위한 본 발명에 따른 신경망을 이용한 영상 데이터의 압축/복원 방법은 분류 카르흐넨-루베 변환 신경망으로 영상 블럭 데이터가 입력되면 상기 입력 데이터를 카르흐넨-루베 변환하고 블럭 종류 판별에 필요한 선형 판별 분석을 수행하여 카르흐넨-루베 변환 계수와 분류 카르흐넨-루베 변환 계수를 출력하는 단계와, 상기 출력된 카르흐넨-루베 변환 계수를 각각의 벡터 양자화기에 입력하고 상기 분류 카르흐넨-루베 변환 계수들을 출력 선택기로 입력하여 입력된 영상 블럭 데이터를 최적으로 변환하여 결과를 출력할 수 있는 분류 카르흐넨-루베 변환 신경망을 결정하는 단계와, 상기 결정된 분류 카르흐넨-루베 변환 신경망의 벡터 양자화기로부터 선택 코드북 주소를 출력하는 단계와, 상기. 출력된 선택 코드북에 의하여 지정된 벡터 양자화기의 주소 및 상기 코드북 주소를 통신 채널을 통해 복원기가 있는 원격지로 전송하는 단계와, 상기 벡터 양자화기 주소를 이용하여 영상 블럭 복구에 사용할 벡터 테이블 및 그에 따른 역 카르흐넨-루베 변환 신경망을 지정하는 단계와, 상기 벡터 테이블에 압축 데이터의 나머지 부분인 벡터 양자화기의 출력을 적용하여 역 양자화된 카르흐넨-루베 변환 계수를 검색하는 단계와, 상기 검색된 카르흐넨-루베 변환 계수를 역 카르흐넨-루베 변환 신경망에 입력하고 역변환한 후 복구된 영상 블럭 데이터를 최종 출력하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In addition, the compression / restoration method of the image data using the neural network according to the present invention for achieving the above object is when the image block data is input to the classification Karhnen-Lube transform neural network, Karhnen-Lube transform the input data and determine the block type Performing a linear discriminant analysis required for the step of outputting the Karhnen-Lube transform coefficients and the classification Karhnen-Lube transform coefficients, and inputting the output Karhnen-Lube transform coefficients to the respective vector quantizers. Determining a classification Karhnen-Rube transform neural network capable of optimally converting the input image block data by outputting Rube transform coefficients to an output selector and outputting a result, and vector quantization of the determined classification Karhnen-Lube transform neural network. Outputting a selection codebook address from the device; Transmitting the address of the vector quantizer designated by the output selection codebook and the codebook address to a remote location having a reconstructor through a communication channel, and a vector table to be used for image block recovery using the vector quantizer address and the inverse thereof. Specifying a Karhnen-Rube transform neural network, applying an output of a vector quantizer, the remainder of the compressed data, to the vector table to retrieve inverse quantized Karhnen-Lube transform coefficients, and the retrieved Karhnen- And inputting the Rube transform coefficients to the inverse Carchenne-Rube transform neural network, and inversely transforming the final block to output the recovered image block data.

도 1은 본 발명에 따른 영상 데이터 압축/복원 장치의 구조도.1 is a structural diagram of an image data compression / restoration apparatus according to the present invention;

도 2는 본 발명에 적용되는 영상 데이터 압축용 분류 카르흐넨-루베 변환 신경망의 구조도.2 is a structural diagram of a classification Karchenen-Rube transform neural network for image data compression applied to the present invention.

도 3은 본 발명에 적용되는 영상 데이터 복원용 역 카르흐넨-루베 변환 신경망의 구조도.3 is a structural diagram of an inverse Karchenen-Rube transform neural network for image data restoration applied to the present invention.

도 4는 카르흐넨-루베 변환 신경망의 훈련 방법을 설명하기 위해 도시한 흐름도.4 is a flowchart illustrating a training method of a Karhnen-Rube transform neural network.

도 5는 본 발명에 따른 영상 데이터 압축/복원 방법을 설명하기 위해 도시한 흐름도.5 is a flowchart illustrating a method of compressing and restoring video data according to the present invention.

<도면의 주요 부분에 대한 부호 설명><Description of the symbols for the main parts of the drawings>

11 : 압축기 12 : 복원기11: compressor 12: restorer

13 : 통신 채널13: communication channel

111-1 내지 111-n : DKLT 신경망 112 : 출력 선택기111-1 to 111-n: DKLT neural network 112: output selector

113-1 내지 113-n : 벡터 양자화기 121-1 내지 121-n : 벡터 테이블113-1 to 113-n: Vector quantizers 121-1 to 121-n: Vector table

122-1 내지 122-n : 역 KLT 신경망122-1 to 122-n: inverse KLT neural network

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

도 1은 본 발명에 따른 영상 데이터 압축/복원 장치의 구조도이다. 영상 데이터 압축/복원 장치는 크게 압축기(11) 및 복원기(12)로 구성되며 압축기(11)는 입력 영상 블럭의 종류를 판별하면서 KLT 변환을 담당하는 다수의 DKLT 신경망(111-1 내지 111-k), 각 DKLT 신경망(111-1 내지 111-k)의 입력 영상 블럭 판별 결과를 종합하여 최종적인 판별 결과를 결정하는 출력 선택기(112) 및 DKLT 신경망(111-1 내지 111-k)의 출력에 특화된 벡터 양자화기(113-1 내지 113-k)로 이루어지고 복원기(12)는 벡터 양자화의 역변환을 위한 벡터 테이블(121-1 내지 121-k)과 압축기(11)에서 변환된 KLT 계수를 역변환하는 역 KLT 변환 신경망(122-1 내지 122-k)으로 이루어진다. 보다 자세히 설명하면 다음과 같다.1 is a structural diagram of an image data compression / restoration apparatus according to the present invention. The image data compression / restoration apparatus is largely composed of a compressor 11 and a decompressor 12, and the compressor 11 determines a type of an input image block and performs a plurality of DKLT neural networks 111-1 to 111- that are in charge of KLT conversion. k), an output selector 112 and an output of the DKLT neural networks 111-1 to 111-k that combine the input image block discrimination results of the respective DKLT neural networks 111-1 to 111-k to determine a final discrimination result. And the KLT coefficients transformed by the compressor 11 and the vector tables 121-1 through 121-k for inverse transformation of the vector quantization. Is composed of inverse KLT transform neural networks 122-1 to 122-k. More detailed description is as follows.

먼저, 압축기(11)의 구성을 살펴보면, DKLT 신경망(111-1 내지 111-k)은 영상 압축을 위한 최적 변환인 KLT변환을 수행하여 KLT 변환계수를 출력하면서 KLT 변환계수를 사전에 훈련된 부공간에 투영하므로써 KLT 변환된 입력 영상 데이터의 종류를 판별할 수 있는 DKLT 계수도 함께 출력하는 기능을 수행한다. 또한 벡터 양자화기(113-1 내지 113-k)는 각각의 영상 블럭 종류에 따라 KLT 변환한 결과를 잘 압축할 수 있도록 특화되어 있으며, 출력 선택기(112)는 각각의 DKLT 신경망에서 출력된 DKLT 계수로부터 입력 영상 블럭 데이터가 최적으로 변환된 출력을 선택하는 기능을 수행한다.First, referring to the configuration of the compressor 11, the DKLT neural networks 111-1 to 111-k perform KLT transformation, which is an optimal transformation for image compression, and output KLT transformation coefficients while pre-training the KLT transformation coefficients. This function also outputs the DKLT coefficients that can be used to determine the type of input image data that has been KLT-converted by projecting onto space. In addition, the vector quantizers 113-1 to 113-k are specialized to compress the result of the KLT transformation according to each type of image block, and the output selector 112 outputs the DKLT coefficients output from the respective DKLT neural networks. Selects an output from which the input image block data is optimally converted from the

압축기(11)의 출력은 통신채널(13)을 경유하여 복원기(12)에 전달되며, 복원기(12)는 압축기의 각 벡터 양자화기에 대응하면서 역 양자화를 담당하는 벡터 테이블(121-1 내지 121-k)과 벡터 테이블(121-1 내지 121-k)에서 검색된 KLT 계수들의 역 KLT 변환을 수행하는 역 KLT 신경망(122-1 내지 122-k)으로 구성된다.The output of the compressor 11 is transmitted to the decompressor 12 via the communication channel 13, and the decompressor 12 corresponds to each vector quantizer of the compressor and is responsible for inverse quantization. 121-k) and inverse KLT neural networks 122-1 through 122-k that perform inverse KLT transformation of the KLT coefficients retrieved from the vector tables 121-1 through 121-k.

DKLT 신경망(111-1 내지 111-k)은 영상 블럭 데이터가 벡터화된 n차원의 벡터 X를 입력받아서 KLT 계수와 DKLT 계수를 출력한다. 여기서 n은 영상 블럭내의 픽셀수이다. KLT 계수와 DKLT 계수도 벡터로서 이들 벡터의 차원은 압축성능과 DKLT 신경망(111-1 내지 111-k)의 수에 따라 가변적이다. 벡터 양자화기(113-1 내지 113-k)는 각각의 DKLT 신경망(111-1 내지 111-k)의 출력단에 한 개씩 존재하며, DKLT 신경망(111-1 내지 111-k)에서 출력되는 KLT 계수를 입력받아서 벡터 코드북에 있는 계수 벡터들과 비교하여 입력 벡터와 가장 유사한 값을 갖는 벡터의 코드북 주소를 출력한다. 코드북 주소의 출력 여부는 출력 선택기에서 제공되는 제어 코드에 의하여 결정된다. 출력 선택기(12)는 각각의 DKLT 신경망(111-1 내지 111-k)에서 출력되는 DKLT 계수들을 입력받아 입력된 영상 블럭의 벡터가 어느 DKLT 신경망(111-1 내지 111-k)에서 담당해야할 종류의 블럭인지를 판단하여 출력 선택 제어 코드를 생성한다. 통신채널(13)을 통하여 복원기(12)에 전달되는 압축 데이터는 출력 선택기(13)에서 제공되는 출력 제어 코드와 벡터 양자화기(113-1 내지 113-k)에서 출력되는 코드북 주소로 구성된다. 복원기(12)는 압축 데이터를 받아서 먼저 출력 제어 코드를 확인하여 코드북 주소를 이용하여 검색할 벡터 테이블(121-1 내지 121-k)을 지정한다. 벡터 테이블(121-1 내지 121-k)은 압축기(11)의 벡터 양자화기(113-1 내지 113-k)에서 사용하는 것과 동일한 코드북을 그 내용으로 포함하고 있으며, 코드북 주소를 받아서 그 주소에 저장되어있는 KLT 계수를 출력한다. 각각의 벡터 테이블(121-1 내지 121-k)은 그 테이블이 가지는 계수의 역변환을 담당하는 역 KLT 신경망(122-1 내지 122-k)과 짝을 이루고 있다. 역 KLT 신경망(122-1 내지 122-k)은 벡터 테이블(121-1 내지 121-k)에서 출력되는 KLT 계수를 입력받아서 역변환하여 복구된 영상 블럭 데이터를 출력한다.The DKLT neural networks 111-1 to 111-k receive an n-dimensional vector X in which image block data is vectorized, and output KLT coefficients and DKLT coefficients. Where n is the number of pixels in the video block. KLT coefficients and DKLT coefficients are also vectors, and the dimensions of these vectors vary depending on the compression performance and the number of DKLT neural networks 111-1 to 111-k. One vector quantizer 113-1 to 113-k exists at an output terminal of each of the DKLT neural networks 111-1 to 111-k, and the KLT coefficients output from the DKLT neural networks 111-1 to 111-k. Compares with the coefficient vectors in the vector codebook and outputs the codebook address of the vector having the most similar value to the input vector. Whether the codebook address is output is determined by the control code provided by the output selector. The output selector 12 receives the DKLT coefficients output from each of the DKLT neural networks 111-1 to 111-k, and the type of the vector of the input image block to be in charge of which DKLT neural networks 111-1 to 111-k. It determines whether the block is a block to generate an output selection control code. The compressed data transmitted to the decompressor 12 through the communication channel 13 is composed of an output control code provided from the output selector 13 and a codebook address output from the vector quantizers 113-1 to 113-k. . The decompressor 12 receives the compressed data, first checks the output control code, and designates the vector tables 121-1 to 121-k to be searched using the codebook address. The vector tables 121-1 to 121-k contain the same codebook as the contents used in the vector quantizers 113-1 to 113-k of the compressor 11, and receive a codebook address and store the codebook address in the address. Output the stored KLT coefficients. Each vector table 121-1 to 121-k is paired with an inverse KLT neural network 122-1 to 122-k that is responsible for inverse transformation of coefficients of the table. The inverse KLT neural networks 122-1 through 122-k receive the KLT coefficients output from the vector tables 121-1 through 121-k, and inversely transform the output KLT neural networks 122-1 through 122-k.

도 2는 본 발명에 적용되는 영상 데이터 압축용 분류 카르흐넨-루베 변환(DKLT) 신경망의 구조도이다.2 is a structural diagram of a classification Karchenen-Lube transform (DKLT) neural network for image data compression applied to the present invention.

DKLT 신경망은 입력단을 포함하여 4단으로 구성되며, 사전에 각각의 신경망이 변환을 담당할 블럭의 종류에 해당되는 시험 블럭들로 훈련된다. 이렇게 훈련된 DKLT 신경망들은 자체의 변환 결과로부터 입력된 영상 블럭이 자체에서 담당하는 종류의 블럭인지를 판단하여 그에 대한 출력도 함께 한다. 이렇게 하여 블럭의 특성이 훈련시에 사용된 훈련용 데이터와 상이하여 두 가지 이상의 신경망에서 변환 출력을 제공할 경우, 출력 선택기에서 최종적으로 최적의 출력을 결정하게 된다. 이렇게 각각 분류된 블럭 종류 별로 DKLT 신경망이 채용되므로써 각 블럭 종류에 적합한 분류 벡터 양자화를 변환 부호화 다음에 사용할 수 있다. 도면을 참조하여 보다 자세히 설명하면 다음과 같다. 신경망의 뉴런 수는 입력 영상 블럭의 차원인 n(X1 내지 Xn), 첫 번째 은닉층의 뉴런 수를 m이며 두 번째 은닉층과 출력층의 뉴런 수는 l이다. 이때에는 n〉m〉l의 관계가 있으며 변환에 의한 압축은 n〉m인 계수 개수의 감소에 의해 얻어진다. 첫 번째 은닉층에서 출력되는 Y 벡터는 KLT 계수이고 출력층의 Z 벡터는 DKLT 계수이다. 각 뉴런은 단순히 뉴런으로 입력되는 입력과 연결 강도의 곱을 더하여 출력한다. DKLT 신경망에서 첫 번째 층은 KLT 변환을 담당하고 나머지 두 층은 블럭의 종류 판별에 필요한 선형 판별 분석을 담당한다.The DKLT neural network is composed of four stages including the input stage, and each neural network is trained with test blocks corresponding to the type of the block to which each neural network is responsible for transformation. The trained DKLT neural networks determine whether the input image block is the type of block that is in charge of itself from the result of the transformation and also outputs the same. In this way, when the characteristics of the block are different from the training data used in the training, and the transform output is provided in two or more neural networks, the output selector finally determines the optimal output. Since the DKLT neural network is adopted for each classified block type, a classification vector quantization suitable for each block type can be used after transform coding. Referring to the drawings in more detail as follows. The number of neurons in the neural network is n (X1 to Xn), the dimension of the input image block, the number of neurons in the first hidden layer is m, and the number of neurons in the second hidden layer and the output layer is l. At this time, there is a relationship of n> m> l and the compression by the transformation is obtained by decreasing the number of coefficients n> m. The Y vector output from the first hidden layer is the KLT coefficient and the Z vector of the output layer is the DKLT coefficient. Each neuron simply outputs the product of the neuronal input plus the strength of the connection. In the DKLT neural network, the first layer is responsible for the KLT transformation, and the other two layers are responsible for the linear discriminant analysis required to determine the type of block.

도 3은 본 발명에 적용되는 영상 데이터 복원용 역 카르흐넨-루베 변환 신경망의 구조도이다.3 is a structural diagram of an inverse Karchenen-Rube transform neural network for image data restoration applied to the present invention.

m차원의 KLT 계수인 Y 벡터를 입력받아 역변환하여 n>m인 n차원의 복구영상 블럭 데이터 X'을 출력한다. 역 KLT 신경망의 연결 강도는 별도의 훈련과정이 없이 DKLT 신경망의 훈련 결과에서 입력층과 첫번째 은닉층간의 연결강도를 사용한다.Inverse transformation is performed on the Y vector, the m-dimensional KLT coefficient, to output the n-dimensional recovered image block data X 'with n> m. The connection strength of the inverse KLT neural network uses the strength of the connection between the input layer and the first hidden layer in the training results of the DKLT neural network without any training.

도 4는 분류 카르흐넨-루베 변환 신경망(DKLT)의 훈련 방법을 설명하기 위해 도시한 흐름도이다.4 is a flowchart illustrating a training method of a classification Karchenen-Rube transform neural network (DKLT).

DKLT 신경망의 훈련은 각 층별로 단계적으로 이루어지며, RLS(Recursive Least Square) 훈련 방법을 사용하여 이루어진다. 먼저 입력층과 첫번째 은닉층간의 첫번째층 연결강도를 작은 값의 랜덤 값으로 초기화하고 RLS 훈련을 위한 훈련 파라메터를 초기화한다(401). 다음에는 훈련하고자하는 DKLT 신경망이 담당할 종류의 대표 영상 블럭 데이터로 구성된 훈련용 영상 블럭 데이터를 입력하여 RLS 훈련 방법에 따른 연결강도 조정으로 첫번째층의 연결강도를 구한다(402). 연결 강도가 구해지면 모든 종류의 영상 블럭 데이터로 구성된 전체 훈련 데이터를 입력하여 첫번째 은닉층에서의 출력을 구한다(403). 이렇게 구한 첫번째 은닉층의 출력을 훈련대상 DKLT 신경망이 담당할 종류의 영상 블럭 데이터에 대한 출력과 다른 종류의 영상 블럭 데이터에 대한 출력을 나누어서 두개의 데이터 세트로 구분하여 두개의 데이터 세트를 합한 전체 데이터 세트의 평균값과 각 데이터 세트의 평균값을 구하여 전체 분산 데이터 세트와 클래스분산 데이터 세트를 만든다(404). 전체분산 데이터 세트는 두개의 데이터 세트에 포함된 각각의 데이터로부터 전체 데이터 세트의 평균값을 뺀 값들을 하나의 데이터 세트로 모은 데이터 세트이고, 클래스분산 데이터 세트는 각각의 데이터 세트에 포함된 데이터에서 각 데이터 세트의 평균값을 뺀 값들을 하나의 데이터 세트로 모은 데이터 세트이다. 이렇게 데이터 세트가 준비되면 먼저 두번째층 연결강도를 작은 값의 랜덤 값으로 초기화하고 RLS 훈련을 위한 훈련 파라메터를 초기화한다(405). 이후 첫번째층의 훈련과정과 동일한 RLS훈련과정에 따라 클래스분산 데이터 세트를 가지고 두번째층의 연결강도를 구한다(406). 두번째층의 연결강도를 얻은 후에 전체 분산 데이터 세트를 첫번째 은닉층에 입력하여 두번째 은닉층에 출력되는 값을 모아서 세번째층의 연결 강도를 구한다(407). 세번째층의 연결강도 훈련과정도 첫번째층의 연결강도 훈련과정과 동일하다. 즉, 세번째층 연결강도를 작은 값의 랜덤 값으로 초기화하고 RLS 훈련을 위한 훈련 파라메터를 초기화(408)하고 두 번째 층에서 출력된 전체 분산 데이터 세트의 출력을 이용하여 RLS 훈련 방법에 따라 세 번째 층 연결 강도를 구한다(409).The training of the DKLT neural network is performed step by step, using the Recursive Least Square (RLS) training method. First, the first layer connection strength between the input layer and the first hidden layer is initialized to a small random value and the training parameters for the RLS training are initialized (401). Next, input the training image block data composed of the representative image block data of the type of DKLT neural network to be trained to obtain the connection strength of the first layer by adjusting the connection strength according to the RLS training method (402). When the connection strength is obtained, the output from the first hidden layer is obtained by inputting the entire training data including all kinds of image block data (403). The output of the first hidden layer obtained in this way is divided into two data sets by dividing the output of the image block data of the type to be trained by the target DKLT neural network and the output of the other type of image block data into two data sets, and then combining the two data sets. The average value of and the average value of each data set are calculated to generate a total distributed data set and a class distributed data set (404). A globally distributed data set is a data set that combines the data of each data set from two data sets minus the average value of the entire data set into one data set. It is a data set that collects the data minus the average of the data set into one data set. When the data set is prepared, the second layer connection strength is first initialized to a small random value and the training parameters for RLS training are initialized (405). After that, the connection strength of the second layer is obtained using the class distribution data set according to the same RLS training process as that of the first layer (406). After obtaining the connection strength of the second layer, the entire distributed data set is input to the first hidden layer, and the values outputted to the second hidden layer are collected to obtain the connection strength of the third layer (407). The strength training course on the third floor is the same as the strength training course on the first floor. That is, the third layer connection strength is initialized to a small random value, the training parameters for the RLS training are initialized (408), and the third layer according to the RLS training method using the output of the entire distributed data set output from the second layer. The connection strength is obtained (409).

이렇게 세 개의 층에 대한 연결 강도가 얻어지면 DKLT 신경망의 훈련은 끝나고, 전체 신경망은 KLT 변환기능과 블럭 종류의 선형 판별 기능을 갖는 DKLT 신경망이 된다.When the strength of the three layers is obtained, the training of the DKLT neural network is completed, and the entire neural network becomes a DKLT neural network with KLT transformation and block type linear discrimination.

도 5는 본 발명에 따른 영상 데이터 압축/복원 방법을 설명하기 위해 도시한 흐름도이다.5 is a flowchart illustrating a method of compressing and restoring image data according to the present invention.

영상 블럭 데이터가 입력(501)되면 모든 DKLT 신경망에서 입력 데이터를 KLT 변환하고 블럭 종류 판별에 필요한 선형 판별 분석을 수행하여 KLT 계수와 DKLT 계수를 출력(502)한다. 출력된 KLT 계수는 각 DKLT 신경망과 짝을 이루고 있는 벡터 양자화기에 입력되고 DKLT 계수들은 출력 선택기로 입력되어 입력된 영상 블럭 데이터를 가장 잘 변환하여 결과를 출력할 수 있는 DKLT 신경망을 결정(503)하여 출력 선택 코드북을 출력한다(504). 출력된 선택 코드북에 의하여 지정된 벡터 양자화기의 출력만이 압축기 출력으로 출력되어 출력 선택 코드와 함께 통신 채널을 통해 복원기가 있는 원격지로 전송된다(505). 복원기에서는 압축 데이터에서 먼저 출력선택 코드를 분리하여 역 양자화를 위한 벡터 테이블과 그에 따른 역 KLT 신경망을 지정한다(506). 압축 데이터의 나머지 부분인 벡터 양자화기의 출력을 벡터테이블에 적용하여 역 양자화된 KLT계수를 검색하고, 검색된 KLT계수를 역 KLT신경망에 입력(507)하여 역변환한 후 복구 영상 블럭 데이터를 최종 출력한다(508).When the image block data is input 501, the KLT coefficients and the DKLT coefficients are output (502) by performing KLT transformation on the input data in all DKLT neural networks and performing linear discriminant analysis necessary for block type determination. The output KLT coefficients are input to the vector quantizer paired with each DKLT neural network, and the DKLT coefficients are input to the output selector to determine the DKLT neural network that can best convert the input image block data and output the result (503). An output selection codebook is output (504). Only the output of the vector quantizer specified by the output selection codebook is output to the compressor output and transmitted with the output selection code to a remote location with a reconstructor via a communication channel (505). The decompressor first separates the output selection code from the compressed data to designate a vector table for inverse quantization and a corresponding inverse KLT neural network (506). The output of the vector quantizer, which is the remainder of the compressed data, is applied to the vector table to retrieve the inverse quantized KLT coefficients, and the searched KLT coefficients are input to the inverse KLT neural network (507) to inversely transform and finally output the recovered image block data. (508).

상술한 바와 같이 본 발명에 따르면, 입력되는 영상 블럭의 종류를 판별하고 최적의 변환 부호화 변환을 위한 DKLT 신경망을 이용하므로써 영상 데이터의 고속 병렬 처리를 가능하게 하고, 각 블럭의 종류에 따라 특화된 벡터 양자화기를 채용하므로써 압축률과 복구 화면의 화질을 개선할 수 있어 의료 영상의 압축/복원이 필요한 PACS와 같은 시스템뿐만 아니라 기존의 손실 압축보다 높은 압축률과 복구 화면의 우수한 화질을 요구하는 일반적인 영상의 압축/복원에도 활용이 가능한 탁월한 효과가 있다.As described above, according to the present invention, by using the DKLT neural network for determining the type of the input image block and the optimal transform coding transformation, it is possible to perform high-speed parallel processing of the image data, and specialized vector quantization according to the type of each block It can improve the compression rate and the image quality of the recovery screen by adopting the device, as well as the system such as PACS which needs to compress / restore the medical image, as well as the compression / restore of general image which requires higher compression rate and better image quality than the existing lossy compression. There is also an excellent effect that can be utilized.

Claims (2)

영상 블럭 내의 픽셀 수만큼의 차원으로 벡터화된 영상 블럭 데이터를 입력으로 하여 상기 입력된 영상 블럭 데이터를 압축하기 위한 카르흐넨-루베 변환을 수행하여 카르흐넨-루베 변환 계수 및 분류 카르흐넨-루베 변환 계수를 출력하는 다수의 분류 카르흐넨-루베 변환 신경망과,The Karhnen-Lube transform coefficient and the classification Karhnen-Lube transform coefficient are performed by performing the Karchenen-Lube transform for compressing the input image block data by inputting the image block data vectorized in the dimension of the number of pixels in the image block. A number of classification Karchenen-Rube transformed neural networks that output 상기 다수의 분류 카르흐넨-루베 변환 신경망의 출력단에 하나씩 존재하면서 상기 다수의 분류 카르흐넨-루베 변환 신경망에서 출력되는 카르흐넨-루베 변환 계수를 각각 입력받아 벡터 코드북에 있는 계수 벡터들과 비교하여 입력 벡터와 가장 유사한 값을 갖는 벡터의 코드북 주소를 출력하는 다수의 벡터 양자화기와,Receive the Karhnen-Rube transform coefficients, which are present at the output terminals of the plurality of classification Karhnen-Rube transformed neural networks, respectively, and are compared with the coefficient vectors in the vector codebook. A plurality of vector quantizers for outputting a codebook address of a vector having a value most similar to the vector, 상기 각각의 분류 카르흐넨-루베 변환 신경망에서 출력되는 분류 카르흐넨-루베 변환 계수들을 입력받아 입력된 영상 블럭의 벡터가 어느 분류 카르흐넨-루베 변환 신경망에서 담당해야할 종류의 블럭인지를 판단하여 출력 선택 제어 코드를 생성하는 출력 선택기와,Selects outputs by judging which classification Karhnen-Rube transformed neural network is the vector of the input image block by inputting classification Karhnen-Lube transform coefficients outputted from the respective classification Karhnen-Lube transform neural networks An output selector for generating control codes, 상기 벡터 양자화기에서 사용하는 것과 동일한 코드북을 그 내용으로 포함하고 있으며 상기 코드북 주소를 입력받아 그 주소에 저장되어있는 카르흐넨-루베 변환 계수를 출력하고 상기 벡터 양자화기에 대응하면서 역 양자화를 담당하는 다수의 벡터 테이블과,The codebook contains the same codebook as the one used in the vector quantizer, and receives the codebook address, outputs the Karhnen-Lube transform coefficients stored in the address, and corresponds to the vector quantizer while in charge of inverse quantization. Vector table, 상기 다수의 벡터 테이블과 짝을 이루고 있으며 상기 다수의 벡터 테이블에서 출력되는 KLT 계수를 입력받아서 역변환하여 복구된 영상 블럭 데이터를 출력하는 역 카르흐넨-루베 변환 신경망을 포함하여 구성되는 것을 특징으로 하는 신경망을 이용한 영상 데이터의 압축/복원 장치의 구조.The neural network, which is paired with the plurality of vector tables and includes an inverse Karchenen-Rube transform neural network that receives KLT coefficients output from the plurality of vector tables and inversely converts the outputted image block data. Structure of Compression / Restoration of Image Data Using Digital Camera. 분류 카르흐넨-루베 변환 신경망으로 영상 블럭 데이터가 입력되면 상기 입력 데이터를 카르흐넨-루베 변환하고 블럭 종류 판별에 필요한 선형 판별 분석을 수행하여 카르흐넨-루베 변환 계수와 분류 카르흐넨-루베 변환 계수를 출력하는 단계와,When the image block data is input to the classification Karhnen-Rube transform neural network, the Karhnen-Lube transform coefficient and the classification Karhnen-Lube transform coefficient are converted by performing the Karhnen-Lube transform on the input data and performing linear discriminant analysis for block type determination. Outputting, 상기 출력된 카르흐넨-루베 변환 계수를 각각의 벡터 양자화기에 입력하고 상기 분류 카르흐넨-루베 변환 계수들을 출력 선택기로 입력하여 입력된 영상 블럭 데이터를 최적으로 변환하여 결과를 출력할 수 있는 분류 카르흐넨-루베 변환 신경망을 결정하는 단계와,Classified Karchenn which inputs the output Karchenn-Lube transform coefficients to each vector quantizer and inputs the sorted Karchenn-Rube transform coefficients to an output selector to optimally convert the input image block data and output a result. Determining a rube transform neural network, 상기 결정된 분류 카르흐넨-루베 변환 신경망의 벡터 양자화기로부터 선택 코드북 주소를 출력하는 단계와,Outputting a selection codebook address from the vector quantizer of the determined classification Karchenen-Rube transform neural network; 상기. 출력된 선택 코드북에 의하여 지정된 벡터 양자화기의 주소 및 상기 코드북 주소를 통신 채널을 통해 복원기가 있는 원격지로 전송하는 단계와,remind. Transmitting the address of the vector quantizer specified by the selected selection codebook and the codebook address to a remote location having a reconstructor through a communication channel; 상기 벡터 양자화기 주소를 이용하여 영상 블럭 복구에 사용할 벡터 테이블 및 그에 따른 역 카르흐넨-루베 변환 신경망을 지정하는 단계와,Designating a vector table to be used for image block recovery using the vector quantizer address and corresponding inverse Karchenen-Rube transform neural network; 상기 벡터 테이블에 압축 데이터의 나머지 부분인 벡터 양자화기의 출력을 적용하여 역 양자화된 카르흐넨-루베 변환 계수를 검색하는 단계와,Applying an output of a vector quantizer, the remainder of the compressed data, to the vector table to retrieve inverse quantized Karchenen-Lube transform coefficients; 상기 검색된 카르흐넨-루베 변환 계수를 역 카르흐넨-루베 변환 신경망에 입력하고 역변환한 후 복구된 영상 블럭 데이터를 최종 출력하는 단계를 포함하여 이루어지는 것을 특징으로 하는 신경망을 이용한 영상 데이터의 압축/복원 방법.Compressing and restoring image data using a neural network, comprising inputting the retrieved Karhnen-Lube transform coefficients to an inverse Karhnen-Lube transform neural network, and inversely transforming the final block and outputting the restored image block data. .
KR1019970059299A 1997-11-11 1997-11-11 Image compression/decompression method and apparatus using neural networks KR100248072B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970059299A KR100248072B1 (en) 1997-11-11 1997-11-11 Image compression/decompression method and apparatus using neural networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970059299A KR100248072B1 (en) 1997-11-11 1997-11-11 Image compression/decompression method and apparatus using neural networks

Publications (2)

Publication Number Publication Date
KR19990039267A true KR19990039267A (en) 1999-06-05
KR100248072B1 KR100248072B1 (en) 2000-03-15

Family

ID=19524542

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970059299A KR100248072B1 (en) 1997-11-11 1997-11-11 Image compression/decompression method and apparatus using neural networks

Country Status (1)

Country Link
KR (1) KR100248072B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030009575A (en) * 2001-06-26 2003-02-05 박광훈 Rate control apparatus and method using neural-net classifier for moving picture coding
KR100446630B1 (en) * 2002-05-08 2004-09-04 삼성전자주식회사 Vector quantization and inverse vector quantization apparatus for the speech signal and method thereof
KR100529311B1 (en) * 2003-01-21 2005-11-17 삼성전자주식회사 Apparatus and method for selecting the length of variable length coding bit stream using neural network
CN114745556A (en) * 2022-02-07 2022-07-12 浙江智慧视频安防创新中心有限公司 Encoding method, encoding device, digital video film system, electronic device, and storage medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101056462B1 (en) 2009-07-02 2011-08-11 세종대학교산학협력단 Voice signal quantization device and method
KR101990092B1 (en) 2017-03-24 2019-06-17 주식회사 엔씨소프트 Apparatus and method for compressing image
KR20190128885A (en) * 2018-05-09 2019-11-19 삼성전자주식회사 Electronic apparatus and method for controlling thereof
KR20200139909A (en) 2019-06-05 2020-12-15 삼성전자주식회사 Electronic apparatus and method of performing operations thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030009575A (en) * 2001-06-26 2003-02-05 박광훈 Rate control apparatus and method using neural-net classifier for moving picture coding
KR100446630B1 (en) * 2002-05-08 2004-09-04 삼성전자주식회사 Vector quantization and inverse vector quantization apparatus for the speech signal and method thereof
KR100529311B1 (en) * 2003-01-21 2005-11-17 삼성전자주식회사 Apparatus and method for selecting the length of variable length coding bit stream using neural network
CN114745556A (en) * 2022-02-07 2022-07-12 浙江智慧视频安防创新中心有限公司 Encoding method, encoding device, digital video film system, electronic device, and storage medium
CN114745556B (en) * 2022-02-07 2024-04-02 浙江智慧视频安防创新中心有限公司 Encoding method, encoding device, digital retina system, electronic device, and storage medium

Also Published As

Publication number Publication date
KR100248072B1 (en) 2000-03-15

Similar Documents

Publication Publication Date Title
CN110225341B (en) Task-driven code stream structured image coding method
CN1175373C (en) Lossy/lossless region of interest image coding
US6301392B1 (en) Efficient methodology to select the quantization threshold parameters in a DWT-based image compression scheme in order to score a predefined minimum number of images into a fixed size secondary storage
JP3978478B2 (en) Apparatus and method for performing fixed-speed block-unit image compression with estimated pixel values
KR20010025113A (en) Image compression
JPH04284783A (en) Image-data processing method
WO1993023956A1 (en) Method for image compression coding in an image transmission system
US11496769B2 (en) Neural network based image set compression
US5124791A (en) Frame-to-frame compression of vector quantized signals and other post-processing
KR100248072B1 (en) Image compression/decompression method and apparatus using neural networks
CN1327713C (en) Context-sensitive encoding and decoding of a video data stream
Li et al. Image compression using transformed vector quantization
CN113450421B (en) Unmanned aerial vehicle reconnaissance image compression and decompression method based on enhanced deep learning
US5812700A (en) Data compression neural network with winner-take-all function
CN110930408A (en) Semantic image compression method based on knowledge reorganization
JP2003188733A (en) Encoding method and arrangement
KR20230136121A (en) Progressive data compression using artificial neural networks
CN110719473B (en) Scalable compression video acquisition and reconstruction system based on structured sparsity
CN110620927B (en) Scalable compression video tensor signal acquisition and reconstruction system based on structured sparsity
KR100268171B1 (en) An image block classification and coding method for image data compression using optimal transform
WO2022141683A1 (en) Scalable feature stream
Mahajan et al. Memory Optimization Technique Of Map Image (DWT based hybrid Technique)
Singh et al. A STUDY OF PATTERN BASED RESIDUAL VECTOR QUANTIZATION ALGORITHM FOR IMAGE COMPRESSION
JP2874003B2 (en) High efficiency coding apparatus and coding method
Galan-Hernandez et al. Advances in Image and Video Compression Using Wavelet Transforms and Fovea Centralis

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20071115

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee