KR970019636A - Improved Neural Network Data Compressor and Data Processing Method Using the Same - Google Patents

Improved Neural Network Data Compressor and Data Processing Method Using the Same Download PDF

Info

Publication number
KR970019636A
KR970019636A KR1019950031226A KR19950031226A KR970019636A KR 970019636 A KR970019636 A KR 970019636A KR 1019950031226 A KR1019950031226 A KR 1019950031226A KR 19950031226 A KR19950031226 A KR 19950031226A KR 970019636 A KR970019636 A KR 970019636A
Authority
KR
South Korea
Prior art keywords
encoder
neural network
decoder
network data
stage
Prior art date
Application number
KR1019950031226A
Other languages
Korean (ko)
Inventor
문주희
박광훈
Original Assignee
김주용
현대전자산업주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김주용, 현대전자산업주식회사 filed Critical 김주용
Priority to KR1019950031226A priority Critical patent/KR970019636A/en
Publication of KR970019636A publication Critical patent/KR970019636A/en

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 종래의 신경회로망 데이터 압축과 같은 수의 히든층 노드단수를 유지하면서도 정확한 데이터 복원을 위해 엔코더단 또는 디코더단에 순간 정보를 이용한 부가 향상 노드를 추가함으로써 디코더단의 출력부에서 정확한 데이터 복원을 제공하는 개선된 신경회로망 데이터 콤프레서 및 이를 이용한 데이터 처리 방법에 관한 것이다.The present invention provides accurate data restoration at the output of the decoder by adding additional enhancement nodes using instantaneous information to the encoder stage or decoder stage for accurate data restoration while maintaining the same number of hidden layer node stages as conventional neural network data compression. The present invention relates to an improved neural network data compressor and a data processing method using the same.

엔코더(1)와, 히든층(30) 및 디코더(20)로 구성된 3-층 신경회로망 데이터 콤프레서에 있어서, 엔코더부의 입력단 또는 디코더 입력단에 순간 정보를 이용한 부가 향상 노드(5)를 더 포함하여, 엔코더단과 히든층 노드단 사이의 가중치를 최적화하는 것을 특징으로 한다.In the three-layer neural network data compressor including the encoder 1, the hidden layer 30, and the decoder 20, an additional enhancement node 5 using instantaneous information at the input terminal or the decoder input terminal of the encoder unit is further included. It is characterized by optimizing the weight between the encoder stage and the hidden layer node stage.

Description

개선된 신경회로망 데이터 콤프레서 및 이를 이용한 데이터 처리 방법Improved Neural Network Data Compressor and Data Processing Method Using the Same

본 내용은 요부공개 건이므로 전문내용을 수록하지 않았음Since this is an open matter, no full text was included.

제 5도는 본 발명에 따라서, 신경 회로망의 엔코더 입력단에 순간 정보를 이용한 부가 향상 노드를 추가한 콤프레서 구성도.5 is a compressor configuration diagram in which an additional enhancement node using instantaneous information is added to an encoder input terminal of a neural network in accordance with the present invention.

제 6도는 제 5도를 간략화한 형태로 나타낸 약식도FIG. 6 is a schematic diagram showing a simplified form of FIG.

제 7도는 본 발명에 따라서, 데이터의 순간 정보를 이용한 신경회로망 데이터 콤프레서의 디코더 부분의 구성도.7 is a block diagram of a decoder portion of a neural network data compressor using instant information of data according to the present invention.

Claims (10)

엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 30-층 신경회로망 데이터 콤프레서에 있어서, 엔토더부의 입력단에 순간 정보를 이용한 부가 향상 노드(5)를 더 포함하여, 엔코더 입력단과 히든층 노드단 사이의 가중치를 최적화하는 것을 특징으로 하는 개선된 신경회로망 데이터 콤프레서.In the 30-layer neural network data compressor composed of an encoder 1, a hidden layer node end 30 and a decoder 20, further comprising an additional enhancement node 5 using instantaneous information at the input end of the encoder portion, An improved neural network data compressor characterized by optimizing weights between the encoder input stage and the hidden layer node stage. 제 1항에 있어서, 상기 순간 정보는 이전 프레임군에서 얻어진 정보의 벡터인 것을 특징으로 하는 개선된 신경회로망 데이터 콤프레서.2. The improved neural network data compressor of claim 1, wherein the instantaneous information is a vector of information obtained from a previous frame group. 엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 3-층 신경회로망 데이터 콤프레서에 있어서, 디코더 입력단에 순간 정보를 이용한 부가 향상 노드(25)를 더 포함하여, 디코더단과 히든층 노드단 사이의 가중치를 최적화하는 것을 특징으로 하는 개선된 신경회로망 데이터 콤프레서.In a three-layer neural network data compressor comprising an encoder (1), a hidden layer node stage (30), and a decoder (20), the decoder input stage further includes an additional enhancement node (25) using instantaneous information. An improved neural network data compressor characterized by optimizing weights between hidden layer nodes. 제 3항에 있어서, 상기 순간 정보는 이전 프레임군에서 얻어진 정보의 벡터인 것을 특징으로 하는 개선된 신경회로망 데이터 콤프레서.4. The improved neural network data compressor of claim 3, wherein the instantaneous information is a vector of information obtained from a previous frame group. 엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 3-층 신경회로망 데이터 콤프레서에 있어서, 엔코더부의 입력단에 순간 정보를 이용한 부가 향상 노드(5)를 더 포함하여, 엔코더 입력단과 히든층 노드단 사이의 가중치를 최적화하고, 디코더 입력단의 순간정보를 이용한 부가 향상 노드(25)를 더 포함하여, 디코더단과 히든층 노드단 사이의 가중치를 최적화하는 것을 특징으로 하는 개선된 신경회로망 데이터 콤프레서.In a three-layer neural network data compressor comprising an encoder (1), a hidden layer node stage (30), and a decoder (20), the encoder further comprises an additional enhancement node (5) using instantaneous information at the input of the encoder section. An improved neural network characterized by optimizing the weights between the input and the hidden layer nodes, and further comprising an additional enhancement node 25 using the instantaneous information of the decoder inputs. Network Data Compressor. 제 5항에 있어서, 상기 순간 정보는 이전 프레임군에서 얻어진 정보의 벡터인 것을 특징으로 하는 개선된 신경회로망 데이터 콤프레서.6. The improved neural network data compressor according to claim 5, wherein the instantaneous information is a vector of information obtained from a previous frame group. 엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 3-층 신경회로망 데이터 콤프레서에 있어서, 엔코더단의 입력단에 순간 정보를 이용한 부가 향상 노드(5)를 추가시키는 단계와; 기본 영상 벡터X와, 순간 정보 벡터U를 기본 영상 노드와 순간 정보 노드(5)에 공급하여, 디코더 출력단(21)에서 X벡터를 최대한 재생(X=)할 수 있는 엔코더 가중치(3)와 디코더 가중치(23)를 구하고, 각각의 기본 입력 벡터X와 순간 벡터U에 해당하는 히든층 노드단 출력 벡터Y의 짝(X,U,Y)을 저장하는 1차 학습 단계로 구성되는 것을 특징으로 하는 개선된 신경회로망 데이터 처리방법.In the three-layer neural network data compressor including the encoder 1, the hidden layer node stage 30, and the decoder 20, adding an additional enhancement node 5 using the instantaneous information to an input terminal of the encoder stage; ; By supplying the basic video vector X and the instantaneous information vector U to the basic video node and the instantaneous information node 5, the decoder output terminal 21 reproduces the X vector as much as possible (X = Obtain encoder weight (3) and decoder weight (23), and store pairs (X, U, Y) of hidden layer node-end output vectors Y corresponding to each basic input vector X and instant vector U. An improved neural network data processing method comprising the first learning step. 엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 3-층 신경회로망 데이터 콤프레서에 있어서, 디코더단의 입력단에 순간 정보를 이용한 부가 향상 노드(25)를 추가시키는 단계와, 디코더단 입력값으로 히든층 노드단의 출력값인 Y벡터를 입력시키고, 엔코더단에서 저장된 순간정보U를 순간 정보 노드(25)의 입력 벡터V로 설정하고, 출력 목표값X와의 짝을 사용하여 디코더 부분의 가중치를 재학습시켜의 값이 보다 X값에 가깝도록 복원하는 2차 학습 단계로 구성되는 것을 특징으로 하는 개선된 신경회로망 데이터 처리방법.In the three-layer neural network data compressor comprising the encoder 1, the hidden layer node stage 30 and the decoder 20, adding an additional enhancement node 25 using the instantaneous information to the input terminal of the decoder stage; Input the Y vector, the output value of the hidden layer node, as the decoder stage input value, set the instantaneous information U stored at the encoder stage as the input vector V of the instantaneous information node 25, and use a pair with the output target value X. Re-learn the weights of the decoder section An improved neural network data processing method comprising the second learning step of restoring the value of to be closer to the value of X. 엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 30층 신경회로망 데이터 콤프레서에 있어서, 엔코더단의 입력단에 순간 정보를 이용한 부가 향상 노드(5)를 추가시키고; 엔코더의 출력 부분을 벡터 양자화하여 1개의 벡터로 구분하여 그 대표코드만 전송하고, 디코더에서는 전송된 대표코드를 미리 학습된 코드북을 이용하여 추정된 벡터로 복원한 후 엔코더에 입력된 데이터를 복원한는 것을 특징으로 하는 개선된 신경회로망 데이터 처리방법.A thirty-layer neural network data compressor comprising an encoder (1), a hidden layer node stage (30), and a decoder (20), comprising: adding an additional enhancement node (5) using instantaneous information to an input stage of the encoder stage; The output part of the encoder is quantized by vector to be divided into one vector, and only its representative code is transmitted. Improved neural network data processing method, characterized in that. 엔코더(1)와, 히든층 노드단(30) 및 디코더(20)로 구성된 3-층 신경회로망 데이터 콤프레서에 있어서, 디코더단의 입력단에 순간 정보를 이용한 부가 향상 노드(5)를 추가시키고; 엔코더의 출력 부분을 벡터 양자화하여 여러개의 벡터로 구분하여 그 대표코드만 전송하고, 디코더에서는 전송된 대표코드를 미리 학습된 코드북을 이용하여 추정된 벡터로 복원한 후 엔코더에 입력된 데이터를 복원하는 것을 특징으로 하는 개선된 신경회로망 데이터 처리방법.A three-layer neural network data compressor comprising an encoder (1), a hidden layer node stage (30) and a decoder (20), comprising: adding an additional enhancement node (5) using instantaneous information to an input terminal of the decoder stage; The output part of the encoder is quantized by vector to be divided into several vectors, and only the representative code is transmitted.The decoder restores the transmitted representative code to an estimated vector using a pre-learned codebook and then restores the data input to the encoder Improved neural network data processing method, characterized in that. ※ 참고사항 : 최초출원 내용에 의하여 공개하는 것임.※ Note: The disclosure is based on the initial application.
KR1019950031226A 1995-09-21 1995-09-21 Improved Neural Network Data Compressor and Data Processing Method Using the Same KR970019636A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019950031226A KR970019636A (en) 1995-09-21 1995-09-21 Improved Neural Network Data Compressor and Data Processing Method Using the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019950031226A KR970019636A (en) 1995-09-21 1995-09-21 Improved Neural Network Data Compressor and Data Processing Method Using the Same

Publications (1)

Publication Number Publication Date
KR970019636A true KR970019636A (en) 1997-04-30

Family

ID=66615514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950031226A KR970019636A (en) 1995-09-21 1995-09-21 Improved Neural Network Data Compressor and Data Processing Method Using the Same

Country Status (1)

Country Link
KR (1) KR970019636A (en)

Similar Documents

Publication Publication Date Title
CA2256071A1 (en) Motion compensating apparatus, moving image coding apparatus and method
JP3017380B2 (en) Data compression method and apparatus, and data decompression method and apparatus
KR960703504A (en) A method for estimating motion in a video sequence
GB2300083A (en) Fractal image compression
EP0757331A3 (en) Image processing method and apparatus
KR970062942A (en) Compression Method and System of Structured Data
DK0450064T4 (en) Digital voice tags with improved long-term forecasts with subsample resolution
US6714687B2 (en) Image encoding/decoding method, apparatus thereof and recording medium in which program therefor is recorded
KR970019636A (en) Improved Neural Network Data Compressor and Data Processing Method Using the Same
Setiono et al. Image compression using a feedforward neural network
KR970019639A (en) Improved Neural Network Data Compressor and Data Processing Method Using the Same
KR970019635A (en) Improved Neural Network Data Compressor and Data Processing Method Using the Same
KR970019640A (en) Improved Neural Network Data Compressor and Data Processing Method Using the Same
KR970019638A (en) Improved Neural Network Data Compressor and Data Processing Method Using the Same
Le et al. Characteristics of multi-layer perceptron models in enhancing degraded speech
CN113887706B (en) Method and device for low-bit quantization of one-stage target detection network
KR940003404A (en) Inter-frame / in-frame motion compensation system
KR950024082A (en) Artificial neurons using addition circuits and methods of using them
Itoga A generalization of the stable marriage problem
KR950007543A (en) Image Coding Device with Adaptive Preprocessing
ATE227860T1 (en) ASSOCIATIVE NEURON IN AN ARTIFICIAL NEURAL NETWORK
KR100214374B1 (en) The data transfer method using vector quantizer in neural network
EP0927954A3 (en) Image signal compression coding method and apparatus
KR930023909A (en) Speech Recognition Method
KR950023004A (en) Motion Estimator of Digital Video Encoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application