RU2014147972A - COMPRESSION METHOD AND DEVICE USING AN NEURAL NETWORK APPROACH - Google Patents

COMPRESSION METHOD AND DEVICE USING AN NEURAL NETWORK APPROACH Download PDF

Info

Publication number
RU2014147972A
RU2014147972A RU2014147972A RU2014147972A RU2014147972A RU 2014147972 A RU2014147972 A RU 2014147972A RU 2014147972 A RU2014147972 A RU 2014147972A RU 2014147972 A RU2014147972 A RU 2014147972A RU 2014147972 A RU2014147972 A RU 2014147972A
Authority
RU
Russia
Prior art keywords
vector
weight
data
data elements
values
Prior art date
Application number
RU2014147972A
Other languages
Russian (ru)
Other versions
RU2595598C2 (en
Inventor
Сергей Николаевич Загоруйко
Виталий Владимирович Чернов
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Priority to RU2014147972/08A priority Critical patent/RU2595598C2/en
Publication of RU2014147972A publication Critical patent/RU2014147972A/en
Application granted granted Critical
Publication of RU2595598C2 publication Critical patent/RU2595598C2/en

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Analysis (AREA)

Abstract

1. Способ сжатия данных, содержащий этапы, на которых:разделяют пространство входных данных на множество элементов данных, причем каждый элемент данных характеризуется координатным вектором, задающим координаты элемента данных в пространстве входных данных, и вектором объемных значений, определяющим объемные значения элемента данных в пространстве входных данных;используя координатные векторы, определяют адреса ячеек в ассоциативной памяти, с которыми должны быть связаны элементы данных, причем каждая из ячеек имеет весовое значение;связывают элементы данных с ячейками в ассоциативной памяти на основе определенных адресов;аккумулируют все весовые значения ячеек, связанных с элементами данных, для получения весового вектора;вычитают весовой вектор из вектора объемных значений для формирования сигнала ошибки; иесли сигнал ошибки является ненулевым, включают режим обучения, при котором весовые значения ячеек, связанных с элементами данных, регулируют на основе сигнала ошибки; илиесли сигнал ошибки является нулевым, включают режим вывода, при котором вектор сжатых объемных значений вычисляют с использованием весового вектора и затем выводят.2. Способ по п. 1, в котором упомянутый этап определения содержит этап, на котором:определяют адреса ячеек в ассоциативной памяти посредством использования базисного вектора A[n], полученного с помощью следующей формулы:,где a[n] - k-ый элемент базисного вектора A[n] для n-ого момента времени, µ- l-ое размерное значение ассоциативной памяти, N - размерность координатного вектора X[n], ρ - параметр нейронной сети, x[n] - j-ый элемент координатного вектора X[n],, M- размерное значение вдоль i-ой оси.3. Способ по п. 1, в котором весовы1. A data compression method comprising the steps of: dividing the input data space into a plurality of data elements, each data element having a coordinate vector defining the coordinates of the data element in the input data space and a volume vector defining the volume values of the data element in space input data; using coordinate vectors, determine the addresses of cells in associative memory with which data elements should be associated, each cell having a weight value; associate data elements with cells in associative memory based on specific addresses; accumulate all weight values of cells associated with data elements to obtain a weight vector; subtract the weight vector from the volume vector to generate an error signal; if the error signal is non-zero, include a training mode in which the weight values of the cells associated with the data elements are adjusted based on the error signal; or if the error signal is zero, enable an output mode in which a vector of compressed volumetric values is calculated using a weight vector and then outputted. 2. The method of claim 1, wherein said determining step comprises the step of: determining the addresses of cells in associative memory by using the basis vector A [n] obtained using the following formula: where a [n] is the kth element of the basis of the vector A [n] for the n-th moment of time, µ is the l-th dimensional value of associative memory, N is the dimension of the coordinate vector X [n], ρ is the parameter of the neural network, x [n] is the j-th element of the coordinate vector X [n] ,, M is the dimensional value along the i-th axis. 3. The method of claim 1, wherein the weights

Claims (7)

1. Способ сжатия данных, содержащий этапы, на которых:1. A data compression method, comprising the steps of: разделяют пространство входных данных на множество элементов данных, причем каждый элемент данных характеризуется координатным вектором, задающим координаты элемента данных в пространстве входных данных, и вектором объемных значений, определяющим объемные значения элемента данных в пространстве входных данных;dividing the input data space into a plurality of data elements, wherein each data element is characterized by a coordinate vector defining the coordinates of the data element in the input data space and a volume vector that defines the volume values of the data element in the input data space; используя координатные векторы, определяют адреса ячеек в ассоциативной памяти, с которыми должны быть связаны элементы данных, причем каждая из ячеек имеет весовое значение; using coordinate vectors, determine the addresses of cells in associative memory with which data elements should be associated, each cell having a weight value; связывают элементы данных с ячейками в ассоциативной памяти на основе определенных адресов; associate data elements with cells in associative memory based on specific addresses; аккумулируют все весовые значения ячеек, связанных с элементами данных, для получения весового вектора; accumulate all weight values of cells associated with data elements to obtain a weight vector; вычитают весовой вектор из вектора объемных значений для формирования сигнала ошибки; и subtracting the weight vector from the vector of volume values to generate an error signal; and если сигнал ошибки является ненулевым, включают режим обучения, при котором весовые значения ячеек, связанных с элементами данных, регулируют на основе сигнала ошибки; илиif the error signal is nonzero, a training mode is activated in which the weight values of the cells associated with the data elements are adjusted based on the error signal; or если сигнал ошибки является нулевым, включают режим вывода, при котором вектор сжатых объемных значений вычисляют с использованием весового вектора и затем выводят.if the error signal is zero, an output mode is activated in which a vector of compressed volume values is calculated using a weight vector and then output. 2. Способ по п. 1, в котором упомянутый этап определения содержит этап, на котором:2. The method of claim 1, wherein said determining step comprises the step of: определяют адреса ячеек в ассоциативной памяти посредством использования базисного вектора A[n], полученного с помощью следующей формулы:determine the addresses of cells in associative memory by using the basis vector A [n] obtained using the following formula:
Figure 00000001
,
Figure 00000001
,
где ak[n] - k-ый элемент базисного вектора A[n] для n-ого момента времени, µl - l-ое размерное значение ассоциативной памяти, N - размерность координатного вектора X[n], ρ - параметр нейронной сети, xj[n] - j-ый элемент координатного вектора X[n], where a k [n] is the kth element of the basis vector A [n] for the n-th moment of time, µ l is the l-th dimension value of associative memory, N is the dimension of the coordinate vector X [n], ρ is the parameter of the neural network , x j [n] is the j-th element of the coordinate vector X [n],
Figure 00000002
, Mi - размерное значение вдоль i-ой оси.
Figure 00000002
, M i - dimensional value along the i-th axis.
3. Способ по п. 1, в котором весовые значения ячеек, связанных с элементами данных, регулируют с использованием следующей формулы:3. The method according to claim 1, in which the weight values of the cells associated with the data elements are adjusted using the following formula:
Figure 00000003
,
Figure 00000003
,
где W[n] - весовой вектор для n-ого момента времени, X[n] - координатный вектор для n-ого момента времени, V[n] - вектор объемных значений для n-ого момента времени, A - базисный вектор.where W [n] is the weight vector for the nth moment of time, X [n] is the coordinate vector for the nth moment of time, V [n] is the volume vector for the nth moment of time, A is the basis vector.
4. Способ по п. 1, в котором вектор
Figure 00000004
сжатых объемных значений вычисляют с использованием следующей формулой:
4. The method of claim 1, wherein the vector
Figure 00000004
compressed volume values are calculated using the following formula:
Figure 00000005
,
Figure 00000005
,
где wi[n-1] - i-ый элемент весового вектора W[n] для (n-1)-ого момента времени.where w i [n-1] is the i-th element of the weight vector W [n] for the (n-1) -th time moment.
5. Способ по п. 1, в котором объемные значения элементов данных являются значениями, характеризующими свойства элементов данных в пространстве входных данных.5. The method according to claim 1, in which the volumetric values of data elements are values that characterize the properties of data elements in the input data space. 6. Способ по п. 5, в котором свойства элементов данных включают в себя цвет, степень непрозрачности или их комбинацию.6. The method of claim 5, wherein the properties of the data elements include color, opacity, or a combination thereof. 7. Устройство сжатия данных, содержащее:7. A data compression device comprising: ассоциативную память, состоящую из ячеек, причем каждая из ячеек имеет весовое значение; иassociative memory, consisting of cells, and each of the cells has a weight value; and один или более процессоров, выполненных с возможностью:one or more processors configured to: разделения пространства входных данных на множество элементов данных, причем каждый элемент данных характеризуется координатным вектором, задающим координаты элемента данных в пространстве входных данных, и вектором объемных значений, определяющим объемные значения элемента данных в пространстве входных данных;dividing the input data space into a plurality of data elements, wherein each data element is characterized by a coordinate vector defining the coordinates of the data element in the input data space and a volume vector that defines the volume values of the data element in the input data space; используя координатные векторы, определения адресов ячеек в using coordinate vectors, defining cell addresses in ассоциативной памяти, с которыми должны быть связаны элементы данных; associative memory with which data items should be associated; связывания элементов данных с ячейками в ассоциативной памяти на основе определенных адресов; associating data elements with cells in associative memory based on specific addresses; аккумулирования всех весовых значений ячеек, связанных с элементами данных, для получения весового вектора; accumulation of all weight values of cells associated with data elements to obtain a weight vector; вычитания весового вектора из вектора объемных значений для формирования сигнала ошибки; и subtracting the weight vector from the vector of volume values to form an error signal; and если сигнал ошибки является ненулевым, включения режима обучения, при котором весовые значения ячеек, связанных с элементами данных, регулируются на основе сигнала ошибки; илиif the error signal is non-zero, enable the training mode, in which the weight values of the cells associated with the data elements are adjusted based on the error signal; or если сигнал ошибки является нулевым, включения режима вывода, при котором вектор сжатых объемных значений вычисляется с использованием весового вектора и затем выводится. if the error signal is zero, enable the output mode, in which the vector of compressed volume values is calculated using the weight vector and then output.
RU2014147972/08A 2014-11-27 2014-11-27 Method and device for compression using approach based on neural network RU2595598C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014147972/08A RU2595598C2 (en) 2014-11-27 2014-11-27 Method and device for compression using approach based on neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014147972/08A RU2595598C2 (en) 2014-11-27 2014-11-27 Method and device for compression using approach based on neural network

Publications (2)

Publication Number Publication Date
RU2014147972A true RU2014147972A (en) 2016-06-20
RU2595598C2 RU2595598C2 (en) 2016-08-27

Family

ID=56131829

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014147972/08A RU2595598C2 (en) 2014-11-27 2014-11-27 Method and device for compression using approach based on neural network

Country Status (1)

Country Link
RU (1) RU2595598C2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10276134B2 (en) 2017-03-22 2019-04-30 International Business Machines Corporation Decision-based data compression by means of deep learning technologies

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115152239A (en) * 2020-02-20 2022-10-04 阿莱恩技术有限公司 Client-side medical imaging data compression and extraction

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002334720B8 (en) * 2001-09-26 2006-08-10 Interact Devices, Inc. System and method for communicating media signals
KR100529311B1 (en) * 2003-01-21 2005-11-17 삼성전자주식회사 Apparatus and method for selecting the length of variable length coding bit stream using neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10276134B2 (en) 2017-03-22 2019-04-30 International Business Machines Corporation Decision-based data compression by means of deep learning technologies
US10586516B2 (en) 2017-03-22 2020-03-10 International Business Machines Corporation Decision-based data compression by means of deep learning technologies

Also Published As

Publication number Publication date
RU2595598C2 (en) 2016-08-27

Similar Documents

Publication Publication Date Title
Khrulkov et al. Art of singular vectors and universal adversarial perturbations
WO2016054304A3 (en) Neural network-based speech processing
MX2017008246A (en) Scaling digital personal assistant agents across devices.
EP2991003A3 (en) Method and apparatus for classification
GB2577017A (en) Neural network classification
WO2017032534A3 (en) Lithographic apparatus and device manufacturing method
WO2015187606A3 (en) Apparatuses and methods for parity determination using sensing circuitry
JP2014179971A5 (en)
US20190048556A1 (en) Soil quality determination device, soil quality determination method, and recording medium having program stored thereon
CN106771589B (en) A kind of implementation method of the real-time Waterfall plot of spectrum analysis
CN104376434B (en) The integrated evaluating method of cigarette multiple spot processing quality
JP2018512086A5 (en)
RU2014147972A (en) COMPRESSION METHOD AND DEVICE USING AN NEURAL NETWORK APPROACH
Kim et al. Locally most powerful bayesian test for out-of-distribution detection using deep generative models
GB2497041B (en) Method, program, and apparatus for grouping plurality of elements
CN105550457B (en) Dynamic Evolution Model bearing calibration and system
Lachièze-Rey Mixing properties for STIT tessellations
CN110851587B (en) Commodity coding prediction model generation and commodity coding determination method, device and equipment
CN104951667B (en) A kind of method and apparatus of property for analysing protein sequence
Yang et al. Remote sensing image classification based on improved BP neural network
Jun-jie The optimization DGM (2, 1) model and its application
Nedorezov Use of Moran-Ricker model for fitting of larch bud moth time series: structure of feasible set in space of model parameters
Avanesov Yuriy et al. Computer simulation of electromagnetic log sensor strength characteristics
Izuchi et al. Topological structure of the space of weighted composition operators between different Hardy spaces
CN105787523B (en) A kind of mixed pixel of hyper-spectral image decomposition algorithm