EP4078817A1 - Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision - Google Patents

Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision

Info

Publication number
EP4078817A1
EP4078817A1 EP20819793.9A EP20819793A EP4078817A1 EP 4078817 A1 EP4078817 A1 EP 4078817A1 EP 20819793 A EP20819793 A EP 20819793A EP 4078817 A1 EP4078817 A1 EP 4078817A1
Authority
EP
European Patent Office
Prior art keywords
signal
coded
encoding
coding method
mac
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20819793.9A
Other languages
German (de)
French (fr)
Inventor
Johannes Christian Thiele
Olivier Bichler
Vincent LORRAIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Publication of EP4078817A1 publication Critical patent/EP4078817A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/02Conversion to or from weighted codes, i.e. the weight given to a digit depending on the position of the digit within the block or code word
    • H03M7/04Conversion to or from weighted codes, i.e. the weight given to a digit depending on the position of the digit within the block or code word the radix thereof being two
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/28Programmable structures, i.e. where the code converter contains apparatus which is operator-changeable to modify the conversion process

Definitions

  • the invention relates to the field of computing architectures for machine learning models or "machine learning”, in particular artificial neural networks and relates to a method and a device for encoding and integration of digital signals with precision. dynamics adapted to the signals propagated in an artificial neural network.
  • the invention is applicable to any computing architecture implementing operations of the multiplication then accumulation (MAC) type.
  • MAC multiplication then accumulation
  • Artificial neural networks constitute calculation models imitating the functioning of biological neural networks.
  • Artificial neural networks include neurons interconnected with each other by synapses, which are conventionally implemented by digital memories. Synapses can also be implemented by resistive components whose conductance varies according to the voltage applied to their terminals.
  • Artificial neural networks are used in various fields of signal processing (visual, sound, or other) such as for example in the field of image classification or image recognition.
  • a general problem for computer architectures implementing an artificial neural network concerns the overall energy consumption of the circuit making the network.
  • the basic operation implemented by an artificial neuron is a MAC multiplication then accumulation operation.
  • the number of MAC operations per unit of time required for real-time operation becomes constraining.
  • a drawback of this method is that it does not make it possible to take into account the nature of the signals propagated in a digital computer implementing a learning function such as an artificial neural network.
  • the invention provides a dynamic precision coding method which makes it possible to take into account the nature of the signals to be coded, in particular the variability of the dynamics of the values of the signals.
  • the invention makes it possible to optimize the coding of the signals propagated in a neural network so as to limit the number and the complexity of MAC operations carried out and thus limit the power consumption of the circuit. or computer realizing the network.
  • the invention relates to a method, implemented by computer, for encoding a digital signal quantized on a given number N d of bits and intended to be processed by a digital calculation system, the signal being encoded over a predetermined number N p of bits strictly less than N d , the method comprising the steps of:
  • the method comprises a step of determining the size N p of the coded signal as a function of a statistical distribution of the values of the digital signal.
  • the size N p of the encoded signal is configured so as to minimize the energy consumption of a digital calculation system in which the processed signals are encoded by means of said encoding method .
  • the energy consumption is estimated by simulation or from an empirical model.
  • the digital calculation system implements an artificial neural network.
  • the size N p of the coded signal is parameterized independently for each layer of the artificial neural network.
  • the invention also relates to an encoding device comprising an encoder configured to perform the encoding method according to the invention.
  • the invention also relates to an integration device configured to perform a MAC multiplication then accumulation operation between a first number encoded by means of the encoding method according to the invention and a weighting coefficient, the device comprising a multiplier for multiplying the weighting coefficient with the encoded number, an adder and an accumulation register for accumulating the output signal of the multiplier.
  • the invention also relates to an artificial neuron, implemented by a digital calculation system, comprising an integration device according to the invention, to perform an operation of multiplication then accumulation MAC between a received signal and a synaptic coefficient, and a coding device according to the invention for coding the output signal of the integration device, the artificial neuron being configured to propagate the coded signal to another artificial neuron.
  • the invention also relates to an artificial neuron, implemented by a computer, comprising an integration device according to the invention to perform an operation of multiplication then accumulation MAC between an error signal received from another artificial neuron and a synaptic coefficient, a local error calculation module configured to calculate a local error signal from the output signal of the integration device and a coding device according to the invention for coding the local error signal, the artificial neuron being configured to propagate the local error signal back to another artificial neuron.
  • the subject of the invention is also an artificial neural network comprising a plurality of artificial neurons according to the invention.
  • FIG. 1 is a flowchart illustrating the steps for implementing the coding method according to the invention
  • FIG. 2 represents a diagram of an encoder according to an embodiment of the invention
  • FIG. 3 shows a diagram of an integration module for performing a MAC type operation for numbers quantized using the encoding method of Figure 1,
  • FIG. 4 represents a functional diagram of an example of an artificial neuron comprising an integration module of the type of FIG. 3 for operation during a data propagation phase,
  • FIG. 5 represents a functional diagram of an example of an artificial neuron comprising an integration module of the type of FIG. 3 for operation during a data back-propagation phase.
  • FIG. 1 represents, in a flowchart, the steps of implementing a coding method according to one embodiment of the invention.
  • An objective of the method is to encode a quantized number over N d bits into a group of values which can be transmitted (or propagated) separately in the form of events.
  • the first step 101 of the method consists in receiving a number y quantized over N d bits, N d being an integer.
  • the number y is, typically, a quantized sample of a signal, for example an image signal, an audio signal or a data signal intrinsically comprising information.
  • the number N d is typically equal to 8,16,32 or 64 bits. It is in particular dimensioned according to the dynamics of the signal, that is to say the difference between the minimum value of a sample of the signal and its maximum value.
  • the number N d is generally chosen so as to take this dynamic into account so as not to saturate or clip the high or low values of the samples of the signal. This can lead to choosing a high value for N d , which leads to a problem of overdimensioning of the computation operators who must carry out operations on samples thus quantified.
  • the invention therefore aims to provide a signal coding method which makes it possible to adapt the size (in number of bits) of the samples transmitted as a function of their real value so as to be able to carry out operations on quantized samples with a lower number of bits.
  • a second step 102 the number of bits N p is chosen on which the coded samples to be transmitted are quantized. N p is less than N b .
  • K is a positive or zero integer
  • v r is a residual value
  • v max is the maximum value of a number quantized over N p bits.
  • the sample is then coded there by the succession of k values v max and of the residual value v r which are transmitted successively.
  • the end or the start of a new sample can be identified by the reception of a value different from the maximum value v max .
  • the next value received then corresponds to a new sample.
  • the coded signals are transmitted, for example via a data bus of appropriate size to a MAC operator with a view to performing a multiplication then accumulation operation.
  • the proposed coding method makes it possible to reduce the size of the operators (which are designed to perform operations on N p bits) while making it possible to preserve all the dynamics of the signals. Indeed, the samples of high value (greater than v max ) are coded by several successive values while the samples of low value (less than v max ) are transmitted directly.
  • this method does not require addressing to identify the coded values belonging to the same sample since a value less than V max signals the end or the start of a sample.
  • FIG. 2 represents, in schematic form, an example of an encoder 200 configured to encode an input value y by applying the method described in FIG. 1.
  • the values ⁇ 11111 ⁇ and ⁇ 10011 ⁇ are transmitted at two successive instants.
  • the order of transmission is chosen by convention.
  • An advantage of the proposed coding method is that it makes it possible to limit the size of the coded data transmitted to N p bits.
  • Another advantage lies in its dynamic aspect because the parameter N p can be adapted according to the nature of the data to be coded or according to the dimensioning constraints of the operators used to perform calculations on the coded data.
  • FIG. 3 schematically represents an integration module 300 configured to perform an operation of the multiplication then addition or MAC operation type.
  • the integration module 300 described in FIG. 3 is optimized to process data encoded using the method according to the invention.
  • the integration module 300 implements a MAC operation between an input data item p encoded via the encoding method according to the invention and a weighting coefficient w which corresponds to a parameter learned by an automatic learning model.
  • the coefficient w corresponds for example to a synaptic weight in an artificial neural network.
  • An integration module 300 of the type described in FIG. 3 can be duplicated to perform MAC operations in parallel between several input values p and several coefficients w.
  • one and the same integration module can be activated sequentially to perform several successive MAC operations.
  • the integration module 300 includes a MUL multiplier, an ADD adder and an RAC accumulation register.
  • the RAC register When a new sample is signaled, for example by the reception of a value other than v max , the RAC register is reset to zero.
  • the operators MUL, ADD of the device are dimensioned for numbers quantized on N p bits, which makes it possible to reduce the overall complexity of the device.
  • the size of the RAC register must be greater than the sum of the maximum sizes of the values w and p. Typically, it will be of size N d + N w , which is the maximum size of a MAC operation between words of sizes N d and N w .
  • a sign management module (not shown in detail in FIG. 3) is also necessary.
  • the integration module 300 according to the invention can be advantageously used to implement an artificial neural network as illustrated in Figures 4 and 5.
  • the function implemented by a machine learning model consists of an integration of the signals received as input and weighted by coefficients.
  • the coefficients are called synaptic weights and the weighted sum is followed by the application of an activation function which, depending on the result of the integration, generates a signal to be propagated at the output of the neuron.
  • the artificial neuron N comprises a first integration module 401 of the type of FIG. 3 to produce the product y .w, with y 1 1 a value encoded via the method according to the invention in the form of several events successively propagated between two neurons and w the value of a synaptic weight.
  • a second conventional integration module 402 is then used to integrate the products y .w over time.
  • an artificial neuron N can include several integration modules to perform MAC operations in parallel for several input data and weighting coefficients.
  • the activation function a is, for example, defined by the generation of a signal when the integration of the received signals is complete.
  • the activation signal is then encoded via an encoder 403 according to the invention (as described in Figure 2) which encodes the value into several events which are propagated successively to one or more other neuron (s).
  • the output value of the activation function a 1 of a neuron of a layer of index I is given by the following relation:
  • l ⁇ is the output value of the second integration module 402.
  • b ⁇ represents a bias value which is the initial value of the accumulator in the second integration module 402,
  • w ⁇ j represents a synaptic coefficient
  • the output value y ⁇ is then encoded via an encoder 403 according to the invention (as described in FIG. 2) which encodes the value yj into several events which are propagated successively to one or more other neuron (s) (s).
  • the various operations implemented successively in a neuron N can be carried out at different rates, that is to say with different time scales or clocks.
  • the first integration device 401 operates at a faster rate than the second integration device 402 which itself operates at a faster rate than the operator performing the activation function.
  • the error signals retro-propagated during the back-propagation phase can also be encoded by means of the encoding method according to the invention.
  • an integration module according to the invention is implemented in each neuron to carry out the weighting of the coded error signals received with synaptic coefficients as illustrated in FIG. 5 which represents an artificial neuron configured to process and feedback. propagate error signals from layer 1 + 1 to layer I.
  • a , f (/ ') is the value of the derivative of the activation function.
  • the neuron described in FIG. 5 comprises a first integration module 501 of the type of FIG. 3 to perform the calculation of the product ô ⁇ wj ⁇ 1 , with ⁇ 3 ⁇ 4 +1 the error signal received from a neuron of the 1 + 1 layer and coded by means of the coding method according to the invention and wj ⁇ 1 the value of a synaptic coefficient.
  • a second conventional integration module 502 is then used to integrate the results of the first module 501 over time.
  • the neuron N comprises other specific operators necessary to calculate a local error d ⁇ which is then encoded via an encoder 503 according to the invention which codes the error in the form of several events which are then retro-propagated to the previous layer 1-1.
  • the neuron N also comprises, moreover, a module for updating the synaptic weights 504 as a function of the calculated local error.
  • the different operators of the neuron can operate at different rhythms or time scales.
  • the first integration module 501 operates at the fastest rate.
  • the second integration module 502 operates at a slower rate than the first module 501.
  • the operators used to calculate the local error operate at a slower rate than the second module 502.
  • the invention proposes a means of adapting the calculation operators of a digital calculation architecture according to the data received. It is particularly advantageous for architectures implementing machine learning models, in which the distribution of the data to be processed varies greatly depending on the input received.
  • the invention has particular advantages when the propagated signals include a large number of low values or more generally when the signal has a high dynamic with a large variation in values. Indeed, in this case, the low values can be quantized directly on a limited number of bits while the higher values are coded by several successive events each quantized on the same number of bits.
  • Another approach still consists in coding the values on a fixed number of bits but by adjusting the dynamics so as not to clip the maximum values.
  • This second approach has the disadvantage of modifying the value of low value data which is very numerous.
  • the coding method according to the invention is particularly suited to the statistical profile of the values propagated in a machine learning model because it makes it possible to take into account all the dynamics of the values without however using a high number of bits. fixed to quantify the set of values.
  • the operators used for the implementation of a MAC operator can be scaled to handle smaller data size.
  • One of the advantages of the invention is that the size N p of the coded samples is a parameter of the coding method.
  • This parameter can be optimized as a function of the statistical properties of the data to be coded. This optimizes the coding so as to optimize the overall power consumption of the computer or circuit performing the machine learning model.
  • the coding parameters influence the values which are propagated in the machine learning model and therefore the size of the operators performing the MAC operations.
  • a first approach for optimizing the coding parameters consists in simulating the behavior of a machine learning model for a training data set and in simulating its energy consumption as a function of the number and the size of the operations carried out.
  • a second approach consists in determining a mathematical model to express the energy consumed by the machine learning model or more generally the targeted computer, as a function of the coding parameter N p .
  • the coding parameter N p may be different depending on the layer of the network. Indeed, the statistical properties of the propagated values can depend on the network layer. The further you go through the layers, the more information tends to concentrate on a few particular neurons. On the contrary, in the first layers, the distribution of information depends on the input data of the neuron, it can be more random.
  • the energy consumed E 1 by a layer of a network depends on the energy consumed El nt by the integration of an event (a value received) by a neuron and the energy E e l ⁇ ⁇ (N p ) consumed by the encoding of this event by the preceding layer.
  • n- nt is the number of neurons of layer I
  • iV ⁇ st (iV p ) is the number of events transmitted by layer 1-1. This number depends on the coding parameter N p and on the distribution of the data.
  • the functions can be determined from models or empirical functions by means of simulations or from actual measurements.
  • An advantage of the invention is that it makes it possible to parameterize the value of Nj, independently for each layer I of the network, which makes it possible to finely take into account the statistical profile of the data propagated for each layer.
  • the invention can also be applied to optimize the encoding of the backpropagated error values during a backpropagation phase of the gradient.
  • the encoding parameters can be optimized independently for the propagation phase and the backpropagation phase.
  • the values of the activations in the neural network can be constrained so as to promote a larger distribution of low values.
  • This property can be obtained by acting on the cost function implemented in the last layer of the network. By adding a term to this cost function which depends on the values of the propagated signals, one can penalize the large values in the cost function and thus constrain the activations in the network to lower values.
  • the coding method according to the invention can be advantageously applied to the coding of data propagated in a computer implementing a machine learning function, for example an artificial neural network function for classifying data according to a function d 'learning.
  • a machine learning function for example an artificial neural network function for classifying data according to a function d 'learning.
  • the coding method according to the invention can also be applied to the input data of the neural network, in other words the data produced at the input of the first layer of the network.
  • the statistical profile of the data is used to best encode the information.
  • the data to be encoded can correspond to pixels of the image or groups of pixels or also to differences between pixels of two consecutive images in a sequence of images (video ).
  • the computer according to the invention can be implemented using hardware and / or software components.
  • the software elements may be available as a computer program product on a computer readable medium, which medium may be electronic, magnetic, optical or electromagnetic.
  • the elements hardware can be available all or in part, in particular as dedicated integrated circuits (ASIC) and / or configurable integrated circuits (FPGA) and / or as neural circuits according to the invention or as a digital signal processor DSP and / or as a GPU graphics processor, and / or as a microcontroller and / or as a general processor for example.
  • the CONV computer also comprises one or more memories which can be registers, shift registers, RAM memory, ROM memory or any other type of memory suitable for implementing the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Neurology (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Method, implemented by computer, for coding a digital signal quantified on a given number Nd of bits and intended to be processed by a digital computing system, the signal being coded on a predetermined number Np of bits that is strictly smaller than Nd, the method comprising the steps of: - receiving (101) a digital signal composed of a plurality of samples; - decomposing (102) each sample into a sum of k maximum values that are equal to 2Np-1 and a residual value, with k a positive or zero integer; - successively transmitting (103) the values obtained after decomposition to an integration unit in order to perform a MAC operation between the sample and a weighting coefficient.

Description

DESCRIPTION DESCRIPTION
Titre de l’invention : Procédé et dispositif de codage additif de signaux pour implémenter des opérations MAC numériques à précision dynamique Title of the invention: Method and device for additive encoding of signals to implement dynamic precision digital MAC operations
[0001] L’invention concerne le domaine des architectures de calcul pour les modèles d’apprentissage automatique ou « machine learning », en particulier les réseaux de neurones artificiels et porte sur un procédé et un dispositif de codage et intégration de signaux numériques à précision dynamique adapté aux signaux propagés dans un réseau de neurones artificiels. The invention relates to the field of computing architectures for machine learning models or "machine learning", in particular artificial neural networks and relates to a method and a device for encoding and integration of digital signals with precision. dynamics adapted to the signals propagated in an artificial neural network.
[0002] Plus généralement, l’invention est applicable à toute architecture de calcul implémentant des opérations de type multiplication puis accumulation (MAC). [0002] More generally, the invention is applicable to any computing architecture implementing operations of the multiplication then accumulation (MAC) type.
[0003] Les réseaux de neurones artificiels constituent des modèles de calculs imitant le fonctionnement des réseaux de neurones biologiques. Les réseaux de neurones artificiels comprennent des neurones interconnectés entre eux par des synapses, qui sont classiquement implémentées par des mémoires numériques. Les synapses peuvent être également implémentées par des composants résistifs dont la conductance varie en fonction de la tension appliquée à leurs bornes. Les réseaux de neurones artificiels sont utilisés dans différents domaines de traitement du signal (visuel, sonore, ou autre) comme par exemple dans le domaine de la classification d’image ou de la reconnaissance d’image. [0003] Artificial neural networks constitute calculation models imitating the functioning of biological neural networks. Artificial neural networks include neurons interconnected with each other by synapses, which are conventionally implemented by digital memories. Synapses can also be implemented by resistive components whose conductance varies according to the voltage applied to their terminals. Artificial neural networks are used in various fields of signal processing (visual, sound, or other) such as for example in the field of image classification or image recognition.
[0004] Un problème général pour les architectures de calculateurs implémentant un réseau de neurones artificiels concerne la consommation globale d’énergie du circuit réalisant le réseau. [0004] A general problem for computer architectures implementing an artificial neural network concerns the overall energy consumption of the circuit making the network.
[0005] L’opération de base mise en oeuvre par un neurone artificiel est une opération de multiplication puis accumulation MAC. Selon le nombre de neurones par couche et de couches de neurones que comporte le réseau, le nombre d’opérations MAC par unité de temps nécessaire pour un fonctionnement temps réel devient contraignant. The basic operation implemented by an artificial neuron is a MAC multiplication then accumulation operation. Depending on the number of neurons per layer and of layers of neurons in the network, the number of MAC operations per unit of time required for real-time operation becomes constraining.
[0006] Il existe donc un besoin pour développer des architectures de calcul optimisées pour les réseaux de neurones qui permettent de limiter le nombre d’opérations MAC sans dégrader ni les performances des algorithmes mis en oeuvre par le réseau ni la précision des calculs. [0007] La demande internationale WO 2016/050595 du Demandeur décrit une méthode de codage de signaux permettant de simplifier l’implémentation de l’opérateur MAC. [0006] There is therefore a need to develop calculation architectures optimized for neural networks which make it possible to limit the number of MAC operations without degrading either the performance of the algorithms implemented by the network or the precision of the calculations. [0007] International application WO 2016/050595 by the Applicant describes a signal coding method making it possible to simplify the implementation of the MAC operator.
[0008] Un inconvénient de cette méthode est qu’elle ne permet pas de prendre en compte la nature des signaux propagés dans un calculateur numérique implémentant une fonction d’apprentissage telle qu’un réseau de neurones artificiel. [0008] A drawback of this method is that it does not make it possible to take into account the nature of the signals propagated in a digital computer implementing a learning function such as an artificial neural network.
[0009] En effet, lorsque la dynamique des signaux est très variable, une quantification sur un nombre fixe de bits de tous les échantillons entraîne un dimensionnement sous optimal des opérateurs de calcul, en particulier des opérateurs MAC. Cela a pour effet d’augmenter la consommation globale d’énergie du calculateur. [0009] In fact, when the dynamics of the signals are very variable, quantization over a fixed number of bits of all the samples leads to a suboptimal sizing of the calculation operators, in particular of the MAC operators. This has the effect of increasing the overall energy consumption of the calculator.
[0010] L’invention propose une méthode de codage à précision dynamique qui permet de prendre en compte la nature des signaux à coder, en particulier la variabilité de la dynamique des valeurs des signaux. The invention provides a dynamic precision coding method which makes it possible to take into account the nature of the signals to be coded, in particular the variability of the dynamics of the values of the signals.
[0011] De par son aspect dynamique, l’invention permet d’optimiser le codage des signaux propagés dans un réseau de neurones de manière à limiter le nombre et la complexité d’opérations MAC réalisées et ainsi limiter la consommation d’énergie du circuit ou calculateur réalisant le réseau. By virtue of its dynamic aspect, the invention makes it possible to optimize the coding of the signals propagated in a neural network so as to limit the number and the complexity of MAC operations carried out and thus limit the power consumption of the circuit. or computer realizing the network.
[0012] L’invention a pour objet un procédé, mis en oeuvre par ordinateur, de codage d’un signal numérique quantifié sur un nombre Nd de bits donné et destiné à être traité par un système de calcul numérique, le signal étant codé sur un nombre prédéterminé Np de bits strictement inférieur à Nd, le procédé comprenant les étapes de : The invention relates to a method, implemented by computer, for encoding a digital signal quantized on a given number N d of bits and intended to be processed by a digital calculation system, the signal being encoded over a predetermined number N p of bits strictly less than N d , the method comprising the steps of:
- Recevoir un signal numérique composé d’une pluralité d’échantillons,- Receive a digital signal composed of a plurality of samples,
- Décomposer chaque échantillon en une somme de k valeurs maximales égales à 2Np-1 et une valeur résiduelle, avec k un nombre entier positif ou nul, - Decompose each sample into a sum of k maximum values equal to 2 Np -1 and a residual value, with k a positive or zero integer,
- Transmettre successivement les valeurs obtenues après décomposition à une unité d’intégration pour réaliser une opération MAC entre l’échantillon et un coefficient de pondération. [0013] Selon une variante particulière, le procédé comprend une étape de détermination de la taille Np du signal codé en fonction d’une distribution statistique des valeurs du signal numérique. - Successively transmit the values obtained after decomposition to an integration unit to perform a MAC operation between the sample and a weighting coefficient. According to a particular variant, the method comprises a step of determining the size N p of the coded signal as a function of a statistical distribution of the values of the digital signal.
[0014] Selon un aspect particulier de l’invention, la taille Np du signal codé est paramétrée de manière à minimiser la consommation d’énergie d’un système de calcul numérique dans lequel les signaux traités sont codés au moyen dudit procédé de codage. According to a particular aspect of the invention, the size N p of the encoded signal is configured so as to minimize the energy consumption of a digital calculation system in which the processed signals are encoded by means of said encoding method .
[0015] Selon un aspect particulier de l’invention, la consommation d’énergie est estimée par simulation ou à partir d’un modèle empirique. According to a particular aspect of the invention, the energy consumption is estimated by simulation or from an empirical model.
[0016] Selon un aspect particulier de l’invention, le système de calcul numérique implémente un réseau de neurones artificiels. [0016] According to a particular aspect of the invention, the digital calculation system implements an artificial neural network.
[0017] Selon un aspect particulier de l’invention, la taille Np du signal codé est paramétrée de façon indépendante pour chaque couche du réseau de neurones artificiel. According to a particular aspect of the invention, the size N p of the coded signal is parameterized independently for each layer of the artificial neural network.
[0018] L’invention a aussi pour objet un dispositif de codage comprenant un codeur configuré pour exécuter le procédé de codage selon l’invention. The invention also relates to an encoding device comprising an encoder configured to perform the encoding method according to the invention.
[0019] L’invention a aussi pour objet un dispositif d’intégration configuré pour réaliser une opération de multiplication puis accumulation MAC entre un premier nombre codé au moyen du procédé de codage selon l’invention et un coefficient de pondération, le dispositif comprenant un multiplieur pour multiplier le coefficient de pondération avec le nombre codé, un additionneur et un registre d’accumulation pour accumuler le signal de sortie du multiplieur. The invention also relates to an integration device configured to perform a MAC multiplication then accumulation operation between a first number encoded by means of the encoding method according to the invention and a weighting coefficient, the device comprising a multiplier for multiplying the weighting coefficient with the encoded number, an adder and an accumulation register for accumulating the output signal of the multiplier.
[0020] L’invention a aussi pour objet un neurone artificiel, mis en oeuvre par un système de calcul numérique, comprenant un dispositif d’intégration selon l’invention, pour réaliser une opération de multiplication puis accumulation MAC entre un signal reçu et un coefficient synaptique, et un dispositif de codage selon l’invention pour coder le signal de sortie du dispositif d’intégration, le neurone artificiel étant configuré pour propager le signal codé vers un autre neurone artificiel. The invention also relates to an artificial neuron, implemented by a digital calculation system, comprising an integration device according to the invention, to perform an operation of multiplication then accumulation MAC between a received signal and a synaptic coefficient, and a coding device according to the invention for coding the output signal of the integration device, the artificial neuron being configured to propagate the coded signal to another artificial neuron.
[0021] L’invention a aussi pour objet un neurone artificiel, mis en oeuvre par un calculateur, comprenant un dispositif d’intégration selon l’invention pour réaliser une opération de multiplication puis accumulation MAC entre un signal d’erreur reçu depuis un autre neurone artificiel et un coefficient synaptique, un module de calcul d’erreur locale configuré pour calculer un signal d’erreur locale à partir du signal de sortie du dispositif d’intégration et un dispositif de codage selon l’invention pour coder le signal d’erreur locale, le neurone artificiel étant configuré pour rétro- propager le signal d’erreur locale vers un autre neurone artificiel. The invention also relates to an artificial neuron, implemented by a computer, comprising an integration device according to the invention to perform an operation of multiplication then accumulation MAC between an error signal received from another artificial neuron and a synaptic coefficient, a local error calculation module configured to calculate a local error signal from the output signal of the integration device and a coding device according to the invention for coding the local error signal, the artificial neuron being configured to propagate the local error signal back to another artificial neuron.
[0022] L’invention a aussi pour objet un réseau de neurones artificiels comprenant une pluralité de neurones artificiels selon l’invention. [0022] The subject of the invention is also an artificial neural network comprising a plurality of artificial neurons according to the invention.
[0023] D’autres caractéristiques et avantages de la présente invention apparaîtront mieux à la lecture de la description qui suit en relation aux dessins annexés suivants. [0023] Other characteristics and advantages of the present invention will become more apparent on reading the following description with reference to the following appended drawings.
[0024] [Fig. 1] la figure 1 représente un organigramme illustrant les étapes de mise en oeuvre du procédé de codage selon l’invention, [0024] [Fig. 1] FIG. 1 is a flowchart illustrating the steps for implementing the coding method according to the invention,
[0025] [Fig. 2] la figure 2 représente un schéma d’un codeur selon un mode de réalisation de l’invention, [0025] [Fig. 2] FIG. 2 represents a diagram of an encoder according to an embodiment of the invention,
[0026] [Fig. 3] la figure 3 représente un schéma d’un module d’intégration pour réaliser une opération de type MAC pour des nombres quantifiés via la méthode de codage de la figure 1 , [0026] [Fig. 3] Figure 3 shows a diagram of an integration module for performing a MAC type operation for numbers quantized using the encoding method of Figure 1,
[0027] [Fig. 4] la figure 4 représente un schéma fonctionnel d’un exemple de neurone artificiel comprenant un module d’intégration du type de la figure 3 pour un fonctionnement lors d’une phase de propagation de données, [0027] [Fig. 4] FIG. 4 represents a functional diagram of an example of an artificial neuron comprising an integration module of the type of FIG. 3 for operation during a data propagation phase,
[0028] [Fig. 5] la figure 5 représente un schéma fonctionnel d’un exemple de neurone artificiel comprenant un module d’intégration du type de la figure 3 pour un fonctionnement lors d’une phase de rétro-propagation de données. [0028] [Fig. 5] FIG. 5 represents a functional diagram of an example of an artificial neuron comprising an integration module of the type of FIG. 3 for operation during a data back-propagation phase.
[0029] La figure 1 représente, sur un organigramme, les étapes de mise en oeuvre d’un procédé de codage selon un mode de réalisation de l’invention. [0029] FIG. 1 represents, in a flowchart, the steps of implementing a coding method according to one embodiment of the invention.
[0030] Un objectif du procédé est de coder un nombre quantifié sur Nd bits en un groupe de valeurs qui peuvent être transmises (ou propagées) séparément sous forme d’évènements. An objective of the method is to encode a quantized number over N d bits into a group of values which can be transmitted (or propagated) separately in the form of events.
[0031] A cet effet, la première étape 101 du procédé consiste à recevoir un nombre y quantifié sur Nd bits, Nd étant un nombre entier. Le nombre y est, typiquement, un échantillon quantifié d’un signal, par exemple un signal d’image, un signal audio ou un signal de données comprenant intrinsèquement une information. Pour une architecture de calcul conventionnelle, le nombre Nd est typiquement égal à 8,16,32 ou 64 bits. Il est notamment dimensionné en fonction de la dynamique du signal, c'est-à-dire la différence entre la valeur minimale d’un échantillon du signal et sa valeur maximale. Pour ne pas introduire de bruit de quantification, le nombre Nd est en général choisi de sorte à prendre en compte cette dynamique pour ne pas saturer ou écrêter les valeurs élevées ou faibles des échantillons du signal. Cela peut conduire à choisir une valeur élevée pour Nd, ce qui entraîne un problème de surdimensionnement des opérateurs de calcul qui doivent réaliser des opérations sur des échantillons ainsi quantifiés. To this end, the first step 101 of the method consists in receiving a number y quantized over N d bits, N d being an integer. The number y is, typically, a quantized sample of a signal, for example an image signal, an audio signal or a data signal intrinsically comprising information. For a conventional computation architecture, the number N d is typically equal to 8,16,32 or 64 bits. It is in particular dimensioned according to the dynamics of the signal, that is to say the difference between the minimum value of a sample of the signal and its maximum value. In order not to introduce quantization noise, the number N d is generally chosen so as to take this dynamic into account so as not to saturate or clip the high or low values of the samples of the signal. This can lead to choosing a high value for N d , which leads to a problem of overdimensioning of the computation operators who must carry out operations on samples thus quantified.
[0032] L’invention vise donc à proposer une méthode de codage du signal qui permet d’adapter la taille (en nombre de bits) des échantillons transmis en fonction de leur valeur réelle de sorte à pouvoir réaliser des opérations sur des échantillons quantifiés avec un nombre de bits plus faible. The invention therefore aims to provide a signal coding method which makes it possible to adapt the size (in number of bits) of the samples transmitted as a function of their real value so as to be able to carry out operations on quantized samples with a lower number of bits.
[0033] Dans une deuxième étape 102, on choisit le nombre de bits Np sur lequel sont quantifiés les échantillons codés à transmettre. Np est inférieur à Nb. In a second step 102, the number of bits N p is chosen on which the coded samples to be transmitted are quantized. N p is less than N b .
[0034] On décompose ensuite le nombre y sous la forme suivante : The number y is then broken down into the following form:
[0035] [Math. 1] [0035] [Math. 1]
[0036] y = k. ( 2Nv - 1) + vr = k. vmax + vr [0036] y = k. (2 N v - 1) + v r = k. v max + v r
[0037] k est un entier positif ou nul, vr est une valeur résiduelle et vmax est la valeur maximale d’un nombre quantifié sur Np bits. K is a positive or zero integer, v r is a residual value and v max is the maximum value of a number quantized over N p bits.
[0038] L’échantillon y est ensuite codé par la succession des k valeurs vmax et de la valeur résiduelle vr qui sont transmises successivement. The sample is then coded there by the succession of k values v max and of the residual value v r which are transmitted successively.
[0039] Par exemple, si y= 50 et Np=4, y est codé en transmettant les valeurs successives [15},{15},{15},{5}= [1111 },{1111 },{1111 },{0101 }. For example, if y = 50 and N p = 4, y is encoded by transmitting the successive values [15}, {15}, {15}, {5} = [1111}, {1111}, {1111 }, {0101}.
[0040] Si y=50 et Np=5, y est codé en transmettant les valeurs successives [31], [19}={11111 },{10011 }. If y = 50 and N p = 5, y is coded by transmitting the successive values [31], [19} = {11111}, {10011}.
[0041] A réception, la fin ou le début d’un nouvel échantillon peut être identifié par la réception d’une valeur différente de la valeur maximale vmax. La prochaine valeur reçue ensuite correspond à un nouvel échantillon. [0042] Dans une dernière étape 103, les signaux codés sont transmis, par exemple via un bus de données de taille appropriée vers un opérateur MAC en vue de réaliser une opération de multiplication puis accumulation. On reception, the end or the start of a new sample can be identified by the reception of a value different from the maximum value v max . The next value received then corresponds to a new sample. In a last step 103, the coded signals are transmitted, for example via a data bus of appropriate size to a MAC operator with a view to performing a multiplication then accumulation operation.
[0043] La méthode de codage proposée permet de diminuer la taille des opérateurs (qui sont prévus pour réaliser des opérations sur Np bits) tout en permettant de conserver toute la dynamique des signaux. En effet, les échantillons de grande valeur (supérieure à vmax) sont codés par plusieurs valeurs successives tandis que les échantillons de faible valeur (inférieure à vmax) sont transmis directement. The proposed coding method makes it possible to reduce the size of the operators (which are designed to perform operations on N p bits) while making it possible to preserve all the dynamics of the signals. Indeed, the samples of high value (greater than v max ) are coded by several successive values while the samples of low value (less than v max ) are transmitted directly.
[0044] Par ailleurs, cette méthode ne nécessite pas d’adressage pour identifier les valeurs codées appartenant à un même échantillon puisqu’une valeur inférieure à Vmax signale la fin ou le début d’un échantillon. Furthermore, this method does not require addressing to identify the coded values belonging to the same sample since a value less than V max signals the end or the start of a sample.
[0045] La figure 2 représente, sous forme schématique, un exemple de codeur 200 configuré pour coder une valeur y d’entrée en appliquant le procédé décrit à la figure 1. Sur la figure 2, on a repris l’exemple numérique non limitatif pour y=50 et Np=5. FIG. 2 represents, in schematic form, an example of an encoder 200 configured to encode an input value y by applying the method described in FIG. 1. In FIG. 2, the non-limiting digital example has been taken up again. for y = 50 and N p = 5.
[0046] Les valeurs {11111} et {10011} sont transmises à deux instants successifs. L’ordre de transmission est choisi par convention. The values {11111} and {10011} are transmitted at two successive instants. The order of transmission is chosen by convention.
[0047] Un avantage de la méthode de codage proposée est qu’elle permet de limiter la taille des données codées transmises à Np bits. Un autre avantage réside dans son aspect dynamique car le paramètre Np peut être adapté selon la nature des données à coder ou en fonction des contraintes de dimensionnement des opérateurs utilisés pour réaliser des calculs sur les données codées. An advantage of the proposed coding method is that it makes it possible to limit the size of the coded data transmitted to N p bits. Another advantage lies in its dynamic aspect because the parameter N p can be adapted according to the nature of the data to be coded or according to the dimensioning constraints of the operators used to perform calculations on the coded data.
[0048] La figure 3 représente schématiquement un module d’intégration 300 configuré pour réaliser une opération de type multiplication puis addition ou opération MAC. Le module d’intégration 300 décrit à la figure 3 est optimisé pour traiter des données codées via la méthode selon l’invention. Typiquement, le module d’intégration 300 implémente une opération MAC entre une donnée d’entrée p codée via la méthode de codage selon l’invention et un coefficient de pondération w qui correspond à un paramètre appris par un modèle d’apprentissage automatique. Le coefficient w correspond par exemple à un poids synaptique dans un réseau de neurones artificiels. [0049] Un module d’intégration 300 du type décrit à la figure 3 peut être dupliqué pour réaliser en parallèle des opérations MAC entre plusieurs valeurs d’entrée p et plusieurs coefficients w. FIG. 3 schematically represents an integration module 300 configured to perform an operation of the multiplication then addition or MAC operation type. The integration module 300 described in FIG. 3 is optimized to process data encoded using the method according to the invention. Typically, the integration module 300 implements a MAC operation between an input data item p encoded via the encoding method according to the invention and a weighting coefficient w which corresponds to a parameter learned by an automatic learning model. The coefficient w corresponds for example to a synaptic weight in an artificial neural network. An integration module 300 of the type described in FIG. 3 can be duplicated to perform MAC operations in parallel between several input values p and several coefficients w.
[0050] Alternativement, un seul et même module d’intégration peut être activé séquentiellement pour réaliser plusieurs opérations MAC successives. [0050] Alternatively, one and the same integration module can be activated sequentially to perform several successive MAC operations.
[0051] Le module d’intégration 300 comprend un multiplieur MUL, un additionneur ADD et un registre d’accumulation RAC. The integration module 300 includes a MUL multiplier, an ADD adder and an RAC accumulation register.
[0052] Lorsque le module d’intégration 300 reçoit une valeur codée p, la valeur sauvegardée dans le registre d’accumulation RAC est incrémentée du produit INC = w.p entre la valeur p et le coefficient de pondération w. When the integration module 300 receives a coded value p, the value saved in the accumulation register RAC is incremented by the product INC = w.p between the value p and the weighting coefficient w.
[0053] Lorsqu’un nouvel échantillon est signalé, par exemple par la réception d’une valeur différente de vmax, le registre RAC est remis à zéro. When a new sample is signaled, for example by the reception of a value other than v max , the RAC register is reset to zero.
[0054] Les opérateurs MUL, ADD du dispositif sont dimensionnés pour des nombres quantifiés sur Np bits ce qui permet de diminuer la complexité globale du dispositif. The operators MUL, ADD of the device are dimensioned for numbers quantized on N p bits, which makes it possible to reduce the overall complexity of the device.
[0055] La taille du registre RAC doit être supérieure à la somme des tailles maximales des valeurs w et p. Typiquement, il sera de la taille Nd+Nw, qui est la taille maximale d’une opération MAC entre des mots de tailles Nd et Nw. The size of the RAC register must be greater than the sum of the maximum sizes of the values w and p. Typically, it will be of size N d + N w , which is the maximum size of a MAC operation between words of sizes N d and N w .
[0056] Dans une variante de réalisation, lorsque les nombres sont représentés en notation signée, un module de gestion du signe (non représenté en détail sur la figure 3) est aussi nécessaire. In an alternative embodiment, when the numbers are represented in signed notation, a sign management module (not shown in detail in FIG. 3) is also necessary.
[0057] Le module d’intégration 300 selon l’invention peut être avantageusement utilisé pour implémenter un réseau de neurones artificiels comme illustré aux figures 4 et 5. The integration module 300 according to the invention can be advantageously used to implement an artificial neural network as illustrated in Figures 4 and 5.
[0058] Typiquement, la fonction implémentée par un modèle d’apprentissage automatique consiste en une intégration des signaux reçus en entrée et pondérés par des coefficients. Typically, the function implemented by a machine learning model consists of an integration of the signals received as input and weighted by coefficients.
[0059] Dans le cas particulier d’un réseau de neurones artificiels, les coefficients sont appelés poids synaptiques et la somme pondérée est suivi par l’application d’une fonction d’activation a qui, en fonction du résultat de l’intégration, génère un signal à propager en sortie du neurone. [0060] Ainsi, le neurone artificiel N comprend un premier module d’intégration 401 du type de la figure 3 pour réaliser le produit y .w, avec y1 1 une valeur codée via la méthode selon l’invention sous forme de plusieurs évènements successivement propagés entre deux neurones et w la valeur d’un poids synaptique. Un second module d’intégration 402 classique est ensuite utilisé pour intégrer les produits y .w dans le temps. In the particular case of an artificial neural network, the coefficients are called synaptic weights and the weighted sum is followed by the application of an activation function which, depending on the result of the integration, generates a signal to be propagated at the output of the neuron. Thus, the artificial neuron N comprises a first integration module 401 of the type of FIG. 3 to produce the product y .w, with y 1 1 a value encoded via the method according to the invention in the form of several events successively propagated between two neurons and w the value of a synaptic weight. A second conventional integration module 402 is then used to integrate the products y .w over time.
[0061] Sans sortir du cadre de l’invention, un neurone artificiel N peut comprendre plusieurs modules d’intégration pour réaliser des opérations MAC en parallèle pour plusieurs données d’entrée et coefficients de pondération. Without departing from the scope of the invention, an artificial neuron N can include several integration modules to perform MAC operations in parallel for several input data and weighting coefficients.
[0062] La fonction d’activation a est, par exemple, définie par la génération d’un signal lorsque l’intégration des signaux reçus est terminée. Le signal d’activation est ensuite codé via un codeur 403 selon l’invention (tel que décrit à la figure 2) qui code la valeur en plusieurs évènements qui sont propagés successivement vers un ou plusieurs autre(s) neurone(s). The activation function a is, for example, defined by the generation of a signal when the integration of the received signals is complete. The activation signal is then encoded via an encoder 403 according to the invention (as described in Figure 2) which encodes the value into several events which are propagated successively to one or more other neuron (s).
[0063] Plus généralement la valeur de sortie de la fonction d’activation a1 d’un neurone d’une couche d’indice I est donnée par la relation suivante : More generally, the output value of the activation function a 1 of a neuron of a layer of index I is given by the following relation:
[0064] [Math. 1] [0064] [Math. 1]
[0066] l\ est la valeur de sortie du second module d’intégration 402. [0066] l \ is the output value of the second integration module 402.
[0067] b\ représente une valeur de biais qui est la valeur initiale de l’accumulateur dans le second module d’intégration 402, [0067] b \ represents a bias value which is the initial value of the accumulator in the second integration module 402,
[0068] w\j représente un coefficient synaptique. [0068] w \ j represents a synaptic coefficient.
[0069] La valeur de sortie y\ est ensuite encodée via un codeur 403 selon l’invention (tel que décrit à la figure 2) qui code la valeur yj en plusieurs évènements qui sont propagés successivement vers un ou plusieurs autre(s) neurone(s). The output value y \ is then encoded via an encoder 403 according to the invention (as described in FIG. 2) which encodes the value yj into several events which are propagated successively to one or more other neuron (s) (s).
[0070] Les différentes opérations mises en oeuvre successivement dans un neurone N peuvent être réalisées à des rythmes différents, c'est-à-dire avec des échelles de temps ou horloges différentes. Typiquement, le premier dispositif d’intégration 401 fonctionne à un rythme plus rapide que le second dispositif d’intégration 402 qui fonctionne lui-même à un rythme plus rapide que l’opérateur réalisant la fonction d’activation. The various operations implemented successively in a neuron N can be carried out at different rates, that is to say with different time scales or clocks. Typically, the first integration device 401 operates at a faster rate than the second integration device 402 which itself operates at a faster rate than the operator performing the activation function.
[0071] Dans le cas où les deux dispositifs d’intégration 401 ,402 fonctionnent au même rythme, un seul dispositif d’intégration est utilisé au lieu de deux. De façon générale, selon l’implémentation matérielle choisie, le nombre d’accumulateurs utilisé varie. [0071] In the event that the two integration devices 401, 402 are operating at the same rate, only one integration device is used instead of two. Generally, depending on the hardware implementation chosen, the number of accumulators used varies.
[0072] De façon similaire à ce qui a été décrit ci-dessus, les signaux d’erreur rétro- propagés durant la phase de rétro-propagation (phase backward) peuvent aussi être codés au moyen de la méthode de codage selon l’invention. Dans ce cas, un module d’intégration selon l’invention est implémenté dans chaque neurone pour réaliser la pondération des signaux d’erreurs codés reçus avec des coefficients synaptiques comme illustré sur la figure 5 qui représente un neurone artificiel configuré pour traiter et rétro-propager des signaux d’erreurs d’une couche 1+1 vers une couche I. Similar to what has been described above, the error signals retro-propagated during the back-propagation phase (backward phase) can also be encoded by means of the encoding method according to the invention. . In this case, an integration module according to the invention is implemented in each neuron to carry out the weighting of the coded error signals received with synaptic coefficients as illustrated in FIG. 5 which represents an artificial neuron configured to process and feedback. propagate error signals from layer 1 + 1 to layer I.
[0073] Dans la phase de rétropropagation, le calcul d’erreur d· est implémenté selon l’équation suivante : In the backpropagation phase, the error calculation d · is implemented according to the following equation:
[0074] [Math. 2] [0074] [Math. 2]
[0075] d< = a“(l}) E} , El = å„Si*1 wit1 (2) [0075] d <= a “(l}) E}, El = å„ Si * 1 wit 1 (2)
[0076] a,f(/') est la valeur de la dérivée de la fonction d’activation. A , f (/ ') is the value of the derivative of the activation function.
[0077] Le neurone décrit à la figure 5 comprend un premier module d’intégration 501 du type de la figure 3 pour réaliser le calcul du produit ô^wj^1, avec <¾+1 le signal d’erreur reçu depuis un neurone de la couche 1+1 et codé au moyen de la méthode de codage selon l’invention et wj^1 la valeur d’un coefficient synaptique. The neuron described in FIG. 5 comprises a first integration module 501 of the type of FIG. 3 to perform the calculation of the product ô ^ wj ^ 1 , with <¾ +1 the error signal received from a neuron of the 1 + 1 layer and coded by means of the coding method according to the invention and wj ^ 1 the value of a synaptic coefficient.
[0078] Un second module d’intégration 502 classique est ensuite utilisé pour réaliser l’intégration des résultats du premier module 501 dans le temps. A second conventional integration module 502 is then used to integrate the results of the first module 501 over time.
[0079] Le neurone N comprend d’autres opérateurs spécifiques nécessaires pour calculer une erreur locale d· qui est ensuite codée via un codeur 503 selon l’invention qui code l’erreur sous la forme de plusieurs évènements qui sont ensuite rétro- propagés vers la couche précédente 1-1. The neuron N comprises other specific operators necessary to calculate a local error d · which is then encoded via an encoder 503 according to the invention which codes the error in the form of several events which are then retro-propagated to the previous layer 1-1.
[0080] Le neurone N comprend aussi, par ailleurs, un module de mise à jour des poids synaptiques 504 en fonction de l’erreur locale calculée. [0081] Les différents opérateurs du neurone peuvent fonctionner à des rythmes ou échelles de temps différents. En particulier, le premier module d’intégration 501 fonctionne au rythme le plus rapide. Le second module d’intégration 502 fonctionne à un rythme plus lent que le premier module 501. Les opérateurs utilisés pour calculer l’erreur locale fonctionnent à un rythme plus lent que le second module 502. The neuron N also comprises, moreover, a module for updating the synaptic weights 504 as a function of the calculated local error. The different operators of the neuron can operate at different rhythms or time scales. In particular, the first integration module 501 operates at the fastest rate. The second integration module 502 operates at a slower rate than the first module 501. The operators used to calculate the local error operate at a slower rate than the second module 502.
[0082] Dans le cas où les deux modules d’intégration 501 ,502 fonctionnent au même rythme, un seul module d’intégration est utilisé au lieu de deux. De façon générale, selon l’implémentation matérielle choisie, le nombre d’accumulateurs utilisé varie. In the event that the two integration modules 501, 502 operate at the same rate, only one integration module is used instead of two. Generally, depending on the hardware implementation chosen, the number of accumulators used varies.
[0083] L’invention propose un moyen d’adapter les opérateurs de calculs d’une architecture de calcul numérique en fonction des données reçues. Elle est particulièrement avantageuse pour les architectures implémentant des modèles d’apprentissage automatique, dans lesquelles la distribution des données à traiter varie beaucoup selon les entrées reçues. The invention proposes a means of adapting the calculation operators of a digital calculation architecture according to the data received. It is particularly advantageous for architectures implementing machine learning models, in which the distribution of the data to be processed varies greatly depending on the input received.
[0084] L’invention présente notamment des avantages lorsque les signaux propagés comprennent un grand nombre de valeurs faibles ou plus généralement quand le signal présente une dynamique importante avec une grande variation de valeurs. En effet, dans ce cas, les valeurs faibles peuvent être quantifiées directement sur un nombre de bits limité tandis que les valeurs plus élevées sont codés par plusieurs évènements successifs chacun quantifié sur le même nombre de bits. The invention has particular advantages when the propagated signals include a large number of low values or more generally when the signal has a high dynamic with a large variation in values. Indeed, in this case, the low values can be quantized directly on a limited number of bits while the higher values are coded by several successive events each quantized on the same number of bits.
[0085] Statistiquement, seulement 50% des bits sont nuis lorsqu’on considère des données binaires aléatoires. Par contre, les données propagées au sein d’un modèle d’apprentissage automatique présentent un grand nombre de valeurs faibles. Statistically, only 50% of the bits are bad when considering random binary data. In contrast, data propagated within a machine learning model has a large number of low values.
[0086] Cette propriété s’explique notamment du fait que les données propagées par un modèle d’apprentissage automatique avec plusieurs couches de traitement, tel qu’un réseau de neurones, véhiculent de l’information qui se concentre, progressivement au cours de la propagation, vers un nombre réduit de neurones. De ce fait, les valeurs propagées vers les autres neurones sont proches de 0 ou de façon générale, faibles. This property is explained in particular by the fact that the data propagated by a machine learning model with several processing layers, such as a neural network, convey information which is concentrated, gradually during the process. propagation, towards a reduced number of neurons. As a result, the values propagated to the other neurons are close to 0 or generally low.
[0087] Une approche classique pour prendre en compte cette propriété particulière des signaux consiste à coder toutes les valeurs sur un nombre de bits faibles (par exemple 8 bits). Cependant, cette approche présente l’inconvénient d’être très impactante pour les valeurs qui dépassent la valeur maximale de quantification (par exemple 28-1). En effet, ces valeurs sont écrêtées à la valeur maximale ce qui entraîne des pertes de précision pour les valeurs qui véhiculent le plus d’information. A conventional approach to take into account this particular property of signals consists in encoding all the values on a number of low bits (for example 8 bits). However, this approach has the drawback of being very impactful for values that exceed the maximum quantification value (for example example 2 8 -1). Indeed, these values are clipped to the maximum value which leads to losses of precision for the values which convey the most information.
[0088] Cette approche n’est donc pas adaptée à ces types de modèles d’apprentissage automatique. This approach is therefore not suitable for these types of machine learning models.
[0089] Une autre approche consiste toujours à coder les valeurs sur un nombre de bits fixe mais en réglant la dynamique de sorte à ne pas écrêter les valeurs maximales. Cette seconde approche présente l’inconvénient de modifier la valeur des données de valeur faibles qui sont très nombreuses. Another approach still consists in coding the values on a fixed number of bits but by adjusting the dynamics so as not to clip the maximum values. This second approach has the disadvantage of modifying the value of low value data which is very numerous.
[0090] Ainsi, la méthode de codage selon l’invention est particulièrement adaptée au profil statistique des valeurs propagées dans un modèle d’apprentissage automatique car elle permet de prendre en compte toute la dynamique des valeurs sans pour autant utiliser un nombre de bits élevé fixe pour quantifier l’ensemble des valeurs. Ainsi, il n’y a pas de perte de précision due à la quantification des données mais les opérateurs utilisés pour l’implémentation d’un opérateur MAC peuvent être dimensionnés pour traiter des données de taille plus faible. Thus, the coding method according to the invention is particularly suited to the statistical profile of the values propagated in a machine learning model because it makes it possible to take into account all the dynamics of the values without however using a high number of bits. fixed to quantify the set of values. Thus, there is no loss of precision due to the quantization of the data, but the operators used for the implementation of a MAC operator can be scaled to handle smaller data size.
[0091] Un des avantages de l’invention est que la taille Np des échantillons codés est un paramètre de la méthode de codage. One of the advantages of the invention is that the size N p of the coded samples is a parameter of the coding method.
[0092] Ce paramètre peut être optimisé en fonction des propriétés statistiques des données à coder. Cela permet d’optimiser le codage de sorte à optimiser la consommation d’énergie globale du calculateur ou circuit réalisant le modèle d’apprentissage automatique. This parameter can be optimized as a function of the statistical properties of the data to be coded. This optimizes the coding so as to optimize the overall power consumption of the computer or circuit performing the machine learning model.
[0093] En effet, les paramètres de codage influent sur les valeurs qui sont propagées dans le modèle d’apprentissage automatique et donc sur la taille des opérateurs réalisant les opérations MAC. Indeed, the coding parameters influence the values which are propagated in the machine learning model and therefore the size of the operators performing the MAC operations.
[0094] En appliquant l’invention, il est possible de paramétrer le codage de manière à minimiser le nombre d’opérations binaires réalisées ou plus généralement à minimiser ou optimiser la consommation d’énergie qui en découle. By applying the invention, it is possible to configure the coding so as to minimize the number of binary operations performed or more generally to minimize or optimize the energy consumption which results therefrom.
[0095] Une première approche pour optimiser les paramètres de codage consiste à simuler le comportement d’un modèle d’apprentissage automatique pour un ensemble de données d’apprentissage et à simuler sa consommation d’énergie en fonction du nombre et de la taille des opérations réalisées. En faisant varier les paramètres de codage pour le même ensemble de données, on recherche les paramètres qui permettent de minimiser la consommation d’énergie. A first approach for optimizing the coding parameters consists in simulating the behavior of a machine learning model for a training data set and in simulating its energy consumption as a function of the number and the size of the operations carried out. By varying the coding parameters for the same data set, we look for the parameters which allow to minimize the energy consumption.
[0096] Une seconde approche consiste à déterminer un modèle mathématique pour exprimer l’énergie consommée par le modèle d’apprentissage automatique ou plus généralement le calculateur visé, en fonction du paramètre de codage Np. A second approach consists in determining a mathematical model to express the energy consumed by the machine learning model or more generally the targeted computer, as a function of the coding parameter N p .
[0097] Dans le cas d’application d’un réseau de neurones, le paramètre de codage Np peut être différent selon la couche du réseau. En effet, les propriétés statistiques des valeurs propagées peuvent dépendre de la couche du réseau. Plus on avance dans les couches, plus l’information a tendance à se concentrer vers quelques neurones particuliers. Au contraire, dans les premières couches, la distribution de l’information dépend des données d’entrée du neurone, elle peut être plus aléatoire. In the case of the application of a neural network, the coding parameter N p may be different depending on the layer of the network. Indeed, the statistical properties of the propagated values can depend on the network layer. The further you go through the layers, the more information tends to concentrate on a few particular neurons. On the contrary, in the first layers, the distribution of information depends on the input data of the neuron, it can be more random.
[0098] Un exemple de modèle mathématique pour un réseau de neurones est proposé par la suite. An example of a mathematical model for a neural network is given below.
[0099] L’énergie consommée E1 par une couche d’un réseau dépend de l’énergie consommée Elnt par l’intégration d’un évènement (une valeur reçue) par un neurone et de l’énergie Ee l~^(Np) consommée par l’encodage de cet évènement par la couche précédente. The energy consumed E 1 by a layer of a network depends on the energy consumed El nt by the integration of an event (a value received) by a neuron and the energy E e l ~ ^ (N p ) consumed by the encoding of this event by the preceding layer.
[0100] Ainsi, un modèle de l’énergie consommée par une couche peut être formulé à l’aide de la relation suivante : [0100] Thus, a model of the energy consumed by a layer can be formulated using the following relation:
[0101] [Math. 3] [0101] [Math. 3]
[0103]n-nt est le nombre de neurones de la couche I [0103] n- nt is the number of neurons of layer I
[0104]iV^st(iVp) est le nombre d’évènements transmis par la couche 1-1. Ce nombre dépend du paramètre de codage Npe t de la distribution des données. [0104] iV ^ st (iV p ) is the number of events transmitted by layer 1-1. This number depends on the coding parameter N p and on the distribution of the data.
[0105] A partir du modèle donné par la relation (3), on recherche la valeur de Nj, qui permet de minimiser l’énergie consommée pour chaque couche E1. From the model given by relation (3), we search for the value of Nj, which makes it possible to minimize the energy consumed for each layer E 1 .
[0106] Les fonctions peuvent être déterminées à partir de modèles ou de fonctions empiriques au moyen de simulations ou à partir de mesures réelles. [0107] Un avantage de l’invention est qu’elle permet de paramétrer la valeur de Nj, indépendamment pour chaque couche I du réseau, ce qui permet de prendre en compte finement le profil statistique des données propagées pour chaque couche. [0106] The functions can be determined from models or empirical functions by means of simulations or from actual measurements. An advantage of the invention is that it makes it possible to parameterize the value of Nj, independently for each layer I of the network, which makes it possible to finely take into account the statistical profile of the data propagated for each layer.
[0108] L’invention peut être appliquée également pour optimiser le codage des valeurs d’erreurs rétropropagées lors d’une phase de rétro-propagation du gradient. Les paramètres de codage peuvent être optimisés indépendamment pour la phase de propagation et la phase de rétro-propagation. The invention can also be applied to optimize the encoding of the backpropagated error values during a backpropagation phase of the gradient. The encoding parameters can be optimized independently for the propagation phase and the backpropagation phase.
[0109] Dans une variante de réalisation de l’invention, les valeurs des activations dans le réseau de neurones peuvent être contraintes de sorte à favoriser une distribution plus importante de valeurs faibles. [0109] In an alternative embodiment of the invention, the values of the activations in the neural network can be constrained so as to promote a larger distribution of low values.
[0110] Cette propriété peut être obtenue en agissant sur la fonction de coût mise en oeuvre dans la dernière couche du réseau. En ajoutant un terme à cette fonction de coût qui dépend des valeurs des signaux propagés, on peut pénaliser les valeurs larges dans la fonction de coût et ainsi contraindre les activations dans le réseau à des valeurs plus faibles. This property can be obtained by acting on the cost function implemented in the last layer of the network. By adding a term to this cost function which depends on the values of the propagated signals, one can penalize the large values in the cost function and thus constrain the activations in the network to lower values.
[0111] Cette propriété permet de modifier la distribution statistique des activations et ainsi d’améliorer l’efficacité de la méthode de codage. [0111] This property makes it possible to modify the statistical distribution of the activations and thus to improve the efficiency of the coding method.
[0112] La méthode de codage selon l’invention peut être avantageusement appliquée au codage de données propagées dans un calculateur mettant en oeuvre une fonction d’apprentissage automatique, par exemple une fonction de réseau de neurones artificiels pour classifier des données selon une fonction d’apprentissage. The coding method according to the invention can be advantageously applied to the coding of data propagated in a computer implementing a machine learning function, for example an artificial neural network function for classifying data according to a function d 'learning.
[0113] La méthode de codage selon l’invention peut aussi être appliquée aux données d’entrées du réseau de neurones, autrement dit les données produites en entrée de la première couche du réseau. Dans ce cas, le profil statistique des données est exploité pour coder au mieux l’information. Par exemple, lorsqu’il s’agit d’images, les données à encoder peuvent correspondre à des pixels de l’image ou des groupes de pixels ou aussi à des différences entre pixels de deux images consécutives dans une séquence d’images (vidéo). [0113] The coding method according to the invention can also be applied to the input data of the neural network, in other words the data produced at the input of the first layer of the network. In this case, the statistical profile of the data is used to best encode the information. For example, when it comes to images, the data to be encoded can correspond to pixels of the image or groups of pixels or also to differences between pixels of two consecutive images in a sequence of images (video ).
[0114] Le calculateur selon l’invention peut être implémenté à l’aide de composants matériels et/ou logiciels. Les éléments logiciels peuvent être disponibles en tant que produit programme d’ordinateur sur un support lisible par ordinateur, support qui peut être électronique, magnétique, optique ou électromagnétique. Les éléments matériels peuvent être disponibles tous ou en partie, notamment en tant que circuits intégrés dédiés (ASIC) et/ou circuits intégrés configurables (FPGA) et/ou en tant que circuits neuronaux selon l’invention ou en tant que processeur de signal numérique DSP et/ou en tant que processeur graphique GPU, et/ou en tant que microcontrôleur et/ou en tant que processeur général par exemple. Le calculateur CONV comprend également une ou plusieurs mémoires qui peuvent être des registres, registres à décalage, mémoire RAM, mémoire ROM ou tout autre type de mémoire adapté à la mise en oeuvre de l’invention. The computer according to the invention can be implemented using hardware and / or software components. The software elements may be available as a computer program product on a computer readable medium, which medium may be electronic, magnetic, optical or electromagnetic. The elements hardware can be available all or in part, in particular as dedicated integrated circuits (ASIC) and / or configurable integrated circuits (FPGA) and / or as neural circuits according to the invention or as a digital signal processor DSP and / or as a GPU graphics processor, and / or as a microcontroller and / or as a general processor for example. The CONV computer also comprises one or more memories which can be registers, shift registers, RAM memory, ROM memory or any other type of memory suitable for implementing the invention.

Claims

REVENDICATIONS
1. Procédé, mis en œuvre par ordinateur, de codage d’un signal numérique composé d’échantillons quantifiés sur un nombre Nd de bits donné et destiné à être traité par un système de calcul numérique, le signal étant codé au moyen d’échantillons quantifiés sur un nombre prédéterminé Np de bits strictement inférieur à Nd, le procédé comprenant les étapes de : 1. Method, implemented by computer, of encoding a digital signal composed of samples quantized over a given number N d of bits and intended to be processed by a digital calculation system, the signal being encoded by means of samples quantized over a predetermined number N p of bits strictly less than N d , the method comprising the steps of:
- Recevoir (101) un signal numérique composé d’une pluralité d’échantillons, - Receive (101) a digital signal composed of a plurality of samples,
- Décomposer (102) chaque échantillon en une somme de k valeurs maximales égales à 2Np-1 et une valeur résiduelle, avec k un nombre entier positif ou nul, - Decompose (102) each sample into a sum of k maximum values equal to 2 Np -1 and a residual value, with k a positive or zero integer,
- Transmettre (103) successivement les valeurs obtenues après décomposition à une unité d’intégration pour réaliser une opération MAC entre l’échantillon et un coefficient de pondération. - Transmit (103) successively the values obtained after decomposition to an integration unit to perform a MAC operation between the sample and a weighting coefficient.
2. Procédé de codage selon la revendication 1 comprenant une étape de détermination de la taille Np du signal codé en fonction d’une distribution statistique des valeurs du signal numérique. 2. Coding method according to claim 1 comprising a step of determining the size N p of the coded signal as a function of a statistical distribution of the values of the digital signal.
3. Procédé de codage selon la revendication 2 dans lequel la taille Np du signal codé est paramétrée de manière à minimiser la consommation d’énergie d’un système de calcul numérique dans lequel les signaux traités sont codés au moyen dudit procédé de codage. 3. Coding method according to claim 2, in which the size N p of the coded signal is set so as to minimize the energy consumption of a digital computing system in which the processed signals are coded by means of said coding method.
4. Procédé de codage selon la revendication 3 dans lequel la consommation d’énergie est estimée par simulation ou à partir d’un modèle empirique. 4. Coding method according to claim 3 wherein the energy consumption is estimated by simulation or from an empirical model.
5. Procédé de codage selon l’une des revendications précédentes dans lequel le système de calcul numérique implémente un réseau de neurones artificiels.5. Coding method according to one of the preceding claims, in which the digital calculation system implements an artificial neural network.
6. Procédé de codage selon la revendication 5 dans lequel la taille Np du signal codé est paramétrée de façon indépendante pour chaque couche du réseau de neurones artificiel. 6. Coding method according to claim 5, in which the size N p of the coded signal is parameterized independently for each layer of the artificial neural network.
7. Dispositif de codage (200) comprenant un codeur configuré pour exécuter le procédé de codage selon l’une des revendications précédentes. 7. Coding device (200) comprising an encoder configured to perform the coding method according to one of the preceding claims.
8. Dispositif d’intégration (300) configuré pour réaliser une opération de multiplication puis accumulation MAC entre un premier nombre codé au moyen du procédé de codage selon l’une des revendications 1 à 6 et un coefficient de pondération, le dispositif comprenant un multiplieur (MUL) pour multiplier le coefficient de pondération avec le nombre codé, un additionneur (ADD) et un registre d’accumulation (RAC) pour accumuler le signal de sortie du multiplieur (MUL). 8. Integration device (300) configured to perform a MAC multiplication then accumulation operation between a first number encoded by means of the encoding method according to one of claims 1 to 6 and a weighting coefficient, the device comprising a multiplier (MUL) to multiply the weighting coefficient with the coded number, an adder (ADD) and an accumulation register (RAC) to accumulate the output signal of the multiplier (MUL).
9. Neurone artificiel (N), mis en oeuvre par un système de calcul numérique, comprenant un dispositif d’intégration (300,401) selon la revendication 8 pour réaliser une opération de multiplication puis accumulation MAC entre un signal reçu et un coefficient synaptique, et un dispositif de codage (200,403) selon la revendication 7 pour coder le signal de sortie du dispositif d’intégration (300,401), le neurone artificiel (N) étant configuré pour propager le signal codé vers un autre neurone artificiel. 9. Artificial neuron (N), implemented by a digital calculation system, comprising an integration device (300,401) according to claim 8 to perform an operation of multiplication then accumulation MAC between a received signal and a synaptic coefficient, and an encoding device (200,403) according to claim 7 for encoding the output signal of the integration device (300,401), the artificial neuron (N) being configured to propagate the encoded signal to another artificial neuron.
10. Neurone artificiel (N), mis en oeuvre par un calculateur, comprenant un dispositif d’intégration (300,501) selon la revendication 8 pour réaliser une opération de multiplication puis accumulation MAC entre un signal d’erreur reçu depuis un autre neurone artificiel et un coefficient synaptique, un module de calcul d’erreur locale configuré pour calculer un signal d’erreur locale à partir du signal de sortie du dispositif d’intégration (300,501) et un dispositif de codage (200,503) selon la revendication 7 pour coder le signal d’erreur locale, le neurone artificiel (N) étant configuré pour rétro-propager le signal d’erreur locale vers un autre neurone artificiel. 10. Artificial neuron (N), implemented by a computer, comprising an integration device (300,501) according to claim 8 for performing an operation of multiplication then accumulation MAC between an error signal received from another artificial neuron and a synaptic coefficient, a local error calculating module configured to calculate a local error signal from the output signal of the integration device (300,501) and an encoding device (200,503) according to claim 7 for encoding the local error signal, the artificial neuron (N) being configured to back-propagate the local error signal to another artificial neuron.
11. Réseau de neurones artificiels comprenant une pluralité de neurones artificiels selon l’une quelconque des revendications 9 ou 10. 11. An artificial neural network comprising a plurality of artificial neurons according to any one of claims 9 or 10.
EP20819793.9A 2019-12-18 2020-12-10 Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision Pending EP4078817A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1914706A FR3105660B1 (en) 2019-12-18 2019-12-18 Method and apparatus for additive signal coding for implementing dynamic precision digital MAC operations
PCT/EP2020/085417 WO2021122261A1 (en) 2019-12-18 2020-12-10 Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision

Publications (1)

Publication Number Publication Date
EP4078817A1 true EP4078817A1 (en) 2022-10-26

Family

ID=69811268

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20819793.9A Pending EP4078817A1 (en) 2019-12-18 2020-12-10 Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision

Country Status (4)

Country Link
US (1) US20230004351A1 (en)
EP (1) EP4078817A1 (en)
FR (1) FR3105660B1 (en)
WO (1) WO2021122261A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3127603B1 (en) * 2021-09-27 2024-05-03 Commissariat Energie Atomique Method for optimizing the operation of a computer implementing a neural network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2511493B (en) * 2013-03-01 2017-04-05 Gurulogic Microsystems Oy Entropy modifier and method
FR3026905B1 (en) 2014-10-03 2016-11-11 Commissariat Energie Atomique METHOD OF ENCODING A REAL SIGNAL INTO A QUANTIFIED SIGNAL

Also Published As

Publication number Publication date
FR3105660A1 (en) 2021-06-25
US20230004351A1 (en) 2023-01-05
FR3105660B1 (en) 2022-10-14
WO2021122261A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US11574183B2 (en) Efficient generation of stochastic spike patterns in core-based neuromorphic systems
EP3871153A1 (en) Backpropagation of errors in pulsed form in a pulsed neural network
FR2965383A1 (en) IMAGE CLASSIFICATION EMPLOYING COMPRESSED IMAGE VECTORS USING VECTORIAL QUANTIFICATION
WO2018212946A1 (en) Sigma-delta position derivative networks
EP3323090A1 (en) Data-processing device with representation of values by time intervals between events
CN114402596A (en) Neural network model compression
EP4078817A1 (en) Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision
EP4278303A1 (en) Variable bit rate compression using neural network models
EP3202044B1 (en) Method of coding a real signal into a quantized signal
WO2021122260A1 (en) Method and device for binary coding of signals in order to implement digital mac operations with dynamic precision
EP4315170A1 (en) Multimodal autoencoder with improved latent data fusion
CN113033795B (en) Pulse convolution neural network hardware accelerator of binary pulse diagram based on time step
US12003255B2 (en) Method and device for binary coding of signals in order to implement digital MAC operations with dynamic precision
EP0667680A1 (en) Method and device for vectorial quantification of a digital signal, applied in particular for compressing digital pictures
US11727252B2 (en) Adaptive neuromorphic neuron apparatus for artificial neural networks
JP7454888B1 (en) Method and device for reducing the weight of neural network models using hardware characteristics
US20230139347A1 (en) Per-embedding-group activation quantization
Nayak et al. Replication/NeurIPS 2019 Reproducibility Challenge
CN117436490A (en) Neuron hardware implementation system based on FPGA pulse neural network
WO2022129156A1 (en) Exploitation of low data density or nonzero weights in a weighted sum computer
Ardakani Complexity reduction of deep neural networks for efficient hardware implementations
Liu et al. Rerise: An adversarial example restoration system for neuromorphic computing security
EP4195061A1 (en) Algorithm calculator realized from mixed-technology memories
KR20220071091A (en) Method and apparatus of optimizing spiking neural network
FR2650926A1 (en) Method and device for vectorial quantification of digital data

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220610

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS