WO2020094995A1 - Method of neural network construction for the simulation of physical systems - Google Patents

Method of neural network construction for the simulation of physical systems Download PDF

Info

Publication number
WO2020094995A1
WO2020094995A1 PCT/FR2019/052649 FR2019052649W WO2020094995A1 WO 2020094995 A1 WO2020094995 A1 WO 2020094995A1 FR 2019052649 W FR2019052649 W FR 2019052649W WO 2020094995 A1 WO2020094995 A1 WO 2020094995A1
Authority
WO
WIPO (PCT)
Prior art keywords
topology
network
neural network
data
block
Prior art date
Application number
PCT/FR2019/052649
Other languages
French (fr)
Inventor
Manuel BOMPARD
Mathieu CAUSSE
Florent MASMOUDI
Mohamed Masmoudi
Houcine TURKI
Original Assignee
Adagos
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR1860383A external-priority patent/FR3088463A1/en
Application filed by Adagos filed Critical Adagos
Priority to EP19817401.3A priority Critical patent/EP3877912A1/en
Priority to US17/292,305 priority patent/US20210397770A1/en
Publication of WO2020094995A1 publication Critical patent/WO2020094995A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Definitions

  • the invention relates to the learning of phenomena representing real systems with sparse neural networks, having very few connections.
  • the invention is particularly applicable to the simulation of a real static system, for example to assess the response of the real system in new situations, but also to the simulation of a real dynamic system over long times, for example to model the evolution of a real system.
  • the dynamic model is based on a recurrent form of a propagating neural network before what we will call in the following "recurrent pattern”.
  • the invention finds an advantageous application in the simulation at least real time of complex physical systems.
  • the present invention provides a method of learning real phenomena by sparse neural networks, having very few connections. This can concern physical, biological, chemical or even computer phenomena.
  • the first cause of redundancy is linked to the organization of the topology of the neural network by layers of neural cells. It is up to the user to define the number of layers and the number of cells per layer ... This construction is done in a manual way according to a trial and error process.
  • the neural network must be large enough to perform the learning, but it is not minimal in size and is necessarily redundant.
  • the state of the art represents a coherent building based on redundancy. But the absence of local convergence shows that the state of the art is oriented towards qualitative learning. If the answer is greater than 0.5, it is assimilated to one and if it is less than 0.5, it is assimilated to 0. Quantitative responses have precision requirements which are not taken into account by these methods.
  • the present invention meets the needs of the emerging field of modeling complex physical systems by creating a digital copy, also called digital twin or Digital Twin, of the physical system, adapted to accurately predict the state of a physical system faster than the real system, and preferably thousands of times faster, so as to be able to simulate a large number of possible scenarios impacting the physical system before making the best decision for the real system.
  • a digital copy also called digital twin or Digital Twin
  • DACE a Matlab kriging toolbox (Vol. 2). IMM, Informatics and Mathematical Modeling, The Technical University of Denmark,:
  • the number N is also the dimension of the vectors X, and X i + 1 .
  • U (Ui, U 2 , ..., U n ) where n «N.
  • This system is solved in the least squares sense.
  • the compressed data x i + i determined from c it is decompressed to implement a recursion loop on the real data.
  • the reduced problem is highly unstable, which means that a small data disturbance leads to a large deviation from the solution. Therefore, the approximation of the state of a complex physical system with such a model is difficult.
  • an object of the invention is to propose a method of dynamic simulation of a complex physical system provided with excellent prediction capacities over long times and which is faster than the real time of the physical system.
  • Another object of the invention is to be applicable to both static and dynamic modeling of complex physical systems, and to also be applicable to nonlinear compression of complex systems.
  • the compression ratio increases drastically with the depth of the network. This compression is the basis of dynamic prediction over long times.
  • the invention finally aims to provide a neural network structure adapted to the application which is made later, this structure being parsimonious, that is to say as small as possible to require a small amount of data for his learning.
  • the invention relates to a method of constructing a forward propagation neural network, comprising a set of processing nodes and connections between the nodes forming a topology organized in layers, such as each layer is defined by a set of simultaneously calculable nodes, and the input of a processing node of a layer can be connected to the output of a node of any of the previously calculated layers,
  • the method comprising a step of initializing a neural network according to an initial topology comprising an input layer, at least one hidden layer comprising at least one node, and a set of output nodes,
  • each topological optimization phase comprising:
  • At least one additive phase comprising the modification of the network topology by adding at least one node and / or a connection link between the entry of a node of a layer and the exit of a node of any of the preceding layers
  • at least one subtractive phase comprising the modification of the network topology by the removal of at least one node and / or a connection link between two layers
  • each modification of topology includes the selection of a topology modification from among several candidate modifications, from an estimate of the variation of the network error, calculated on training data, between each topology modified according to a candidate modification and the previous topology.
  • the modification of topology selected is that, among the candidate modifications, optimizing the variation of the error compared to the previous topology.
  • the network error for a given topology is defined by / (r, W * ) where
  • - J is an error function between a data output from the network and a target result
  • the variation of the network error between a candidate topology and the previous topology is estimated by calculating the quantity: j (r n , W n ,) - J (r n_1 , W n- 1 * ) where by abuse of notation, we note
  • W n is a matrix of network connection weights after at least one learning iteration of the network following the candidate topological modification to iteration n
  • W n 1 * is the matrix of connection weights of the iteration network n-1 minimizing the error function J with the topography G p 1 fixed.
  • W n can then be initialized with the same connection weights as the matrix W n 1 * for the connections common to the two topologies and, in the case of an additive phase, a connection weight of zero for each link created during of the additive phase.
  • the estimation of the variation of the network error between a modified topology and the previous topology comprises the estimation of the network error according to the modified topology from the operator of Lagrange applied to the connection weights of the neural network £ (G, W, X, A) where:
  • L is the operator of Lagrange
  • G is the network topology
  • W is a network connection weight matrix
  • X (X °, ..., X nc ) represents the outputs of all the nodes of the network and X 'represents the outputs of the nodes of layer i, and
  • A is the Lagrange multiplier associated with the expression defining the elements of layer X '.
  • the variation of the network error between a candidate topology and the previous topology is estimated by calculating the quantity: L (Y n , W n , X, K) - / ( G p_1 , W n_1 * ) where:
  • W n is a matrix of the network connection weights after the candidate topological modification to iteration n, said matrix being initialized with the same connection weights as the matrix W n_1 * for the common connections between the candidate topology iteration n and the iteration topology n-1, and a zero connection weight for each link created during the additive phase.
  • An update of W n is then obtained by minimizing £ with respect to the weight of the links created.
  • the variation of the network error between a calculated topology and the previous topology is estimated by calculating the quantity: £ (T n , W n , X, A) - is a restriction of W n 1 * to the topology G P.
  • the method comprises, once the topology modification has been selected, the determination of a matrix of network connection weights by a method of descending the error with respect to said matrix. This step is a training of the network in the topology obtained after the topological modification.
  • this learning process is based on a descent method having rapid convergence of the Gauss-Newton type.
  • the topological optimization step is implemented as a function of average errors of the neural network on training data on the one hand, and on validation data on the other hand, in which :
  • At least one subtractive step is implemented, if the error on the training data becomes less than the error on the validation data beyond a predetermined tolerance
  • topological optimization is stopped when any additive or subtractive step no longer results in a reduction of the error on the training data and on the validation data.
  • the neural network comprises at least one compression block adapted to generate compressed data, and a decompression block, the method comprising at least one topological optimization phase implemented on the block of compression and the decompression block, and further comprising, after the topological optimization of the blocks, a learning phase of the entire neural network with fixed topology.
  • the initialization step of the neural network includes:
  • the replacement in the initial neural network, of the central hidden layer by a first intermediate layer, a new central layer, and a second intermediate layer, the intermediate layers being copies of the replaced central layer, and
  • the method can also include iterative implementation:
  • the method further comprises the selection of the compression and decompression block and the addition of a modeling block, respectively at the output of the compression block or at the input of the decompression block, in which at least one topological optimization phase is implemented on the modeling block, and a learning phase with fixed topology is implemented on the assembly comprising the modeling block and the compression or decompression block.
  • X is a measurable characteristic of the physical system at a given time
  • P describes the internal state of the physical system
  • G describes a excitation
  • f and V are respectively the topology and the matrix of the connection weights of the modeling block
  • - p k and g k are the data representative of the excitation and the internal state of the system supplying the modeling block.
  • the invention also relates to a neural network, characterized in that it is obtained by the implementation of the method according to the preceding description.
  • the invention also relates to a computer program product, comprising code instructions for implementing the method according to the preceding description, when it is executed by a processor.
  • a neural network adapted to calculate a function f TW such that Y ⁇ fr , w (X > by 'implementing the method according to the preceding description, the neural network possibly comprising a compression block , and
  • the simulation method is implemented by means of a neural network constructed according to the method described above and comprising a compression block and a decompression block, and the compression steps of X ,, application of a neural network and decompression of x i + 1 are implemented respectively by means of the compression block, the modeling block and the decompression block of the neural network constructed.
  • the invention finally relates to a data compression method comprising:
  • a neural network comprising a compression block receiving as input an X datum and a decompression block generating at output the datum X
  • the construction of the neural network includes the implementation of at least one topological optimization phase on the compression block and the decompression block, and the application, to at least one datum representative of the state of a real system, of the compression block of the neural network constructed.
  • the method of constructing a neural network according to the invention makes it possible to obtain a neural network whose structure depends on the intended use or application, since the construction comprises a topological optimization phase which is governed by the network error on training and validation data.
  • the construction method simultaneously comprises the construction, and the learning, for a specific task, of the neural network. This allows a user of this process not to need to have specific mathematical knowledge to choose a neural network structure adapted to the targeted technical application.
  • the construction method according to the invention makes it possible to build a sparse neural network, that is to say where any redundancy is removed, optimized for the intended task.
  • This property is obtained by an incremental construction from a possibly minimal initial topology, that is to say comprising a single hidden layer comprising a single neuron, then by implementing an iterative process comprising a learning step in the current state of the network, using a method of rapid local convergence, such as the Gauss-Newton method, and a step of topological modification of the network to improve learning.
  • a topological optimization technique in construction plays a double role:
  • the additive topological optimization technique enriches the neural network with the element (node or link) that best improves learning.
  • the state of the art avoids local minima by uncontrolled redundancy and we avoid local minima by enrichment controlled by the topological gradient.
  • the topological optimization method gives the neural network an innovative structure insofar as a neuron of a layer, including the output layer, can be connected to a neuron of any previous layer, including the input layer. Indeed, when a physical phenomenon depends on a large number of parameters, most of these parameters contribute in a linear way to the response of the system. Hence the advantage of connecting the corresponding inputs directly to the output layer of the neural network. The effect of weakly non-linear parameters can be taken into account by a single intermediate layer between the input and the output and so on.
  • the reduction in the complexity of the neural network in fact improves its generalization capacity (ability to give the right answer on unlearned data), This also makes it possible to attenuate the learning difficulties (explosive gradients and evanescent gradients) reducing the number of layers. Indeed, in a network structured in layers, certain cells can simply be used to duplicate previous cells to make them available for the next layer. This increases the complexity of the network in an unnecessary way.
  • This neural network used for modeling a complex physical system, provides very good simulation quality for reduced computation times, and in particular less than the real time of the physical system.
  • the simulation model can be constructed from measurements made during normal operation of the physical system or during test phases.
  • the topological optimization of the network is advantageously carried out by the use of the Lagrange operator, or Lagrangian, applied to the connection weights of the neural network.
  • This method makes it possible to calculate in a particularly fast way the effect of a topological modification of the network (addition / elimination of a neuronal cell, addition elimination of a link), which makes it possible to quickly assess and select at each stage the best topological improvement of the neural network.
  • the forward propagation neural network is advantageously used, as a recurring motif, in the context of the dynamic simulation of physical systems to predict a future state of the system as a function of an initial state and possible source or excitation terms. .
  • the neural network is advantageously combined with an approach in which the data representative of the state of the physical system are compressed.
  • the dynamic model simulates the future state of the system on the compressed data, then decompresses the simulated data to return to real space.
  • the recursion loop is not done in real space but in the compressed data space, which eliminates noise on the data while ensuring better stability of the dynamic model. This also makes it possible to reduce the computation times in the learning and simulation phases.
  • Topological optimization plays a major role in the control of dynamic models. Indeed, if we perform m iterations of a recurring pattern having n layers, the learning difficulty is equivalent to that of a neural network having n x m layers.
  • the invention therefore makes it possible to reduce n, and consequently the number of calculations and their duration, in two different ways:
  • FIG. 1 already described, schematically represents a dynamic simulation process by means of a reduced projection base.
  • FIG. 2 schematically represents a system for implementing a method of building a neural network and simulating a physical system.
  • FIG. 3 schematically represents the main steps in the construction of a neural network according to an embodiment of the invention.
  • FIG. 4a represents an example of a neural network obtained by state-of-the-art software for a given application. This is the best result obtained by the prior art software, after having carried out fifty test experiments on error.
  • FIG. 4b represents an example of a neural network obtained by implementing the construction method according to an embodiment of the invention for the same application as that of [Fig. 4a].
  • FIG. 4c represents another example of a neural network obtained by implementing the construction method according to an embodiment of the invention for modeling a complex system involving fluid-structure interactions in the automotive field .
  • FIG. 5 schematically represents an example of construction of a neural network comprising a compression block and a decompression block.
  • FIG. 6a represents the implementation of a dynamic modeling method according to an alternative embodiment of the invention.
  • FIG. 6b represents the implementation of a dynamic modeling method according to another variant embodiment of the invention.
  • FIG. 7a schematically shows a top view of an installation for measuring the progress of a sodium melting front.
  • FIG. 7b represents three different power controls of an electrical resistance of the installation of FIG. 7a.
  • FIG. 8a represents the compression / decompression network produced to model the data of the sensors of the installation of FIG. 7a.
  • FIG. 8b represents the dynamic modeling network produced to model the data of the sensors of the installation of FIG. 7a.
  • FIG. 9a represents, for a sensor of the installation of FIG. 7a, a comparison between the sensor data and the modeling data for one of the three power controls of FIG. 7b.
  • FIG. 9b represents, for a sensor of the installation of FIG. 7a, a comparison between the sensor data and the modeling data for another of the three power controls of FIG. 7b.
  • FIG. 9c represents, for a sensor of the installation of FIG. 7a, a comparison between the sensor data and the modeling data for a last of the three power commands of FIG. 7b.
  • a method of building a sparse neural network that can be used for modeling a physical system or phenomenon.
  • This method as well as the data compression methods, for simulating a static or dynamic system described below, are implemented by a computer 1 shown diagrammatically in FIG. 2, comprising a computer (for example a processor) 10, and a memory 1 1, the computer being adapted to execute instructions stored in the memory 1 1 for the implementation of these methods.
  • the computer advantageously comprises or can be connected to at least one sensor 12 suitable for acquiring measurements of physical quantities.
  • the method comprises two phases: a phase of learning and building the model, and a simulation phase for operating the model.
  • the two phases can be carried out on different equipment. Only the simulation phase is intended to record real time.
  • the term “real system” means any system whose state can at least in part be measured by sensors of physical quantities.
  • the real systems there are notably physical, biological, chemical and computer systems.
  • Y f (X) (1) where X and Y are respectively input and output variables characterizing the system status.
  • Xi e 3 ⁇ 4 n ° is an input data comprising a number n 0 of components, the last of which, for example, is fixed at 1 and the remaining n 0 -1 typically correspond to physical quantities representative of the state of the system, these data having been measured by means of sensors 12, and
  • Y; e 3 ⁇ 4 n ° is an output data comprising a number n 0 of components, which correspond to other physical quantities of the system, these data having also been measured by means of sensors 12.
  • the purpose of this distribution is the implementation of a cross-validation method on learning the constructed neural network.
  • the objective of the physical system modeling method is to construct an approximate model of (1) of the form: Y ⁇ f rw (Y) (2) where f rw is a simulation function calculated by a network of neurons defined by a topology G and a matrix or a list of matrices of connection weight W, so as to be able to simulate the output Y from an input variable X.
  • the topology G and the matrix W of the connection weights are determined by the minimization of an error function J of the neural network: min J (G, W) (3)
  • J quantifies the error between an output of the neural network calculated on the input database X, and the corresponding target result Y ,, calculated on the database
  • This neural network includes a set of processing nodes, also called neurons, and of connections between the processing nodes, each connection being weighted by a weighting coefficient, the processing nodes and the connections forming an organized topology in layers.
  • the neural network according to the invention is a calculation graph, of which each layer is defined by the set of nodes which can be calculated simultaneously, and the input of a processing node of a layer can be connected to the output of a processing node of any of the layers previously calculated.
  • set of processing nodes calculating the outputs of the neural network hereinafter called “set of the output nodes”, does not form a layer because the output nodes can be calculated in stages different and be spread across multiple layers.
  • the neural network is of the forward propagation type, that is to say that it does not include any calculation loop bringing the output of a processing node to the input of the same node or of a knot of a previous layer.
  • the learning of the neural network is carried out during its construction, so as to adapt the structure of the neural network to the function which it must calculate.
  • X ° (Xi) “which is of size n 0 x M1 and represents the state of the input layer (in other words we apply the neural network to the data in the database that the we have).
  • Y (U - ⁇ ⁇ , the target values corresponding to the input X °.
  • O is the observation matrix making it possible to extract the output elements from Xnc.
  • the number of cells of the last layer noted n nc is less than or equal to the size of the output data of the neural network n 0 . It is for this reason that the observation operator applies to X nc , that is to say to all the cells of the network.
  • the method for constructing the neural network comprises a first step 100 of initializing a neural network according to an initial topology which may be minimal, namely understanding:
  • An input layer comprising a set of input processing nodes whose number of nodes is imposed by the number n 0 of input data including a bias
  • the initialization step also includes a determination of the optimal connection weights W 1 * , that is to say connection weights minimizing the error function J for the initial topology G 1 fixed, denoted J (T 1 , W 1 * ).
  • This determination is made by training the neural network on the training data.
  • the zero memory Gauss Newton method combines the backpropagation of the gradient with a forward propagation method of the gradient. It significantly improves local convergence.
  • the method then comprises at least one topological optimization phase 200 of the neural network, determined so as to reduce the error J of the network.
  • the topological optimization phase can include:
  • At least one processing node and / or at least one connection is added to the neural network, the added connection being such that it connects the input of a neuron to the output of a neuron from any previous layer, and / or
  • each topology modification 210 additive or subtractive, comprises the selection 212 from a plurality of candidate topological modifications, from an estimate 21 1 of the variation of the network error between each topology modified according to a candidate modification and the previous topology, the selected topological modification being that which optimizes the variation of the error compared to the previous topology, with the objective of maximizing the reduction of the error at each iteration.
  • modifications of subtractive topology can induce an increase in the error J on the training data at a given iteration, but nevertheless make it possible to improve the accuracy of the network by reducing its error on the data. of confirmation.
  • an additive phase one can connect by a link, two nodes which do not belong to the same layer and which are not already connected. You can add nodes to any layer, other than the input and output layers of the network. You can also create a new layer by inserting a knot between two successive layers. A created node must be connected to the network with at least two links, at least one input link and at least one output link. The choice of links to add can be done randomly. In an additive phase, if the network is large, one can choose a thousand candidate topological modifications taken at random. The estimate of the variation is calculated for these candidate perturbations. The best disturbances,
  • G p is the topology modified according to the candidate modification to iteration n, and W n * and the matrix of optimal connection weights for this topology.
  • connection weights W n of the topology modified by:
  • the error estimate is then also: J (T n , W n ) - J (T n_1 , W n-1 * ).
  • This variation is necessarily positive or zero. Otherwise W n 1 * is not optimal. Indeed, the matrix W n would offer a better solution by zeroing the removed links.
  • This phase which only increases the error, aims to ensure generalization: the ability to predict the neural network on data that is not part of the learning set. When the error function J increases, the average error on the validation data tends to decrease.
  • A (A)
  • A being the Lagrange multiplier associated with the equation defining X '.
  • the multiplier A has the same size as X '.
  • the A's are chosen so that the variation of the Lagrangian with respect to the X 'is zero.
  • the Lagrangian behaves as if we had eliminated the variable X 'locally. It follows that for all W 0 fixed, we calculate X Wo and A Wo and for all W close to W 0 we have:
  • W n is a simple restriction of W n_1 * to the new topology G p .
  • the quantity (13) can be calculated quickly and therefore makes it possible to select the best candidate modification for each iteration.
  • the variation of the network error between a calculated topology and the previous topology is estimated by calculating the quantity:
  • W n is a matrix of network connection weights after the topological modification candidate for iteration n, said matrix being initialized with the same connection weights as the matrix W n 1 * for the same connections and a zero connection weight for each link created during the additive phase.
  • the variation given by (14) is equal to zero.
  • the error variation estimates (13) and (14) can be improved by updating the W n :
  • the topological optimization phase 200 typically includes several topological modifications of each additive and subtractive type.
  • the additive phases are implemented to lower the value of the error J on the training data.
  • the subtractive phases are implemented if the error on the training data becomes less than the error on the validation data beyond a certain limit. This indeed means that the neural network has performed an over-learning process which leads it to give a bad response for the unlearned data (validation data).
  • topological optimization iterations stop when any change in topology does not lead to an improvement in the accuracy of the network, that is to say when it no longer lowers the errors on the data. validation data or learning data after optimizing connection weights.
  • the method comprises updating 213 of the network connection weight matrix by a descent method of backpropagation type of the gradient: W n ⁇ - W n - pVJ (W n ) (15) where p is the learning rate.
  • W n ⁇ - W n - pVJ (W n )
  • FIGS. 4a and 4b show an example of comparison between a neural network (FIG. 4a) obtained by the application of state of the art software. technique for a telephone localization application and a neural network constructed according to the method described above ( Figure 4b) for the same application.
  • the neural network provided by the prior art software is organized by layers, each layer of which communicates only with the adjacent layers, and this neural network has 22,420 links.
  • the one obtained by applying the above method comprises 291 links and the layers which are visible are only the graphic display of the processing nodes which can be calculated simultaneously. We see that the processing nodes of a layer can communicate with the nodes of all the previous layers.
  • the neural network obtained and trained on the database (X ⁇ Y j ) ” ! it can then be applied to new data which is denoted theoretical data (Xi) ieS or acquired by one or more sensors on the physical system to be simulated to generate results (Yi) ieS ⁇ S represents the set of data for the simulation, and it is therefore disjoint from all the learning and validation data indexed from 1 to M.
  • the data (Xi) ieS are representative of certain quantities characterizing the state of the real system, these data being able to be measured, and the data (Yi) them can be representative of other quantities characterizing the state of the system physical data can be more difficult to measure, hence the need to simulate them.
  • the data (Xi) ieS can include command or actuator status data, the purpose of the simulation can be to determine the choice of (Xi) ieS which allows the best response of the system (Yi) ieS ⁇
  • the neural network construction method described above can also be used for data compression.
  • a neural network is constructed comprising a compression block C and a decompression block D, in which the compression block and the decompression block are neural networks built according to the process described above, using learning and validation databases comprising pairs of the form
  • the construction of the compression neural network includes a step 100 of initializing a neural network which comprises:
  • a hidden layer that has the same number of processing nodes as the input layer and the output layer.
  • the method then comprises a step 101 of learning this initial neural network, on the training database, then a subtractive phase 102 conforming to a subtractive phase of the topological optimization step described below. before to reduce the size of the hidden layer without degrading the learning.
  • X 'the compression of X, at the level of the hidden layer.
  • the method then comprises a step of subdivision 103 of the hidden layer into three layers of the same size, and a repetition of the step 101 of learning on the constituted subnetwork, and of the subtractive step 102 on the new central layer.
  • a compression block C which is constituted by all of the layers between the input layer and the central layer
  • a decompression block D which is constituted by all layers between the central layer and the output layer
  • the method then comprises a step 300 of learning on the entire network thus formed. Steps 103 to 300 can then be iterated until it becomes impossible to reduce the size of the compressed vector without significantly degrading the decompression error.
  • the construction method advantageously comprises at least one learning phase with additional fixed topology over the entire network f ° C. This makes it possible to correct the decompression as a function of the application, that is to say modeling. Indeed, the compression process ignores the objective to reach Y ,.
  • the neural network construction method can also be used for the modeling of a dynamic physical system, in which one seeks to determine a future state of a physical system from information on its current state.
  • a neural network comprising a compression block, a modeling block, and a decompression block, in which at least the compression block and the decompression block are neural networks constructed according to the method described above, using learning and validation databases comprising pairs of the form
  • the bias is added to the data.
  • the next step depends on p + 1 previous steps.
  • the use of this technique improves the stability of the model. But it also increases the size of the model and reduces its generalization capacity.
  • the compression of the Xs makes it possible to reduce the size of the recurring pattern, while increasing p to ensure better stability.
  • This compression has the advantage of filtering the noise of the X's, which is essential in the context of measured data.
  • - hffi is the function calculated by the modeling block
  • f and W are respectively the topology and the matrix of the connection weights of the modeling block
  • - p k and g k are the data representative of the excitation and the internal state of the system on which the modeling block is implemented.
  • the determination of hf3 ⁇ 4v is then done by solving the following optimization problem
  • the minimization with respect to f is advantageously carried out by the topological optimization step 200 described above, and for fixed f, a zero memory Gauss-Newton technique is used to estimate W.
  • - C p is a compression operator, possibly linear, adapted to compress data P, into data p i:
  • - C G is a compression operator, possibly linear, adapted to compress data G, into data g, of size equal to that of the data x ,.
  • FIG. 6b shows that the compression of the X induces a compression on the excitations G,. Indeed, the X, being resulting from the integration of an equation with the differences, they are more regular than the excitations P, and G ,. Therefore, their effect on the model is compressible.
  • the minimization with respect to f is carried out by the topological optimization step 200 described above, and for fixed f, a zero memory Gauss-Newton technique is used to estimate W, C P and C G.
  • the recursion loop is not done in the real space of the Xi but in the space of the compressed data.
  • This compression reduces the noise on the data and ensures better stability of the dynamic model, while reducing the calculation times in the learning and simulation phases.
  • the number of topological changes to be tested can increase very quickly with the size of the neural network. To limit the amount of calculations, we can choose the configurations to be tested at random and select only the one that gives the best estimate for reducing the error.
  • Example By way of illustration, an example of a possible but in no way limitative application is that of modeling the fusion of a solid sodium block.
  • Figure 7a we consider a small square container which contains sodium in the solid state.
  • Figure 7a is a top view of this container, which is heated by an electrical resistor positioned in a corner of the container for the purpose of melting the sodium.
  • the response of this system is represented by 9 temperature sensors 2, which only supply the value 0 if the temperature does not exceed the sodium melting threshold, and 1 if this value is exceeded.
  • a "digital twin" of this dynamic system is established from data measured during the first experiment with the first power profile, and in accordance with the dynamic system simulation method previously described by first performing compression of X ,.
  • the compression gives rise to a neural network comprising 18 inputs (two for each of the nine sensors) and 18 outputs.
  • FIG. 8a which represents a neural network of compression then decompression of X , it is found that the compression makes it possible to represent each X, by only two coefficients.
  • a dynamic modeling block is then inserted between the compression block and the decompression block in the form of a recurrent neural network, the pattern of which is represented in FIG. 8b.
  • the third input of this network corresponds to the power injected into the resistor.
  • the thickness of each connection represents its intensity, that is to say it is representative in relative terms of the weight of the connection. You can see that excitement plays an important role.
  • the bias which is connected to practically all the nodes of the network.
  • FIG. 9a corresponds to experiment 1
  • FIG. 9b corresponds to experiment 2
  • FIG. 9c corresponds to experiment 3.
  • On the abscissa is represented the time elapsed in seconds, and on the ordinate is represented the response of the sensor which is recalled that it takes as values only 0 for solid sodium and 1 for sodium liquid.
  • Wj represents the sub-matrix of W j which acts on the components of X 'The notation. * indicates the product component by component of two matrices of the same size.

Abstract

The subject of the invention is a method for constructing a forward propagation neural network, a set of nodes and of connection between the nodes forming a topology organized into layers, such that each layer is defined by a set of computable nodes that can be calculated during one and the same step, and the input of a processing node of a layer can be connected to the output of a node of any one of the previous layers, the method comprising a step of initializing a neural network according to an initial topology and at least one topological optimization phase, of which each phase comprises: - at least one additive phase comprising the modification of the topology of the network by the addition of at least one node and/or a connection link between the input of a node of a layer and the output of a node of any one of the previous layers, and/or - at least one subtractive phase comprising the modification of the topology of the network by the deletion of at least one node and/or a connection link between two layers, and in which each topology modification comprises the selecting of a topology modification from among a plurality of candidate modifications, on the basis of an estimation of the variation of the error of the network between each topology modified according to a candidate modification and the previous topology.

Description

Description  Description
Titre : Procédé de construction de réseau de neurones pour la simulation de systèmes physiques Title: Method for building a neural network for the simulation of physical systems
Domaine technique Technical area
[0001] L’invention concerne l’apprentissage de phénomènes représentant des systèmes réels avec des réseaux neuronaux parcimonieux, ayant très peu de connexions.  The invention relates to the learning of phenomena representing real systems with sparse neural networks, having very few connections.
[0002] L’invention s’applique notamment à la simulation d’un système réel statique, par exemple pour évaluer la réponse du système réel dans de nouvelles situations, mais également à la simulation d’un système réel dynamique sur des temps longs, par exemple pour modéliser l’évolution d’un système réel. Le modèle dynamique est basé sur une forme récurrente d’un réseau de neurones à propagation avant que nous appellerons dans ce qui suit « motif récurrent ».  The invention is particularly applicable to the simulation of a real static system, for example to assess the response of the real system in new situations, but also to the simulation of a real dynamic system over long times, for example to model the evolution of a real system. The dynamic model is based on a recurrent form of a propagating neural network before what we will call in the following "recurrent pattern".
[0003] L’invention trouve une application avantageuse dans la simulation au moins temps réel de systèmes physiques complexes.  The invention finds an advantageous application in the simulation at least real time of complex physical systems.
Technique antérieure  Prior art
[0004] La présente invention propose une méthode d’apprentissage de phénomènes réels par des réseaux neuronaux parcimonieux, ayant très peu de connexions. Cela peut concerner des phénomènes physiques, biologiques, chimiques ou encore informatiques.  The present invention provides a method of learning real phenomena by sparse neural networks, having very few connections. This can concern physical, biological, chemical or even computer phenomena.
[0005] Les méthodes de l’état de l’art se sont largement inspirées du cerveau biologique qui est fortement redondant. La redondance permet de protéger le cerveau contre la perte de cellules neuronales. Cette perte peut être accidentelle ou non. Il se trouve que le choix redondant, dans les réseaux neuronaux artificiels, joue un rôle majeur dans le processus d’apprentissage.  State-of-the-art methods have been largely inspired by the highly redundant biological brain. Redundancy helps protect the brain from the loss of neural cells. This loss can be accidental or not. It turns out that redundant choice in artificial neural networks plays a major role in the learning process.
[0006] La première cause de la redondance est liée à l’organisation de la topologie du réseau neuronal par couches de cellules neuronales. Il appartient à l’utilisateur de définir le nombre de couches et le nombre de cellules par couche... Cette construction se fait d’une manière manuelle selon un processus d’essai sur erreur. Le réseau neuronal doit avoir une taille suffisante pour effectuer l’apprentissage, mais sa taille n’est pas minimale et elle est forcément redondante.  The first cause of redundancy is linked to the organization of the topology of the neural network by layers of neural cells. It is up to the user to define the number of layers and the number of cells per layer ... This construction is done in a manual way according to a trial and error process. The neural network must be large enough to perform the learning, but it is not minimal in size and is necessarily redundant.
[0007] Ce caractère redondant joue un rôle majeur dans le processus d’apprentissage. En effet, d’après la publication de LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). "Deep learning". Nature. 521 (7553): 436-444, le processus d’apprentissage n’est pas piégé par les minima locaux, lorsque le réseau neuronal a une taille suffisante. This redundant nature plays a major role in the learning process. Indeed, according to LeCun's publication, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). "Deep learning". Nature. 521 (7553): 436-444, the learning process is not trapped by the local minima, when the neural network is sufficiently large.
[0008] Cette propriété fondamentale, fait de la méthode du gradient un candidat possible pour assurer l’apprentissage. Mais cette méthode, réputée pour avoir un taux de convergence très faible (https://en.wikipedia.org/wiki/Gradient_descent), assure une très bonne descente de l’erreur au début du processus d’apprentissage. D’où l’idée du gradient stochastique : Bottou, L. (2010). Large-scale machine learning with stochastic gradient descent. In Proceedings of COMPSTAT2010 (pp. 177-186). Physica-Verlag HD, qui renforce cette propriété en changeant de fonction d’erreur à chaque itération du gradient. Cela consiste à appliquer une itération du gradient à chaque échantillon d’apprentissage à tour de rôle. Parfois, la méthode du gradient stochastique est appliquée par petits groupes d’échantillons. Le gradient stochastique, comme le gradient, n’a pas de bonne convergence locale. La réponse à ce problème est la redondance. En effet, en raison de ce caractère redondant, il faut que le processus d’apprentissage s’arrête prématurément pour éviter le phénomène de surapprentissage. Ainsi les méthodes du gradient et du gradient stochastique ne sont utilisées que dans leur domaine d’efficacité.  This fundamental property makes the gradient method a possible candidate for learning. But this method, reputed to have a very low convergence rate (https://en.wikipedia.org/wiki/Gradient_descent), ensures a very good descent of the error at the start of the learning process. Hence the idea of the stochastic gradient: Bottou, L. (2010). Large-scale machine learning with stochastic gradient descent. In Proceedings of COMPSTAT2010 (pp. 177-186). Physica-Verlag HD, which reinforces this property by changing the error function with each iteration of the gradient. This involves applying an iteration of the gradient to each learning sample in turn. Sometimes the stochastic gradient method is applied in small groups of samples. The stochastic gradient, like the gradient, does not have good local convergence. The answer to this problem is redundancy. Indeed, due to this redundant nature, the learning process must stop prematurely to avoid the phenomenon of over-learning. Thus the gradient and stochastic gradient methods are used only in their field of efficiency.
[0009] Enfin, dans un contexte redondant, le grand nombre de poids de connexions à déterminer nécessite l’utilisation de quantités massives de données. L’état de l’art va de pair avec ce que l’on appelle en anglais « big data ».  Finally, in a redundant context, the large number of connection weights to be determined requires the use of massive amounts of data. The state of the art goes hand in hand with what is known in English as "big data".
[0010] L’état de l’art représente un édifice cohérent basé sur la redondance. Mais l’absence de convergence locale montre que l’état de l’art est orienté vers l’apprentissage qualitatif. Si la réponse est supérieure à 0,5, on l’assimile à un et si elle est inférieure à 0,5, on l’assimile à 0. Les réponses quantitatives ont des exigences de précision qui ne sont pas prises en compte par ces méthodes.  The state of the art represents a coherent building based on redundancy. But the absence of local convergence shows that the state of the art is oriented towards qualitative learning. If the answer is greater than 0.5, it is assimilated to one and if it is less than 0.5, it is assimilated to 0. Quantitative responses have precision requirements which are not taken into account by these methods.
[0011] La présente invention répond aux besoins du domaine émergeant de la modélisation de systèmes physiques complexes par la création d’une copie numérique, également appelée jumeau numérique ou Digital Twin, du système physique, adaptée pour prédire avec fidélité l’état d’un système physique plus rapidement que le système réel, et de préférence des milliers de fois plus rapidement, de manière à être en mesure de simuler un grand nombre de scénarios possibles impactant le système physique avant de prendre la meilleure décision pour le système réel.  The present invention meets the needs of the emerging field of modeling complex physical systems by creating a digital copy, also called digital twin or Digital Twin, of the physical system, adapted to accurately predict the state of a physical system faster than the real system, and preferably thousands of times faster, so as to be able to simulate a large number of possible scenarios impacting the physical system before making the best decision for the real system.
[0012] La notion de jumeau numérique a été introduite dans les publications suivantes : The notion of digital twin has been introduced in the following publications:
- Glaessgen, E.H. & Stargel, D (Avril 2012), « The Digital Twin paradigm for future NASA and US Air Force vehicles », In 53rd Struct. Dyn. Mater. Conf. Spécial Session : Digital Twin, Honolulu, Hi, US. - Glaessgen, EH & Stargel, D (April 2012), “The Digital Twin paradigm for future NASA and US Air Force vehicles ”, In 53rd Struct. Dyn. Mater. Conf. Special Session: Digital Twin, Honolulu, Hi, US.
- Tuegel, E.J., Ingraffea, A.R., Eason, T.G. & Spottswood, S.M. (201 1 ), « Reengineering aircraft structural life prédiction using a digital twin”, International Journal of Aerospace Engineering, 201 1 .  - Tuegel, E.J., Ingraffea, A.R., Eason, T.G. & Spottswood, S.M. (201 1), “Reengineering aircraft structural life prediction using a digital twin”, International Journal of Aerospace Engineering, 201 1.
[0013] La plupart des méthodes d’apprentissage, lorsqu’elles sont appliquées à des phénomènes quantitatifs, se limitent en général à des cas relativement simples qui ne nécessitent que des modèles peu profonds. En plus des méthodes neuronales, on peut citer des méthodes comme le Krigeage (en anglais « Kriging ») et la machine à support vectoriel (en anglais « Support Vector Machine Régression ») :  Most learning methods, when applied to quantitative phenomena, are generally limited to relatively simple cases which require only shallow models. In addition to neural methods, we can cite methods such as Kriging (in English "Kriging") and the vector-supported machine (in English "Support Vector Machine Regression"):
- Lophaven, S. N., Nielsen, H. B., & Sondergaard, J. (2002). DACE: a Matlab kriging toolbox (Vol. 2). IMM, Informatics and Mathematical Modelling, The Technical University of Denmark, :  - Lophaven, S. N., Nielsen, H. B., & Sondergaard, J. (2002). DACE: a Matlab kriging toolbox (Vol. 2). IMM, Informatics and Mathematical Modeling, The Technical University of Denmark,:
- Balabin, R. M., & Lomakina, E. I. (201 1 ). Support vector machine régression (SVR/LS- SVM)— an alternative to neural networks (ANN) for analytical chemistry? Comparison of nonlinear methods on near infrared (NIR) spectroscopy data. Analyst, 136(8), 1703-1712, - Balabin, R. M., & Lomakina, E. I. (201 1). Support vector machine regression (SVR / LS- SVM) - an alternative to neural networks (ANN) for analytical chemistry? Comparison of nonlinear methods on near infrared (NIR) spectroscopy data. Analyst, 136 (8), 1703-1712,
[0014] Ces deux méthodes, extrêmement populaires, peuvent être assimilées à des réseaux neuronaux peu profonds, n’ayant que trois couches de neurones. These two extremely popular methods can be likened to shallow neural networks, having only three layers of neurons.
[0015] Ces méthodes, ainsi que les réseaux neuronaux à faible nombre de couches couvrent l’essentiel des besoins dans le domaine de modélisation de phénomènes quantitatifs.  These methods, as well as neural networks with a low number of layers cover most of the needs in the field of modeling quantitative phenomena.
[0016] La nécessité de l’apprentissage profond et quantitatif apparaît dans des cas particuliers tels que :  The need for deep and quantitative learning appears in special cases such as:
- La modélisation dynamique avec des réseaux neuronaux récurrents. Une prédiction sur 1000 pas de temps est équivalente à la création d’un réseau neuronal ayant plusieurs milliers de couches,  - Dynamic modeling with recurrent neural networks. A prediction over 1000 time steps is equivalent to the creation of a neural network with several thousand layers,
- La compression non linéaire de données par réseaux neuronaux, où le taux de compression augmente d’une manière considérable avec le nombre de couches du réseaux neuronaux.  - Non-linear compression of data by neural networks, where the compression rate increases considerably with the number of layers of the neural networks.
[0017] Même si la détermination manuelle de la topologie du réseau neuronal domine l’état de l’art, la question de la détermination d’une topologie adaptée au problème est posée. La recherche automatique d’une topologie optimale est un vieux sujet de recherche dans le domaine neuronal. On peut citer par exemple Attik, M., Bougrain, L., & Alexandre, F. (2005, September). Neural network topology optimization. In International Conférence on Artificial Neural Networks (pp. 53-58). Springer, Berlin, Heidelberg, qui est représentatif des techniques d’élagage (en anglais pruning) pour simplifier un réseau. Even if the manual determination of the topology of the neural network dominates the state of the art, the question of determining a topology adapted to the problem is posed. The automatic search for an optimal topology is an old research subject in the neuronal field. We can quote for example Attik, M., Bougrain, L., & Alexandre, F. (2005, September). Neural network topology optimization. In International Conférence on Artificial Neural Networks (pp. 53-58). Springer, Berlin, Heidelberg, which is representative of pruning techniques to simplify a network.
[0018] On peut citer d’autres méthodes d’optimisation topologique : We can cite other topological optimization methods:
- Mineu, N. L, Ludermir, T. B., & Almeida, L. M. (2010, July). Topology optimization for artificial neural networks using differential évolution. In Neural Networks (IJCNN), The 2010 International Joint Conférence on (pp. 1 -7). IEEE.  - Mineu, N. L, Ludermir, T. B., & Almeida, L. M. (2010, July). Topology optimization for artificial neural networks using differential evolution. In Neural Networks (IJCNN), The 2010 International Joint Conférence on (pp. 1-7). IEEE.
- Nazghelichi, T., Aghbashlo, M., & Kianmehr, M. H. (201 1 ). Optimization of an artificial neural network topology using coupled response surface methodology and genetic algorithm for fluidized bed drying. Computers and electronics in agriculture, 75(1 ), 84-91.  - Nazghelichi, T., Aghbashlo, M., & Kianmehr, M. H. (201 1). Optimization of an artificial neural network topology using coupled response surface methodology and genetic algorithm for fluidized bed drying. Computers and electronics in agriculture, 75 (1), 84-91.
[0019] Elles sont basées sur les algorithmes génétiques. Ces méthodes sont connues pour être très lentes. Grâce aux moyens de calculs disponibles, ces méthodes sont de plus en plus utilisées, sur une base redondante des réseaux neuronaux. They are based on genetic algorithms. These methods are known to be very slow. Thanks to the means of calculation available, these methods are increasingly used, on a redundant basis of neural networks.
[0020] Or, il existe aussi des applications pour lesquelles la quantité de données disponibles est très limitée (on parle alors de « small data »), et dans ce cas les structures redondantes de réseaux de neurones ne sont pas utilisables car elles exigent plus de données que ce qui est disponible.  However, there are also applications for which the amount of data available is very limited (this is called "small data"), and in this case the redundant structures of neural networks cannot be used because they require more than what is available.
[0021] D’autres approches consistent à créer un modèle réduit en s’appuyant sur des logiciels de simulation lourds, qui demandent des heures de calcul et qui ne sont pas compatibles avec le temps réel. Ces approches consistent à créer un espace de dimension réduite sur lequel sont projetés les paramètres du système. Ainsi par exemple, pour le cas d’un système dynamique, en notant X, la solution d’un problème non réduit à l’instant i, un solveur doit, pour déterminer Xi+1 à partir de X,, résoudre un système de N équations de type F(Xi,Xi+1) = 0 Other approaches consist in creating a reduced model by relying on heavy simulation software, which requires hours of calculation and which is not compatible with real time. These approaches consist in creating a space of reduced dimension on which are projected the parameters of the system. So for example, for the case of a dynamic system, by noting X, the solution of a problem not reduced at time i, a solver must, to determine X i + 1 from X ,, solve a system of N equations of type F (Xi, X i + 1 ) = 0
[0022] Le nombre N est également la dimension des vecteurs X, et Xi+1. La mise en œuvre d’un modèle réduit consiste à déterminer une base réduite orthonormée que l’on note U=(Ui, U2, ..., Un) où n«N. On peut donc comprimer X, par : xt = UTXU où les x, sont les coefficients de taille n de X,, dans la base réduite U, et on peut décompresser x, pour obtenir X, comme suit : Xi « Ux t The number N is also the dimension of the vectors X, and X i + 1 . The implementation of a reduced model consists in determining a reduced orthonormal base which one notes U = (Ui, U 2 , ..., U n ) where n «N. We can therefore compress X, by: x t = U T X U where the x, are the size coefficients n of X ,, in the reduced base U, and we can decompress x, to obtain X, as follows: Xi " Ux t
[0023] Le modèle réduit consiste à résoudre à chaque pas de temps un système F(Uxi,Uxi+i)=0 dont l’inconnue xi+i est de petite taille n. Ce système est résolu au sens des moindres carrés. [0024] Comme représenté schématiquement sur la figure 1 , une fois la donnée compressée xi+i déterminée à partir de c,, elle est décompressée pour mettre en oeuvre une boucle de récursion sur la donnée réelle. The reduced model consists in solving at each time step a system F (Uxi, Ux i + i ) = 0 whose unknown x i + i is of small size n. This system is solved in the least squares sense. As shown schematically in Figure 1, once the compressed data x i + i determined from c ,, it is decompressed to implement a recursion loop on the real data.
[0025] Cette approche par modèle réduit a par exemple été proposée dans les publications suivantes :  This reduced model approach has for example been proposed in the following publications:
- Carlberg, K., Farhat, C., Cortial, J., & Amsallem, D. (2013). The GNAT method for nonlinear model réduction: effective implémentation and application to computational fluid dynamics and turbulent flows. Journal of Computational Physics, 242, 623-647,  - Carlberg, K., Farhat, C., Cortial, J., & Amsallem, D. (2013). The GNAT method for nonlinear model reduction: effective implementation and application to computational fluid dynamics and turbulent flows. Journal of Computational Physics, 242, 623-647,
- Chinesta, F., Ladeveze, P., & Cueto, E. (201 1 ). A short review on model order réduction based on proper generalized décomposition. Archives of Computational Methods in Engineering, 18(4), 395-404.  - Chinesta, F., Ladeveze, P., & Cueto, E. (201 1). A short review on model order reduction based on proper generalized decomposition. Archives of Computational Methods in Engineering, 18 (4), 395-404.
[0026] Cette approche n’est pourtant pas sans inconvénient.  This approach is not without drawbacks, however.
[0027] En premier lieu, le problème réduit est fortement instable, ce qui signifie qu’une petite perturbation des données entraîne une grande déviation de la solution. De ce fait, l’approximation de l’état d’un système physique complexe avec un tel modèle est difficile.  First, the reduced problem is highly unstable, which means that a small data disturbance leads to a large deviation from the solution. Therefore, the approximation of the state of a complex physical system with such a model is difficult.
[0028] De plus, la minimisation de | |F| |2 implique le calcul d’un résidu, de grande dimension N, un certain nombre de fois, ce qui peut s’avérer coûteux en temps de calcul. Or, en raison du problème d’instabilité, le résidu doit être minimisé avec la plus grande précision à chaque étape. Par conséquent les méthodes actuelles sont insuffisamment précises pour décrire des systèmes physiques complexes non linéaires, et trop coûteuses en temps de calcul pour pouvoir être utilisées en temps réel dans des systèmes embarqués. In addition, the minimization of | | F | | 2 implies the computation of a residue, of large dimension N, a certain number of times, which can prove to be costly in computation time. However, because of the instability problem, the residue must be minimized with the greatest precision at each step. Consequently the current methods are insufficiently precise to describe complex non-linear physical systems, and too costly in computation time to be able to be used in real time in embedded systems.
[0029] L’idée de base de ces méthodes est d’extraire du logiciel de simulation des informations de modélisation à travers le calcul de résidu. Notre approche est tellement parcimonieuse, qu’elle arrive à capturer les phénomènes physiques et biologiques véhiculés par les données.  The basic idea of these methods is to extract modeling information from the simulation software through the residue calculation. Our approach is so parsimonious, that it manages to capture the physical and biological phenomena conveyed by the data.
[0030] Ainsi il n’existe pas à ce jour de solution permettant de modéliser avec précision et rapidité un système physique complexe, sur des temps longs, afin de le reproduire sous la forme d’une copie numérique.  So there is no solution to date to accurately and quickly model a complex physical system, over long periods of time, in order to reproduce it in the form of a digital copy.
Exposé de l’invention [0031] L’invention a pour objet de remédier aux lacunes de l’art antérieur décrites ci- avant, basé sur l’utilisation de réseaux neuronaux redondant pour l’apprentissage de phénomènes réels représentant des systèmes réels. Statement of the invention The invention aims to remedy the shortcomings of the prior art described above, based on the use of redundant neural networks for learning real phenomena representing real systems.
[0032] En particulier, un but de l’invention est de proposer une méthode de simulation dynamique d’un système physique complexe pourvue d’excellentes capacités de prédiction sur des temps longs et qui soit plus rapide que le temps réel du système physique.  In particular, an object of the invention is to propose a method of dynamic simulation of a complex physical system provided with excellent prediction capacities over long times and which is faster than the real time of the physical system.
[0033] Un autre but de l’invention est d’être applicable à la modélisation tant statique que dynamique de systèmes physiques complexes, et d’être applicable également à la compression non linéaire de systèmes complexes. En effet, le taux de compression augmente d’une manière drastique avec la profondeur du réseau. Cette compression est à la base de la prédiction dynamique sur des temps longs.  Another object of the invention is to be applicable to both static and dynamic modeling of complex physical systems, and to also be applicable to nonlinear compression of complex systems. In fact, the compression ratio increases drastically with the depth of the network. This compression is the basis of dynamic prediction over long times.
[0034] L’invention a enfin pour but de proposer une structure de réseau de neurones adaptée à l’application qui en est faite ultérieurement, cette structure étant parcimonieuse, c’est-à-dire la plus réduite possible pour nécessiter une quantité faible de données pour son apprentissage.  The invention finally aims to provide a neural network structure adapted to the application which is made later, this structure being parsimonious, that is to say as small as possible to require a small amount of data for his learning.
[0035] Plus particulièrement, l’invention a pour objet un procédé de construction d’un réseau de neurones à propagation avant, comprenant un ensemble de noeuds de traitement et de connexions entre les noeuds formant une topologie organisée en couches, telle que chaque couche est définie par un ensemble de noeuds calculables simultanément, et l’entrée d’un nœud de traitement d’une couche peut être connectée à la sortie d’un nœud de l’une quelconque des couches précédemment calculées,  More particularly, the invention relates to a method of constructing a forward propagation neural network, comprising a set of processing nodes and connections between the nodes forming a topology organized in layers, such as each layer is defined by a set of simultaneously calculable nodes, and the input of a processing node of a layer can be connected to the output of a node of any of the previously calculated layers,
le procédé comprenant une étape d’initialisation d’un réseau de neurones selon une topologie initiale comprenant une couche d’entrée, au moins une couche cachée comprenant au moins un nœud, et un ensemble de nœuds de sortie, the method comprising a step of initializing a neural network according to an initial topology comprising an input layer, at least one hidden layer comprising at least one node, and a set of output nodes,
et au moins une phase d’optimisation topologique, chaque phase d’optimisation topologique comprenant : and at least one topological optimization phase, each topological optimization phase comprising:
au moins une phase additive comprenant la modification de la topologie du réseau par l’ajout d’au moins un nœud et/ou un lien de connexion entre l’entrée d’un nœud d’une couche et la sortie d’un nœud de l’une quelconque des couches précédentes, et/ou au moins une phase soustractive comprenant la modification de la topologie du réseau par la suppression d’au moins un nœud et/ou un lien de connexion entre deux couches, et dans lequel chaque modification de topologie comprend la sélection d’une modification de topologie parmi plusieurs modifications candidates, à partir d’une estimation de la variation de l’erreur du réseau, calculée sur des données d’apprentissage, entre chaque topologie modifiée selon une modification candidate et la topologie précédente. at least one additive phase comprising the modification of the network topology by adding at least one node and / or a connection link between the entry of a node of a layer and the exit of a node of any of the preceding layers, and / or at least one subtractive phase comprising the modification of the network topology by the removal of at least one node and / or a connection link between two layers, and in which each modification of topology includes the selection of a topology modification from among several candidate modifications, from an estimate of the variation of the network error, calculated on training data, between each topology modified according to a candidate modification and the previous topology.
[0036] Avantageusement, mais facultativement, la modification de topologie sélectionnée est celle, parmi les modifications candidates, optimisant la variation de l’erreur par rapport à la topologie précédente.  Advantageously, but optionally, the modification of topology selected is that, among the candidate modifications, optimizing the variation of the error compared to the previous topology.
[0037] Dans un mode de réalisation, l’erreur du réseau pour une topologie donnée est définie par /(r,W*) où In one embodiment, the network error for a given topology is defined by / (r, W * ) where
- J est une fonction d’erreur entre une donnée de sortie du réseau et un résultat cible, - J is an error function between a data output from the network and a target result,
- G est la topologie du réseau, et - G is the network topology, and
- W* est la matrice des poids de connexion du réseau minimisant la fonction d’erreur J à topologie G fixée. - W * is the network connection weight matrix minimizing the error function J with fixed topology G.
[0038] Dans un mode de réalisation, la variation de l’erreur du réseau entre une topologie candidate et la topologie précédente est estimée en calculant la quantité : j(rn, Wn, ) - J(rn_1, Wn-1*) où par abus de notation, nous notons In one embodiment, the variation of the network error between a candidate topology and the previous topology is estimated by calculating the quantity: j (r n , W n ,) - J (r n_1 , W n- 1 * ) where by abuse of notation, we note
Gp la topologie du réseau candidate à l’itération n, G p the topology of the candidate network for iteration n,
Wn est une matrice des poids de connexion du réseau après au moins une itération d’apprentissage du réseau suite à la modification topologique candidate à l’itération n, et Wn 1 * est la matrice des poids de connexion du réseau d’itération n-1 minimisant la fonction d’erreur J avec la topographie Gp 1 fixée. W n is a matrix of network connection weights after at least one learning iteration of the network following the candidate topological modification to iteration n, and W n 1 * is the matrix of connection weights of the iteration network n-1 minimizing the error function J with the topography G p 1 fixed.
[0039] Wn peut alors être initialisé avec les mêmes poids de connexion que la matrice Wn 1 * pour les connexions communes aux deux topologies et, dans le cas d’une phase additive, un poids de connexion nul pour chaque lien créé lors de la phase additive. W n can then be initialized with the same connection weights as the matrix W n 1 * for the connections common to the two topologies and, in the case of an additive phase, a connection weight of zero for each link created during of the additive phase.
[0040] Dans un mode de réalisation, l’estimation de la variation de l’erreur du réseau entre une topologie modifiée et la topologie précédente comprend l’estimation de l’erreur du réseau selon la topologie modifiée à partir de l’opérateur de Lagrange appliqué aux poids de connexion du réseau de neurones £(G, W,X,A) où :  In one embodiment, the estimation of the variation of the network error between a modified topology and the previous topology comprises the estimation of the network error according to the modified topology from the operator of Lagrange applied to the connection weights of the neural network £ (G, W, X, A) where:
L est l’opérateur de Lagrange,  L is the operator of Lagrange,
G est la topologie du réseau,  G is the network topology,
W est une matrice de poids de connexion du réseau,  W is a network connection weight matrix,
X=(X°,...,Xnc) représente les sorties de l’ensemble des noeuds du réseau et X' représente les sorties des noeuds de la couche i, et X = (X °, ..., X nc ) represents the outputs of all the nodes of the network and X 'represents the outputs of the nodes of layer i, and
A, est le multiplicateur de Lagrange associé à l’expression définissant les éléments de la couche X'. [0041] Avantageusement, lors d’une phase additive, la variation de l’erreur du réseau entre une topologie candidate et la topologie précédente est estimée en calculant la quantité : L(Yn, Wn,X, K )— /(Gp_1, Wn_1*) où : A, is the Lagrange multiplier associated with the expression defining the elements of layer X '. Advantageously, during an additive phase, the variation of the network error between a candidate topology and the previous topology is estimated by calculating the quantity: L (Y n , W n , X, K) - / ( G p_1 , W n_1 * ) where:
- GP est la topologie du réseau candidate à l’itération n, - G P is the topology of the candidate network for iteration n,
- Wn 1 * est la matrice des poids de connexion du réseau de la topologie d’itération n-1 minimisant la fonction d’erreur J pour une topographie fixée, - W n 1 * is the matrix of the connection weights of the network of the iteration topology n-1 minimizing the error function J for a fixed topography,
- Wn est une matrice des poids de connexion du réseau après la modification topologique candidate à l’itération n, ladite matrice étant initialisée avec les mêmes poids de connexion que la matrice Wn_1* pour les connexions communes entre la topologie candidate à l’itération n et la topologie d’itération n-1 , et un poids de connexion nul pour chaque lien créé lors de la phase additive. Une mise à jour de Wn est ensuite obtenue en minimisant £ par rapport aux poids des liens créés. - W n is a matrix of the network connection weights after the candidate topological modification to iteration n, said matrix being initialized with the same connection weights as the matrix W n_1 * for the common connections between the candidate topology iteration n and the iteration topology n-1, and a zero connection weight for each link created during the additive phase. An update of W n is then obtained by minimizing £ with respect to the weight of the links created.
[0042] Avantageusement, lors d’une phase soustractive, la variation de l’erreur du réseau entre une topologie calculée et la topologie précédente est estimée en calculant la quantité : £(Tn, Wn,X, A ) -
Figure imgf000010_0001
est une restriction de Wn 1 * à la topologie GP.
Advantageously, during a subtractive phase, the variation of the network error between a calculated topology and the previous topology is estimated by calculating the quantity: £ (T n , W n , X, A) -
Figure imgf000010_0001
is a restriction of W n 1 * to the topology G P.
[0043] Dans un mode de réalisation, le réseau de neurones est adapté pour simuler un système réel régi par une équation de type Y=f(X) où X est une donnée d’entrée et Y est une réponse du système physique, et l’erreur J du réseau de neurones est définie en fonction de la topologie G et de la matrice W des poids de connexion du réseau, par :
Figure imgf000010_0002
est la sortie du réseau de neurones, et X, et Y, sont respectivement des données d’entrée et de sortie engendrées par des mesures sur le système réel.
In one embodiment, the neural network is adapted to simulate a real system governed by an equation of the type Y = f (X) where X is an input datum and Y is a response of the physical system, and the error J of the neural network is defined according to the topology G and the matrix W of the network connection weights, by:
Figure imgf000010_0002
is the output of the neural network, and X, and Y, are respectively input and output data generated by measurements on the real system.
[0044] Dans un mode de réalisation, le procédé comprend, une fois la modification de topologie sélectionnée, la détermination d’une matrice des poids de connexion du réseau par une méthode de descente de l’erreur par rapport à ladite matrice. Cette étape est un apprentissage du réseau à la topologie obtenue à l’issue de la modification topologique.  In one embodiment, the method comprises, once the topology modification has been selected, the determination of a matrix of network connection weights by a method of descending the error with respect to said matrix. This step is a training of the network in the topology obtained after the topological modification.
[0045] Contrairement à l’état de l’art, ce processus d’apprentissage est basé sur une méthode de descente ayant une convergence rapide de type Gauss-Newton.  Unlike the state of the art, this learning process is based on a descent method having rapid convergence of the Gauss-Newton type.
[0046] Avantageusement, l’étape d’optimisation topologique est mise en oeuvre en fonction d’erreurs moyennes du réseau de neurones sur des données d’apprentissage d’une part, et sur des données de validation d’autre part, dans lequel :  Advantageously, the topological optimization step is implemented as a function of average errors of the neural network on training data on the one hand, and on validation data on the other hand, in which :
- au moins une étape additive est mise en oeuvre pour faire baisser l’erreur sur les données d’apprentissage, - at least one additive step is implemented to reduce the error on the learning data,
au moins une étape soustractive est mise en oeuvre, si l’erreur sur les données d’apprentissage devient inférieure à l’erreur sur les données de validation au-delà d’une tolérance prédéterminée, et at least one subtractive step is implemented, if the error on the training data becomes less than the error on the validation data beyond a predetermined tolerance, and
l’optimisation topologique est arrêtée lorsque toute étape additive ou soustractive ne résulte plus en une diminution de l’erreur sur les données d’apprentissage et sur les données de validation. topological optimization is stopped when any additive or subtractive step no longer results in a reduction of the error on the training data and on the validation data.
[0047] Dans un mode de réalisation, le réseau de neurones comprend au moins un bloc de compression adapté pour générer des données compressées, et un bloc de décompression, le procédé comprenant au moins une phase d’optimisation topologique mise en oeuvre sur le bloc de compression et le bloc de décompression, et comprenant en outre, à l’issue de l’optimisation topologique des blocs, une phase d’apprentissage de l’ensemble du réseau de neurones à topologie fixée.  In one embodiment, the neural network comprises at least one compression block adapted to generate compressed data, and a decompression block, the method comprising at least one topological optimization phase implemented on the block of compression and the decompression block, and further comprising, after the topological optimization of the blocks, a learning phase of the entire neural network with fixed topology.
[0048] Dans ce cas, l’étape d’initialisation du réseau de neurones comprend :  In this case, the initialization step of the neural network includes:
- la création d’un réseau de neurones initial comprenant : - the creation of an initial neural network including:
- une couche d’entrée recevant une entrée X,,  - an input layer receiving an input X ,,
- une couche de sortie générant une sortie X, et  - an output layer generating an output X, and
- une couche cachée centrale disposée entre la couche d’entrée et la couche de sortie, - a central hidden layer placed between the input layer and the output layer,
- la mise en oeuvre d’un apprentissage du réseau de neurones initial, - the implementation of an initial neural network learning,
- le remplacement, dans le réseau de neurones initial, de la couche cachée centrale par une première couche intermédiaire, une nouvelle couche centrale, et une deuxième couche intermédiaire, les couches intermédiaires étant des copies de la couche centrale remplacée, et the replacement, in the initial neural network, of the central hidden layer by a first intermediate layer, a new central layer, and a second intermediate layer, the intermediate layers being copies of the replaced central layer, and
- la définition du bloc de compression comme l’ensemble des couches comprises entre la couche d’entrée et la couche centrale, et du bloc de décompression comme l’ensemble des couches comprises entre la couche centrale et la couche de sortie.  - the definition of the compression block as all of the layers between the input layer and the central layer, and of the decompression block as all of the layers between the central layer and the output layer.
[0049] Le procédé peut en outre comprendre la mise en oeuvre itérative :  The method can also include iterative implementation:
- d’une étape de subdivision de la couche centrale par une nouvelle première couche intermédiaire, une nouvelle couche centrale, et une nouvelle deuxième couche intermédiaire,  - a step of subdividing the central layer by a new first intermediate layer, a new central layer, and a new second intermediate layer,
de redéfinition des blocs de compression et de décompression pour inclure les couches obtenues à l’issue de l’étape de subdivision et redefining the compression and decompression blocks to include the layers obtained at the end of the subdivision step and
- d’optimisation topologique des blocs de compression et de décompression. [0050] Dans un mode de réalisation, le procédé comprend en outre la sélection du bloc de compression et de décompression et l’ajout d’un bloc de modélisation, respectivement en sortie du bloc de compression ou en entrée du bloc de décompression, dans lequel au moins une phase d’optimisation topologique est mise en oeuvre sur le bloc de modélisation, et une phase d’apprentissage à topologie fixée est mise en oeuvre sur l’ensemble comprenant le bloc de modélisation et le bloc de compression ou de décompression. - topological optimization of the compression and decompression blocks. In one embodiment, the method further comprises the selection of the compression and decompression block and the addition of a modeling block, respectively at the output of the compression block or at the input of the decompression block, in which at least one topological optimization phase is implemented on the modeling block, and a learning phase with fixed topology is implemented on the assembly comprising the modeling block and the compression or decompression block.
[0051] Dans un mode de réalisation, le procédé comprend en outre l’insertion, entre le bloc de compression et le bloc de décompression, d’un bloc de modélisation adapté pour modéliser l’évolution d’un système dynamique régi par une équation de la forme Xi+1 = F (Xu Pt) + G i ³ 0 où X, est une caractéristique mesurable du système physique à un instant donné, P, décrit l’état interne du système physique, et G, décrit une excitation, et le bloc de modélisation est adapté pour calculer une sortie xi+1 de la forme : xi+1 = hf ,w(xi’PÔ + 9u i ³ 0, X0 = Cx(X0)) (17) où : In one embodiment, the method further comprises the insertion, between the compression block and the decompression block, of a modeling block adapted to model the evolution of a dynamic system governed by an equation of the form X i + 1 = F (X u Pt) + G i ³ 0 where X, is a measurable characteristic of the physical system at a given time, P, describes the internal state of the physical system, and G, describes a excitation, and the modeling block is adapted to calculate an output x i + 1 of the form: x i + 1 = hf , w ( x i'PÔ + 9u i ³ 0, X 0 = C x (X 0 )) (17) where:
- x, est une compression de X, par le bloc de compression xt = Oc(C ), - x, is a compression of X, by the compression block x t = O c (C),
- hf'W est la fonction calculée par le bloc de modélisation, f et V sont respectivement la topologie et la matrice des poids de connexions du bloc de modélisation, et - hf 'W is the function calculated by the modeling block, f and V are respectively the topology and the matrix of the connection weights of the modeling block, and
- pk et gk sont les données représentatives de l’excitation et de l’état interne du système alimentant le bloc de modélisation. - p k and g k are the data representative of the excitation and the internal state of the system supplying the modeling block.
[0052] L’invention a également pour objet un réseau de neurones, caractérisé en ce qu’il est obtenu par la mise en oeuvre du procédé selon la description qui précède.  The invention also relates to a neural network, characterized in that it is obtained by the implementation of the method according to the preceding description.
[0053] L’invention a également pour objet un produit programme d’ordinateur, comprenant des instructions de code pour la mise en oeuvre du procédé selon la description qui précède, lorsqu’il est exécuté par un processeur.  The invention also relates to a computer program product, comprising code instructions for implementing the method according to the preceding description, when it is executed by a processor.
[0054] L’invention a également pour objet un procédé de simulation d’un système réel régi par une équation de type Y=f(X) où X est une donnée d’entrée et Y est une réponse du système réel, comprenant :  The invention also relates to a method for simulating a real system governed by an equation of type Y = f (X) where X is an input data and Y is a response of the real system, comprising:
- la construction d’un réseau de neurones adapté pour calculer une fonction fT W telle que Y ~ fr,w(X > par 'a mise en oeuvre du procédé selon la description qui précède, le réseau de neurones comprenant éventuellement un bloc de compression, et - the construction of a neural network adapted to calculate a function f TW such that Y ~ fr , w (X > by 'implementing the method according to the preceding description, the neural network possibly comprising a compression block , and
- l’application, à une nouvelle donnée d’entrée X,, du réseau de neurones pour en déduire une simulation de réponse Y, du système. [0055] L’invention a également pour objet un procédé de simulation d’un système physique dynamique régi par une équation de la forme Xi+1 = F (Xi, Pt) + G i ³ 0 où X, est une grandeur mesurable du système physique à un instant donné, P, décrit l’état interne du système physique, et G, décrit une excitation, le procédé comprenant les étapes de : the application, to a new input datum X ,, of the neural network in order to deduce therefrom a simulation of response Y, of the system. The invention also relates to a method for simulating a dynamic physical system governed by an equation of the form X i + 1 = F (Xi, Pt) + G i ³ 0 where X, is a measurable quantity of the physical system at a given time, P, describes the internal state of the physical system, and G, describes an excitation, the method comprising the steps of:
- acquisition de C,, P, et G,,  - acquisition of C ,, P, and G ,,
- compression de X, pour obtenir une donnée compressée x,,  - compression of X, to obtain a compressed data x ,,
- application récurrente, un nombre k de fois, d’un réseau de neurones modélisant le système physique dynamique sur la donnée compressée x, pour obtenir au moins une donnée compressée ultérieure xi+k, et - recurrent application, a number k of times, of a neural network modeling the dynamic physical system on the compressed data x, to obtain at least one subsequent compressed data x i + k , and
- décompression de la donnée compressée ultérieure xi+k pour obtenir une modélisation d’une grandeur ultérieure Xi+k. - decompression of the subsequent compressed data x i + k to obtain a modeling of a subsequent quantity X i + k .
[0056] Dans un mode de réalisation, le procédé de simulation est mis en oeuvre au moyen d’un réseau de neurones construit selon le procédé décrit précédemment et comprenant un bloc de compression et un bloc de décompression, et les étapes de compression de X,, d’application d’un réseau de neurones et de décompression de xi+1 sont mises en oeuvre respectivement au moyen du bloc de compression, du bloc de modélisation et du bloc de décompression du réseau de neurones construit. In one embodiment, the simulation method is implemented by means of a neural network constructed according to the method described above and comprising a compression block and a decompression block, and the compression steps of X ,, application of a neural network and decompression of x i + 1 are implemented respectively by means of the compression block, the modeling block and the decompression block of the neural network constructed.
[0057] L’invention a enfin pour objet un procédé de compression de données comprenant :  The invention finally relates to a data compression method comprising:
- la construction, par la mise en oeuvre du procédé de compression selon la description qui précède, d’un réseau de neurones comprenant un bloc de compression recevant en entrée une donnée X et un bloc de décompression générant en sortie la donnée X, dans lequel la construction du réseau de neurones comprend la mise en oeuvre d’au moins une phase d’optimisation topologique sur le bloc de compression et le bloc de décompression, et l’application, à au moins une donnée représentative de l’état d’un système réel, du bloc de compression du réseau de neurones construit.  - the construction, by the implementation of the compression method according to the above description, of a neural network comprising a compression block receiving as input an X datum and a decompression block generating at output the datum X, in which the construction of the neural network includes the implementation of at least one topological optimization phase on the compression block and the decompression block, and the application, to at least one datum representative of the state of a real system, of the compression block of the neural network constructed.
[0058] Le procédé de construction d’un réseau de neurones selon l’invention permet d’obtenir un réseau de neurones dont la structure dépend de l’utilisation ou l’application prévue, puisque la construction comprend une phase d’optimisation topologique qui est gouvernée par l’erreur du réseau sur des données d’apprentissage et de validation.  The method of constructing a neural network according to the invention makes it possible to obtain a neural network whose structure depends on the intended use or application, since the construction comprises a topological optimization phase which is governed by the network error on training and validation data.
[0059] En d’autres termes, le procédé de construction comprend simultanément la construction, et l’apprentissage, pour une tâche spécifique, du réseau de neurones. Ceci permet à un utilisateur de ce procédé de ne pas avoir besoin de disposer de connaissances mathématiques particulières pour choisir une structure de réseau de neurones adaptée à l’application technique visée. In other words, the construction method simultaneously comprises the construction, and the learning, for a specific task, of the neural network. This allows a user of this process not to need to have specific mathematical knowledge to choose a neural network structure adapted to the targeted technical application.
[0060] Plus particulièrement, le procédé de construction selon l’invention permet de construire un réseau de neurones parcimonieux, c’est-à-dire où toute redondance est supprimée, optimisé pour la tâche visée. Cette propriété est obtenue par une construction incrémentale à partir d’une topologie initiale éventuellement minimale, c’est-à-dire comprenant une seule couche cachée comprenant un seul neurone, puis en mettant en œuvre un processus itératif comprenant une étape d’apprentissage en l’état courant du réseau, en utilisant une méthode à convergence locale rapide, telle que la méthode de Gauss-Newton, et une étape de modification topologique du réseau pour améliorer l’apprentissage. De plus, la mise en œuvre d’une technique d’optimisation topologique dans la construction joue un double rôle :  More particularly, the construction method according to the invention makes it possible to build a sparse neural network, that is to say where any redundancy is removed, optimized for the intended task. This property is obtained by an incremental construction from a possibly minimal initial topology, that is to say comprising a single hidden layer comprising a single neuron, then by implementing an iterative process comprising a learning step in the current state of the network, using a method of rapid local convergence, such as the Gauss-Newton method, and a step of topological modification of the network to improve learning. In addition, the implementation of a topological optimization technique in construction plays a double role:
- Eviter les minima locaux, où à chaque convergence (rapide) du processus d’apprentissage, la technique d’optimisation topologique additive enrichit le réseau neuronal par l’élément (nœud ou lien) qui améliore le mieux l’apprentissage. En effet, l’état de l’art évite les minima locaux par la redondance non contrôlée et nous évitons les minima locaux par un enrichissement contrôlé par le gradient topologique.  - Avoid local minima, where at each (rapid) convergence of the learning process, the additive topological optimization technique enriches the neural network with the element (node or link) that best improves learning. Indeed, the state of the art avoids local minima by uncontrolled redundancy and we avoid local minima by enrichment controlled by the topological gradient.
- Créer un réseau neuronal parcimonieux, et en particulier réduire sa profondeur afin d’atténuer les problèmes d’apprentissage mentionnés ci-dessus, et permettre l’apprentissage du réseau y compris avec des données rares ou en faibles quantités.  - Create a sparse neural network, and in particular reduce its depth in order to alleviate the learning problems mentioned above, and allow learning of the network even with scarce data or in small quantities.
[0061] Le procédé d’optimisation topologique donne au réseau neuronal une structure innovante dans la mesure où un neurone d’une couche, y compris la couche de sortie, peut être relié à un neurone de n’importe quelle couche précédente, y compris la couche d’entrée. En effet, lorsqu’un phénomène physique dépend d’un grand nombre de paramètres, la plupart de ces paramètres contribuent d’une manière linéaire à la réponse du système. D’où l’intérêt de connecter les entrées correspondantes directement à la couche de sortie du réseau neuronal. L’effet de paramètres faiblement non linéaires peut être pris en compte par une seule couche intermédiaire entre l’entrée et la sortie et ainsi de suite.  The topological optimization method gives the neural network an innovative structure insofar as a neuron of a layer, including the output layer, can be connected to a neuron of any previous layer, including the input layer. Indeed, when a physical phenomenon depends on a large number of parameters, most of these parameters contribute in a linear way to the response of the system. Hence the advantage of connecting the corresponding inputs directly to the output layer of the neural network. The effect of weakly non-linear parameters can be taken into account by a single intermediate layer between the input and the output and so on.
[0062] La réduction de la complexité du réseau neuronal améliore de fait sa capacité de généralisation (aptitude à donner la bonne réponse sur des données non apprises), Cela permet également d’atténuer les difficultés d’apprentissage (gradients explosifs et gradients évanescents) en réduisant le nombre de couches. En effet, dans un réseau structuré en couches, certaines cellules peuvent servir tout simplement à dupliquer des cellules antérieures afin de les rendre disponibles pour la couche qui suit. Cela augmente la complexité du réseau d’une manière inutile. The reduction in the complexity of the neural network in fact improves its generalization capacity (ability to give the right answer on unlearned data), This also makes it possible to attenuate the learning difficulties (explosive gradients and evanescent gradients) reducing the number of layers. Indeed, in a network structured in layers, certain cells can simply be used to duplicate previous cells to make them available for the next layer. This increases the complexity of the network in an unnecessary way.
[0063] Ce réseau de neurones, utilisé pour la modélisation d’un système physique complexe, permet une très bonne qualité de simulation pour des temps de calculs réduits, et notamment inférieurs au temps réel du système physique. Le modèle de simulation peut être construit à partir de mesures effectuées pendant le fonctionnement normal du système physique ou pendant des phases de test.  This neural network, used for modeling a complex physical system, provides very good simulation quality for reduced computation times, and in particular less than the real time of the physical system. The simulation model can be constructed from measurements made during normal operation of the physical system or during test phases.
[0064] De plus, l’optimisation topologique du réseau est avantageusement menée par l’utilisation de l’opérateur de Lagrange, ou lagrangien, appliqué aux poids de connexion du réseau de neurones. Cette méthode permet de calculer de façon particulièrement rapide l’effet d’une modification topologique du réseau (ajout/élimination d’une cellule neuronale, ajout élimination d’un lien), ce qui permet de rapidement évaluer et sélectionner à chaque étape la meilleure amélioration topologique du réseau de neurones.  In addition, the topological optimization of the network is advantageously carried out by the use of the Lagrange operator, or Lagrangian, applied to the connection weights of the neural network. This method makes it possible to calculate in a particularly fast way the effect of a topological modification of the network (addition / elimination of a neuronal cell, addition elimination of a link), which makes it possible to quickly assess and select at each stage the best topological improvement of the neural network.
[0065] Le réseau de neurones à propagation avant est avantageusement utilisé, comme motif récurrent, dans le cadre de la simulation dynamique de systèmes physiques pour prédire un état futur du système en fonction d’un état initial et d’éventuels termes sources ou excitations.  The forward propagation neural network is advantageously used, as a recurring motif, in the context of the dynamic simulation of physical systems to predict a future state of the system as a function of an initial state and possible source or excitation terms. .
[0066] Le réseau de neurones est avantageusement combiné à une approche dans laquelle les données représentatives de l’état du système physique sont compressées. Le modèle dynamique simule l’état futur du système sur les données compressées, puis décompresse les données simulées pour revenir à l’espace réel. Contrairement à l’état de la technique portant sur les bases réduites décrit ci-avant, la boucle de récursion ne se fait pas dans l’espace réel mais dans l’espace des données comprimées, ce qui élimine le bruit sur les données tout en assurant une meilleure stabilité du modèle dynamique. Ceci permet également de réduire les temps de calcul dans les phases d’apprentissage et de simulation.  The neural network is advantageously combined with an approach in which the data representative of the state of the physical system are compressed. The dynamic model simulates the future state of the system on the compressed data, then decompresses the simulated data to return to real space. Unlike the state of the art on reduced bases described above, the recursion loop is not done in real space but in the compressed data space, which eliminates noise on the data while ensuring better stability of the dynamic model. This also makes it possible to reduce the computation times in the learning and simulation phases.
[0067] L’optimisation topologique joue un rôle majeur dans la maîtrise des modèles dynamiques. En effet, si l’on effectue m itérations d’un motif récurrent ayant n couches, la difficulté d’apprentissage est équivalente à celle d’un réseau neuronal ayant n x m couches. L’invention permet donc de réduire n, et par conséquent le nombre de calculs et leur durée, de deux manières différentes :  Topological optimization plays a major role in the control of dynamic models. Indeed, if we perform m iterations of a recurring pattern having n layers, the learning difficulty is equivalent to that of a neural network having n x m layers. The invention therefore makes it possible to reduce n, and consequently the number of calculations and their duration, in two different ways:
- Par la compression qui réduit la taille du motif récurrent,  - By compression which reduces the size of the recurring pattern,
- Par l’optimisation topologique qui réduit le nombre de couches du motif récurrent. Brève description des dessins - By topological optimization which reduces the number of layers of the recurring pattern. Brief description of the drawings
[0068] D’autres caractéristiques, détails et avantages de l’invention apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :  Other characteristics, details and advantages of the invention will appear on reading the detailed description below, and on analysis of the accompanying drawings, in which:
[0069] [Fig. 1] déjà décrite, représente schématiquement un procédé de simulation dynamique au moyen d’une base réduite de projection. [Fig. 1] already described, schematically represents a dynamic simulation process by means of a reduced projection base.
[0070] [Fig. 2] représente schématiquement un système pour la mise en œuvre d’un procédé de construction d’un réseau de neurones et de simulation d’un système physique.  [Fig. 2] schematically represents a system for implementing a method of building a neural network and simulating a physical system.
[0071] [Fig. 3] représente schématiquement les principales étapes de construction d’un réseau de neurones selon un mode de réalisation de l’invention.  [Fig. 3] schematically represents the main steps in the construction of a neural network according to an embodiment of the invention.
[0072] [Fig. 4a] représente un exemple de réseau de neurones obtenu par un logiciel de l’état de la technique pour une application donnée. Il s’agit du meilleur résultat obtenu par le logiciel de l’état de la technique, après avoir effectué cinquante expériences d’essai sur erreur.  [Fig. 4a] represents an example of a neural network obtained by state-of-the-art software for a given application. This is the best result obtained by the prior art software, after having carried out fifty test experiments on error.
[0073] [Fig. 4b] représente un exemple de réseau de neurones obtenu par la mise en œuvre du procédé de construction selon un mode de réalisation de l’invention pour la même application que celle de la [Fig. 4a]. [Fig. 4b] represents an example of a neural network obtained by implementing the construction method according to an embodiment of the invention for the same application as that of [Fig. 4a].
[0074] [Fig. 4c] représente un autre exemple de réseau de neurones obtenu par la mise en œuvre du procédé de construction selon un mode de réalisation de l’invention pour la modélisation d’un système complexe impliquant des interactions fluide-structure dans le domaine de l’automobile.  [Fig. 4c] represents another example of a neural network obtained by implementing the construction method according to an embodiment of the invention for modeling a complex system involving fluid-structure interactions in the automotive field .
[0075] [Fig. 5] représente schématiquement un exemple de construction de réseau de neurones comprenant un bloc de compression et un bloc de décompression.  [Fig. 5] schematically represents an example of construction of a neural network comprising a compression block and a decompression block.
[0076] [Fig. 6a] représente la mise en œuvre d’un procédé de modélisation dynamique selon une variante de réalisation de l’invention.  [Fig. 6a] represents the implementation of a dynamic modeling method according to an alternative embodiment of the invention.
[0077] [Fig. 6b] représente la mise en œuvre d’un procédé de modélisation dynamique selon une autre variante de réalisation de l’invention.  [Fig. 6b] represents the implementation of a dynamic modeling method according to another variant embodiment of the invention.
[0078] [Fig. 7a] représente schématiquement en vue de dessus une installation pour la mesure de la progression d’un front de fusion de sodium.  [Fig. 7a] schematically shows a top view of an installation for measuring the progress of a sodium melting front.
[0079] [Fig. 7b] représente trois différentes commandes de puissance d’une résistance électrique de l’installation de la figure 7a. [0080] [Fig. 8a] représente le réseau de compression/décompression réalisé pour modéliser les données des capteurs de l’installation de la figure 7a. [Fig. 7b] represents three different power controls of an electrical resistance of the installation of FIG. 7a. [Fig. 8a] represents the compression / decompression network produced to model the data of the sensors of the installation of FIG. 7a.
[0081] [Fig. 8b] représente le réseau de modélisation dynamique réalisé pour modéliser les données des capteurs de l’installation de la figure 7a.  [Fig. 8b] represents the dynamic modeling network produced to model the data of the sensors of the installation of FIG. 7a.
[0082] [Fig. 9a] représente, pour un capteur de l’installation de la figure 7a, une comparaison entre les données du capteur et les données de modélisation pour une des trois commandes de puissance de la figure 7b.  [Fig. 9a] represents, for a sensor of the installation of FIG. 7a, a comparison between the sensor data and the modeling data for one of the three power controls of FIG. 7b.
[0083] [Fig. 9b] représente, pour un capteur de l’installation de la figure 7a, une comparaison entre les données du capteur et les données de modélisation pour une autre des trois commandes de puissance de la figure 7b.  [Fig. 9b] represents, for a sensor of the installation of FIG. 7a, a comparison between the sensor data and the modeling data for another of the three power controls of FIG. 7b.
[0084] [Fig. 9c] représente, pour un capteur de l’installation de la figure 7a, une comparaison entre les données du capteur et les données de modélisation pour une dernière des trois commandes de puissance de la figure 7b.  [Fig. 9c] represents, for a sensor of the installation of FIG. 7a, a comparison between the sensor data and the modeling data for a last of the three power commands of FIG. 7b.
Description des modes de réalisation  Description of the embodiments
[0085] On va maintenant décrire un procédé de construction d’un réseau de neurones parcimonieux pouvant être utilisé pour la modélisation d’un système ou phénomène physique. Ce procédé, ainsi que les procédés de compression de données, de simulation d’un système statique ou dynamique décrits ensuite, sont mis en oeuvre par un ordinateur 1 représenté schématiquement en figure 2, comprenant un calculateur (par exemple un processeur) 10, et une mémoire 1 1 , le calculateur étant adapté pour exécuter des instructions stockées dans la mémoire 1 1 pour la mise en oeuvre de ces procédés. L’ordinateur comprend avantageusement ou peut être connecté à au moins un capteur 12 adapté pour acquérir des mesures de grandeurs physiques.  We will now describe a method of building a sparse neural network that can be used for modeling a physical system or phenomenon. This method, as well as the data compression methods, for simulating a static or dynamic system described below, are implemented by a computer 1 shown diagrammatically in FIG. 2, comprising a computer (for example a processor) 10, and a memory 1 1, the computer being adapted to execute instructions stored in the memory 1 1 for the implementation of these methods. The computer advantageously comprises or can be connected to at least one sensor 12 suitable for acquiring measurements of physical quantities.
[0086] Le procédé comprend deux phases : une phase d’apprentissage et de construction du modèle, et une phase de simulation pour l’exploitation du modèle. Les deux phases peuvent être effectuées sur des équipements différents. Seule la phase de simulation a vocation à relever du temps réel.  The method comprises two phases: a phase of learning and building the model, and a simulation phase for operating the model. The two phases can be carried out on different equipment. Only the simulation phase is intended to record real time.
[0087] Dans toute la suite, on appelle système réel tout système dont l’état peut au moins en partie être mesuré par des capteurs de grandeurs physiques. Parmi les systèmes réels on recense notamment les systèmes physiques, biologiques, chimiques et informatiques. [0088] On suppose que le système réel que l’on cherche à modéliser est régi par une modèle de type : Y = f (X) (1) où X et Y sont respectivement des variables d’entrée et de sortie caractérisant l’état du système. In what follows, the term “real system” means any system whose state can at least in part be measured by sensors of physical quantities. Among the real systems, there are notably physical, biological, chemical and computer systems. We suppose that the real system that we are trying to model is governed by a model of type: Y = f (X) (1) where X and Y are respectively input and output variables characterizing the system status.
[0089] Pour la construction de ce modèle, on dispose d’une base de données de type (Cί,Uί)
Figure imgf000018_0001
engendrés par des mesures sur le système réel, les données pouvant être stockées dans la mémoire 1 1 , où :
For the construction of this model, we have a type database (C ί , U ί )
Figure imgf000018_0001
generated by measurements on the real system, the data being able to be stored in the memory 1 1, where:
Xi e ¾n° est une donnée d’entrée comprenant un nombre n0 de composantes, dont la dernière, à titre d’exemple, est fixée à 1 et les n0-1 restantes correspondent typiquement à des grandeurs physiques représentatives de l’état du système, ces données ayant été mesurées au moyen de capteurs 12, et Xi e ¾ n ° is an input data comprising a number n 0 of components, the last of which, for example, is fixed at 1 and the remaining n 0 -1 typically correspond to physical quantities representative of the state of the system, these data having been measured by means of sensors 12, and
Y; e ¾n° est une donnée de sortie comprenant un nombre n0 de composantes, qui correspondent à d’autres grandeurs physiques du système, ces données ayant également été mesurées au moyen de capteurs 12. Y; e ¾ n ° is an output data comprising a number n 0 of components, which correspond to other physical quantities of the system, these data having also been measured by means of sensors 12.
[0090] Cette base de données est répartie en deux sous-ensembles disjoints, dont le premier constitue une base de données d’apprentissage formée par les indices, par exemple, i = 1 .,M-i, M^M, et le reste des indices forme une base de données de validation. Le but de cette répartition est la mise en oeuvre d’une méthode de validation croisée sur l’apprentissage du réseau de neurones construit.  This database is divided into two disjoint subsets, the first of which constitutes a learning database formed by the indices, for example, i = 1., Mi, M ^ M, and the rest of the indices form a validation database. The purpose of this distribution is the implementation of a cross-validation method on learning the constructed neural network.
[0091] L’objectif du procédé de modélisation du système physique est de construire un modèle approché de (1 ) de la forme : Y ~ fr w (Y) (2) où fr w est une fonction de simulation calculée par un réseau de neurones défini par une topologie G et une matrice ou une liste de matrices de poids de connexion W, de manière à pouvoir simuler la sortie Y à partir d’une variable d’entrées X. The objective of the physical system modeling method is to construct an approximate model of (1) of the form: Y ~ f rw (Y) (2) where f rw is a simulation function calculated by a network of neurons defined by a topology G and a matrix or a list of matrices of connection weight W, so as to be able to simulate the output Y from an input variable X.
[0092] La topologie G et la matrice W des poids de connexion sont déterminées par la minimisation d’une fonction d’erreur J du réseau de neurones : min J (G, W) (3)  The topology G and the matrix W of the connection weights are determined by the minimization of an error function J of the neural network: min J (G, W) (3)
r,w  r, w
[0093] Où J quantifie l’erreur entre une sortie du réseau de neurones calculée sur la base de données d’entrée X, et le résultat cible correspondant Y,, calculée sur la base de données
Figure imgf000018_0002
Where J quantifies the error between an output of the neural network calculated on the input database X, and the corresponding target result Y ,, calculated on the database
Figure imgf000018_0002
Réseau de neurones  Neural network
[0094] En référence à la figure 3, on a représenté schématiquement un procédé de construction d’un réseau de neurones utilisé pour la modélisation du système physique. [0095] Ce réseau de neurones comprend un ensemble de noeuds de traitement, également appelé neurones, et de connexions entre les noeuds de traitement, chaque connexion étant pondérée d’un coefficient de pondération, les noeuds de traitement et les connexions formant une topologie organisée en couches. Referring to Figure 3, there is shown schematically a method of building a neural network used for modeling the physical system. This neural network includes a set of processing nodes, also called neurons, and of connections between the processing nodes, each connection being weighted by a weighting coefficient, the processing nodes and the connections forming an organized topology in layers.
[0096] Contrairement à un réseau de neurones classique dont chaque couche prend ses entrées sur les sorties de la précédente et n’est donc connectée qu’à la couche précédente, le réseau de neurones selon l’invention est un graphe de calcul, dont chaque couche est définie par l’ensemble des noeuds qui peuvent être calculés simultanément, et l’entrée d’un nœud de traitement d’une couche peut être connectée à la sortie d’un nœud de traitement de n’importe laquelle des couches précédemment calculées.  Unlike a conventional neural network, each layer of which takes its inputs from the outputs of the previous one and is therefore only connected to the previous layer, the neural network according to the invention is a calculation graph, of which each layer is defined by the set of nodes which can be calculated simultaneously, and the input of a processing node of a layer can be connected to the output of a processing node of any of the layers previously calculated.
[0097] En conséquence aussi, l’ensemble des nœuds de traitement calculant les sorties du réseau de neurones, ci-après appelé « ensemble des nœuds de sortie », ne forme pas une couche car les nœuds de sortie peuvent être calculés à des étapes différentes et être répartis entre plusieurs couches.  Consequently, too, the set of processing nodes calculating the outputs of the neural network, hereinafter called “set of the output nodes”, does not form a layer because the output nodes can be calculated in stages different and be spread across multiple layers.
[0098] De plus, le réseau de neurones est de type propagation avant, c’est-à-dire qu’il ne comprend aucune boucle de calcul ramenant la sortie d’un nœud de traitement en entrée du même nœud ou d’un nœud d’une couche précédente.  In addition, the neural network is of the forward propagation type, that is to say that it does not include any calculation loop bringing the output of a processing node to the input of the same node or of a knot of a previous layer.
[0099] Enfin, l’apprentissage du réseau de neurones est réalisé pendant sa construction, de manière à adapter la structure du réseau de neurones à la fonction qu’il doit calculer.  Finally, the learning of the neural network is carried out during its construction, so as to adapt the structure of the neural network to the function which it must calculate.
[0100] On note X,, i=1 ,...,nc la couche formée par les cellules que l’on peut calculer simultanément lors de l’étape i et X'=(X°,...,X') les couches déjà calculées à l’étape i. On pose X° = (Xi)“ qui est de taille n0 x M1 et représente l’état de la couche d’entrée (en d’autres termes on applique le réseau de neurones aux données de la base de données que l’on possède). On pose Y = (U -ί^, les valeurs cibles correspondant à l’entrée X°. We denote X ,, i = 1, ..., nc the layer formed by the cells which can be calculated simultaneously during step i and X '= (X °, ..., X' ) the layers already calculated in step i. We set X ° = (Xi) “which is of size n 0 x M1 and represents the state of the input layer (in other words we apply the neural network to the data in the database that the we have). We set Y = (U -ί ^, the target values corresponding to the input X °.
[0101] En notant ne le nombre de couches du réseau de neurones, et en associant à la couche i un nombre ni de nœuds de traitement, on associe une matrice des poids de connexions W, de taille ni+1 x
Figure imgf000019_0001
à chaque couche. La matrice W, est très creuse. La plupart de ses colonnes sont nulles et celles qui ne sont pas nulles contiennent beaucoup de zéros. L’ensemble des poids de connexion de l’ensemble du réseau de neurones est alors W = (W0, ... , Wnc-1). Par abus de langage, nous appellerons cet objet matrice.
By noting the number of layers of the neural network, and by associating with the layer i a number or processing nodes, we associate a matrix of the weights of connections W, of size n i + 1 x
Figure imgf000019_0001
at each layer. The matrix W, is very hollow. Most of its columns are null and those which are not null contain a lot of zeros. The set of connection weights of the entire neural network is then W = (W 0 , ..., W nc-1 ). By abuse of language, we will call this matrix object.
[0102] Le réseau de neurones met alors en œuvre les calculs suivants (ci-après décrit comme « l’algorithme de calcul ») sur les données d’entrée XO : X° = ° The neural network then implements the following calculations (hereinafter described as "the calculation algorithm") on the input data XO: X ° = °
Pour i = 1 à nc,
Figure imgf000020_0001
For i = 1 to nc,
Figure imgf000020_0001
Fin  End
Où la fonction fSi est la fonction Identité pour les noeuds de traitement de sortie et le sigmoïde : /5/(c) = 1+e^_x^ pour les autres noeuds de traitement. On suppose que, par exemple, la dernière ligne, de x° est formée par des 1. Cela veut dire que la dernière cellule de la couche d’entrée est une cellule de biais. Dans les architectures classiques, chaque couche, autre que la couche de sortie a une cellule de biais. Dans l’architecture selon cette invention, seule la couche d’entrée a une cellule de biais. Les cellules des autres couches peuvent se connecter directement à cette cellule. Where the function f Si is the Identity function for the output processing nodes and the sigmoid: / 5 / (c) = 1 + e ^ _ x ^ for the other processing nodes. We suppose that, for example, the last line, of x ° is formed by 1. This means that the last cell of the input layer is a bias cell. In conventional architectures, each layer, other than the output layer, has a bias cell. In the architecture according to this invention, only the input layer has a bias cell. Cells from other layers can connect directly to this cell.
[0103] La fonction d’erreur J du réseau de neurones s’écrit alors : / = | |O Xnc - X| |2 The error function J of the neural network is then written: / = | | OX nc - X | | 2
[0104] Où O est la matrice d’observation permettant d’extraire les éléments de sortie de Xnc. En effet, le nombre de cellules de la dernière couche noté nnc est inférieur ou égal à la taille des données de sortie du réseau neuronal n0. C’est pour cette raison que l’opérateur d’observation s’applique à Xnc, c’est-à-dire à toutes les cellules du réseau. Where O is the observation matrix making it possible to extract the output elements from Xnc. Indeed, the number of cells of the last layer noted n nc is less than or equal to the size of the output data of the neural network n 0 . It is for this reason that the observation operator applies to X nc , that is to say to all the cells of the network.
[0105] La topologie G du réseau de neurones est définie par les matrices d’incidences du graphe de calcul r=(M0,...,Mnc.1), où M, est une matrice d’incidence qui a la même taille que W, qui vaut 1 pour les coefficients non nuis de W, et zéro ailleurs. The topology G of the neural network is defined by the incidence matrices of the calculation graph r = (M 0 , ..., M nc.1 ), where M, is an incidence matrix which has the same size as W, which is 1 for the non-harmful coefficients of W, and zero elsewhere.
[0106] De retour à la figure 3, le procédé de construction du réseau de neurones comprend une première étape 100 d’initialisation d’un réseau de neurones selon une topologie initiale qui peut être minimale, à savoir comprendre :  Returning to FIG. 3, the method for constructing the neural network comprises a first step 100 of initializing a neural network according to an initial topology which may be minimal, namely understanding:
- Une couche d’entrée, comprenant un ensemble de noeuds de traitement d’entrée dont le nombre de noeuds est imposé par le nombre n0 de données d’entrée incluant un biais,An input layer, comprising a set of input processing nodes whose number of nodes is imposed by the number n 0 of input data including a bias,
- Une couche de sortie dont le nombre de noeuds nnc est inférieur au nombre n0 de données de sortie, et - An output layer whose number of nodes n nc is less than the number n 0 of output data, and
- Au moins une couche cachée contenant au moins un neurone.  - At least one hidden layer containing at least one neuron.
[0107] L’étape d’initialisation comprend également une détermination des poids de connexion optimaux W1*, c’est-à-dire des poids de connexion minimisant la fonction d’erreur J pour la topologie initiale G1 fixée, notée J(T1, W1*). Cette détermination est réalisée par entrainement du réseau de neurones sur les données d’apprentissage. [0108] On peut utiliser à cet effet, la rétropropagation du gradient, mais les phénomènes quantitatifs et profonds nécessitent l’utilisation de la méthode de Gauss-Newton zéro- mémoire, décrite dans The initialization step also includes a determination of the optimal connection weights W 1 * , that is to say connection weights minimizing the error function J for the initial topology G 1 fixed, denoted J (T 1 , W 1 * ). This determination is made by training the neural network on the training data. One can use for this purpose, the backpropagation of the gradient, but the quantitative and deep phenomena require the use of the zero memory Gauss-Newton method, described in
- Fehrenbach, J., Masmoudi, M., Souchon, R., & Trompette, P. (2006). Détection of small inclusions by elastography. Inverse problems, 22(3), 1055.  - Fehrenbach, J., Masmoudi, M., Souchon, R., & Trompette, P. (2006). Detection of small inclusions by elastography. Inverse problems, 22 (3), 1055.
[0109] La méthode de Gauss Newton zéro mémoire combine la rétropropagation du gradient avec une méthode de propagation avant du gradient. Elle permet d’améliorer considérablement, la convergence locale.  The zero memory Gauss Newton method combines the backpropagation of the gradient with a forward propagation method of the gradient. It significantly improves local convergence.
[0110] Le procédé comprend ensuite au moins une phase d’optimisation topologique 200 du réseau de neurones, déterminée de manière à diminuer l’erreur J du réseau.  The method then comprises at least one topological optimization phase 200 of the neural network, determined so as to reduce the error J of the network.
[0111] La phase d’optimisation topologique peut comprendre :  The topological optimization phase can include:
- au moins une phase additive, dans laquelle au moins un nœud de traitement et/ou au moins une connexion est ajouté(e) au réseau de neurones, la connexion ajoutée étant telle qu’elle relie l’entrée d’un neurone à la sortie d’un neurone de n’importe quelle couche précédente, et/ou  - at least one additive phase, in which at least one processing node and / or at least one connection is added to the neural network, the added connection being such that it connects the input of a neuron to the output of a neuron from any previous layer, and / or
- au moins une phase soustractive, dans laquelle au moins un nœud de traitement et/ou au moins une connexion est supprimée du réseau de neurones.  - at least one subtractive phase, in which at least one processing node and / or at least one connection is deleted from the neural network.
[0112] De plus, chaque modification de topologie 210, additive ou soustractive, comprend la sélection 212 parmi une pluralité de modifications topologiques candidates, à partir d’une estimation 21 1 de la variation de l’erreur du réseau entre chaque topologie modifiée selon une modification candidate et la topologie précédente, la modification topologique sélectionnée étant celle qui optimise la variation de l’erreur par rapport à la topologie précédente, avec l’objectif de maximiser la diminution de l’erreur à chaque itération. Comme on va le voir, cependant, des modifications de topologie soustractives peuvent induire à une itération donnée une augmentation de l’erreur J sur les données d’apprentissage, mais permettent cependant d’améliorer la précision du réseau en réduisant son erreur sur les données de validation.  In addition, each topology modification 210, additive or subtractive, comprises the selection 212 from a plurality of candidate topological modifications, from an estimate 21 1 of the variation of the network error between each topology modified according to a candidate modification and the previous topology, the selected topological modification being that which optimizes the variation of the error compared to the previous topology, with the objective of maximizing the reduction of the error at each iteration. As will be seen, however, modifications of subtractive topology can induce an increase in the error J on the training data at a given iteration, but nevertheless make it possible to improve the accuracy of the network by reducing its error on the data. of confirmation.
[0113] Il reste à définir le choix des modifications topologiques candidates. Dans le cas d’une phase soustractive, tous les nœuds et les liens sont candidats à une modification topologique à tour de rôle.  It remains to define the choice of candidate topological modifications. In the case of a subtractive phase, all the nodes and links are candidates for a topological modification in turn.
[0114] Dans une phase additive, on peut connecter par un lien, deux nœuds qui n’appartiennent pas à la même couche et qui ne sont pas déjà connectés. On peut ajouter des nœuds à n’importe quelle couche, autre que les couches d’entrée et de sortie du réseau. On peut également créer une nouvelle couche en insérant un nœud entre deux couches successives. Un nœud créé doit être connecté au réseau avec au moins deux liens, au moins un lien d’entrée et au moins un lien de sortie. Le choix des liens à ajouter peut se faire d’une manière aléatoire. Dans une phase additive, si le réseau est de grande taille, on peut choisir un millier de modifications topologiques candidates prises au hasard. On calcule l’estimation de la variation pour ces perturbations candidates. Les meilleures perturbations, In an additive phase, one can connect by a link, two nodes which do not belong to the same layer and which are not already connected. You can add nodes to any layer, other than the input and output layers of the network. You can also create a new layer by inserting a knot between two successive layers. A created node must be connected to the network with at least two links, at least one input link and at least one output link. The choice of links to add can be done randomly. In an additive phase, if the network is large, one can choose a thousand candidate topological modifications taken at random. The estimate of the variation is calculated for these candidate perturbations. The best disturbances,
- celles qui réalisent la plus petite augmentation estimée de l’erreur J, pour une phase soustractive,  - those which realize the smallest estimated increase in error J, for a subtractive phase,
- celles qui offrent la plus forte baisse estimée de l’erreur J, pour une phase additive, sont retenues pour définir la topologie Gp. - those which offer the largest estimated drop in error J, for an additive phase, are used to define the topology G p .
[0115] La variation d’erreur du réseau entre une topologie modifiée (candidate à l’itération n) et la topologie précédente (itération n-1 ) est mesurée avec les poids de connexions optimaux pour chaque topologie considérée, c’est-à-dire qu’elle s’écrit :  The variation in network error between a modified topology (candidate for iteration n) and the previous topology (iteration n-1) is measured with the optimal connection weights for each topology considered, ie -to say that it is written:
j(rn,wn*)— KGh_1, wn_1*) j (r n , w n * ) - KG h_1 , w n_1 * )
où Gp est la topologie modifiée selon la modification candidate à l’itération n, et Wn* et la matrice des poids de connexion optimaux pour cette topologie. where G p is the topology modified according to the candidate modification to iteration n, and W n * and the matrix of optimal connection weights for this topology.
[0116] Cependant le calcul d’une matrice des poids de connexion optimaux pour une topologie donnée est très long, et il n’est pas aisé de calculer cette variation d’erreur pour toutes les modifications topologiques candidates considérées.  However, the calculation of a matrix of optimal connection weights for a given topology is very long, and it is not easy to calculate this error variation for all the candidate topological modifications considered.
[0117] On va donc décrire comment on estime cette variation d’erreur plutôt que de la calculer.  We will therefore describe how we estimate this error variation rather than calculating it.
[0118] Selon un premier mode de réalisation, pour une phase additive, on initialise les poids de connexion Wn de la topologie modifiée par : According to a first embodiment, for an additive phase, the connection weights W n of the topology modified by:
Wn
Figure imgf000022_0001
avec g l’ensemble des liens de Gp inclus dans celui de Gp 1, et
W n
Figure imgf000022_0001
with g the set of links of G p included in that of G p 1 , and
Les autres liens de Gp sont initialisés à 0. The other links of G p are initialized to 0.
[0119] Cette initialisation ne dégrade pas l’erreur, nous avons J(rn,Wn) = KG^,nn11-1*). This initialization does not degrade the error, we have J (r n , W n ) = KG ^, nn 11 - 1 * ).
[0120] Puis on effectue quelques itérations d’apprentissage pour améliorer Wn et on estime la variation de l’erreur par : J(rn,Wn) - J(rn-1,Wn-1*), qui est forcément négative ou nulle. Le but de la phase additive est d’assurer l’apprentissage. [0121] Dans le cas d’une phase soustractive, on initialise les poids de connexion Wn de la topologie modifiée par Wn = W|"_1* , puis on peut procéder à quelques itérations d’apprentissage pour améliorer Wn. Then we perform a few learning iterations to improve W n and we estimate the variation of the error by: J (r n , W n ) - J (r n-1 , W n-1 * ), which is necessarily negative or zero. The aim of the additive phase is to ensure learning. In the case of a subtractive phase, the connection weights W n of the topology modified by W n = W are initialized | " _1 * , then we can proceed to a few learning iterations to improve W n .
[0122] L’estimation de l’erreur est alors aussi : J(Tn, Wn) - J(Tn_1, Wn-1*). The error estimate is then also: J (T n , W n ) - J (T n_1 , W n-1 * ).
[0123] Cette variation est forcément positive ou nulle. Sinon Wn 1* n’est pas optimale. En effet, la matrice Wn offrirait une meilleure solution en mettant à zéro les liens enlevés. Cette phase, qui ne fait qu’augmenter l’erreur, a pour vocation d’assurer la généralisation : la capacité de prédiction du réseau neuronal sur des données qui ne font pas partie de l’ensemble d’apprentissage. Lorsque la fonction erreur J augmente, l’erreur moyenne sur les données de validation a tendance à diminuer. This variation is necessarily positive or zero. Otherwise W n 1 * is not optimal. Indeed, the matrix W n would offer a better solution by zeroing the removed links. This phase, which only increases the error, aims to ensure generalization: the ability to predict the neural network on data that is not part of the learning set. When the error function J increases, the average error on the validation data tends to decrease.
[0124] Selon une variante de réalisation plus avantageuse, l’estimation de l’erreur entre une topologie modifiée et la topologie précédente est réalisée à partir de l’opérateur de Lagrange, ou lagrangien, appliqué aux variables internes du réseau neuronal que sont les couches du réseau X = (X°, .... , Xnc), qui
Figure imgf000023_0001
According to a more advantageous alternative embodiment, the estimation of the error between a modified topology and the previous topology is carried out using the Lagrange operator, or Lagrangian, applied to the internal variables of the neural network that are the network layers X = (X °, ...., X nc ), which
Figure imgf000023_0001
fs W- 1 * X4 1))) (5) fs W- 1 * X 4 1 ))) (5)
[0125] Où A=(A), A, étant le multiplicateur de Lagrange associé à l’équation définissant X'. Le multiplicateur A, a la même taille que X'. La fonction tr est la trace, c’est-à-dire la somme des termes diagonaux d’une matrice. D’après l’algorithme de calcul décrit ci-avant du réseau de neurones, si W et X° sont connus il est possible de construire tous les X' et ensuite tous les A- Les A, sont bien définis et sont obtenus en résolvant les équations : axi £(r, W, Xw,A) = 0, (7) Where A = (A), A, being the Lagrange multiplier associated with the equation defining X '. The multiplier A, has the same size as X '. The function tr is the trace, that is to say the sum of the diagonal terms of a matrix. According to the calculation algorithm described above of the neural network, if W and X ° are known it is possible to construct all the X 'and then all the A- The A, are well defined and are obtained by solving the equations: a xi £ (r, W, X w , A) = 0, (7)
[0126] Nous renvoyons à l’Annexe en fin de description pour la résolution de ces équations. We refer to the Annex at the end of the description for the resolution of these equations.
[0127] Or on peut constater que pour tout W donné, si X est obtenu par l’algorithme de calcul décrit ci-avant, alors les termes sous le signe somme de l’équation (5) s’annulent et on obtient l’égalité suivante : /(r, W) = £(r, W,Xw,A) (6) We can see that for any given W, if X is obtained by the calculation algorithm described above, then the terms under the sum sign of equation (5) cancel each other and we obtain the following equality: / (r, W) = £ (r, W, X w , A) (6)
[0128] Ainsi pour tout W on dispose d’une égalité entre l’erreur du réseau de neurones et du lagrangien appliqué à celui-ci. On en déduit :  Thus for all W there is an equality between the error of the neural network and the Lagrangian applied to it. We can deduce :
dwJ(r, W)5W = dw£(r, W, Xw> A)5W (8) d w J (r, W) 5W = d w £ (r, W, X w> A) 5W (8)
où dw est la dérivée totale par rapport à W et 5W est la variation de W. Comme J ne dépend de W que via X, la dérivée totale s’écrit : where d w is the total derivative with respect to W and 5W is the variation of W. As J only depends on W via X, the total derivative is written:
dwJ(r, W)5W = dwJ(T, W)5W + dxJ(T, W) dwX5W = 2(OXnc - Y) dwX5W. (9) [0129] Ici la dérivée totale dw tient compte de dw, la dérivée partielle par rapport à W, et de la variation via la variable X. Cette expression est inexploitable en raison du coût de calcul de dwX. D’après l’égalité (6), cette dérivée de J peut aussi être calculée d’une manière explicite sans avoir à calculer dwX : d w J (r, W) 5W = d w J (T, W) 5W + d x J (T, W) d w X5W = 2 (OX nc - Y) d w X5W. (9) Here the total derivative d w takes into account d w , the partial derivative with respect to W, and the variation via the variable X. This expression cannot be used because of the cost of calculating d w X. According to equality (6), this derivative of J can also be calculated in an explicit way without having to calculate d w X:
dwJ(T, W)6W = dw£(T, W, Xw, N)5W d w J (T, W) 6W = d w £ (T, W, X w , N) 5W
= dw£(Y, W, Xw> L )5W + dx£(T, W, Xw, A)dwX5W (10) = d w £ (Y, W, X w> L) 5W + d x £ (T, W, X w , A) d w X5W (10)
[0130] Or comme par construction de A, nous avons dx£ = 0 et donc on obtient la formule suivante : However, as by construction of A, we have d x £ = 0 and therefore we obtain the following formula:
dwJ(r, W)5W = dw£(T, W, Xw, A)5W (11) d w J (r, W) 5W = d w £ (T, W, X w , A) 5W (11)
[0131] Les A, sont choisis pour que la variation du lagrangien par rapport aux X' soit nulle. Le lagrangien se comporte comme si on avait éliminé la variable X' localement. Il en résulte que pour tout W0 fixé, on calcule XWo et AWo et pour tout W proche de W0 on a : The A's are chosen so that the variation of the Lagrangian with respect to the X 'is zero. The Lagrangian behaves as if we had eliminated the variable X 'locally. It follows that for all W 0 fixed, we calculate X Wo and A Wo and for all W close to W 0 we have:
; (G, W) ~x(r, W, XWo , L w0 ) (12) ; (G, W) ~ x (r, W, X Wo , L w 0 ) (12)
[0132] Ce résultat est avantageusement transposé à la sélection d’une modification topologique candidate qui minimise la fonction d’erreur. En effet, on peut alors, pour une modification topologique soustractive à l’itération n, estimer la variation de l’erreur du réseau entre une topologie Gp calculée selon une modification candidate et la topologie précédente Gp 1 est estimée en calculant la quantité : This result is advantageously transposed to the selection of a candidate topological modification which minimizes the error function. Indeed, we can then, for a topological modification subtractive to iteration n, estimate the variation of the network error between a topology G p calculated according to a candidate modification and the previous topology G p 1 is estimated by calculating the quantity :
£(Tn, Wn,X, A) -Jir71-1,^71-1*), (13) £ (T n , W n , X, A) -Jir 71 - 1 , ^ 71 - 1 * ), (13)
[0133] Où Wn =
Figure imgf000024_0001
est une simple restriction de Wn_1* à la nouvelle topologie Gp. La quantité (13) est calculable rapidement et permet donc de sélectionner la meilleure modification candidate à chaque itération.
Where W n =
Figure imgf000024_0001
is a simple restriction of W n_1 * to the new topology G p . The quantity (13) can be calculated quickly and therefore makes it possible to select the best candidate modification for each iteration.
[0134] Dans le cas d’une modification topologique additive, la variation de l’erreur du réseau entre une topologie calculée et la topologie précédente est estimée en calculant la quantité :  In the case of an additive topological modification, the variation of the network error between a calculated topology and the previous topology is estimated by calculating the quantity:
£(Tn ,Wn , X , A — /(Gh_1, Wn-1*) (14) £ (T n , W n , X, A - / (G h_1 , W n-1 * ) (14)
où Wn est une matrice des poids de connexion du réseau après la modification topologique candidate à l’itération n, ladite matrice étant initialisée avec les mêmes poids de connexion que la matrice Wn 1* pour les mêmes connexions et un poids de connexion nul pour chaque lien créé lors de la phase additive. A ce niveau d’initialisation, la variation donnée par (14) est égale à zéro. Pour estimer la variation potentielle, après une phase d’apprentissage, il suffit de minimiser le lagrangien par rapport aux seuls liens créés. C’est une forme d’application du principe de Pontryagin : where W n is a matrix of network connection weights after the topological modification candidate for iteration n, said matrix being initialized with the same connection weights as the matrix W n 1 * for the same connections and a zero connection weight for each link created during the additive phase. At this initialization level, the variation given by (14) is equal to zero. To estimate the potential variation, after a learning phase, it suffices to minimize the Lagrangian compared to the only links created. It is a form of application of the Pontryagin principle:
- Ross, I. M. (2015). A primer on Pontryagin's principle in optimal control (Vol. 2). San Francisco, CA: Collegiate publishers.  - Ross, I. M. (2015). A primer on Pontryagin's principle in optimal control (Vol. 2). San Francisco, CA: Collegiate publishers.
[0135] Les estimations de variation de l’erreur (13) et (14) peuvent être améliorées par une mise à jour des Wn : The error variation estimates (13) and (14) can be improved by updating the W n :
- Il suffit d’appliquer à Wn une ou deux itérations d’apprentissage à Gp fixé, - It suffices to apply to W n one or two learning iterations with G p fixed,
- Par analogie avec le principe de minimisation de Pontryagin, on peut minimiser L(Tn, Wn, X, L) par rapport à Wn. Cette minimisation se fait à X et Gp fixés. - By analogy with the Pontryagin minimization principle, we can minimize L (T n , W n , X, L) with respect to W n . This minimization is done at X and G p fixed.
[0136] De retour à la figure 3, la phase d’optimisation topologique 200 comprend typiquement plusieurs modifications topologiques de chaque type additif et soustractif.  Returning to FIG. 3, the topological optimization phase 200 typically includes several topological modifications of each additive and subtractive type.
[0137] Les phases additives sont mises en oeuvre pour faire baisser la valeur de l’erreur J sur les données d’apprentissage. Les phases soustractives sont quant à elles mises en oeuvre si l’erreur sur les données d’apprentissage devient inférieure à l’erreur sur les données de validation au-delà d’une certaine limite. Cela signifie en effet que le réseau neuronal a effectué un surapprentissage qui le conduit à donner une mauvaise réponse pour les données non apprises (données de validation).  The additive phases are implemented to lower the value of the error J on the training data. The subtractive phases are implemented if the error on the training data becomes less than the error on the validation data beyond a certain limit. This indeed means that the neural network has performed an over-learning process which leads it to give a bad response for the unlearned data (validation data).
[0138] Enfin, les itérations d’optimisation topologique s’arrêtent lorsque toute modification de topologie ne conduit pas à une amélioration de la précision du réseau, c’est-à-dire lorsqu’elle ne fait plus baisser les erreurs sur les données de validation ni les données d’apprentissage après l’optimisation des poids de connexion.  Finally, the topological optimization iterations stop when any change in topology does not lead to an improvement in the accuracy of the network, that is to say when it no longer lowers the errors on the data. validation data or learning data after optimizing connection weights.
[0139] Enfin, pour chaque phase d’optimisation topologique 200, une fois une modification topologique sélectionnée, le procédé comprend la mise à jour 213 de la matrice des poids de connexion du réseau par une méthode de descente de type rétropropagation du gradient : Wn <- Wn - pVJ(Wn) (15) où p est le taux d’apprentissage. On peut également utiliser la méthode Gauss-Newton zéro mémoire. Finally, for each topological optimization phase 200, once a topological modification has been selected, the method comprises updating 213 of the network connection weight matrix by a descent method of backpropagation type of the gradient: W n <- W n - pVJ (W n ) (15) where p is the learning rate. We can also use the zero memory Gauss-Newton method.
[0140] Si l’on compare cette approche avec celle l’état de l’art antérieur, on voit que l’on fait un apprentissage après chaque modification topologique, on a besoin alors d’un algorithme de convergence rapide. L’état de l’art antérieur s’appuie sur la redondance pour éviter les minima locaux. Dans le contexte parcimonieux, les minima locaux sont bien présents, mais l’ajout de nouveaux degrés de liberté, nous permet de modifier localement la fonction d’erreur J.  If we compare this approach with that of the state of the prior art, we see that we are learning after each topological modification, we then need a fast convergence algorithm. The state of the art relies on redundancy to avoid local minima. In the parsimonious context, the local minima are present, but the addition of new degrees of freedom, allows us to locally modify the error function J.
[0141] On a représenté sur les figures 4a et 4b un exemple de comparaison entre un réseau de neurones (Figure 4a) obtenu par l’application d’un logiciel de l’état de la technique pour une application de localisation de téléphone et un réseau de neurones construit selon le procédé décrit ci-avant (Figure 4b) pour la même application. FIGS. 4a and 4b show an example of comparison between a neural network (FIG. 4a) obtained by the application of state of the art software. technique for a telephone localization application and a neural network constructed according to the method described above (Figure 4b) for the same application.
[0142] On observe que le réseau neuronal fourni par le logiciel de l’état de la technique est organisé par couches dont chaque couche ne communique qu’avec les couches adjacentes, et ce réseau de neurones comporte 22 420 liens. Celui obtenu en application du procédé ci-avant comprend 291 liens et les couches qui sont visibles ne sont que la visualisation graphique des nœuds de traitement pouvant être calculés simultanément. On constate que les nœuds de traitement d’une couche peuvent communiquer avec les nœuds de toutes les couches précédentes.  It is observed that the neural network provided by the prior art software is organized by layers, each layer of which communicates only with the adjacent layers, and this neural network has 22,420 links. The one obtained by applying the above method comprises 291 links and the layers which are visible are only the graphic display of the processing nodes which can be calculated simultaneously. We see that the processing nodes of a layer can communicate with the nodes of all the previous layers.
Procédé de simulation  Simulation process
[0143] Une fois le réseau de neurones obtenu et entraîné sur la base de données (X^Yj)”! il peut ensuite être appliqué à de nouvelles données que l’on note données (Xi)ieS théoriques ou acquises par un ou plusieurs capteurs sur le système physique à simuler pour générer des résultats (Yi)ieS· S représente l’ensemble des données pour la simulation, et il est donc disjoint de l’ensemble des données d’apprentissage et de validation indexées de 1 à M. Once the neural network obtained and trained on the database (X ^ Y j ) ” ! it can then be applied to new data which is denoted theoretical data (Xi) ieS or acquired by one or more sensors on the physical system to be simulated to generate results (Yi) ieS · S represents the set of data for the simulation, and it is therefore disjoint from all the learning and validation data indexed from 1 to M.
[0144] Typiquement, les données (Xi)ieS sont représentatives de certaines grandeurs caractérisant l’état du système réel, ces données pouvant être mesurées, et les données (Yi)les peuvent être représentatives d’autres grandeurs caractérisant l’état du système physique, ces données pouvant être plus difficiles à mesurer, d’où le besoin de les simuler. Les données (Xi)ieS peuvent inclure des données de commande ou d’état d’actionneurs, le but de la simulation peut être de déterminer le choix des (Xi)ieS qui permet d’avoir la meilleure réponse du système (Yi)ieS· Typically, the data (Xi) ieS are representative of certain quantities characterizing the state of the real system, these data being able to be measured, and the data (Yi) them can be representative of other quantities characterizing the state of the system physical data can be more difficult to measure, hence the need to simulate them. The data (Xi) ieS can include command or actuator status data, the purpose of the simulation can be to determine the choice of (Xi) ieS which allows the best response of the system (Yi) ieS ·
[0145] On peut envisager de nombreuses applications possibles comme par exemple : We can envisage many possible applications such as for example:
- Localisation d’un téléphone mobile à partir de l’intensité des signaux reçus en plusieurs relais téléphoniques, - Location of a mobile phone based on the strength of the signals received by several telephone relays,
Détermination de la consommation énergétique d’un bâtiment à partir de données météorologiques.  Determination of the energy consumption of a building from meteorological data.
Expression du couple d’un moteur électrique en fonction des trois phases de l’alimentation électrique.  Expression of the torque of an electric motor as a function of the three phases of the electric supply.
[0146] Pour ces trois exemples, une simulation de chaque système a été faite au moyen d’un réseau de neurones selon la description qui précède, comparée à une simulation au moyen du logiciel de l’état de la technique déjà comparé dans la section précédente. [0147] Dans cette comparaison, le réseau de neurones selon l’invention est exécuté une seule fois sur chaque cas test. En revanche le logiciel de l’état de la technique requiert de spécifier le nombre de couches, le nombre de cellules par couches et le poids des liens entre les cellules, de sorte que 50 essais sur erreur ont été faits avec ce logiciel d’état de la technique. [Table 1 ] ci-dessous fait apparaître la moyenne de l’erreur, l’écart type sur l’erreur et la meilleure erreur obtenue ; on remarque que l’erreur obtenue par le réseau de neurones décrit ci-avant est toujours inférieure à la meilleure erreur obtenue par le logiciel d’état de la technique. For these three examples, a simulation of each system was made by means of a neural network according to the preceding description, compared to a simulation by means of the software of the state of the art already compared in the section former. In this comparison, the neural network according to the invention is executed only once on each test case. On the other hand, the prior art software requires specifying the number of layers, the number of cells per layer and the weight of the links between the cells, so that 50 error tests have been made with this state software. of technique. [Table 1] below shows the mean of the error, the standard deviation on the error and the best error obtained; we note that the error obtained by the neural network described above is always less than the best error obtained by the prior art software.
[Table 1]  [Table 1]
Figure imgf000027_0001
Figure imgf000027_0001
[0148] Une autre comparaison peut être faite entre les performances de l’invention appliquée à la modélisation d’un phénomène complexe impliquant des interactions fluide- structure dans le domaine de l’automobile, et des performances obtenues par un acteur majeur du domaine du numérique en exploitant une solution disponible sur le marché. Le réseau de neurones obtenu par l’invention pour cette application est représenté en figure 4c et le comparatif des performances se trouve dans [Table 2] ci-dessous. [Table 2] Another comparison can be made between the performance of the invention applied to the modeling of a complex phenomenon involving fluid-structure interactions in the automotive field, and the performance obtained by a major player in the field of digital by exploiting a solution available on the market. The neural network obtained by the invention for this application is represented in FIG. 4c and the comparison of performances can be found in [Table 2] below. [Table 2]
Figure imgf000028_0002
Figure imgf000028_0002
Compression  Compression
[0149] Le procédé de construction de réseau de neurones décrit ci-avant peut également être utilisé pour la compression de données.  The neural network construction method described above can also be used for data compression.
[0150] A cet égard, et en référence à la figure 5, on construit un réseau de neurones comprenant un bloc de compression C et un bloc de décompression D, dans lequel le bloc de compression et le bloc de décompression sont des réseaux de neurones construits selon le procédé décrit ci-avant, à l’aide de bases de données d’apprentissage et de validation comprenant des couples de la forme
Figure imgf000028_0001
In this regard, and with reference to FIG. 5, a neural network is constructed comprising a compression block C and a decompression block D, in which the compression block and the decompression block are neural networks built according to the process described above, using learning and validation databases comprising pairs of the form
Figure imgf000028_0001
[0151] La construction du réseau de neurones de compression comprend une étape d’initialisation 100 d’un réseau de neurones qui comprend : The construction of the compression neural network includes a step 100 of initializing a neural network which comprises:
- Une couche d’entrée recevant une entrée X,,  - An input layer receiving an X input ,,
- Un ensemble de noeuds de traitement formant une couche de sortie générant une sortie X, identique à l’entrée, et  - A set of processing nodes forming an output layer generating an output X, identical to the input, and
- Une couche cachée qui a le même nombre de noeuds de traitement que la couche d’entrée et la couche de sortie. - A hidden layer that has the same number of processing nodes as the input layer and the output layer.
[0152] Le procédé comprend ensuite une étape 101 d’apprentissage de ce réseau de neurones initial, sur la base de données d’apprentissage, puis une phase soustractive 102 conforme à une phase soustractive de l’étape d’optimisation topologique décrite ci-avant pour réduire la taille de la couche cachée sans dégrader l’apprentissage. On note X,’ la compression des X, au niveau de la couche cachée. [0153] Le procédé comprend ensuite une étape de subdivision 103 de la couche cachée en trois couches de même taille, et une réitération de l’étape 101 d’apprentissage sur le sous-réseau constitué, et de l’étape soustractive 102 sur la nouvelle couche centrale. The method then comprises a step 101 of learning this initial neural network, on the training database, then a subtractive phase 102 conforming to a subtractive phase of the topological optimization step described below. before to reduce the size of the hidden layer without degrading the learning. We note X, 'the compression of X, at the level of the hidden layer. The method then comprises a step of subdivision 103 of the hidden layer into three layers of the same size, and a repetition of the step 101 of learning on the constituted subnetwork, and of the subtractive step 102 on the new central layer.
[0154] On définit ensuite lors d’une étape 104 un bloc de compression C qui est constitué par l’ensemble des couches entre la couche d’entrée et la couche centrale, et un bloc de décompression D qui est constitué par l’ensemble des couches entre la couche centrale et la couche de sortie, et on met en œuvre l’étape 200 d’optimisation topologique de chaque bloc séparément.  Then defined in a step 104 a compression block C which is constituted by all of the layers between the input layer and the central layer, and a decompression block D which is constituted by all layers between the central layer and the output layer, and step 200 of topological optimization of each block is implemented separately.
[0155] Le procédé comprend ensuite une étape 300 d’apprentissage sur l’ensemble du réseau ainsi formé. Les étapes 103 à 300 peuvent ensuite être itérées jusqu’à ce qu’il devienne impossible de réduire la taille du vecteur comprimé sans dégrader significativement l’erreur de décompression.  The method then comprises a step 300 of learning on the entire network thus formed. Steps 103 to 300 can then be iterated until it becomes impossible to reduce the size of the compressed vector without significantly degrading the decompression error.
[0156] Le taux de compression obtenu permet de décrire des structures très complexes avec seulement quelques variables. Pour illustrer la puissance de ces méthodes de compression non linéaires, on peut donner un exemple où X, = e,, le ieme élément de la base canonique. Aucune compression n’est possible par les méthodes linéaires classiques. Mais on constate que les vecteurs X, sont paramétrés par une seule variable, l’indice i. The compression ratio obtained makes it possible to describe very complex structures with only a few variables. To illustrate the power of these nonlinear compression methods, we can give an example where X, = e ,, the i th element of the canonical base. No compression is possible by conventional linear methods. But we note that the vectors X, are parameterized by a single variable, the index i.
[0157] Avantageusement, on peut utiliser le bloc de compression, et/ou le bloc de décompression ainsi créés pour modéliser un système réel dont les entrées et/ou les sorties sont de grande dimensionnalité.  Advantageously, one can use the compression block, and / or the decompression block thus created to model a real system whose inputs and / or outputs are of great dimensionality.
[0158] Dans le cas d’une entrée de grande dimensionnalité, on peut par exemple insérer un bloc de modélisation juste après le bloc de compression, pour obtenir un réseau de neurones comprenant :  [0158] In the case of a large dimension input, it is possible for example to insert a modeling block just after the compression block, to obtain a neural network comprising:
- Un bloc de compression, adapté pour comprimer des données d’entrée X,, tel que x, = C(Xi),  - A compression block, suitable for compressing input data X ,, such that x, = C (Xi),
- Un bloc de modélisation adapté pour calculer sur des données comprimées une fonction Yi=f(Xi) et,  - A modeling block adapted to calculate on compressed data a function Yi = f (Xi) and,
[0159] Ici le bloc de décompression ne sert qu’à s’assurer que les xi représentent bien les Xi en s’assurant que Xi=D(xi). Dans ce cas le procédé de construction comprend avantageusement au moins une phase d’apprentissage à topologie fixe supplémentaire sur le réseau entier f ° C. Cela permet de corriger la décompression en fonction de l’application, c’est-à-dire de la modélisation. En effet, le processus de compression ignore l’objectif à atteindre Y,. Here the decompression block is only used to ensure that the xi represent Xi well by ensuring that Xi = D (xi). In this case the construction method advantageously comprises at least one learning phase with additional fixed topology over the entire network f ° C. This makes it possible to correct the decompression as a function of the application, that is to say modeling. Indeed, the compression process ignores the objective to reach Y ,.
[0160] On peut prendre l’exemple d’un système modélisant le risque de développer une pathologie à partir des caractéristiques génétiques d’un individu. Les données d’entrée du réseau peuvent avoir des centaines de milliers d’entrées, alors que la sortie est réduite à un seul scalaire. Les meilleurs résultats obtenus dans ce domaine sont basés sur le processus indiqué ci-dessus.  We can take the example of a system modeling the risk of developing a pathology based on the genetic characteristics of an individual. Network input data can have hundreds of thousands of inputs, while output is reduced to a single scalar. The best results in this area are based on the process outlined above.
[0161] Les sorties de grande dimensionnalité donnent lieu à un taux de compression élevé. Ce phénomène peut être expliqué par le lien de cause à effet qui lie les Xi aux Yi. On peut par exemple insérer un bloc de modélisation juste avant le bloc de décompression, pour obtenir un réseau de neurones comprenant :  The large dimensioned outputs give rise to a high compression ratio. This phenomenon can be explained by the cause and effect link between the Xi and the Yi. We can for example insert a modeling block just before the decompression block, to obtain a neural network comprising:
- Un bloc de modélisation adapté dans lequel on a remplacé les sorties Y, par leur version comprimée y,, ce qui donne yi=f(Xi),  - A suitable modeling block in which the outputs Y have been replaced by their compressed version y ,, which gives yi = f (Xi),
- Un bloc de décompression, adapté pour obtenir les données de sortie Y,, à partir de coefficients de compression y, tel que Y, = D(yi).  - A decompression block, suitable for obtaining the output data Y ,, from compression coefficients y, such that Y, = D (yi).
[0162] On peut procéder avantageusement à un apprentissage final à topologie fixe du réseau global D ° /.  One can advantageously carry out a final learning with fixed topology of the global network D ° /.
[0163] Dans la démarche expérimentale, notamment pour les expériences simulées, on peut avoir des X, de très grande dimension, qui sont par construction non compressibles. Les Y, qui sont en général compressibles. En effet, la résolution d’équations aux dérivées partielle a un effet régularisant. Le fait de construire le modèle yi=f(Xi) montre que finalement, dans un certain sens, les X, sont compressibles : leur effet sur les Y, est compressible.  In the experimental approach, in particular for the simulated experiments, one can have X, of very large dimension, which are by construction not compressible. The Y's, which are generally compressible. Indeed, the resolution of partial differential equations has a regularizing effect. The fact of constructing the model yi = f (Xi) shows that finally, in a certain sense, the X, are compressible: their effect on Y, is compressible.
Système dynamique  Dynamic system
[0164] Le procédé de construction de réseau de neurones peut également être utilisé pour la modélisation d’un système physique dynamique, dans laquelle on cherche à déterminer un état futur d’un système physique à partir d’informations sur son état actuel.  The neural network construction method can also be used for the modeling of a dynamic physical system, in which one seeks to determine a future state of a physical system from information on its current state.
[0165] A cet égard, on construit un réseau de neurones comprenant un bloc de compression, un bloc de modélisation, et un bloc de décompression, dans lequel au moins le bloc de compression et le bloc de décompression sont des réseaux de neurones construits selon le procédé décrit ci-avant, à l’aide de bases de données d’apprentissage et de validation comprenant des couples de la forme
Figure imgf000030_0001
[0166] Ici chaque X, représente l’état du système à des instants successifs. Si (zj)“_p représente l’état instantané du système étudié, alors xt =
In this regard, a neural network is constructed comprising a compression block, a modeling block, and a decompression block, in which at least the compression block and the decompression block are neural networks constructed according to the method described above, using learning and validation databases comprising pairs of the form
Figure imgf000030_0001
Here, each X represents the state of the system at successive instants. If (z j ) “_ p represents the instantaneous state of the system studied, then x t =
Figure imgf000031_0001
Figure imgf000031_0001
[0167] Pour des raisons expliquées ci-avant le biais est ajouté aux données. Dans les méthodes telles que la méthode ARMA ou les réseaux récurrents de type NARX, l’étape qui suit dépend de p+1 étapes précédentes. L’utilisation de cette technique améliore la stabilité du modèle. Mais elle augmente également la taille du modèle et réduit sa capacité de généralisation.  [0167] For reasons explained above, the bias is added to the data. In methods such as the ARMA method or recurrent networks of the NARX type, the next step depends on p + 1 previous steps. The use of this technique improves the stability of the model. But it also increases the size of the model and reduces its generalization capacity.
[0168] La compression des X, permet de réduire la taille du motif récurrent, tout en augmentant p pour assurer une meilleure stabilité.  The compression of the Xs makes it possible to reduce the size of the recurring pattern, while increasing p to ensure better stability.
[0169] Cette compression présente l’avantage de filtrer le bruit des X,, ce qui est essentiel dans le contexte de données mesurées.  This compression has the advantage of filtering the noise of the X's, which is essential in the context of measured data.
[0170] Pour la modélisation d’un système physique dynamique, en référence aux figures 6a et 6b, on insère entre le bloc de compression C et le bloc de décompression D construits conformément à la description qui précède, un bloc h adapté pour modéliser le comportement dynamique du système réel, qui est de la forme : Xi+\ = FiX^ Pi) + Gi i ³ 0 (16)o ù G, correspond à une ou plusieurs excitations représentant l’environnement du système simulé et P, décrit l’état interne du système. For the modeling of a dynamic physical system, with reference to FIGS. 6a and 6b, a block h adapted to model the between the compression block C and the decompression block D constructed in accordance with the above description dynamic behavior of the real system, which is of the form: X i + \ = FiX ^ Pi) + G i i ³ 0 (16) where ù G, corresponds to one or more excitations representing the environment of the simulated system and P, described the internal state of the system.
[0171] Le système n’est connu qu’à travers quelques mesures effectuées au cours du temps :
Figure imgf000031_0002
The system is only known through a few measurements made over time:
Figure imgf000031_0002
[0172] Le bloc de modélisation est avantageusement un réseau de neurones adapté pour reproduire un modèle de la forme :
Figure imgf000031_0003
The modeling block is advantageously a neural network adapted to reproduce a model of the form:
Figure imgf000031_0003
où : or :
- x, est une compression de X, par le bloc de compression xt = Cx{Xt ) - x, is a compression of X, by the compression block x t = C x {X t )
- hffi est la fonction calculée par le bloc de modélisation, f et Wsont respectivement la topologie et la matrice des poids de connexions du bloc de modélisation, et  - hffi is the function calculated by the modeling block, f and W are respectively the topology and the matrix of the connection weights of the modeling block, and
- pk et gk sont les données représentatives de l’excitation et de l’état interne du système sur lesquelles est mis en oeuvre le bloc de modélisation. - p k and g k are the data representative of the excitation and the internal state of the system on which the modeling block is implemented.
[0173] Dans un mode de réalisation, représenté schématiquement en figure 6a, le nombre de paramètres pour l’état interne P, et le nombre d’excitation G, est faible, par exemple inférieur à la taille des x,, alors on peut prendre Pi = Pi et gi = Gi. [0174] La détermination de hf¾v se fait alors par la résolution du problème d’optimisation suivantIn one embodiment, shown diagrammatically in FIG. 6a, the number of parameters for the internal state P, and the number of excitation G, is small, for example less than the size of the x ,, then it is possible to take Pi = Pi and gi = Gi. The determination of hf¾v is then done by solving the following optimization problem
Figure imgf000032_0001
Figure imgf000032_0001
[0175] La minimisation par rapport à f est avantageusement effectuée par l’étape d’optimisation topologique 200 décrite ci-avant, et pour f fixé, on utilise une technique de Gauss-Newton zéro mémoire pour estimer W. The minimization with respect to f is advantageously carried out by the topological optimization step 200 described above, and for fixed f, a zero memory Gauss-Newton technique is used to estimate W.
[0176] Sinon, dans le cas où le nombre de paramètres pour P et G est plus élevé, on comprime également ces paramètres pour obtenir
Figure imgf000032_0002
Otherwise, in the case where the number of parameters for P and G is higher, these parameters are also compressed to obtain
Figure imgf000032_0002
Où :  Or :
- Cp est un opérateur de compression, éventuellement linéaire, adapté pour compresser des données P, en des données pi: et - C p is a compression operator, possibly linear, adapted to compress data P, into data p i: and
- CG est un opérateur de compression, éventuellement linéaire, adapté pour compresser des données G, en des données g, de taille égale à celle des données x,. - C G is a compression operator, possibly linear, adapted to compress data G, into data g, of size equal to that of the data x ,.
[0177] Il s’agit de compression induite par celle des X,. Même si les P, et G, ne se prêtent pas facilement à une compression, leur effet sur le système dynamique est compressible. La figure 6b montre que la compression des X, induit une compression sur les excitations G,. En effet, les X, étant issus de l’intégration d’une équation aux différences, ils sont plus réguliers que les excitations P, et G,. De ce fait, leur effet sur le modèle est compressible.  It is compression induced by that of X ,. Even if the P, and G, do not lend themselves easily to compression, their effect on the dynamic system is compressible. FIG. 6b shows that the compression of the X induces a compression on the excitations G,. Indeed, the X, being resulting from the integration of an equation with the differences, they are more regular than the excitations P, and G ,. Therefore, their effect on the model is compressible.
[0178] Ce mode de réalisation est représenté schématiquement sur la figure 6b. Dans ce cas la détermination de hP se fait par la résolution du problème d’optimisation suivant :
Figure imgf000032_0003
This embodiment is shown schematically in Figure 6b. In this case the determination of h P is done by solving the following optimization problem:
Figure imgf000032_0003
[0179] La minimisation par rapport à f est effectuée par l’étape d’optimisation topologique 200 décrite ci-avant, et pour f fixé, on utilise une technique de Gauss-Newton zéro mémoire pour estimer W, CP et CG. The minimization with respect to f is carried out by the topological optimization step 200 described above, and for fixed f, a zero memory Gauss-Newton technique is used to estimate W, C P and C G.
[0180] Dans ce procédé, la boucle de récursion ne se fait pas dans l’espace réel des Xi mais dans l’espace des données compressées. Cette compression réduit le bruit sur les données et assure une meilleure stabilité du modèle dynamique, tout en réduisant les temps de calcul dans les phases d’apprentissage et de simulation. Quelle que soit la méthode utilisée pour l’initialisation de W et éventuellement pour sa mise à jour, le nombre de modifications topologiques à tester peut augmenter très rapidement avec la taille du réseau neuronal. Pour limiter la quantité de calculs, on peut choisir les configurations à tester au hasard et ne retenir que celle qui donne la meilleure estimation pour la réduction de l’erreur.  In this method, the recursion loop is not done in the real space of the Xi but in the space of the compressed data. This compression reduces the noise on the data and ensures better stability of the dynamic model, while reducing the calculation times in the learning and simulation phases. Whatever method is used for initializing W and possibly updating it, the number of topological changes to be tested can increase very quickly with the size of the neural network. To limit the amount of calculations, we can choose the configurations to be tested at random and select only the one that gives the best estimate for reducing the error.
Exemple [0181] A titre d’illustration, un exemple d’application possible mais nullement limitatif est celui de la modélisation de la fusion d’un bloc de sodium solide. Example By way of illustration, an example of a possible but in no way limitative application is that of modeling the fusion of a solid sodium block.
[0182] En référence à la figure 7a, on considère un récipient carré de faible hauteur qui contient du sodium à l’état solide. La figure 7a est une vue de dessus de ce récipient, qui est chauffé par une résistance électrique positionnée dans un coin du récipient dans le but de faire fondre le sodium.  Referring to Figure 7a, we consider a small square container which contains sodium in the solid state. Figure 7a is a top view of this container, which is heated by an electrical resistor positioned in a corner of the container for the purpose of melting the sodium.
[0183] Trois expériences sont réalisées. Lors de chaque expérience, la résistance est alimentée par respectivement l’un des trois profils de puissance représentés à la figure 7b. Sur cette figure, on a représenté en abscisse le temps en secondes et en ordonnée la puissance délivrée à la résistance en Watts.  Three experiments are carried out. During each experiment, the resistance is supplied respectively by one of the three power profiles shown in Figure 7b. In this figure, the time in seconds is shown on the abscissa and the power delivered to the resistor in Watts on the ordinate.
[0184] La réponse de ce système est représentée par 9 capteurs 2 de température, qui fournissent uniquement la valeur 0 si la température ne dépasse pas le seuil de fusion du sodium, et 1 si cette valeur est dépassée.  The response of this system is represented by 9 temperature sensors 2, which only supply the value 0 if the temperature does not exceed the sodium melting threshold, and 1 if this value is exceeded.
[0185] Si l’on note z, le vecteur formé par les 9 mesures à un instant i, alors X, représente l’état du système aux instants successifs i et i-1 : xt If we denote z, the vector formed by the 9 measurements at an instant i, then X, represents the state of the system at successive times i and i-1: x t
Figure imgf000033_0001
Figure imgf000033_0001
[0186] On établit un « jumeau numérique » de ce système dynamique à partir de données mesurées lors de la première expérience avec le premier profil de puissance, et conformément au procédé de simulation de système dynamique précédemment décrit en effectuant d’abord une compression de X,.  A "digital twin" of this dynamic system is established from data measured during the first experiment with the first power profile, and in accordance with the dynamic system simulation method previously described by first performing compression of X ,.
[0187] La compression donne lieu à un réseau neuronal comprenant 18 entrées (deux pour chacun des neufs capteurs) et 18 sorties. En référence à la figure 8a, qui représente un réseau neuronal de compression puis décompression de X,, on constate que la compression permet de représenter chaque X, par seulement deux coefficients.  The compression gives rise to a neural network comprising 18 inputs (two for each of the nine sensors) and 18 outputs. With reference to FIG. 8a, which represents a neural network of compression then decompression of X ,, it is found that the compression makes it possible to represent each X, by only two coefficients.
[0188] On insère ensuite entre le bloc de compression et le bloc de décompression un bloc de modélisation dynamique sous la forme d’un réseau neuronal récurrent dont le motif est représenté sur la figure 8b. La troisième entrée de ce réseau (au niveau de l’ordonnée 2) correspond à la puissance injectée dans la résistance. Sur la figure 8b, l’épaisseur de chaque connexion représente son intensité, c’est-à-dire qu’elle est représentative en relatif du poids de la connexion. On peut constater que l’excitation joue un rôle important. Pour améliorer la lisibilité des figures 8a et 8b, nous n’avons pas représenté le biais, qui est connecté à pratiquement tous les nœuds du réseau.  A dynamic modeling block is then inserted between the compression block and the decompression block in the form of a recurrent neural network, the pattern of which is represented in FIG. 8b. The third input of this network (at ordinate 2) corresponds to the power injected into the resistor. In FIG. 8b, the thickness of each connection represents its intensity, that is to say it is representative in relative terms of the weight of the connection. You can see that excitement plays an important role. To improve the readability of Figures 8a and 8b, we have not shown the bias, which is connected to practically all the nodes of the network.
[0189] En référence aux figures 9a à 9c, on a représenté une comparaison entre les données réelles (données en traits pleins) et les données de prédiction du modèle (données en traits pointillés) ainsi construit, pour un capteur central 20 du récipient et pour chacune des trois expériences : la figure 9a correspond à l’expérience 1 , la figure 9b correspond à l’expérience 2 et la figure 9c correspond à l’expérience 3. En abscisse est représenté le temps écoulé en secondes, et en ordonnée est représentée la réponse du capteur dont on rappelle qu’elle ne prend comme valeurs que 0 pour du sodium solide et 1 pour du sodium liquide. Referring to Figures 9a to 9c, there is shown a comparison between the actual data (data in solid lines) and the model prediction data (data in dotted lines) thus constructed, for a central sensor 20 of the container and for each of the three experiments: FIG. 9a corresponds to experiment 1, FIG. 9b corresponds to experiment 2 and FIG. 9c corresponds to experiment 3. On the abscissa is represented the time elapsed in seconds, and on the ordinate is represented the response of the sensor which is recalled that it takes as values only 0 for solid sodium and 1 for sodium liquid.
[0190] On peut remarquer à travers ces figures que la position du front de liquéfaction du sodium dépend de manière significative de l’excitation, et que le modèle construit arrive bien à prédire cette position dans les cas de validation, qui sont ceux des figures 9b et 9c. It can be noted through these figures that the position of the sodium liquefaction front depends significantly on the excitation, and that the model constructed succeeds in predicting this position in the validation cases, which are those of the figures 9b and 9c.
Annexe Annex
[0191] La dérivée de la somme étant égale à la somme des dérivées, on établit le résultat pour une seule donnée d’apprentissage : M1 = 1.  The derivative of the sum being equal to the sum of the derivatives, the result is established for a single learning datum: M1 = 1.
[0192] Cela do
Figure imgf000035_0001
This does
Figure imgf000035_0001
[0193] Ici désigne le produit scalaire dans 5Rn°. Here designates the dot product in 5R no .
[0194] Il en découle Anc = 2(0 Xnc - Y)T O. It follows from this A nc = 2 (0 X nc - Y) T O.
[0195] Et on obtient
Figure imgf000035_0002
And we get
Figure imgf000035_0002
0, v f, où Wj représente la sous-matrice de Wj qui agit sur les composantes de X' La notation .* désigne le produit composante par composante de deux matrices de même taille. 0, vf, where Wj represents the sub-matrix of W j which acts on the components of X 'The notation. * indicates the product component by component of two matrices of the same size.
[0196] En faisant parcourir à F les éléments de la base canonique de ¾ni , on obtient A[ = åj>î tf((fsi(w j-i * Y1)
Figure imgf000035_0003
est un vecteur ligne ayant n, éléments. En effectuant une transposition, on obtient :
Figure imgf000035_0004
,pour i = nc - I, . . , O.
By making F traverse the elements of the canonical base of ¾ ni , we obtain A [= å j > î tf ((fsi ( w j -i * Y 1 )
Figure imgf000035_0003
is a line vector with n, elements. By transposing, we get:
Figure imgf000035_0004
, for i = nc - I,. . , O.
[0197] Que l’on peut écrire également sous la forme At = åj>i(diag(fsi(w] I_1 * X‘) ) * (Wj I_1)T)Aj ,pour r = ne - 1, ... , 0, où diag(x) désigne la matrice diagonale dont les termes diagonaux sont formés par les éléments du vecteur x. We can also write in the form A t = å j> i (diag (fsi (w ] I _ 1 * X ')) * (W j I _ 1 ) T ) A j , for r = ne - 1, ..., 0, where diag (x) denotes the diagonal matrix whose diagonal terms are formed by the elements of the vector x.

Claims

Revendications Claims
[Revendication 1] Procédé de construction d’un réseau de neurones à propagation avant, comprenant un ensemble de noeuds de traitement et de connexions entre les noeuds formant une topologie organisée en couches, telle que chaque couche est définie par un ensemble de noeuds calculables simultanément, et l’entrée d’un nœud de traitement d’une couche peut être connectée à la sortie d’un nœud de l’une quelconque des couches précédemment calculées, le procédé comprenant une étape d’initialisation (100) d’un réseau de neurones selon une topologie initiale comprenant une couche d’entrée, au moins une couche cachée comprenant au moins un nœud, et un ensemble de nœuds de sortie, et au moins une phase d’optimisation topologique (200), chaque phase d’optimisation topologique comprenant :  [Claim 1] Method for building a forward propagation neural network, comprising a set of processing nodes and connections between the nodes forming a topology organized in layers, such that each layer is defined by a set of nodes which can be calculated simultaneously , and the input of a processing node of a layer can be connected to the output of a node of any of the previously calculated layers, the method comprising a step of initialization (100) of a network of neurons according to an initial topology comprising an input layer, at least one hidden layer comprising at least one node, and a set of output nodes, and at least one topological optimization phase (200), each optimization phase topological including:
- au moins une phase additive comprenant la modification de la topologie du réseau par l’ajout d’au moins un nœud et/ou un lien de connexion entre l’entrée d’un nœud d’une couche et la sortie d’un nœud de l’une quelconque des couches précédentes, et/ou - at least one additive phase comprising the modification of the network topology by adding at least one node and / or a connection link between the entry of a node of a layer and the exit of a node any of the preceding layers, and / or
- au moins une phase soustractive comprenant la modification de la topologie du réseau par la suppression d’au moins un nœud et/ou un lien de connexion entre deux couches, et dans lequel chaque modification de topologie comprend la sélection (212) d’une modification de topologie parmi plusieurs modifications candidates, à partir d’une estimation (21 1 ) de la variation de l’erreur du réseau, calculée sur des données d’apprentissage, entre chaque topologie modifiée selon une modification candidate et la topologie précédente. - at least one subtractive phase comprising the modification of the topology of the network by the removal of at least one node and / or a connection link between two layers, and in which each modification of topology comprises the selection (212) of a modification of topology among several candidate modifications, from an estimate (21 1) of the variation of the network error, calculated on training data, between each topology modified according to a candidate modification and the previous topology.
[Revendication 2] Procédé de construction selon la revendication 1 , dans lequel la modification de topologie sélectionnée est celle, parmi les modifications candidates, optimisant la variation de l’erreur par rapport à la topologie précédente, et l’erreur du réseau pour une topologie donnée est définie par /(G, W*), où [Claim 2] Construction method according to claim 1, in which the modification of topology selected is that, among the candidate modifications, optimizing the variation of the error compared to the previous topology, and the network error for a topology data is defined by / (G, W * ), where
- J est une fonction d’erreur entre des sorties du réseau et un résultat cible,  - J is an error function between network outputs and a target result,
- G est la topologie du réseau, et  - G is the network topology, and
W* est la matrice des poids de connexion du réseau minimisant la fonction d’erreur J à topologie G fixée. W * is the matrix of network connection weights minimizing the error function J with fixed topology G.
[Revendication 3] Procédé de construction selon l’une des revendications précédentes, dans lequel l’estimation de la variation de l’erreur du réseau entre une topologie modifiée et la topologie précédente comprend l’estimation de l’erreur du réseau selon la topologie modifiée à partir de l’opérateur de Lagrange appliqué aux poids de connexion du réseau de neurones £(G, W,X,A) où : £ est l’opérateur de Lagrange [Claim 3] Construction method according to one of the preceding claims, in which the estimation of the variation of the network error between a modified topology and the preceding topology comprises the estimation of the network error according to the topology modified from the Lagrange operator applied to the connection weights of the neural network £ (G, W, X, A) where: £ is the operator of Lagrange
G est la topologie du réseau, G is the network topology,
W est une matrice de poids de connexion du réseau,  W is a network connection weight matrix,
X=(X°,...,Xnc) représente les sorties de l’ensemble des noeuds du réseau et X1 représente les sorties des cellules de la couche i, et X = (X °, ..., X nc ) represents the outputs of all the nodes of the network and X 1 represents the outputs of the cells of layer i, and
A est le multiplicateur de Lagrange associé à l’expression définissant les éléments de la couche X1. A is the Lagrange multiplier associated with the expression defining the elements of layer X 1 .
[Revendication 4] Procédé de construction selon la revendication précédente, dans lequel, lors d’une phase additive, la variation de l’erreur du réseau entre une topologie candidate et la topologie précédente est estimée en calculant la quantité :  [Claim 4] Construction method according to the preceding claim, in which, during an additive phase, the variation of the network error between a candidate topology and the previous topology is estimated by calculating the quantity:
£(Gp, Wn,X, L)— /(G71-1, W71-1*) £ (G p , W n , X, L) - / (G 71 - 1 , W 71 - 1 * )
où : or :
- Gp est la topologie du réseau candidate à l’itération n, - G p is the topology of the candidate network for iteration n,
- Wn 1* est la matrice des poids de connexion du réseau de la topologie d’itération n-1 minimisant la fonction d’erreur J pour une topographie fixée, - W n 1 * is the matrix of the connection weights of the network of the iteration topology n-1 minimizing the error function J for a fixed topography,
- Wn est une matrice des poids de connexion du réseau après la modification topologique candidate à l’itération n, ladite matrice étant initialisée avec les mêmes poids de connexion que la matrice Wn 1* pour les connexions communes entre la topologie candidate à l’itération n et la topologie d’itération n-1 , et un poids de connexion nul pour chaque lien créé lors de la phase additive, puis mise à jour par minimisation de £ par rapport aux poids des liens créés - W n is a matrix of network connection weights after the topological modification candidate for iteration n, said matrix being initialized with the same connection weights as the matrix W n 1 * for the common connections between the topology candidate for l 'iteration n and the iteration topology n-1, and a zero connection weight for each link created during the additive phase, then updated by minimizing £ compared to the weight of the links created
[Revendication 5] Procédé de construction selon l’une des revendications 3 ou 4 dans lequel, lors d’une phase soustractive, la variation de l’erreur du réseau entre une topologie calculée et la topologie précédente est estimée en calculant la quantité :  [Claim 5] Construction method according to one of claims 3 or 4 in which, during a subtractive phase, the variation of the network error between a calculated topology and the previous topology is estimated by calculating the quantity:
L(Yn , Wn ,C, L)— /(r71-1, W71-1*) L (Y n , W n , C, L) - / (r 71-1 , W 71-1 * )
où Wn = W^n 1* est une restriction de Wn 1* à la topologie Gp. where W n = W ^ n 1 * is a restriction of W n 1 * to the topology G p .
[Revendication 6] Procédé de construction selon l’une des revendications précédentes, dans lequel le réseau de neurones est adapté pour simuler un système physique régi par une équation de type Y=f(X) où X est une donnée d’entrée et Y est une réponse du système physique, et l’erreur J du réseau de neurones est définie en fonction de la topologie G et de la matrice W des poids de connexion du réseau, par :
Figure imgf000037_0001
où /r,ii/(Xi) est la sortie du réseau de neurones, et X, et Y, sont respectivement des données d’entrée et de sortie engendrées par des mesures sur le système réel.
[Claim 6] Construction method according to one of the preceding claims, in which the neural network is adapted to simulate a physical system governed by an equation of type Y = f (X) where X is an input datum and Y is a response from the physical system, and the error J of the neural network is defined according to the topology G and the matrix W of the network connection weights, by:
Figure imgf000037_0001
where / r , ii / (Xi) is the output of the neural network, and X, and Y, are respectively input and output data generated by measurements on the real system.
[Revendication 7] Procédé de construction selon l’une des revendications précédentes, comprenant, une fois la modification de topologie sélectionnée, la détermination (213) d’une matrice des poids de connexion du réseau par une méthode de descente de l’erreur par rapport à ladite matrice. [Claim 7] Construction method according to one of the preceding claims, comprising, once the topology modification has been selected, the determination (213) of a network connection weight matrix by a method of descent of the error by compared to said matrix.
[Revendication 8] Procédé de construction selon l’une des revendications précédentes, dans lequel l’étape d’optimisation topologique (200) est mise en oeuvre en fonction d’erreurs moyennes du réseau de neurones sur des données d’apprentissage d’une part, et sur des données de validation d’autre part, dans lequel :  [Claim 8] Construction method according to one of the preceding claims, in which the topological optimization step (200) is implemented as a function of average errors of the neural network on training data of a on the other hand, and on validation data, in which:
- au moins une étape additive est mise en oeuvre pour faire baisser l’erreur moyenne sur les données d’apprentissage,  - at least one additive step is implemented to reduce the average error on the training data,
- au moins une étape soustractive est mise en oeuvre, si l’erreur sur les données d’apprentissage devient inférieure à l’erreur sur les données de validation au-delà d’une tolérance prédéterminée, et  - at least one subtractive step is implemented, if the error on the training data becomes less than the error on the validation data beyond a predetermined tolerance, and
- l’optimisation topologique est arrêtée lorsque toute étape additive ou soustractive ne résulte plus en une diminution de l’erreur sur les données d’apprentissage et sur les données de validation.  - topological optimization is stopped when any additive or subtractive step no longer results in a reduction of the error on the training data and on the validation data.
[Revendication 9] Procédé de construction selon l’une des revendications précédentes, dans lequel le réseau de neurones comprend au moins un bloc de compression adapté pour générer des données compressées et un bloc de décompression, le procédé comprenant au moins une phase d’optimisation topologique (200) mise en oeuvre sur le bloc de compression et le bloc de décompression, et comprenant en outre, à l’issue de l’optimisation topologique des blocs, une phase d’apprentissage (300) de l’ensemble du réseau de neurones à topologie fixée.  [Claim 9] Construction method according to one of the preceding claims, in which the neural network comprises at least one compression block adapted to generate compressed data and a decompression block, the method comprising at least one optimization phase topological (200) implemented on the compression block and the decompression block, and further comprising, after the topological optimization of the blocks, a learning phase (300) of the entire network of neurons with fixed topology.
[Revendication 10] Procédé de construction selon la revendication précédente, comprenant en outre la sélection du bloc de compression et de décompression et l’ajout d’un bloc de modélisation, respectivement en sortie du bloc de compression ou en entrée du bloc de décompression, dans lequel au moins une phase d’optimisation topologique (200) est mise en oeuvre sur le bloc de modélisation, et une phase d’apprentissage à topologie fixée est mise en oeuvre sur l’ensemble comprenant le bloc de modélisation et le bloc de compression ou de décompression.  [Claim 10] Construction method according to the preceding claim, further comprising the selection of the compression and decompression block and the addition of a modeling block, respectively at the output of the compression block or at the input of the decompression block, in which at least one topological optimization phase (200) is implemented on the modeling block, and a learning phase with fixed topology is implemented on the assembly comprising the modeling block and the compression block or decompression.
[Revendication 11] Procédé de construction selon la revendication 9, comprenant en outre l’insertion, entre le bloc de compression et le bloc de décompression, d’un bloc de modélisation adapté pour modéliser l’évolution d’un système dynamique régi par une équation de la forme [Claim 11] A construction method according to claim 9, further comprising inserting, between the compression block and the decompression block, a block of modeling adapted to model the evolution of a dynamic system governed by an equation of the form
Ci+1 = R(Ci, Ri) + ΰi, i ³ 0 Ci +1 = R (Ci, Ri) + ΰi, i ³ 0
où X, est une caractéristique mesurable du système physique à un instant donné, P, décrit l’état interne du système physique, et G, décrit une excitation, where X, is a measurable characteristic of the physical system at a given time, P, describes the internal state of the physical system, and G, describes an excitation,
et le bloc de modélisation est adapté pour calculer une sortie xi+1 de la forme : and the modeling block is adapted to calculate an output x i + 1 of the form:
Xi +1 = hf'ftixi. pi) + gt, i ³ 0 X i + 1 = hf ' ftixi. pi) + g t , i ³ 0
Xo = Cx(X0 (17) Xo = C x (X 0 (17)
où : or :
x, est une compression de X, par le bloc de compression xt = Cx(Xj), x, is a compression of X, by the compression block x t = C x (X j ),
hfffi est la fonction calculée par le bloc de modélisation, f et V sont respectivement la topologie et la matrice des poids de connexions du bloc de modélisation, et hfffi is the function calculated by the modeling block, f and V are respectively the topology and the matrix of the connection weights of the modeling block, and
pk et gk sont les données représentatives de l’excitation et de l’état interne du système sur lesquelles est mis en oeuvre le bloc de modélisation. p k and g k are the data representative of the excitation and the internal state of the system on which the modeling block is implemented.
[Revendication 12] Réseau de neurones, caractérisé en ce qu’il est obtenu par la mise en oeuvre du procédé selon l’une des revendications précédentes.  [Claim 12] Neural network, characterized in that it is obtained by the implementation of the method according to one of the preceding claims.
[Revendication 13] Produit programme d’ordinateur, comprenant des instructions de code pour la mise en oeuvre du procédé selon l’une des revendications 1 à 1 1 , lorsqu’il est exécuté par un processeur (10).  [Claim 13] Product computer program, comprising code instructions for implementing the method according to one of claims 1 to 1 1, when executed by a processor (10).
[Revendication 14] Procédé de simulation d’un système réel régi par une équation de type Y=f(X) où X est une donnée d’entrée et Y est une réponse du système réel, comprenant :  [Claim 14] Method for simulating a real system governed by an equation of type Y = f (X) where X is an input data and Y is a response of the real system, comprising:
- la construction d’un réseau de neurones adapté pour calculer une fonction fT W telle que Y ~ fr,w(X > Par 'a mise en oeuvre du procédé selon l’une des revendications 1 à 1 1 , etthe construction of a neural network adapted to calculate a function f TW such that Y ~ fr , w (X > P ar 'has implemented the method according to one of claims 1 to 1 1, and
- l’application, à une nouvelle donnée d’entrée X, représentative d’une grandeur physique du système, du réseau de neurones pour en déduire une simulation de réponse Y, du système. - the application, to a new input data X, representative of a physical quantity of the system, of the neural network to deduce a simulation of response Y, of the system.
[Revendication 15] Procédé de simulation selon la revendication précédente, dans lequel le réseau de neurones comprend en outre un bloc de compression des données, le bloc de compression des données étant obtenu par la mise en oeuvre du procédé selon la revendication 9. [Claim 15] Simulation method according to the preceding claim, in which the neural network further comprises a data compression block, the data compression block being obtained by the implementation of the method according to claim 9.
[Revendication 16] Procédé de simulation d’un système physique dynamique régi par une équation de la forme [Claim 16] Method for simulating a dynamic physical system governed by an equation of the form
Ci+1 = R(Ci, Ri) + ΰi, i ³ 0 Ci +1 = R (Ci, Ri) + ΰi, i ³ 0
où X, est une grandeur mesurable du système physique à un instant donné, P, décrit l’état interne du système physique, et G, décrit une excitation, le procédé comprenant les étapes de : where X, is a measurable quantity of the physical system at a given time, P, describes the internal state of the physical system, and G, describes an excitation, the method comprising the steps of:
- acquisition de C,, P, et G,,  - acquisition of C ,, P, and G ,,
- compression de X, pour obtenir une donnée compressée x,,  - compression of X, to obtain a compressed data x ,,
- application récurrente, un nombre k de fois d’un réseau de neurones modélisant le système physique dynamique sur la donnée compressée x, pour obtenir au moins une donnée compressée ultérieure xi+k, et - recurrent application, a number k of times of a neural network modeling the dynamic physical system on the compressed data x, to obtain at least one subsequent compressed data x i + k , and
- décompression de la donnée compressée ultérieure xi+i pour obtenir une modélisation d’une grandeur ultérieure Xi+k. - decompression of the subsequent compressed data x i + i to obtain a modeling of a subsequent quantity X i + k .
[Revendication 17] Procédé de simulation selon la revendication précédente, mis en oeuvre au moyen d’un réseau de neurones construit par la mise en oeuvre du procédé selon la revendication 1 1 , et dans lequel les étapes de compression de X,, d’application d’un réseau de neurone et de décompression de xi+i sont mises en oeuvre respectivement au moyen du bloc de compression, du bloc de modélisation et du bloc de décompression du réseau de neurones construit. [Claim 17] Simulation method according to the preceding claim, implemented by means of a neural network constructed by the implementation of the method according to claim 1 1, and wherein the steps of compressing X ,, d ' application of a neuron network and decompression of x i + i are implemented respectively by means of the compression block, the modeling block and the decompression block of the neural network constructed.
[Revendication 18] Procédé de compression de données comprenant :  [Claim 18] Data compression method comprising:
la construction, par la mise en oeuvre du procédé selon l’une des revendications 1 à 1 1 , d’un réseau de neurones comprenant un bloc de compression recevant en entrée une donnée X et un bloc de décompression générant en sortie la donnée X, dans lequel la construction du réseau de neurones comprend la mise en oeuvre d’au moins une phase d’optimisation topologique sur le bloc de compression et le bloc de décompression, et l’application, à au moins une donnée représentative de l’état d’un système réel, du bloc de compression du réseau de neurones construit. the construction, by the implementation of the method according to one of claims 1 to 1 1, of a neural network comprising a compression block receiving as input X data and a decompression block generating as output X data, in which the construction of the neural network includes the implementation of at least one topological optimization phase on the compression block and the decompression block, and the application, to at least one datum representative of the state d 'a real system, from the compression block of the neural network constructed.
PCT/FR2019/052649 2018-11-09 2019-11-07 Method of neural network construction for the simulation of physical systems WO2020094995A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19817401.3A EP3877912A1 (en) 2018-11-09 2019-11-07 Method of neural network construction for the simulation of physical systems
US17/292,305 US20210397770A1 (en) 2018-11-09 2019-11-07 Method of neural network construction for the simulation of physical systems

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR1860383A FR3088463A1 (en) 2018-11-09 2018-11-09 METHOD OF CONSTRUCTING A NEURON ARRAY FOR THE SIMULATION OF REAL SYSTEMS
FRFR1860383 2018-11-09
FR1900572A FR3088464B1 (en) 2018-11-09 2019-01-23 Neural network construction method for simulating physical systems
FRFR1900572 2019-01-23

Publications (1)

Publication Number Publication Date
WO2020094995A1 true WO2020094995A1 (en) 2020-05-14

Family

ID=68835257

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2019/052649 WO2020094995A1 (en) 2018-11-09 2019-11-07 Method of neural network construction for the simulation of physical systems

Country Status (1)

Country Link
WO (1) WO2020094995A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914402A (en) * 2020-07-08 2020-11-10 西安交通大学 Dynamic topology estimation system and method based on signal characteristics and topology change prior
EP4016393A1 (en) 2020-12-18 2022-06-22 Adagos A method for building a resource-frugal neural network
FR3129983A1 (en) 2021-12-08 2023-06-09 Vitesco Technologies motor control method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5636326A (en) * 1992-09-04 1997-06-03 Ricoh Corporation Method for operating an optimal weight pruning apparatus for designing artificial neural networks
US9336483B1 (en) * 2015-04-03 2016-05-10 Pearson Education, Inc. Dynamically updated neural network structures for content distribution networks
US20180322388A1 (en) * 2017-05-03 2018-11-08 Virginia Tech Intellectual Properties, Inc. Learning and deployment of adaptive wireless communications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5636326A (en) * 1992-09-04 1997-06-03 Ricoh Corporation Method for operating an optimal weight pruning apparatus for designing artificial neural networks
US9336483B1 (en) * 2015-04-03 2016-05-10 Pearson Education, Inc. Dynamically updated neural network structures for content distribution networks
US20180322388A1 (en) * 2017-05-03 2018-11-08 Virginia Tech Intellectual Properties, Inc. Learning and deployment of adaptive wireless communications

Non-Patent Citations (16)

* Cited by examiner, † Cited by third party
Title
ALEXANDRE, F.: "International Conférence on Artificial Neural Networks", September 2005, SPRINGER, article "Neural network topology optimization", pages: 53 - 58
ANONYMOUS: "ADAGOS", 20 September 2018 (2018-09-20), XP055657427, Retrieved from the Internet <URL:https://web.archive.org/web/20180920073216/https://www.adagos.com/> [retrieved on 20200113] *
BALABIN, R. M.LOMAKINA, E. I.: "Support vector machine régression (SVR/LS-SVM)-an alternative to neural networks (ANN) for analytical chemistry? Comparison of nonlinear methods on near infrared (NIR) spectroscopy data", ANALYST, vol. 136, no. 8, 2011, pages 1703 - 1712, XP055428436, DOI: 10.1039/c0an00387e
BOTTOU, L.: "Large-scale machine learning with stochastic gradient descent", PROCEEDINGS OF COMPSTAT'2010, 2010, pages 177 - 186
CARLBERG, K.FARHAT, C.CORTIAL, J.AMSALLEM, D.: "The GNAT method for nonlinear model réduction: effective implementation and application to computational fluid dynamics and turbulent flows", JOURNAL OF COMPUTATIONAL PHYSICS, vol. 242, 2013, pages 623 - 647
CHINESTA, F.LADEVEZE, P.CUETO, E.: "A short review on model order réduction based on proper generalized décomposition", ARCHIVES OF COMPUTATIONAL METHODS IN ENGINEERING, vol. 18, no. 4, 2011, pages 395 - 404, XP019968137, DOI: 10.1007/s11831-011-9064-7
FEHRENBACH, J.MASMOUDI, M.SOUCHON, R.TROMPETTE, P.: "Détection of small inclusions by elastography", INVERSE PROBLEMS, vol. 22, no. 3, 2006, pages 1055, XP020098032, DOI: 10.1088/0266-5611/22/3/020
GAO HUANG ET AL: "Orthogonal Least Squares Algorithm for Training Cascade Neural Networks", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS I: REGULAR PAPERS, IEEE, US, vol. 59, no. 11, 1 November 2012 (2012-11-01), pages 2629 - 2637, XP011470702, ISSN: 1549-8328, DOI: 10.1109/TCSI.2012.2189060 *
GLAESSGEN, E.H.STARGEL, D: "The Digital Twin paradigm for future NASA and US Air Force vehicles", 53RD STRUCT. DYN. MATER. CONF. SPECIAL SESSION : DIGITAL TWIN, April 2012 (2012-04-01)
HONGLEI ZHANG ET AL: "Finding Better Topologies for Deep Convolutional Neural Networks by Evolution", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 10 September 2018 (2018-09-10), XP081189221 *
LECUN, YANNBENGIO, YOSHUAHINTON, GEOFFREY: "Deep learning", NATURE, vol. 521, no. 7553, 2015, pages 436 - 444, XP055574086, DOI: 10.1038/nature14539
LOPHAVEN, S. N.NIELSEN, H. B.SONDERGAARD, J.: "IMM, Informatics and Mathematical Modelling", vol. 2, 2002, THE TECHNICAL UNIVERSITY OF DENMARK, article "DACE: a Matlab kriging toolbox"
MINEU, N. L.LUDERMIR, T. B.ALMEIDA, L. M.: "Neural Networks (IJCNN), The 2010 International Joint Conférence on", July 2010, IEEE., article "Topology optimization for artificial neural networks using differential évolution", pages: 1 - 7
NAZGHELICHI, T.AGHBASHLO, M.KIANMEHR, M. H.: "Optimization of an artificial neural network topology using coupled response surface methodology and genetic algorithm for fluidized bed drying", COMPUTERS AND ELECTRONICS IN AGRICULTURE, vol. 75, no. 1, 2011, pages 84 - 91, XP027572068
ROSS, I. M.: "A primer on Pontryagin's principle in optimal control", vol. 2, 2015, COLLEGIATE PUBLISHERS
TUEGEL, E.J.INGRAFFEA, A.R.EASON, T.G.SPOTTSWOOD, S.M.: "Reengineering aircraft structural life prédiction using a digital twin", INTERNATIONAL JOURNAL OF AEROSPACE ENGINEERING, 2011, 2011

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914402A (en) * 2020-07-08 2020-11-10 西安交通大学 Dynamic topology estimation system and method based on signal characteristics and topology change prior
CN111914402B (en) * 2020-07-08 2024-04-02 西安交通大学 Dynamic topology estimation system and method based on signal characteristics and topology change priori
EP4016393A1 (en) 2020-12-18 2022-06-22 Adagos A method for building a resource-frugal neural network
FR3129983A1 (en) 2021-12-08 2023-06-09 Vitesco Technologies motor control method and device
WO2023104578A1 (en) 2021-12-08 2023-06-15 Vitesco Technologies GmbH Engine control method and device

Similar Documents

Publication Publication Date Title
EP3877912A1 (en) Method of neural network construction for the simulation of physical systems
WO2020094995A1 (en) Method of neural network construction for the simulation of physical systems
KR102386806B1 (en) Neural Architecture Search
Hsu et al. Deep neural network battery life and voltage prediction by using data of one cycle only
CN111125537B (en) Session recommendation method based on graph representation
EP0446084B1 (en) Classification method in a hierarchized neural network
FR3008506B1 (en) METHOD AND DEVICE FOR PROVIDING POSITIVE POSITIVE DATA FOR AN OPERATING MODEL BASED ON DATA
KR20190117713A (en) Neural Network Architecture Optimization
FR2972277A1 (en) SYSTEM AND METHOD FOR RECOMMENDING ARTICLES IN MULTI-RELATIONAL ENVIRONMENTS
TW201541374A (en) Event-based inference and learning for stochastic spiking bayesian networks
FR3084946A1 (en) AUTOMATIC LEARNING METHODS AND SYSTEMS FOR ASSIGNED SEQUENCES
FR3095042A1 (en) PROCESS FOR DEFINING A PATH
EP3323090A1 (en) Data-processing device with representation of values by time intervals between events
EP3588301A1 (en) Automatic and auto-optimised determination of parameters for executing a software application on an information processing platform
EP0401927B1 (en) Learning method, neural network and computer for simulating said neural network
CA2709180C (en) Methods for updating and training for a self-organising card
CN117250914A (en) Method and system for training machine learning model based on measurement data captured by manufacturing process
EP4083846A1 (en) Learning method for determining a level of a physical parameter with space-time evolution in the presence of physical obstacles in a chosen spatial area
Buisson-Fenet Experimental data assimilation: learning-based estimation for state-space models
Saddem et al. Nouvelle approche de diagnostic en ligne des Systèmes Automatisés de Productions
EP4322061A1 (en) Electronic device and method for processing data comprising at least one self-adaptive artificial intelligence model with local learning, associated electronic system and computer program
Kern Improving the energy efficiency of signal processing and machine learning algorithms using unreliable memories
EP0681246A1 (en) Method and apparatus for the extraction of a subset of objects by optimizing a measure, using a neural network
MacLellan Inverse Design of Optical Signal Processing System
Kamari Predictive quality of meta-models constructed on the reproducing kernel Hilbert spaces and sensitivity analysis of complex models.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19817401

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019817401

Country of ref document: EP

Effective date: 20210609