FR2814558A1 - METHOD AND DEVICE FOR TRAFFIC PREDICTION WITH A NEURON NETWORK - Google Patents

METHOD AND DEVICE FOR TRAFFIC PREDICTION WITH A NEURON NETWORK Download PDF

Info

Publication number
FR2814558A1
FR2814558A1 FR0012151A FR0012151A FR2814558A1 FR 2814558 A1 FR2814558 A1 FR 2814558A1 FR 0012151 A FR0012151 A FR 0012151A FR 0012151 A FR0012151 A FR 0012151A FR 2814558 A1 FR2814558 A1 FR 2814558A1
Authority
FR
France
Prior art keywords
traffic
prediction
characterizing
network
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0012151A
Other languages
French (fr)
Other versions
FR2814558B1 (en
Inventor
Fabrice Clerot
Pascal Gouzien
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR0012151A priority Critical patent/FR2814558B1/en
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to PCT/FR2001/002964 priority patent/WO2002025452A2/en
Priority to EP01972198A priority patent/EP1320959B1/en
Priority to AU2001291985A priority patent/AU2001291985A1/en
Priority to ES01972198T priority patent/ES2241874T3/en
Priority to PL36058501A priority patent/PL360585A1/en
Priority to DE60110619T priority patent/DE60110619T2/en
Publication of FR2814558A1 publication Critical patent/FR2814558A1/en
Application granted granted Critical
Publication of FR2814558B1 publication Critical patent/FR2814558B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5006Creating or negotiating SLA contracts, guarantees or penalties

Landscapes

  • Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

L'invention propose un procédé et un dispositif de prédiction, sur des fenêtres de prédictions (Tp) successives, d'un trafic (5) sur un réseau de télécommunications, le dispositif comprenant :- des moyens de caractérisation (10, 11, 12) du trafic passé produisant en permanence des informations (Utau,i ) caractérisant le trafic passé sur des fenêtres d'observation (T1) respectives;- des moyens de production (100) contenant un réseau de neurones (110), et produisant, à des instants (to, to+Tp, to+2. Tp,... ), une information (Dj) caractérisant le trafic sur une prochaine fenêtre de prédiction (Tp), à partir d'une série desdites valeurs (Utau,i ) caractérisant le trafic passé;- des moyens d'apprentissage (200) entraînant le réseau de neurones (110) en permanence.The invention proposes a method and a device for predicting, on successive prediction windows (Tp), a traffic (5) on a telecommunications network, the device comprising: - characterization means (10, 11, 12 ) past traffic continuously producing information (Utau, i) characterizing the traffic passed on respective observation windows (T1); means of production (100) containing a neural network (110), and producing, at instants (to, to + Tp, to + 2, Tp, ...), information (Dj) characterizing the traffic on a next prediction window (Tp), from a series of said values (Utau, i ) characterizing the past traffic; learning means (200) driving the neural network (110) continuously.

Description

PROCEDE ET DISPOSITIF DE PREDICTION DE TRAFIC AVEC UNMETHOD AND DEVICE FOR PREDICTING TRAFFIC WITH A

RESEAU DE NEURONESNEURONES NETWORK

La présente invention concerne un procédé et un dispositif de prédiction de trafic avec un réseau de neurones. Le terme trafic s'entend ici d'un flux de  The present invention relates to a method and a device for predicting traffic with a neural network. The term traffic means here a flow of

données numériques.digital data.

Elle se rapporte au domaine des réseaux de télécommunications et trouve des applications avec les procédés et dispositifs d'allocation dynamique de ressources, notamment mais pas exclusivement pour les réseaux à large bande tels que les réseaux BISDN (de l'anglais " Broadband Integrated Services Digital Networks " qui signifie réseaux numériques à intégration de  It relates to the field of telecommunications networks and finds applications with dynamic resource allocation methods and devices, including but not limited to broadband networks such as Broadband Integrated Services Digital (BISDN) networks. Networks "which means integrated digital networks of

services à large bande).broadband services).

De tels réseaux offrent un service de transfert de données à différentes applications dont les besoins en termes de bande passante et de qualité de service (QoS) ne sont pas forcément les mêmes. C'est pourquoi les propriétés en termes de débit et de QoS d'une communication entre deux applications sur un tel réseau, font en général l'objet d'une négociation entre le réseau et  Such networks offer a data transfer service to different applications whose bandwidth and quality of service (QoS) needs are not necessarily the same. This is why the properties in terms of bit rate and QoS of a communication between two applications on such a network are generally the subject of negotiation between the network and the network.

I'application source. Cette négociation a lieu à l'ouverture de la communication.  The source application. This negotiation takes place at the opening of the communication.

Elle débouche sur un " contrat de trafic ". Les besoins d'une application déterminée peuvent en outre varier en cours de communication, du fait notamment des fluctuations du trafic de la communication. C'est pourquoi il est connu d'appliquer des procédures de renégociation, en cours de communication, des paramètres du contrat de trafic. Ceci permet une utilisation optimale des ressources du réseau. Cette renégociation peut être effectuée à  It leads to a "traffic contract". The needs of a given application may also vary during the communication, due in particular to fluctuations in the traffic of the communication. This is why it is known to apply renegotiation procedures during the communication of the parameters of the traffic contract. This allows optimal use of network resources. This renegotiation can be done at

la demande de l'application source, ou périodiquement.  the request from the source application, or periodically.

Un contrat de trafic d'une communication comprend deux éléments.  A traffic contract of a communication comprises two elements.

D'une part un descripteur de trafic avec des paramètres tels que le débit maximum de données émises par l'application source et la tolérance de la variation du délai entre l'émission des unités de données (par exemple des cellules ATM ou des datagrammes IP) encore appelée tolérance de gigue. Et d'autre part une classe de QoS définie par exemple par un paramètre tel que le taux de pertes de données. En vertu du contrat de trafic souscrit, le réseau garantit la qualité de service négociée sous réserve bien entendu que le trafic de la source respecte les paramètres du descripteur. Les paramètres du contrat de trafic sont utilisés pour la réservation ou allocation des ressources  On the one hand, a traffic descriptor with parameters such as the maximum data rate transmitted by the source application and the tolerance of the delay variation between the transmission of the data units (for example ATM cells or IP datagrams). ) still called jitter tolerance. And secondly a class of QoS defined for example by a parameter such as the rate of data loss. Under the contract of subscribed traffic, the network guarantees the quality of service negotiated subject of course that the source traffic respects the parameters of the descriptor. Traffic contract parameters are used for booking or resource allocation

nécessaires du réseau (taille des mémoires tampon, etc...).  network requirements (size of buffers, etc ...).

L'invention peut ainsi s'appliquer en liaison avec une technique de renégociation en cours de communication des paramètres d'un contrat de trafic d'une communication sur un réseau de télécommunications, tel qu'un réseau ATM (le mode ATM est un mode orienté connexion) ou un réseau IP avec un protocole de signalisation (tel que RSVP) permettant la gestion des communications sur ce réseau IP. Une telle technique est mise en oeuvre, par exemple, au niveau de l'interface utilisateur (UNI, de l'anglais User Network Interface) avec un réseau local (LAN, de l'anglais Local Area Network). Elle peut aussi être mise en oeuvre au niveau d'une interface de noeud de réseau (NNI, de l'anglais Network Node Interface) pour l'interconnexion d'un LAN avec un réseau métropolitain (WAN, de l'anglais Wide Area Network), ou pour  The invention can thus be applied in connection with a renegotiation technique during communication of the parameters of a traffic contract of a communication over a telecommunications network, such as an ATM network (the ATM mode is a connection oriented) or an IP network with a signaling protocol (such as RSVP) for managing communications over that IP network. Such a technique is implemented, for example, at the level of the user interface interface (UNI) with a Local Area Network (LAN). It can also be implemented at a Network Node Interface (NNI) for the interconnection of a LAN with a Wide Area Network (WAN). ), or for

l'interconnexion de deux WAN.the interconnection of two WANs.

Mais les applications de l'invention ne se limitent pas aux techniques de renégociation, en cours de communication, des paramètres d'un contrat de trafic d'une communication entre deux applications établie sur un réseau de télécommunications. En effet, I'invention s'applique d'une façon générale aux techniques d'allocation dynamique de ressources pour un élément de réseau quelconque, par exemple une mémoire tampon (" Buffer " en anglais), qui est traversé par un trafic déterminé (pouvant regrouper le trafic de plusieurs  But the applications of the invention are not limited to renegotiation techniques, during communication, the parameters of a traffic contract of a communication between two applications established on a telecommunications network. Indeed, the invention applies generally to dynamic resource allocation techniques for any network element, for example a buffer memory ("Buffer" in English), which is traversed by a determined traffic ( which can regroup the traffic of several

communications respectives établies à travers cet élément de réseau).  respective communications established through this network element).

L'allocation de ressources est dite dynamique car elle peut être modifiée pour  Resource allocation is called dynamic because it can be modified to

s'adapter au comportement du trafic.  adapt to traffic behavior.

C'est en particulier pour les trafics à débit variable (Variable Bit Rate, en anglais), tels que les trafics observés à l'interconnexion des réseaux locaux, que la modification des ressources allouées permet une utilisation plus efficace des ressources du réseau. On appelle période de trafic l'intervalle de temps entre deux modifications successives. Il est nécessaire de disposer d'une méthode de prédiction du trafic considéré, à l'horizon de la prochaine période  It is especially for variable bit rate ("Bit Rate") traffic, such as the traffic observed at the interconnection of local networks, that the modification of the allocated resources allows a more efficient use of the resources of the network. The traffic period is the time interval between two successive changes. It is necessary to have a method for predicting the traffic in question by the next period

de trafic.traffic.

Des méthodes de prédiction de trafic avec un réseau de neurones ont fait l'objet de la publication " Using Neural Networks for Predicting Transient Leaky Bucket Characterisations of Data Trafic. Application to Dynamic Ressource Allocation in ATM Networks ", CLEROT F, GOUZIEN P, FERAUD R, GRAVEY A, COLLOBERT D, ATM'98, IFIP Workshop on Performance Modelling and Evaluation of ATM Networks, et de la publication " Dynamical ressource reservation scheme in an ATM network using neural network-based traffic prediction " CLEROT F, GOUZIEN P, BENGIO S, GRAVEY A, COLLOBERT D ATM'97, IFIP Workshop on Performance Modelling and  Methods for predicting traffic with a neural network have been published in the publication "Using Neural Networks for Predicting Transient Leaky Bucket Characterizations of Data Traffic." Application to Dynamic Resource Allocation in ATM Networks, CLEROT F, GOUZIEN P, FERAUD R, GRAVEY A, COLLOBERT D, ATM'98, IFIP Workshop on Performance Modeling and Evaluation of ATM Networks, and the publication "Dynamical resource reservation scheme in an ATM network using neural network-based traffic prediction" CLEROT F, GOUZIEN P, BENGIO S, GRAVEY A, COLLOBERT OF ATM'97, IFIP Workshop on Performance Modeling and

Evaluation of ATM Networks.Evaluation of ATM Networks.

Dans la demande de brevet FR-A-2 745 455 du même demandeur, il est en outre divulgué un procédé de renégociation, en cours de communication, des paramètres d'un contrat de trafic d'une communication sur un réseau ATM, qui comporte une étape consistant à prédire, pour une période de temps prédéterminée entre deux renégociations successives, la longueur maximum qu'atteindrait une file virtuelle nourrie par le trafic de la communication pour un débit de sortie donné de ladite file. Cette prédiction est réalisée à l'aide d'un réseau de neurones à partir d'informations caractérisant le trafic dans une  In the patent application FR-A-2,745,455 of the same applicant, it is further disclosed a method of renegotiating, during communication, the parameters of a traffic contract of a communication over an ATM network, which comprises a step of predicting, for a predetermined period of time between two successive renegotiations, the maximum length that would reach a virtual queue fed by the communication traffic for a given output rate of said queue. This prediction is made using a neural network based on information characterizing the traffic in a network.

période qui précède le moment de la renégociation.  period preceding the moment of renegotiation.

Un réseau de neurones est défini par une structure et des paramètres.  A neural network is defined by a structure and parameters.

La structure d'un réseau de neurones se rapporte au nombre de couches d'unités qu'il contient, et au nombre d'unités de chacune de ces couches. Au minimum, un réseau de neurones comporte une couche d'entrée et une couche de sortie, entre lesquelles une ou plusieurs couches cachées peuvent éventuellement être prévues. Si l'on ordonne les couches d'unités en partant de la couche d'entrée et en allant vers la couche de sortie, les unités d'une couche déterminée sont reliées à toutes les unités de la couche précédente (sauf pour la couche d'entrée) et à toutes les unités de la couche suivante (sauf pour la couche de sortie), par des synapses. A chaque synapse correspond un paramètre du réseau de neurones, aussi appelé poids. La valeur délivrée par chaque unité (autre que les unités de la couche d'entrée) correspond à la valeur des unités de la couche précédente pondérée par les poids  The structure of a neural network refers to the number of layers of units it contains, and to the number of units of each of these layers. At least, a neural network comprises an input layer and an output layer, between which one or more hidden layers may optionally be provided. If the unit layers are ordered from the input layer to the output layer, the units of a given layer are connected to all the units of the previous layer (except for the layer of input) and all units of the next layer (except for the output layer) by synapses. Each synapse corresponds to a parameter of the neural network, also called weight. The value delivered by each unit (other than the input layer units) is the value of the units of the previous layer weighted by the weights

correspondants. On notera que des poids peuvent éventuellement être nuls.  correspondents. It should be noted that weights may possibly be zero.

Un réseau de neurones est particulièrement adapté à la prédiction du comportement d'un processus, tel que le trafic d'une communication sur un réseau de télécommunications, à partir de l'observation de ce processus sur une fenêtre du passé. Lors d'une phase d'apprentissage, le réseau de neurones est entraîné à cette fin. L'apprentissage consiste, à partir d'une structure déterminée du réseau, à optimiser le jeu de poids du réseau et à sélectionner celui de ces jeux de poids qui donne les meilleures performances en terme de précision de la prédiction. Durant l'apprentissage, le réseau de  A neural network is particularly suitable for predicting the behavior of a process, such as the traffic of a communication over a telecommunications network, from the observation of this process on a window of the past. During a learning phase, the neural network is trained for this purpose. The learning consists, from a given structure of the network, to optimize the set of weight of the network and to select the one of these sets of weights which gives the best performances in term of precision of the prediction. During learning, the network of

neurones est nourri en entrée par une séquence d'apprentissage.  Neurons are fed into input by a learning sequence.

Dans l'art antérieur illustré par les publications et la demande de brevet ci-dessus, la séquence d'apprentissage est un jeu de données d'apprentissage considéré comme représentant exhaustivement les comportements possibles du trafic. Ces données sont déterminées lors d'une campagne de mesures effectuées à l'endroit du réseau de télécommunications o l'on souhaite mettre en oeuvre la prédiction. L'apprentissage est effectué avant l'installation et la  In the prior art illustrated by the publications and the above patent application, the training sequence is a set of learning data considered to exhaustively represent the possible traffic behaviors. These data are determined during a measurement campaign carried out at the location of the telecommunications network where it is desired to implement the prediction. Learning is done before installation and

mise en service des moyens de prédiction, c'est à dire " hors ligne ".  commissioning of the prediction means, ie "offline".

Il est donc nécessaire de réaliser une campagne de mesures et un apprentissage spécifique pour chaque endroit du réseau o l'on souhaite installer des moyens de prédiction de trafic. En outre, ces moyens de prédiction ne peuvent s'adapter à l'évolution ultérieure du comportement du trafic, susceptible d'affecter leurs performances. Ces moyens ne peuvent donc pas être installés sur le long terme, sans prévoir de nouvelles campagnes de  It is therefore necessary to carry out a measurement campaign and a specific learning for each place of the network where it is desired to install means for predicting traffic. In addition, these prediction means can not adapt to the subsequent evolution of traffic behavior, which may affect their performance. These means can not therefore be installed in the long term, without planning new

mesures et des apprentissages du réseau de neurones correspondants.  measurements and learning of the corresponding neural network.

Le but de l'invention est de remédier à ces inconvénients de l'art antérieur. Ce but est atteint, conformément à l'invention, grâce à un procédé de prédiction, sur des fenêtres de prédiction successives, d'un trafic sur un réseau de télécommunications, suivant lequel: a) on produit en permanence des informations caractérisant le trafic passé sur des premières fenêtres d'observation respectives; b) à des instants déterminés, on produit une information caractérisant le trafic futur sur une prochaine fenêtre de prédiction, à l'aide de moyens de prédiction comprenant un réseau de neurones, et à partir d'une série desdites informations caractérisant le trafic passé;  The object of the invention is to overcome these disadvantages of the prior art. This object is achieved, in accordance with the invention, by means of a prediction method, on successive prediction windows, of a traffic on a telecommunications network, according to which: a) information is permanently generated characterizing past traffic; on the respective first observation windows; b) at determined times, information is generated characterizing the future traffic on a next prediction window, using prediction means comprising a neural network, and from a series of said information characterizing the past traffic;

c) on entraîne le réseau de neurones en permanence.  c) the neural network is permanently trained.

Dit autrement, I'invention prévoit un apprentissage " en ligne " du réseau de neurones. Des informations caractérisant le trafic passé sont produites en permanence et les poids du réseau de neurones peuvent être modifiés dynamiquement, en fonction de ces informations, pour s'adapter à I'évolution du comportement du trafic. Les ressources du réseau de  In other words, the invention provides for "on-line" learning of the neural network. Information characterizing past traffic is continuously generated and the weights of the neural network can be dynamically modified, based on this information, to adapt to changes in traffic behavior. The resources of the network of

télécommunications peuvent alors être exploitées de façon optimale.  telecommunications can then be exploited optimally.

Par commodité, les informations produites à l'étapes a) sont parfois appelées valeurs observées et les informations produites à l'étape b) sont  For convenience, the information produced in steps a) is sometimes called observed values and the information produced in step b) is

parfois appelées valeurs prédites dans la suite.  sometimes called predicted values in the following.

Une information caractérisant le trafic sur une fenêtre de caractérisation déterminée (fenêtre d'observation pour le trafic passé ou fenêtre de prédiction pour le trafic futur), est de préférence constituée par une approximation supérieure d'un point de la courbe d'arrivée du trafic sur ladite fenêtre de caractérisation, c'est à dire par une estimation de la quantité maximale de données reçues pendant un intervalle de temps de durée déterminée sur ladite fenêtre de caractérisation. La valeur prédite est alors homogène à un débit, exprimé en Mbits/s (mégabits par seconde). D'autres informations pourraient également être utilisées pour caractériser le trafic, telles que la durée moyenne entre la réception de deux unités de données (cellules ATM ou datagrammes IP par exemple) consécutives. Dans tous les cas, on ne cherche pas à prédire la valeur exacte du trafic sur la prochaine fenêtre de prédiction, mais la valeur  Information characterizing the traffic on a determined characterization window (observation window for the past traffic or prediction window for the future traffic) is preferably constituted by a higher approximation of a point of the traffic arrival curve. on said characterization window, ie by an estimation of the maximum quantity of data received during a time interval of determined duration on said characterization window. The predicted value is then homogeneous at a rate, expressed in Mbits / s (megabits per second). Other information could also be used to characterize the traffic, such as the average time between the receipt of two consecutive data units (ATM cells or IP datagrams). In any case, we do not try to predict the exact value of the traffic on the next prediction window, but the value

d'une enveloppe du trafic sur cette fenêtre.  a traffic envelope on this window.

L'apprentissage permanent du réseau de neurones permet en outre de modifier dynamiquement le taux d'erreurs de prédiction visé. Ce taux est par exemple exprimé en pourcentage de prédictions erronées. Une prédiction est dite erronée lorsque la valeur caractérisant le trafic futur sur la fenêtre de prédiction considérée qui est produite, se révèle postérieurement être inférieure à une valeur caractérisant le trafic qui a réellement été observé sur ladite fenêtre. Le taux d'erreur de prédiction visé permet de régler le pessimisme de la prédiction. En effet, plus ce taux est faible et plus les valeurs prédites sont élevées. L'invention propose également un dispositif pour la mise en oeuvre du procédé. Ce dispositif comprend un dispositif de prédiction, sur des fenêtres de prédictions successives, d'un trafic sur un réseau de télécommunications, comprenant: - des moyens de caractérisation du trafic passé produisant en permanence des informations caractérisant le trafic passé sur des fenêtres d'observation respectives; -des moyens de production contenant un réseau de neurones, et produisant, a des instants, une information caractérisant le trafic sur une prochaine fenêtre de prédiction, à partir d'une série desdites valeurs caractérisant le trafic passé; - des moyens d'apprentissage entraînant le réseau de neurones en permanence. D'autres caractéristiques et avantages de l'invention apparaîtront encore  The permanent learning of the neural network also makes it possible to dynamically modify the target prediction error rate. This rate is for example expressed as a percentage of erroneous predictions. A prediction is said to be erroneous when the value characterizing the future traffic on the considered prediction window that is produced subsequently turns out to be less than a value characterizing the traffic that has actually been observed on said window. The forecast prediction error rate makes it possible to adjust the pessimism of the prediction. Indeed, the lower the rate, the higher the predicted values. The invention also proposes a device for implementing the method. This device comprises a prediction device, on windows of successive predictions, of a traffic on a telecommunications network, comprising: - means of characterization of past traffic continuously producing information characterizing the traffic passed on windows of observation respectively; means of production containing a network of neurons, and producing, at moments, information characterizing the traffic on a next prediction window, from a series of said values characterizing the past traffic; learning means driving the neural network permanently. Other features and advantages of the invention will become apparent

à la lecture de la description qui va suivre. Celle-ci est purement illustrative et  on reading the following description. This is purely illustrative and

doit être lue en regard des dessins annexés, sur lesquels on a représenté: - à la figure 1: un graphique montrant le débit de données d'une communication sur un réseau de communication en fonction du temps; - à la figure 2: le schéma symbolique d'un dispositif pour la mise en oeuvre du procédé selon l'invention; - à la figure 3: le schéma symbolique d'un dispositif pour la mise en oeuvre du procédé selon un mode de réalisation préféré; - à la figure 4: un graphique montrant les performances des moyens de prédiction en fonction du taux d'erreurs de prédiction visé; - à la figure 5: un graphique montrant le taux d'erreurs obtenu en fonction du taux d'erreurs visé; - à la figure 6: le schéma d'un exemple d'application d'un dispositif  should be read with reference to the accompanying drawings, in which: - in Figure 1: a graph showing the data rate of a communication over a communication network as a function of time; in FIG. 2: the symbolic diagram of a device for implementing the method according to the invention; in FIG. 3: the symbolic diagram of a device for implementing the method according to a preferred embodiment; in FIG. 4: a graph showing the performance of the prediction means as a function of the target prediction error rate; - Figure 5: a graph showing the error rate obtained according to the target error rate; in FIG. 6: the diagram of an exemplary application of a device

selon l'invention.according to the invention.

Sur le graphique de la figure 1, la courbe indique en fonction du temps t, le débit B(t) du flux de données correspondant au trafic d'une communication déterminée sur un réseau de télécommunications. Une telle courbe est appelée " trace " dans le jargon de l'homme du métier. Elle donne une représentation graphique du trafic de la communication. A la figure 1, on note to un instant auquel on effectue une renégociation en ligne du contrat de trafic de la communication. On note Tp l'intervalle de temps entre deux renégociations successives. En général, la durée de l'intervalle de temps Tp est constante, les renégociations étant effectuées périodiquement, à des instants to, to+Tp, to+2.tp,... régulièrement espacés dans le temps. On parle alors de période de trafic pour désigner l'intervalle de temps entre deux négociations. Le procédé de prédiction de trafic selon l'invention vise à estimer, en un noeud particulier du réseau de télécommunication et aux instants to, to+Tp, to+ 2.Tp,... etc, le comportement du trafic futur sur des fenêtres temporelles, appelées fenêtres de prédiction correspondant de préférence aux périodes de trafic Tp, à partir de l'observation du comportement du trafic passé sur des fenêtres temporelles d'observation T1. La largeur de la prochaine période de trafic ou fenêtre de prédiction Tp correspond à l'horizon de prédiction. Les fenêtres d'observation T1 sont des intervalles de temps consécutifs, qui découpent le temps passé, c'est à dire antérieur à l'instant considéré to, to + Tp, to+2.Tp, etc... On notera que, dans le cas général, les fenêtres d'observation T1 ne cofncident pas forcément avec les fenêtres de prédiction  In the graph of FIG. 1, the curve indicates, as a function of time t, the bit rate B (t) of the data flow corresponding to the traffic of a given communication over a telecommunications network. Such a curve is called "trace" in the jargon of the skilled person. It gives a graphical representation of the traffic of the communication. In Figure 1, there is a moment at which renegotiation of the online traffic contract of the communication is carried out. We denote Tp the time interval between two successive renegotiations. In general, the duration of the time interval Tp is constant, renegotiations being carried out periodically, at times to, to + Tp, to + 2.tp, ... regularly spaced in time. This is called the traffic period to designate the time interval between two negotiations. The traffic prediction method according to the invention aims at estimating, in a particular node of the telecommunication network and at times to, to + Tp, to + 2.Tp, etc., the behavior of future traffic over time windows. , called prediction windows corresponding preferably to the traffic periods Tp, from the observation of the behavior of the traffic passed on observation windows T1. The width of the next traffic period or prediction window Tp corresponds to the prediction horizon. The observation windows T1 are consecutive time intervals, which divide the time spent, that is, prior to the instant considered to, to + Tp, to + 2.Tp, etc. It will be noted that, in the general case, the observation windows T1 do not necessarily coincide with the prediction windows

Tp antérieures.Previous Tp.

Le comportement du trafic peut être caractérisé par une information telle qu'une approximation supérieure d'une valeur de la courbe d'arrivée du trafic sur un intervalle de temps déterminé appelé fenêtre de caractérisation. Pour le trafic passé, cet intervalle de temps est la fenêtre d'observation T1. Pour le trafic futur, cet intervalle de temps est la fenêtre de prédiction Tp. Ainsi, à chaque instant to, to+Tp, to+ 2Tp,... etc, on produit approximation supérieure d'une valeur de la courbe d'arrivée du trafic (futur) sur la fenêtre de prédiction Tp correspondante, à partir d'une série de valeurs de la courbe d'arrivée du  The behavior of the traffic can be characterized by information such as a higher approximation of a value of the traffic arrival curve over a determined time interval called characterization window. For past traffic, this time interval is the observation window T1. For future traffic, this time interval is the prediction window Tp. Thus, at each instant to, to + Tp, to + 2Tp, etc., a higher approximation of a value of the traffic arrival curve (future) is produced on the corresponding prediction window Tp, starting from a series of values of the arrival curve of the

trafic passé sur des fenêtres d'observation T1 respectives.  traffic passed on respective T1 observation windows.

Dans ce qui suit, on rappelle tout d'abord la notion théorique de courbe d'arrivée et on décrit une méthode de caractérisation du trafic passé qui permet, dans la pratique, de produire une approximation supérieure d'une valeur de la courbe d'arrivée du trafic passé sur une fenêtre de caractérisation  In what follows, we first recall the theoretical notion of arrival curve and describe a past traffic characterization method that allows, in practice, to produce a higher approximation of a value of the curve of arrival of past traffic on a characterization window

To déterminée quelconque, moyennant certaines approximations.  Any determined, with some approximations.

D'un point de vue théorique, et pour un trafic donné, une valeur U(t) de la courbe d'arrivée du trafic sur une fenêtre de caractérisation TO déterminée, est définie par: U(T) = max 0<t<To-t (.t+tB(u}du) (1)  From a theoretical point of view, and for a given traffic, a value U (t) of the traffic arrival curve on a determined TO characterization window, is defined by: U (T) = max 0 <t < To-t (.t + tB (u} of) (1)

o B(u) est le débit instantané du trafic à l'instant u.  o B (u) is the instantaneous rate of traffic at instant u.

La valeur U(t) de la courbe d'arrivée du trafic sur la fenêtre To est donc la quantité maximale de données reçues pendant un intervalle de temps de durée t, inférieure à To, sur la fenêtre de caractérisation To. Les courbes d'arrivée peuvent être employées pour le dimensionnement des ressources du réseau de télécommunications (taille de mémoires, débit de liens etc...) en fonction de critères de qualité de service (taux de pertes, délai de remise, etc...). La caractérisation complète du trafic sur la fenêtre To est constituée de toute la courbe d'arrivée, c'est à dire de toutes les valeurs U(t) pour t compris  The value U (t) of the arrival curve of the traffic on the window To is therefore the maximum amount of data received during a time interval of duration t, less than To, on the characterization window To. arrival can be used for the dimensioning of the resources of the telecommunications network (size of memories, flow of links etc ...) according to criteria of quality of service (rate of losses, time of delivery, etc ...). The complete characterization of the traffic on the window To consists of the whole arrival curve, ie of all the values U (t) for t understood.

entre O et To (0<t<To).between O and To (0 <t <To).

Toutefois, dans un exemple de mise en oeuvre du procédé selon l'invention, le trafic passé n'est caractérisé, sur un intervalle de caractérisation To déterminé, que par certaines valeurs de U(T). Dans la suite, on décrit le fonctionnement d'un dispositif permettant de produire une seule valeur U(-c), pour une valeur X déterminée. Si on veut produire plusieurs valeurs U(t1), U(2),.... U(tq) pour q valeurs 1l, 2,..., Tq déterminées, il suffit de mettre en parallèle q tels dispositifs, dédiés chacun à la production d'une de ces valeurs  However, in an exemplary implementation of the method according to the invention, the past traffic is characterized, over a determined characterization interval To, only by certain values of U (T). In the following, we describe the operation of a device for producing a single value U (-c), for a determined value X. If one wants to produce several values U (t1), U (2), .... U (tq) for q values 1l, 2, ..., Tq determined, it is enough to put in parallel q such devices, dedicated each one to the production of one of these values

U(2),.., U(:q).U (2), .., U (: q).

On explique en effet ci-dessous une méthode de caractérisation en ligne du trafic passé qui permet, en pratique, de générer en ligne une approximation  In fact, a method of on-line characterization of past traffic is explained below which makes it possible, in practice, to generate an approximation online.

supérieure de la valeur U(t).higher than the value U (t).

Supposons que le temps soit découpé en intervalles de temps de durée e très inférieure à a, et qu'on sache mesurer en ligne la quantité Bj de données arrivées sur chacun de ces intervalles de temps. En notant E(x) la fonction partie entière de x, on a alors l'approximation suivante: jt+ tB(u)du =z j=E(t+c)/OBj (2) :-j=E(t /0 e Plus précisément, en posant k = E(t/0) et en encadrant un intervalle de temps de durée t dans les intervalles de temps de durées multiples de 0, on obtient: kj=k+E(-t/e),., . <ma max k (,j=Ek ( 3)Bj) < U(,) < max k (zj=_k ( 2Bj) (3)  Let us suppose that the time is divided into time intervals of duration e much smaller than a, and that it is possible to measure in line the quantity Bj of data arrived at each of these time intervals. By denoting E (x) the integer function of x, we have the following approximation: jt + tB (u) = zj = E (t + c) / OBj (2): -j = E (t / 0 e More precisely, by setting k = E (t / 0) and framing a time interval of duration t in the time intervals of multiple durations of 0, we obtain: kj = k + E (-t / e), .,. <my max k (, j = Ek (3) Bj) <U (,) <max k (zj = _k (2Bj) (3)

avec 0<k<E((To-t)/O).with 0 <k <E ((To-t) / O).

Ces maxima sont facilement obtenus à partir des quantités Bj mesurées en ligne. L'approximation est évidemment d'autant meilleure que 0 est petit devant c, mais la charge de calcul augmente en proportion inverse de 0. Dans un exemple X est égal à 1 seconde, et 0 est égal à 0,1 seconde. Une autre  These maxima are easily obtained from the quantities Bj measured online. The approximation is obviously better if 0 is small in front of c, but the computation load increases in inverse proportion of 0. In an example X is equal to 1 second, and 0 is equal to 0.1 second. Another

approximation consiste à ne retenir que le membre de droite de l'inégalité (3).  approximation consists in retaining only the right-hand side of the inequality (3).

On obtient ainsi une approximation supérieure de la quantité maximale de données du trafic de la communication, qui ont été reçues, au niveau du noeud considéré du réseau de télécommunications, pendant un intervalle de temps t  This gives a higher approximation of the maximum amount of data of the communication traffic which has been received at the considered node of the telecommunications network during a time interval t

sur la fenêtre de caractérisation To.  on the characterization window To.

La méthode de caractérisation décrite ci-dessus est mise en oeuvre par dispositif comprenant un module de caractérisation coopérant avec un module de mesure des quantités de données Bj arrivées sur des intervalles de temps 0 respectifs. Ces modules sont avantageusement réalisés sous la forme de logiciels. A la figure 2 on a représenté schématiquement un dispositif pour la mise  The characterization method described above is implemented by a device comprising a characterization module co-operating with a measurement module of the data quantities Bj arriving on respective time intervals 0. These modules are advantageously made in the form of software. FIG. 2 diagrammatically shows a device for setting

en oeuvre du procédé de prédiction selon l'invention.  implementation of the prediction method according to the invention.

Le trafic de la communication est symbolisé par la flèche 5. Un module de mesure 7 produit en ligne les quantités Bj. Un premier module de caractérisation 11 produit en permanence des valeurs UC,i caractérisant le trafic passé sur des fenêtres d'observation T1 consécutives. Ce module de caractérisation 11 met en oeuvre la méthode de caractérisation en ligne décrite plus haut, à partir des quantités Bj qui lui sont fournies par le module de  The traffic of the communication is symbolized by the arrow 5. A measurement module 7 produces the quantities Bj on-line A first characterization module 11 permanently produces UC values, i characterizing the traffic passed on consecutive observation windows T1 . This characterization module 11 implements the on-line characterization method described above, based on the quantities Bj supplied to it by the module of

mesure 7.measure 7.

Les valeurs UTi sont fournies en entrée de moyens de prédiction 100 comprenant un réseau de neurones 110. Ces moyens 100 produisent une valeur prédite Di de la courbe d'arrivée du trafic 5 sur une fenêtre de prédiction déterminée, à partir d'une série des dernières valeurs Uji. Toutes les valeurs Usi caractérisant le trafic passé ne sont donc pas prises en compte, mais seulement les plus récentes. Ces valeurs U,,i en entrée des unités de la couche d'entrée du réseau de neurones 110, dont la couche de sortie ne comporte qu'une seule unité, qui délivre la valeur Di. Cette valeur est homogène à un débit. Elle correspond à la valeur maximum du débit du trafic  The UTi values are provided at the input of prediction means 100 comprising a neuron network 110. These means 100 produce a predicted value Di of the traffic arrival curve 5 on a determined prediction window, from a series of last Uji values. All Usi values characterizing past traffic are therefore not taken into account, but only the most recent ones. These values U ,, i at the input of the units of the input layer of the neural network 110, whose output layer comprises only one unit, which delivers the value Di. This value is homogeneous at a rate. It corresponds to the maximum value of the traffic flow

de la communication sur la prochaine fenêtre de prédiction Tp.  of the communication on the next Tp prediction window.

Le réseau de neurones 110 comporte une cellule d'apprentissage.  The neural network 110 includes a learning cell.

Celle-ci comprend un réseau de neurones " apprenti " 110Oa de même structure que le réseau de neurones 110. Le réseau de neurones 110 est entraîné en permanence. A cet effet, le dispositif comprend un module d'apprentissage 200, qui entraîne en permanence le réseau de neurones à partir de la série de valeurs observée U,i. Cet apprentissage continu affecte en réalité le réseau de neurones " apprenti " 110a de la cellule d'apprentissage. En effet, les paramètres du réseau de neurones 110 sont  This includes an "apprentice" neuron network 110Oa of the same structure as the neural network 110. The neural network 110 is permanently driven. For this purpose, the device comprises a learning module 200, which permanently drives the neural network from the series of observed values U i. This continuous learning actually affects the "apprentice" neural network 110a of the learning cell. Indeed, the parameters of the neural network 110 are

figés en sorte qu'ils ne sont pas modifiés par l'apprentissage en tant que tel.  frozen so that they are not modified by learning as such.

Cependant, le module d'apprentissage 200 compare en permanence les performances du réseau de neurones 110 à celles du réseau de neurones " apprenti " 110 a, les paramètres du réseau de neurones " apprenti " 110a étant recopiés dans le réseau de neurones 110, sous la commande du module d'apprentissage 200, lorsque les performances du premier sont meilleures que  However, the learning module 200 continuously compares the performance of the neural network 110 to that of the "apprentice" neuron network 110a, the parameters of the "apprentice" neuron network 110a being copied back into the neural network 110, under the command of the learning module 200, when the performances of the first are better than

celles du second.those of the second.

Pour permettre l'apprentissage, les valeurs Ui délivrées par le module de caractérisation 11 sont sauvegardées dans une première base de données 21. De là, elles sont ensuite fournies en entrée du réseau de neurones " apprenti " 110a pour l'apprentissage. L'apprentissage consiste à optimiser le jeu de poids wm du réseau de neurones " apprenti " 110a en produisant une valeur D'i caractérisant le trafic sur la prochaine fenêtre de prédiction Tp à l'aide du réseau de neurones " apprenti " 110a, et en comparant cette valeur D'i à une valeur correspondante D"i fournie par " un oracle ". Cette comparaison se fait via une " fonction de coût " dont la forme est détaillée plus loin. Le module 200 détermine alors les performances du réseau de neurones " apprenti " 110a en comparant les valeurs D'i et D"i. Le module 200 détermine aussi les performances du réseau de neurones 110 en comparant la valeur Di délivrée par ce dernier pour la même fenêtre de prédiction Tp, et la  To enable learning, the values Ui delivered by the characterization module 11 are saved in a first database 21. From there, they are then provided as input to the "apprentice" neuron network 110a for learning. The learning consists in optimizing the weight play wm of the "apprentice" neuron network 110a by producing an i value characterizing the traffic on the next prediction window Tp using the "apprentice" neuron network 110 a, and comparing this value D'i to a corresponding value D "i provided by" an oracle. "This comparison is done via a" cost function "whose form is detailed below, the module 200 then determines the performance of the network. Apprentice neurons 110a by comparing the values of i and d "i. The module 200 also determines the performance of the neural network 110 by comparing the value Di delivered by the latter for the same prediction window Tp, and the

valeur D"i correspondante.corresponding D i value.

Un " oracle " a pour fonction de délivrer des valeurs D"i correspondant aux valeurs prédites Di ou D'i. Les valeurs D"i correspondent aux valeurs Di ou D'i en ce sens qu'elles leur sont comparables, comme caractérisant le trafic sur  An "oracle" has the function of delivering values D "i corresponding to the predicted values Di or D'i The values D" i correspond to the values Di or D'i in the sense that they are comparable to them, as characterizing the traffic on

des mêmes fenêtres temporelles.same time windows.

Dans un mode de réalisation conforme au dispositif de la figure 2, un " oracle " est réalisé de la manière suivante. Le dispositif comprend un second module de caractérisation 12 qui génère une série de valeur U",i caractérisant le trafic 5 sur des secondes fenêtres d'observation T2. A cet effet, le module 12  In an embodiment according to the device of FIG. 2, an "oracle" is produced in the following manner. The device comprises a second characterization module 12 which generates a series of values U "i characterizing the traffic 5 on second observation windows T2.

reçoit également les quantités Bj délivrées par le module de mesure module 7.  also receives the quantities Bj delivered by the measurement module module 7.

De même que le premier module 11, le second module 12 met en oeuvre la méthode de caractérisation décrite plus haut. Les valeurs U",i sont sauvegardées dans une seconde base de données 22. Par souci de clarté, les valeurs lues dans la base de données 22 sont notées D"i bien qu'elles correspondent aux valeurs U" i. Les fenêtres d'observation T2 coïncident avec les fenêtres de prédiction Tp antérieures. La base de données 22 se comporte donc comme un " oracle ", en ce sens qu'elle contient des valeurs caractérisant le trafic passé réellement observé, qui sont comparables aux valeurs prédites Di correspondantes délivrées par le réseau de neurones 110  Like the first module 11, the second module 12 implements the characterization method described above. The values U ", i are saved in a second database 22. For the sake of clarity, the values read in the database 22 are denoted D" i although they correspond to the values U "i. T2 observation coincide with the prediction windows Tp earlier .The database 22 therefore behaves like an "oracle", in that it contains values characterizing past traffic actually observed, which are comparable to the corresponding predicted Di predicted values Di by the neural network 110

et aux valeurs prédites délivrées les moyens de prédiction 100a.  and the predicted values output the prediction means 100a.

A la figure 3, on a représenté schématiquement un dispositif pour la mise en oeuvre du procédé selon l'invention selon un mode de réalisation préféré. Dans ce mode de réalisation, les fenêtres d'observation T1 coïncident avec les fenêtres de prédiction Tp passées. Cela simplifie le procédé et le dispositif selon l'invention car les informations U-,i caractérisant le trafic 5 sur les fenêtres d'observation T1 respectives peuvent directement alimenter la base de données 22 de l'oracle. En effet, elles peuvent ultérieurement être comparées aux valeurs prédites Di du débit maximum du trafic 5 sur les fenêtres de prédiction correspondantes, pour l'apprentissage en ligne du réseau de neurones. Les fonctions des modules de caractérisation 11 et 12 du dispositif de la figure 2 sont donc assurées par un unique module de caractérisation 10 de même nature que ces derniers. Ce module met donc en ceuvre la méthode de caractérisation précitée pour produire les informations UT,i. Celles-ci sont sauvegardées dans la base de données 22. Par souci de clarté, les informations lues dans la base données 22 sont toujours notées D"i,  In Figure 3, there is shown schematically a device for implementing the method according to the invention according to a preferred embodiment. In this embodiment, the observation windows T1 coincide with the prediction windows Tp passed. This simplifies the method and the device according to the invention because the information U-, i characterizing the traffic 5 on the respective observation windows T1 can directly feed the database 22 of the oracle. Indeed, they can later be compared to the predicted values Di of the maximum traffic rate 5 on the corresponding prediction windows, for the online learning of the neural network. The functions of the characterization modules 11 and 12 of the device of FIG. 2 are therefore ensured by a single characterization module 10 of the same nature as the latter. This module therefore implements the aforementioned characterization method for producing the information UT, i. These are saved in the database 22. For the sake of clarity, the information read in the database 22 is always denoted D "i,

bien qu'elles correspondent aux valeurs U,i.  although they correspond to the values U, i.

Le mode de réalisation de la figure 3 se distingue en outre de celui de la figure 2, en ce que les moyens de prédiction 100 comprennent, outre le réseau de neurones 110 et sa cellule d'apprentissage avec le réseau de neurones " apprenti " 110a, une batterie 120 de n filtres de prédiction F1 à Fn ayant des fenêtres de filtrage (profondeur de filtrage) différentes. Ces filtres ont pour fonction de produire des informations intermédiaires caractérisant le trafic 5 sur la prochaine fenêtre de prédiction Tp à partir d'une série d'informations U.,i caractérisant le trafic passé sur des fenêtres d'observation T1 respectives. A cet effet, les filtres F1 à Fn sont nourris chacun par les informations U,i, qui sont produites et délivrées par le module de caractérisation 10. Le vecteur Vi composé des valeurs de sortie DF1i à Dfni respectivement des filtres F1 à Fn aux instants déterminés to, to+Tp, to+2.p,... est transmis en entrée du réseau de neurones 110, qui produit alors la valeur Di à partir de ces valeurs. En outre, le vecteur Vi est sauvegardé dans la base de données 21 pour l'apprentissage  The embodiment of FIG. 3 is further distinguished from that of FIG. 2, in that the prediction means 100 comprise, in addition to the neural network 110 and its learning cell with the "apprentice" neural network 110a. a battery 120 of n prediction filters F1 to Fn having different filtering windows (filter depth). These filters have the function of producing intermediate information characterizing the traffic 5 on the next prediction window Tp from a series of information U. i characterizing the traffic passed on respective observation windows T1. For this purpose, the filters F1 to Fn are each fed by the information U, i, which are produced and delivered by the characterization module 10. The vector Vi composed of the output values DF1i to Dfni respectively of the filters F1 to Fn at the instants determined to, to + Tp, to + 2.p, ... is transmitted to the input of the neural network 110, which then produces the value Di from these values. In addition, the vector Vi is saved in the database 21 for learning

en ligne du réseau de neurones.online neural network.

Dans un exemple, I'horizon de prédiction Tp est fixé à 10 secondes en sorte que la largeur des fenêtres Tp, et donc celle des fenêtres d'observations T1, sont égales à 10 secondes. De plus, la batterie de filtres 120 comprend cinq filtres (n=5) F1 à F5 dont les profondeurs de filtrage respectives sont fixées à respectivement 10, 30, 50, 80 et 120 fois la largeur des fenêtres d'observation T1. De la sorte, une série de dix valeurs consécutives U.,i entrent dans la fenêtre de filtrage du filtre F1, une série de trente valeurs U,,i  In one example, the prediction horizon Tp is set to 10 seconds so that the width of the windows Tp, and therefore that of the observation windows T1, are equal to 10 seconds. In addition, the filter bank 120 comprises five filters (n = 5) F1 to F5 whose respective filtering depths are respectively 10, 30, 50, 80 and 120 times the width of the observation windows T1. In this way, a series of ten consecutive values U i enter the filter window of the filter F1, a series of thirty values U i

entrent dans la fenêtre de filtrage du filtre F2, etc...  enter the filter window of the filter F2, etc ...

La batterie de filtres 120 a pour fonction d'assurer un pré-traitement des informations U,,i caractérisant le trafic passé. Ce pré-traitement permet aux moyens de prédiction 100 d'offrir des performances satisfaisantes, tout en comprenant un réseau de neurones 110 de structure assez simple. Plus la structure du réseau de neurones 110 est simple et moins il comporte de poids dont les valeurs doivent être déterminées par apprentissage du réseau de neurones, et donc plus l'apprentissage est rapide. Le pré-traitement effectué par la batterie de filtres 120 permetdonc d'employer un réseau de neurones de structure assez simple, dont l'apprentissage est suffisamment rapide pour être réalisé en permanence, sans sacrifier les performances des moyens de  The function of the filter bank 120 is to pre-process the information U ,, i characterizing the past traffic. This pre-treatment allows the prediction means 100 to offer satisfactory performance, while including a network of neurons 110 of fairly simple structure. The simpler the structure of the neural network 110, the less weight it must have, the values of which must be determined by learning the neural network, and therefore the learning is faster. The pre-treatment carried out by the filter bank 120 thus makes it possible to use a network of neurons with a fairly simple structure, the learning of which is fast enough to be carried out continuously, without sacrificing the performance of the means of communication.

prédiction en termes de précision de la prédiction. Dit autrement, le pré-  prediction in terms of the precision of the prediction. In other words, the

traitement par la batterie de filtres prédicteurs permet de résoudre le compromis entre des performances élevées des moyens de prédiction (qui supposent, sans le pré-traitement proposé par l'invention, un réseau de neurones de structure relativement complexe, dont avec beaucoup de poids) et rapidité de l'apprentissage du réseau de neurones (qui suppose un réseau de  treatment by the battery of predictive filters makes it possible to resolve the compromise between high performances of the prediction means (which assume, without the pre-treatment proposed by the invention, a network of neurons of relatively complex structure, of which with a lot of weight) and speed of learning the neural network (which assumes a network of

neurones de structure relativement simple, avec relativement peu de poids) .  neurons of relatively simple structure, with relatively little weight).

Des essais ont permis de montrer que, dans l'exemple susmentionné d'une batterie de filtres 120 comprenant cinq filtres, un réseau de neurones constitué d'un perceptron simple (réseau de neurones à une couche d'entrée et une couche de sortie, sans aucune couche cachée) est suffisant pour obtenir des performances satisfaisantes. Dans cet exemple, la couche d'entrée du réseau de neurones comporte six unités: cinq entrées reliées respectivement à la sortie des cinq filtres F1 à Fn pour recevoir les valeurs intermédiaires respectivement DF1i à DF5i, et une sixième entrée pour le biais du réseau de neurones. En outre, la couche de sortie ne comporte qu'une unité, qui délivre la valeur Di. Ainsi, le réseau de neurones ne comporte que six poids Wm, o m  Tests have shown that, in the aforementioned example of a filter bank 120 comprising five filters, a neural network consisting of a single perceptron (neuron network with an input layer and an output layer, without any hidden layer) is sufficient to achieve satisfactory performance. In this example, the input layer of the neural network comprises six units: five inputs connected respectively to the output of the five filters F1 to Fn to receive the intermediate values respectively DF1i to DF5i, and a sixth input for the bias of the network of neurons. In addition, the output layer has only one unit, which delivers the value Di. Thus, the neural network has only six weights Wm, o m

est un indice compris entre 1 et 6. Il est donc effectivement rapide à entraîner.  is an index between 1 and 6. So it is actually quick to train.

On a également testé d'autres architectures de perceptron avec une couche cachée, celle-ci comprenant deux à cinq unités, sans constater d'amélioration sensible des performances en terme de précision de la prédiction. C'est pourquoi on préfère l'utilisation d'un perception simple, dont l'apprentissage est  Other perceptron architectures have also been tested with a hidden layer, which comprises two to five units, without noticeable improvement in performance in terms of accuracy of the prediction. That is why we prefer the use of a simple perception, whose learning is

le plus rapide.the fastest.

De préférence, les filtres prédicteurs F1 à Fn sont des filtres de Kalman, ayant des profondeurs de filtrage respectives différentes. Les filtres de Kalman sont en effet simples à mettre en oeuvre. De plus, ils ont un faible coût calculatoire. En outre, ils permettent de poursuivre efficacement un processus éventuellement non stationnaire comme c'est le cas par exemple pour le trafic d'une communication sur un réseau de télécommunications. Toutefois, d'autres types de filtres de prédiction peuvent être utilisés, par exemple un filtre opérant une simple moyenne arithmétique de la série d'informations entrant dans la fenêtre de filtrage du filtre, ou un filtre réalisant une moyenne exponentielle de  Preferably, the predictor filters F1 to Fn are Kalman filters having different respective filter depths. Kalman filters are indeed simple to implement. In addition, they have a low computational cost. In addition, they make it possible to effectively continue a possibly non-stationary process as is the case, for example, for the traffic of a communication over a telecommunications network. However, other types of prediction filters may be used, for example a filter operating a simple arithmetic mean of the series of information entering the filter filter window, or a filter performing an exponential average of

ces valeurs.these values.

La mise en oeuvre d'un filtre de Kalman nécessite de faire une hypothèse sur la relation entre les informations de l'espace d'entrée et celles de l'espace de sortie. Cette relation est linéaire dans le cas du filtre de Kalman classique, et non linéaire dans le cas du filtre de Kalman généralisé (" Extended Kalman Filter " en anglais). Dans l'exemple, les informations de l'espace d'entrée des filtres de prédiction F1, F, F3, F4 et F5 sont constituées par les séries de respectivement 10, 30, 50, 80 et 120 informations UTi. On fait l'hypothèse que ces séries sont des réalisations d'une variable aléatoire gaussienne respective, dont la moyenne pm et la variance am, o m est un indice compris entre 1 et n, sont estimées en ligne par les filtres de Kalman respectifs. Dans un exemple, une information DF1i à DFni en sortie du filtre de Kalman respectivement F1 à Fn, est alors donnée par: DFmi = Pm (4) Ainsi, I'information DFmi est la moyenne gaussienne!tm des informations U.,i qui entrent dans la fenêtre de filtrage du filtre Fm considéré. Plus concrètement, il s'agit d'une estimation du débit maximum du trafic sur la  The implementation of a Kalman filter requires to make a hypothesis on the relation between the information of the space of entry and those of the space of exit. This relation is linear in the case of the classical Kalman filter, and nonlinear in the case of the extended Kalman filter ("Extended Kalman Filter"). In the example, the information of the input space of the prediction filters F1, F, F3, F4 and F5 are constituted by the series of respectively 10, 30, 50, 80 and 120 UTi information. It is assumed that these series are realizations of a respective Gaussian random variable, whose mean pm and the variance am, o m is an index between 1 and n, are estimated in line by the respective Kalman filters. In one example, an information DF1i to DFni at the output of the Kalman filter respectively F1 to Fn, is then given by: DFmi = Pm (4) Thus, the information DFmi is the Gaussian average! Tm of the information U., i which enter the filter window of the filter Fm considered. More concretely, this is an estimate of the maximum traffic flow on the

prochaine fenêtre de prédiction Tp.  next Tp prediction window.

Si l'on était en mesure de déterminer une taille de fenêtre de filtrage optimale, les moyens de prédiction 100 pourraient à la rigueur ne comprendre qu'un seul filtre de Kalman, sans réseau de neurones. Néanmoins, ceci n'est  If it were possible to determine an optimum filtering window size, the prediction means 100 could, if need be, include only one Kalman filter, without a neural network. Nevertheless, this is not

pas le cas, comme le montre les courbes C1 à C5 du graphique de la figure 4.  not the case, as shown in curves C1 to C5 of the graph in Figure 4.

Pour une trace déterminée, ces courbes représentent, en fonction du taux d'erreurs de prédiction ú visé (exprimé en pourcentage de prédictions erronées), les valeurs du débit maximum du trafic (exprimé en Mbits/s), telles que prédites par les filtres de prédiction respectivement F1 à F5. Or on voit que la meilleure prédiction (c'est à dire la valeur prédite du débit maximum du trafic qui est la plus faible, n'est pas obtenue avec le même filtre de prédiction, selon la valeur de s considérée. De la même façon, des analyses montrent que, pour une valeur de c déterminée, la meilleure prédiction n'est pas obtenue avec le même filtre de Kalman selon la trace considérée. C'est pourquoi un filtre de Kalman ne peut à lui seul constituer les moyens de prédiction du trafic. Ces remarques ne sont d'ailleurs pas propres aux filtres de Kalman mais s'appliquent à tous les filtres de prédiction, car c'est un problème lié à la  For a given trace, these curves represent, as a function of the rate of prediction errors τ referred to (expressed as a percentage of erroneous predictions), the values of the maximum traffic rate (expressed in Mbps), as predicted by the filters. prediction respectively F1 to F5. However, we see that the best prediction (that is, the predicted value of the lowest maximum traffic rate) is not obtained with the same prediction filter, depending on the value of s considered. Analyzes show that, for a given value of c, the best prediction is not obtained with the same Kalman filter according to the trace considered, which is why a Kalman filter can not be the only means of prediction. These remarks are not specific to Kalman filters but apply to all prediction filters, because it is a problem related to

profondeur de filtrage des filtres de prédiction, quel qu'en soit le type.  depth of filter prediction filters, whatever the type.

C'est pourquoi, dans le mode de réalisation de la figure 3, le réseau de neurones 110 a pour fonction de combiner les valeurs intermédiaires DFmi caractérisant le trafic sur la prochaine fenêtre de prédiction, pour m compris entre 1 et n. La courbe C0 de la figure 4 représente, pour ladite trace déterminée, en fonction du taux d'erreurs de prédiction c visé, les valeurs du débit maximum du trafic, telles que prédites par le réseau de neurones 110 à partir des valeurs intermédiaires DF1i à DF5i qui sont produites par les filtres de prédiction respectivement F1 à F5. Comme on le voit, quelque soit la valeur de c considérée, la valeur de la courbe C0 est inférieure à celles correspondante des courbes C1 à C5. Les performances du réseau de neurones ainsi nourri en entrée par les valeurs intermédiaires produites par les filtres F1 à F5 sont meilleures que celles de chacun des filtres F1 à F5 pris individuellement. L'apprentissage permanent du réseau de neurones 110 permet de ne donner un poids significatif, qu'à celle ou celles de ces valeurs intermédiaires qui sont les meilleures en fonction des circonstances liées au trafic. Dit autrement, I'apprentissage permanent du réseau de neurones 110 permet de ne retenir et de combiner que le ou les filtres de prédiction F1 à Fn sont les  Therefore, in the embodiment of Figure 3, the neural network 110 has the function of combining the intermediate values DFmi characterizing the traffic on the next prediction window, for m between 1 and n. The curve C0 of FIG. 4 represents, for said determined trace, as a function of the prediction error rate c targeted, the values of the maximum traffic rate, as predicted by the neural network 110 from the intermediate values DF1i to DF5i which are produced by the prediction filters respectively F1 to F5. As can be seen, whatever the value of c considered, the value of the curve C0 is lower than that corresponding to the curves C1 to C5. The performance of the neural network thus fed in by the intermediate values produced by the filters F1 to F5 are better than those of each of the filters F1 to F5 taken individually. The permanent learning of the neural network 110 makes it possible to give a significant weight only to the one or those of these intermediate values which are the best according to the circumstances related to the traffic. In other words, the permanent learning of the neural network 110 makes it possible to retain and combine only the prediction filter or filters F1 to Fn are the

plus adaptés, en fonction des circonstances liées au trafic.  more appropriate, depending on the circumstances related to the traffic.

Une base d'apprentissage est composée de couples de valeurs (Ut,i,D"i) dans l'exemple de la figure 2, ou de couples de valeurs (Vj,D"i) dans I'exemple de la figure 3, ces couples de valeurs étant appelés motifs d'apprentissage dans le jargon de l'homme de l'art et dans la suite. Dans chaque motif d'apprentissage, la première valeur correspond à la seconde valeur, au sens indiqué plus haut. Ces valeurs sont toutes des valeurs caractérisant le trafic sur des fenêtres temporelles comprises à l'intérieur d'une fenêtre du passé considérée pour l'apprentissage. Les premières valeurs de chaque motif d'apprentissage sont lues dans la base de données 21 et les secondes sont lues dans la base de données 22. La structure des bases de données permet d'établir la correspondance entre la première et la seconde  A learning base is composed of pairs of values (Ut, i, D "i) in the example of FIG. 2, or pairs of values (Vj, D" i) in the example of FIG. 3, these pairs of values being called learning patterns in the jargon of those skilled in the art and in the following. In each learning pattern, the first value corresponds to the second value, in the sense indicated above. These values are all values characterizing the traffic on time windows included within a window of the past considered for learning. The first values of each learning pattern are read from the database 21 and the seconds are read from the database 22. The structure of the databases makes it possible to establish the correspondence between the first and the second

valeur de chaque motif d'apprentissage.  value of each learning pattern.

L'apprentissage repose sur la technique dite de " minimisation du risque structurel " dans le jargon de l'homme du métier. Elle consiste à séparer la base d'apprentissage en deux ensembles distincts, par exemple par tirage aléatoire: - un ensemble d'apprentissage qui sert à entraîner le réseau de neurones " apprenti " 110a, cet apprentissage se faisant en appliquant les motifs d'apprentissage et en optimisant le jeu de poids pour obtenir la meilleure performance, étant entendu que chaque motif peut être appliqué plusieurs fois, jusqu'à ce que l'apprentissage s'arrête dans les conditions ci-dessous; - un ensemble de validation qui sert à évaluer les performances du réseau de neurones " apprenti " 110a, et les performances du réseau de neurones prédicteur 110, I'apprentissage du réseau de neurones " apprenti " s'arrêtant quand ses performances se dégradent sur l'ensemble de validation, et les poids du réseau de neurones prédicteur 110 étant remplacés par ceux du réseau de neurones " apprenti " 110a lorsque les performances du second  Learning is based on the so-called technique of "minimizing structural risk" in the jargon of those skilled in the art. It consists in separating the learning base into two distinct sets, for example by random draw: a learning set which serves to drive the "apprentice" neural network 110a, this learning being done by applying the learning patterns and optimizing the weight play to achieve the best performance, with the understanding that each pattern can be applied multiple times, until the learning stops under the conditions below; a validation set which is used to evaluate the performance of the "apprentice" neuron network 110a, and the performance of the predictor neuron network 110, the apprenticeship of the "apprentice" neuron network stopping when its performance is degraded on the validation set, and the weights of the predictor neuron network 110 being replaced by those of the "apprentice" neuron network 110a when the performance of the second

sont meilleures que celles du premier sur ce même ensemble de validation.  are better than those of the first on this same validation set.

De plus amples informations sur la technique dite de " minimisation du risque structurel " peuvent être trouvées dans l'ouvrage de V. VAPNIK, " The  Further information on the so-called "structural risk minimization" technique can be found in V. VAPNIK, "The

Nature of Statistical Learning Theory ", Springer-Verlag, Berlin.  Nature of Statistical Learning Theory ", Springer-Verlag, Berlin.

De plus, un pré-traitement est appliqué aux motifs d'apprentissage (UTi, D"i) ou (Vi,D"i) de façon à les normaliser. Cette normalisation fait appel à une fonction de normalisation F appliquée aux valeurs Uc,i ou Vi et à une fonction de normalisation G appliquée aux valeurs D"i. Ces fonctions peuvent être identiques mais ce n'est pas forcément le cas. Dans un exemple, elles sont définies en fonction d'une variable x, par: F(x) = Log10 ( x) (5) xmax/l0 G(x) 2x x -1 (6) xmax  In addition, a preprocessing is applied to the learning patterns (UTi, D "i) or (Vi, D" i) so as to normalize them. This normalization uses a normalization function F applied to the values Uc, i or Vi and to a normalization function G applied to the values D "I. These functions may be identical but this is not necessarily the case. , they are defined according to a variable x, by: F (x) = Log10 (x) (5) xmax / l0 G (x) 2x x -1 (6) xmax

O xmax désigne la valeur maximum que peut prendre la variable x.  O xmax is the maximum value that the variable x can take.

Dans le cadre de l'invention, xmax désigne la valeur maximum que peut  In the context of the invention, xmax is the maximum value that can be

prendre le débit du trafic. Cette valeur dépend bien entendu de l'application.  take the traffic flow. This value depends of course on the application.

Dans l'exemple, du trafic d'une communication sur un réseau de télécommunication, une valeur typique du débit maximum est actuellement égale à 10 Mbits/s. On voit que la fonction G ci-dessus permet de normaliser les valeurs de D"i entre -1 et +1, ce qui garantit une bonne définition de la  In the example, of the traffic of a communication on a telecommunication network, a typical value of the maximum bit rate is currently equal to 10 Mbits / s. It can be seen that the function G above makes it possible to normalize the values of D "i between -1 and +1, which guarantees a good definition of the

fonction de coût proposée (voir plus loin).  proposed cost function (see below).

De préférence, les valeurs UTi ou Vi sauvegardées dans la base de données 21 les valeurs ainsi normalisée. De même, valeurs D"i sauvegardées dans la base de données 22 sont les valeurs ainsi normalisées. De la sorte, un  Preferably, the values UTi or Vi saved in the database 21 values thus standardized. Likewise, values D "i saved in the database 22 are the values thus standardized.

motif d'apprentissage est constitué de valeurs normalisées.  Learning pattern consists of standardized values.

Le module d'apprentissage est par exemple réalisé sous la forme d'un logiciel. Dans un exemple, le module d'apprentissage 200 met en oeuvre un algorithme standard de rétro-propagation de l'erreur avec, pour fonction de coût, une fonction contenant le paramètre ca précité, qui détermine le taux d'erreur de prédiction s visé. Cette fonction de coût F est par exemple la suivante: F=(D"i-D'i)2 + ox.Log [1+(1+D'i)/(1+D"i)] (7) Le premier terme représente le coût quadratique standard (D"i-D'i)2. Le second terme contient un paramètre a dont la valeur peut être réglée en fonction d'un objectif de précision de la prédiction exprimée en termes de taux d'erreur de prédiction. Ce paramètre est de préférence modifiable dynamiquement, en fonction du taux d'erreur visé s. A cet effet, le taux d'erreur visé s est délivré aux moyens d'apprentissage 200 comme paramètre de commande. Le paramètre a permet de régler le pessimisme de la prédiction pour obtenir un taux d'erreur réel déterminé. La valeur du paramètre a qu'il faut utiliser pour l'apprentissage du réseau de neurones afin d'obtenir le taux  The learning module is for example made in the form of software. In one example, the learning module 200 implements a standard algorithm for backpropagating the error with, for cost function, a function containing the aforementioned parameter ca, which determines the prediction error rate s targeted . This function of cost F is for example the following: F = (D "i-D'i) 2 + ox.Log [1+ (1 + D'i) / (1 + D" i)] (7) The first term represents the standard quadratic cost (D "i-D'i) 2. The second term contains a parameter a whose value can be set according to a precision objective of the prediction expressed in terms of error rate This parameter is preferably dynamically modifiable, depending on the error rate targeted S. For this purpose, the target error rate is delivered to the learning means 200 as a control parameter. adjust the pessimism of the prediction to obtain a determined real error rate The value of the parameter has to be used for learning the neural network in order to obtain the rate

d'erreur de prédiction s visé peut être déterminée selon la méthode suivante.  s prediction error can be determined by the following method.

Cette méthode est mise en oeuvre par le module d'apprentissage 200.  This method is implemented by the learning module 200.

Supposons que la valeur courante du paramètre soit égale à ao. Sur une fenêtre du passé suffisamment grande, on calcule les valeurs du rapport  Suppose the current value of the parameter is equal to ao. In a sufficiently large window of the past, the values of the report are calculated

Ri=(1l+D'i)/(1l+D"i) sur l'ensemble des motifs d'apprentissage de cette fenêtre.  Ri = (11 + D'i) / (11 + D "i) on all the learning patterns of this window.

On ordonne ensuite ces valeurs selon un ordre croissant, les plus faibles correspondant aux motifs d'apprentissage pour lesquels la prédiction par le réseau de neurones " apprenti " 110Oa a été la plus risquée, en ce sens que l'écart entre la valeur caractéristique du trafic qui a été réellement observée sur une fenêtre temporelle déterminée du passé et la valeur qui avait été prédite par le réseau 110a pour cette fenêtre temporelle était le plus petit (voire négatif). On sélectionne alors le motif d'apprentissage déterminé qui correspond au taux d'erreur de prédiction s visé, et on donne à une variable R le valeur du rapport Ri correspondant. Par exemple, si on a mille motifs d'apprentissage, le motif d'apprentissage déterminé serait, pour un taux d'erreur E visé égal à 1%, le dixième de la liste ordonnée. Déterminer la valeur du paramètre a qui permet d'obtenir le taux d'erreur de prédiction E visé, revient alors à chercher la valeur de a, différente de aco, qui pour ledit motif d'apprentissage déterminé, aurait donné la valeur I à la variable R. Ceci revient à dire que a est donné par: ao=aO.Log(1 +R)/Log(2) (8) Sur le graphique de la figure 5, la courbe montre, pour une trace déterminée, le taux d'erreur de prédiction réel s' obtenu avec la méthode de détermination du paramètre ac décrite ci-dessus, en fonction du taux d'erreur de prédiction visé ú. Comme on le voit sur ce graphique, le taux réel ú' obtenu est pratiquement égal au taux visé s, quelque soit la valeur de celui-ci. Ceci montre l'efficacité de la méthode ci-dessus de réglage du taux d'erreur de prédiction E visé à l'aide du paramètre a. La valeur du paramètre ct peut être modifiée dynamiquement (i.e., en ligne), sans garantie toutefois concernant les performances des moyens de prédiction pendant une période transitoire  These values are then ordered in ascending order, the lowest corresponding to the learning patterns for which the prediction by the "apprentice" neuron network 110Oa was the riskiest, in that the difference between the characteristic value of the traffic that was actually observed on a given time window of the past and the value that was predicted by the network 110a for this time window was the smallest (or even negative). The determined learning pattern is then selected which corresponds to the predicted error rate s, and a variable R is given the value of the corresponding ratio Ri. For example, if one has a thousand learning reasons, the determined learning pattern would be, for an error rate E referred equal to 1%, the tenth of the ordered list. Determining the value of the parameter a which makes it possible to obtain the prediction error rate E referred to, then amounts to looking for the value of a, different from aco, which for said determined learning pattern would have given the value I to the variable R. This amounts to saying that a is given by: ao = aO.Log (1 + R) / Log (2) (8) On the graph of FIG. 5, the curve shows, for a given trace, the rate real prediction error is obtained with the method of determining the parameter ac described above, according to the target prediction error rate ú. As can be seen from this graph, the real rate obtained is almost equal to the target rate, whatever the value of it. This shows the effectiveness of the above method of adjusting the prediction error rate E referred to using the parameter a. The value of the ct parameter can be dynamically changed (i.e., online), but there is no guarantee regarding the performance of the prediction means during a transitional period

consécutive à cette modification.following this change.

Ainsi qu'on l'aura compris, les caractéristiques du dispositif qui déterminent la largeur des fenêtres de prédiction (i.e., l'horizon de prédiction) et la largeur de la ou des fenêtres d'observation T1 et/ou T2, n'apparaissent pas au niveau du réseau de neurones 110. Ces paramètres du dispositif sont en fait déterminés par les caractéristiques des modules de caractérisation 11 et/ou 12, des filtres F1 à Fn, et par la taille des moyens de stockage constitués par les base de données. Ils peuvent également être modifiés dynamiquement (iLe., en ligne), sans garantie non plus concernant les performances des moyens de  As will be understood, the characteristics of the device that determine the width of the prediction windows (ie, the prediction horizon) and the width of the observation window or windows T1 and / or T2, do not appear. not at the level of the neural network 110. These parameters of the device are in fact determined by the characteristics of the characterization modules 11 and / or 12, the filters F1 to Fn, and the size of the storage means constituted by the databases. . They can also be dynamically modified (iLe., Online), without any guarantee regarding the performance of the means of

prédiction pendant une période transitoire consécutive à cette modification.  prediction during a transitional period following this modification.

Dans la description d'un mode de réalisation préféré de l'invention qui  In the description of a preferred embodiment of the invention which

précède, on a choisit comme une valeur caractérisant le trafic passé sur une première fenêtre d'observation T1 ou T2 qui est une approximation supérieure de la quantité de données reçues pendant un intervalle de temps r de durée déterminée sur ladite fenêtre d'observation T1 ou T2, produite a partir de quantités de données Bj reçues sur des intervalles de temps déterminés 0 respectifs. De préférence, le rapport entre la largeur de la fenêtre d'observation T1 ou T2 et la durée de l'intervalle de temps T- est compris entre 10 et 100. De telles valeurs permettent d'obtenir une caractérisation du trafic passé avec une précision suffisante, sans impliquer des temps de calculs incompatibles avec l'application. De même, le rapport entre la durée de l'intervalle de temps -r et celle de l'intervalle de temps 0 est compris entre 10 et 100. De telles valeurs permettent d'obtenir avec une précision suffisante, respectivement une caractérisation du trafic passé et une approximation de la valeur de la courbe d'arrivée du trafic passé avec une précision suffisante, sans impliquer des  precedes, we have chosen as a value characterizing the traffic passed on a first observation window T1 or T2 which is a higher approximation of the quantity of data received during a time interval r of determined duration on said observation window T1 or T2, produced from data quantities Bj received over respective determined time intervals 0. Preferably, the ratio between the width of the observation window T1 or T2 and the duration of the time interval T- is between 10 and 100. Such values make it possible to obtain a characterization of past traffic with precision sufficient, without implying computation times incompatible with the application. Similarly, the ratio between the duration of the time interval -r and that of the time interval 0 is between 10 and 100. Such values make it possible to obtain with a sufficient accuracy, respectively a characterization of past traffic. and an approximation of the value of the arrival curve of the traffic passed with sufficient accuracy, without involving

temps de calculs incompatibles avec l'application.  computation time incompatible with the application.

A la figure 6, on a représenté un exemple d'application d'un dispositif selon l'invention. Un dispositif de prédiction de trafic 1 conforme au schéma de la figure 2 ou de la figure 3, est compris dans une interface de noeud de réseau (NNI) 2 pour l'interconnexion d'un réseau local 3 (ILAN) à un réseau de  In Figure 6, there is shown an example of application of a device according to the invention. A traffic prediction device 1 according to the diagram of FIG. 2 or FIG. 3 is included in a network node interface (NNI) 2 for the interconnection of a local area network 3 (ILAN) to a network of networks.

télécommunications 4 tel qu'un réseau ATM (ou un réseau IP).  telecommunications 4 such as an ATM network (or an IP network).

Claims (23)

REVENDICATIONS 1. Procédé de prédiction, sur des fenêtres de prédiction (Tp) successives, d'un trafic (5) sur un réseau de télécommunications, suivant lequel: a) on produit en permanence des informations (Uni) caractérisant le trafic passé sur des premières fenêtres d'observation (T1) respectives; b) à des instants (to, to+Tp, to+2.Tp,....) déterminés, on produit une information (Di) caractérisant le trafic sur une prochaine fenêtre de prédiction (Tp), à l'aide de moyens de prédiction (100) comprenant un réseau de neurones (110), et à partir d'une série desdites informations (UTi) caractérisant le trafic passé;  A method of prediction, on successive prediction windows (Tp), of a traffic (5) on a telecommunications network, according to which: a) information (Uni) is continuously generated characterizing the traffic passed on first respective viewing windows (T1); b) at determined instants (to, to + Tp, to + 2.Tp, ....), information (Di) is generated characterizing the traffic on a next prediction window (Tp), using prediction means (100) comprising a neural network (110), and from a series of said information (UTi) characterizing past traffic; c) on entraîne le réseau de neurones (110) en permanence.  c) driving the neural network (110) continuously. 2. Procédé selon la revendication 1, suivant lequel les informations (Un, i) caractérisant le trafic passé sur la première fenêtre d'observation (T1) sont  2. Method according to claim 1, wherein the information (Un, i) characterizing the traffic passed on the first observation window (T1) are sauvegardées dans une première base de données (21).  saved in a first database (21). 3. Procédé selon la revendication 2, suivant lequel, à l'étape c), on entraîne le réseau de neurones (110) à partir d'une série desdites informations (Un,i) caractérisant le trafic passé, qui sont lues dans la premières base de  3. Method according to claim 2, wherein, in step c), the neural network (110) is driven from a series of said information (Un, i) characterizing the past traffic, which are read in the first base of données(21).data (21). 4. Procédé selon la revendication 1, suivant lequel l'étape b) consiste à: bl) produire en parallèle, n informations intermédiaires (Dli-Dni) caractérisant le trafic sur la prochaine fenêtre de prédiction (Tp), à l'aide de n filtres respectifs (F1-Fn) des moyens de prédiction (100), ces filtres (F1-Fn) ayant des fenêtres de filtrage respectives différentes et étant nourris chacun  4. The method according to claim 1, wherein step b) consists of: b) producing in parallel, n intermediate information (Dli-Dni) characterizing the traffic on the next prediction window (Tp), using n respective filters (F1-Fn) prediction means (100), these filters (F1-Fn) having respective different filter windows and being fed each par la série d'informations (UTi) caractérisant le trafic passé.  by the series of information (UTi) characterizing past traffic. b2) produire ladite information (Di) caractérisant le trafic sur la prochaine fenêtre de prédiction (Tp) à l'aide du réseau de neurones (110) recevant en entrée les n séries d'informations intermédiaires (Kl i-Kni) caractérisant le trafic  b2) producing said information (Di) characterizing the traffic on the next prediction window (Tp) using the neural network (110) receiving as input the n sets of intermediate information (Kl i-Kni) characterizing the traffic sur la prochaine fenêtre de prédiction (Tp).  on the next prediction window (Tp). 5. Procédé selon la revendication 4, suivant lequel lesdites informations intermédiaires (Dli-Dni) caractérisant le trafic sur la prochaine fenêtre de  5. Method according to claim 4, wherein said intermediate information (Dli-Dni) characterizing the traffic on the next window of prédiction (Tp) sont sauvegardées dans une première base de données (21).  prediction (Tp) are saved in a first database (21). 6. Procédé selon la revendication 5, suivant lequel, à l'étape c), on entraîne le réseau de neurones (110) à partir de séries respectives desdites n informations intermédiaires (D!-Dn) caractérisant le trafic sur la prochaine fenêtre de prédiction (Tp), qui sont lues dans la première base de données (21).  6. Method according to claim 5, wherein, in step c), the neural network (110) is driven from respective series of said n intermediate information (D! -Dn) characterizing the traffic on the next window of prediction (Tp), which are read in the first database (21). 7. Procédé selon l'une quelconque des revendications 1 à 6, suivant  7. Method according to any one of claims 1 to 6, following lequel, on produit en outre des informations (U',,i) caractérisant le trafic passé sur des secondes fenêtres d'observation (T2) respectives, qui coïfncident avec  which furthermore produces information (U ',, i) characterizing the traffic passed on respective second observation windows (T2), which coincide with les fenêtres de prédiction (Tp) précédentes.  previous prediction windows (Tp). 8. Procédé selon la revendication 7, suivant lequel, lesdites informations (U'I,i) caractérisant le trafic passé sur lesdites secondes fenêtres d'observation  8. The method of claim 7, wherein said information (U'I, i) characterizing the traffic passed on said second observation windows. (T2) respectives, sont sauvegardées dans une seconde base de données (22).  (T2) respectively, are saved in a second database (22). 9. Procédé selon l'une quelconque des revendications 1 à 6, suivant  9. Method according to any one of claims 1 to 6, following lequel lesdites premières fenêtres d'observation (T1) coïncident avec les fenêtres de prédiction (Tp) précédentes et suivant lequel lesdites valeurs (UT,i) caractérisant le trafic passé sur lesdites premières fenêtres d'observation (T1)  which said first observation windows (T1) coincide with the preceding prediction windows (Tp) and according to which said values (UT, i) characterizing the traffic passed on said first observation windows (T1) respectives sont sauvegardées dans une seconde base de données (22).  respective ones are stored in a second database (22). 10. Procédé selon la revendication 8 ou selon la revendication 9, suivant lequel, à l'étape c), on entraîne le réseau de neurones (110), à partir en outre d'une série de valeurs (UTi,U',i) caractérisant le trafic passé sur lesdites fenêtres de prédiction (Tp) précédentes, qui sont lues dans la seconde base de  The method according to claim 8 or claim 9, wherein in step c) the neural network (110) is driven from a series of values (UTi, U ', i). ) characterizing the traffic passed on said preceding prediction windows (Tp), which are read in the second base of données (22).data (22). 11. Procédé selon l'une quelconque des revendications 4 à 10, suivant  11. Method according to any one of claims 4 to 10, following lequel les filtres (F1-Fn) sont des filtres de Kalman.  which filters (F1-Fn) are Kalman filters. 12. Procédé selon l'une quelconque des revendications 4 à 11, suivant  12. Method according to any one of claims 4 to 11, following lequel le réseau de neurones est un perceptron simple.  which the neural network is a simple perceptron. 13. Procédé selon l'une quelconque des revendications précédentes,  13. Process according to any one of the preceding claims, suivant lequel, à l'étape c), on met en oeuvre un algorithme de rétro-  according to which, in step c), a feedback algorithm is implemented. propagation de l'erreur avec, pour fonction de coût, une fonction contenant un  propagation of the error with, for cost function, a function containing a paramètre (a) déterminant un taux d'erreur de prédiction visé.  parameter (a) determining a target prediction error rate. 14. Procédé selon la revendication 13, dans lequel ledit paramètre est  The method of claim 13, wherein said parameter is modifiable dynamiquement.dynamically modifiable. 15. Procédé selon l'une quelconque des revendications précédentes,  15. Process according to any one of the preceding claims, suivant lequel, à l'étape c), on compare les performances du réseau de neurones (110) à celles d'un réseau de neurones " apprenti " (110 a) ayant la même structure que le réseau de neurones, les paramètres du réseau de neurones " apprenti " (110 a) étant recopiés dans le réseau de neurones (110)  according to which, in step c), the performances of the neural network (110) are compared with those of an "apprentice" neuron network (110 a) having the same structure as the neural network, the parameters of the network of "apprentice" neurons (110 a) being copied into the neural network (110) lorsque les performances du premier sont meilleures que celles du second.  when the performances of the first are better than those of the second. 16. Procédé selon l'une quelconque des revendications précédentes,  16. The method according to any one of the preceding claims, suivant lequel une valeur caractérisant le trafic passé sur une première fenêtre d'observation (T1) ou sur une seconde fenêtre d'observation (T2) est une approximation supérieure de la quantité de données reçues pendant un intervalle de temps (X) de durée déterminée sur ladite fenêtre d'observation (T1,T2), produite à partir de quantités de données (Bj) reçues sur des  according to which a value characterizing the traffic passed on a first observation window (T1) or on a second observation window (T2) is an upper approximation of the quantity of data received during a time interval (X) of determined duration on said observation window (T1, T2), produced from data quantities (Bj) received on intervalles de temps déterminés (0) respectifs.  respective time intervals (0). 17. Procédé selon la revendication 16, suivant lequel le rapport entre la largeur de ladite fenêtre d'observation (T1,T2) et la durée dudit intervalle de  17. The method of claim 16, wherein the ratio between the width of said observation window (T1, T2) and the duration of said interval of temps (X) est compris entre 10 et 100.  time (X) is between 10 and 100. 18. Dispositif de prédiction, sur des fenêtres de prédictions (Tp) successives, d'un trafic (5) sur un réseau de télécommunications, comprenant: - des moyens de caractérisation (10, 11, 12) du trafic passé produisant en permanence des informations (Ui) caractérisant le trafic passé sur des fenêtres d'observation (T1) respectives; -des moyens de production (100) contenant un réseau de neurones (110), et produisant, à des instants (to, to+Tp, to+2.Tp,...), une information (Di) caractérisant le trafic sur une prochaine fenêtre de prédiction (Tp), à partir d'une série desdites valeurs (UTi) caractérisant le trafic passé; - des moyens d'apprentissage (200) entraînant le réseau de neurones  18. A prediction device, on successive prediction windows (Tp), of a traffic (5) on a telecommunications network, comprising: - means for characterizing (10, 11, 12) past traffic continuously producing information (Ui) characterizing the traffic passed on respective observation windows (T1); means of production (100) containing a network of neurons (110), and producing, at times (to, to + Tp, to + 2.Tp,...), information (Di) characterizing the traffic on an upcoming prediction window (Tp), from a series of said values (UTi) characterizing past traffic; learning means (200) driving the neural network (110) en permanence.(110) permanently. 19. Dispositif selon la revendication 18, dans lequel les moyens de prédiction (100) comprennent en outre n filtres de prédiction (F1-Fn) ayant des fenêtres de filtrage respectives différentes, étant nommés chacun par ladite série d'information (UTi) caractérisant le trafic passé, et produisant audits instants déterminés (to, to+Tp, to+2.Tp,...) n informations intermédiaires respectives (DF1 i-Dfni) caractérisant le trafic sur la prochaine fenêtre de  The device of claim 18, wherein the prediction means (100) further comprises n prediction filters (F1-Fn) having respective different filtering windows, each being designated by said information series (UTi) characterizing past traffic, and producing determined instantaneous audits (to, to + Tp, to + 2.Tp, ...) n respective intermediate information (DF1 i-Dfni) characterizing the traffic on the next window of prédiction (Tp), qui sont délivrées en entrée du réseau de neurones (110).  prediction (Tp), which are delivered at the input of the neural network (110). 20. Dispositif selon la revendication 19, dans lequel le réseau de  20. The device of claim 19, wherein the network of neurones (110) est un perceptron simple.  Neurons (110) is a simple perceptron. 21. Dispositif selon la revendication 19 ou la revendication 20, dans  21. Device according to claim 19 or claim 20, in lequel les filtres de prédiction (F1-Fn) sont des filtres de Kalman.  which prediction filters (F1-Fn) are Kalman filters. 22. Interface de noeud de réseau (2) pour I'interconnexion d'un réseau local (3) à un réseau de télécommunications (4), comprenant un dispositif (1)  22. Network node interface (2) for the interconnection of a local area network (3) to a telecommunications network (4), comprising a device (1) selon l'une quelconque des revendications 18 à 21.  according to any one of claims 18 to 21. 23, Réseau de télécommunications (4) comprenant une interface de  23, Telecommunications network (4) including an interface of nceud de réseau (2) selon la revendication 22.  network node (2) according to claim 22.
FR0012151A 2000-09-25 2000-09-25 METHOD AND DEVICE FOR PREDICTING TRAFFIC WITH A NEURON NETWORK Expired - Fee Related FR2814558B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR0012151A FR2814558B1 (en) 2000-09-25 2000-09-25 METHOD AND DEVICE FOR PREDICTING TRAFFIC WITH A NEURON NETWORK
EP01972198A EP1320959B1 (en) 2000-09-25 2001-09-25 Method and device for predicting traffic with a neural network
AU2001291985A AU2001291985A1 (en) 2000-09-25 2001-09-25 Method and device for predicting traffic with a neural network
ES01972198T ES2241874T3 (en) 2000-09-25 2001-09-25 PROCEDURE AND DEVICE FOR TRAFFIC PREDICTION THROUGH A NEURONAL NETWORK.
PCT/FR2001/002964 WO2002025452A2 (en) 2000-09-25 2001-09-25 Method and device for predicting traffic with a neural network
PL36058501A PL360585A1 (en) 2000-09-25 2001-09-25 Method and device for predicting traffic with a neural network
DE60110619T DE60110619T2 (en) 2000-09-25 2001-09-25 METHOD AND DEVICE FOR TRAFFIC PRIORITY WITH A NEURONAL NETWORK

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0012151A FR2814558B1 (en) 2000-09-25 2000-09-25 METHOD AND DEVICE FOR PREDICTING TRAFFIC WITH A NEURON NETWORK

Publications (2)

Publication Number Publication Date
FR2814558A1 true FR2814558A1 (en) 2002-03-29
FR2814558B1 FR2814558B1 (en) 2003-02-07

Family

ID=8854625

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0012151A Expired - Fee Related FR2814558B1 (en) 2000-09-25 2000-09-25 METHOD AND DEVICE FOR PREDICTING TRAFFIC WITH A NEURON NETWORK

Country Status (7)

Country Link
EP (1) EP1320959B1 (en)
AU (1) AU2001291985A1 (en)
DE (1) DE60110619T2 (en)
ES (1) ES2241874T3 (en)
FR (1) FR2814558B1 (en)
PL (1) PL360585A1 (en)
WO (1) WO2002025452A2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003212191A1 (en) * 2002-02-05 2003-09-02 Siemens Aktiengesellschaft Method for classifying the traffic dynamism of a network communication using a network that contains pulsed neurons
GB2461516A (en) * 2008-06-30 2010-01-06 Toshiba Res Europ Ltd A method of predicting traffic in a wireless network
CN102693633B (en) * 2012-06-07 2014-03-12 浙江大学 Short-term traffic flow weighted combination prediction method
EP3005332A4 (en) 2013-06-07 2017-04-12 Yandex Europe AG Methods and systems for representing a degree of traffic congestion using a limited number of symbols
CN105050132B (en) * 2015-08-10 2018-10-19 北京邮电大学 The method of estimation of cell extreme value handling capacity
US9578362B1 (en) 2015-12-17 2017-02-21 At&T Intellectual Property I, L.P. Channel change server allocation
CN112469053A (en) * 2020-11-16 2021-03-09 山东师范大学 TD-LTE wireless network data flow prediction method and system
CN115565369B (en) * 2022-09-20 2024-04-16 北京工商大学 Space-time hypergraph convolution traffic flow prediction method and system based on hypergraph

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2745455A1 (en) * 1996-02-23 1997-08-29 France Telecom METHOD OF RENEGOCIATION DURING COMMUNICATION OF THE PARAMETERS OF A TRAFFIC CONTRACT OF AN ATM NETWORK

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2745455A1 (en) * 1996-02-23 1997-08-29 France Telecom METHOD OF RENEGOCIATION DURING COMMUNICATION OF THE PARAMETERS OF A TRAFFIC CONTRACT OF AN ATM NETWORK

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LOBEJKO W: "TRAFFIC PREDICTION BY NEURAL APPROACH", ANNUAL MILITARY COMMUNICATIONS CONFERENCE,US,NEW YORK, IEEE, vol. 15TH, 22 October 1996 (1996-10-22), pages 571 - 575, XP000697341, ISBN: 0-7803-3683-6 *
WOOK-JIN JANG ET AL: "An Intelligent Architecture for Traffic Controls in ATM Network", PROCEEDINGS HIGH PERFORMANCE COMPUTING ON THE INFORMATION SUPERHIGHWAY, HPC ASIA '97, 28 April 1997 (1997-04-28) - 2 May 1997 (1997-05-02), Seoul, South Korea, pages 242 - 247, XP002168592 *

Also Published As

Publication number Publication date
FR2814558B1 (en) 2003-02-07
DE60110619T2 (en) 2006-01-19
WO2002025452A2 (en) 2002-03-28
DE60110619D1 (en) 2005-06-09
AU2001291985A1 (en) 2002-04-02
PL360585A1 (en) 2004-09-06
ES2241874T3 (en) 2005-11-01
EP1320959B1 (en) 2005-05-04
WO2002025452A3 (en) 2002-06-27
EP1320959A2 (en) 2003-06-25

Similar Documents

Publication Publication Date Title
EP1355233B1 (en) Method and system for resource allocation in real-time between several entities
EP1320959B1 (en) Method and device for predicting traffic with a neural network
EP3825919A1 (en) Method for association of user equipment in a cellular network by means of multi-agent reinforcement learning
EP0875032B1 (en) Learning method generating small size neurons for data classification
Monteil et al. Resource reservation within sliced 5G networks: A cost-reduction strategy for service providers
CA2398366C (en) Method for dynamic optimisation of service quality in a data transmission network
WO2021004896A1 (en) Method for estimating the remaining service life of subject equipment
CA2178775C (en) Process and device for imputting data into a regulated access digital network
EP0602281A1 (en) Resequencing means for a cell switching system node
EP0827660B1 (en) Method for renegotiating atm network traffic agreement parameters during communication
EP0874533B1 (en) Fair packet scheduling
EP0401927B1 (en) Learning method, neural network and computer for simulating said neural network
EP1692824B1 (en) Method and server for controlling data flows in a telecommunications network
WO2022171632A1 (en) Neuromorphic circuit and associated training method
WO2007065911A1 (en) Remotely control method and device for congesting in a packet mode a flow of links in a telecommunication network
Jiang Reinforcement Learning and Monte-Carlo Methods
US20200098039A1 (en) Method for making cognitive bidding decision
FR2788183A1 (en) PROCESS FOR RESEQUENCING OF DATA BLOCKS, IN AN ASYNCHRONOUS SWITCHING SYSTEM, CORRESPONDING DATA BLOCKS, SWITCHING ELEMENT AND TERMINAL MODULE
EP3971788A1 (en) Multiplier by multiplexed shifts and addition, associated electronic computer for implementing a neural network and learning method
EP1559249B1 (en) Method and system for regulating volume consumption of traffic of computer entities having access to shared resources
WO2024079408A1 (en) Method for detecting an anomaly in an observed time series of values of a physical quantity representative of the performance of a system
FR3131995A1 (en) SUPPORT FOR CALCULATIONS ON REAL NUMBERS AT THE LEVEL OF PHYSICAL SWITCHES
FR2842677A1 (en) Provisioning capacity of telecommunication network, by measuring parameters relating to effective use of network, data stream capacity requirement and data stream capacity constraint
WO2006070135A1 (en) Method and equipment for allocating resources of a telecommunication cellular network for mobile terminals
Song Approches (m, k)-firm pour la gestion de la qualité de service temps réel

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20060531