FR3102260A1 - Apprentissage automatique multi-agents. - Google Patents

Apprentissage automatique multi-agents. Download PDF

Info

Publication number
FR3102260A1
FR3102260A1 FR1911581A FR1911581A FR3102260A1 FR 3102260 A1 FR3102260 A1 FR 3102260A1 FR 1911581 A FR1911581 A FR 1911581A FR 1911581 A FR1911581 A FR 1911581A FR 3102260 A1 FR3102260 A1 FR 3102260A1
Authority
FR
France
Prior art keywords
learning
subspace
agent
membership
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1911581A
Other languages
English (en)
Other versions
FR3102260B1 (fr
Inventor
Jonathan BONNET
Florent Pajot
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive France SAS filed Critical Continental Automotive France SAS
Priority to FR1911581A priority Critical patent/FR3102260B1/fr
Publication of FR3102260A1 publication Critical patent/FR3102260A1/fr
Application granted granted Critical
Publication of FR3102260B1 publication Critical patent/FR3102260B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Transportation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

L’invention a pour objet des systèmes informatiques (100) et procédés (200) pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier. Le principe général de l’invention est basé sur l’utilisation du paradigme des systèmes multi-agents dans la mise en œuvre de l’apprentissage automatique (« machine learning », en anglais) de manière décentralisée et ascendante. En pratique, l’invention recourt à l’approche des systèmes multi-agents adaptatifs coopératifs (« Adaptive Multi-Agent System » ou AMAS en anglais). Dans ce cadre, la présente invention concerne particulièrement le mécanisme d’apprentissage coopératif mise en œuvre par les différents agents. Figure 1

Description

Apprentissage automatique multi-agents.
L’invention concerne le domaine de l’apprentissage automatique. Plus précisément, elle concerne des systèmes informatiques et procédés pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier.
Les méthodes d’apprentissage automatique connues trouvent leurs limites face à l’apprentissage de systèmes complexes, qui ont une dynamique non linéaire et sont souvent bruités et instables.
En effet, les modèles d’apprentissage automatique entraînés selon ces méthodes sont difficiles à comprendre et à exploiter, puisqu’ils reproduisent les caractéristiques difficiles des systèmes complexes étudiés, notamment leur non-linéarité.
Il est donc souhaitable de proposer une méthode d’apprentissage automatique qui permette de comprendre et d’exploiter facilement les modèles d’apprentissage automatique entraînés.
La présente invention vise donc à pallier les inconvénients précités.
Pour cela, un premier aspect de l’invention concerne un système informatique pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique.
Un deuxième aspect de l’invention concerne un procédé d’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique.
Ainsi, l’invention se rapporte à un système informatique pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage. Le système informatique comprend :
- une mémoire pour stocker les données d’apprentissage,
- une pluralité de premier modules logiciels, ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, et
- au moins un second module logiciel, ci-après appelé agent gestionnaire d’apprentissage automatique, pour :
- partitionner les données d’apprentissage en une pluralité de sous-espaces de données, chaque sous-espace incluant l’union de tout ou partie des intervalles de valeurs associées à au moins deux variables différentes,
- sauvegarder dans la mémoire, les bornes des intervalles de valeurs des variables associées à chaque sous-espace de données, et
- associer chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
dans lequel, chaque agent d’apprentissage automatique est, en outre, prévu pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir un modèle d’apprentissage automatique entraîné,
dans lequel, l’agent gestionnaire d’apprentissage automatique, est, en outre, prévu pour :
- sélectionner tout ou partie des données d’apprentissage, ci-après appelées données de vérification d’apprentissage, et
- déterminer, pour chaque échantillon des données de vérification d’apprentissage, le ou les sous-espaces de données auxquels il appartient, ci-après appelés sous-espaces d’appartenance,
dans lequel le système informatique est, en outre, configuré pour réaliser pour chaque échantillon, les opérations suivantes de manière itérative jusqu’à l’atteinte d’un critère de convergence prédéterminé,
- calculer, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, une prédiction du modèle d’apprentissage automatique entraîné associé, à partir de l’échantillon, de sorte à obtenir un résultat de prédiction,
- calculer, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, une erreur d’apprentissage du modèle d’apprentissage automatique entraîné associé, à partir du résultat de prédiction et de l’échantillon,
- envoyer, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, l’erreur d’apprentissage à l’agent gestionnaire d’apprentissage automatique,
- commander, par l’agent gestionnaire d’apprentissage automatique, l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance, à partir des erreurs d’apprentissage reçus, et
- réentraîner, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, le modèle d’apprentissage automatique entraîné associé.
Dans une première mise en œuvre, l’agent gestionnaire d’apprentissage automatique sélectionne aléatoirement les données de vérification d’apprentissage.
Dans une deuxième mise en œuvre, le système informatique parcours aléatoirement les échantillons des données de vérification d’apprentissage.
Dans une troisième mise en œuvre, le critère de convergence prédéterminé est déterminé à partir de l’erreur d’apprentissage des données de vérification d’apprentissage et/ou des intervalles de valeurs des variables associées aux sous-espaces d’appartenance.
Selon un premier mode de réalisation, lorsque l’échantillon n’est associé à aucun sous-espace d’appartenance, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour :
- identifier le sous-espace de données le plus proche de l’échantillon, et
- commander l’agent d’apprentissage automatique associé audit sous-espace de données le plus proche pour adapter les intervalles de valeurs des variables associées audit sous-espace de données le plus proche de sorte à comprendre l’échantillon.
Selon un deuxième mode de réalisation, lorsque l’échantillon est associé à un seul sous-espace d’appartenance, et que l’erreur d’apprentissage associé se situe en deçà d’une valeur prédéterminée, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour commander l’agent d’apprentissage automatique associé audit sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
Selon un troisième mode de réalisation, lorsque l’échantillon est associé à au moins deux sous-espaces d’appartenance, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour :
- identifier un premier sous-espace d’appartenance associée à l’erreur d’apprentissage la plus faible,
- commander un premier agent d’apprentissage automatique associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit premier sous-espace d’appartenance, de sorte qu’elles s’orientent dans la direction de l’échantillon, et
- commander au moins un second agent d’apprentissage automatique qui n’est pas associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit second sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
L’invention couvre également un procédé d’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage. Le procédé comprend les étapes suivantes :
- une première étape de fourniture d’une mémoire pour stocker les données d’apprentissage,
- une deuxième étape de fourniture d’une pluralité de premier modules logiciels, ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, et
- une troisième étape de fourniture d’au moins un second module logiciel, ci-après appelé agent gestionnaire d’apprentissage automatique,
dans lequel, le procédé comprend, en outre, les étapes suivantes :
- une étape de partitionnement, par l’agent gestionnaire d’apprentissage automatique, des données d’apprentissage en une pluralité de sous-espaces de données, chaque sous-espace incluant l’union de tout ou partie des intervalles de valeurs associées à au moins deux variables différentes,
- une étape de sauvegarde dans la mémoire, des bornes des intervalles de valeurs des variables associées à chaque sous-espace de données,
- une étape d’association de chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
- une étape d’application, par chaque agent d’apprentissage automatique, d’un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir un modèle d’apprentissage automatique entraîné,
- une étape de sélection, par l’agent gestionnaire d’apprentissage automatique, de tout ou partie des données d’apprentissage, ci-après appelées données de vérification d’apprentissage, et
- une étape de détermination, par l’agent gestionnaire d’apprentissage automatique, pour chaque échantillon des données de vérification d’apprentissage, du ou des sous-espaces de données auxquels il appartient, ci-après appelés sous-espaces d’appartenance,
dans lequel, le procédé comprend, en outre, la répétition des étapes suivantes, pour chaque échantillon, jusqu’à l’atteinte d’un critère de convergence prédéterminé :
- une première étape de calcul, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, une prédiction du modèle d’apprentissage automatique entraîné associé, à partir de l’échantillon, de sorte à obtenir un résultat de prédiction,
- une deuxième étape de calcul, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, d’une erreur d’apprentissage du modèle d’apprentissage automatique entraîné associé, à partir du résultat de prédiction et de l’échantillon,
- une étape d’envoi, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, l’erreur d’apprentissage à l’agent gestionnaire d’apprentissage automatique,
- une première étape de commande, par l’agent gestionnaire d’apprentissage automatique, de l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance, à partir des erreurs d’apprentissage reçus, et
- une étape de réentraînement, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, du modèle d’apprentissage automatique entraîné associé.
Selon un premier mode de réalisation, lorsque l’échantillon n’est associé à aucun sous-espace d’appartenance, le procédé comprend, en outre, les étapes suivantes :
- une première étape d’identification, par l’agent gestionnaire d’apprentissage automatique, le sous-espace de données le plus proche de l’échantillon, et
- une deuxième étape de commande, par l’agent gestionnaire d’apprentissage automatique, l’agent d’apprentissage automatique associé audit sous-espace de données le plus proche pour adapter les intervalles de valeurs des variables associées audit sous-espace de données le plus proche de sorte à comprendre l’échantillon.
Selon un deuxième mode de réalisation, lorsque l’échantillon est associé à un seul sous-espace d’appartenance, et que l’erreur d’apprentissage associé se situe en deçà d’une valeur prédéterminée, le procédé comprend, en outre, une troisième étape de commande, par l’agent gestionnaire d’apprentissage automatique, l’agent d’apprentissage automatique associé audit sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
Selon un troisième mode de réalisation, lorsque l’échantillon est associé à au moins deux sous-espaces d’appartenance, le procédé comprend, en outre, les étapes suivantes :
- une seconde étape d’identification, par l’agent gestionnaire d’apprentissage automatique, un premier sous-espace d’appartenance associée à l’erreur d’apprentissage la plus faible, - une quatrième étape de commande, par l’agent gestionnaire d’apprentissage automatique, d’un premier agent d’apprentissage automatique associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit premier sous-espace d’appartenance, de sorte qu’elles s’orientent dans la direction de l’échantillon, et
- une cinquième étape de commande, par l’agent gestionnaire d’apprentissage automatique, au moins un second agent d’apprentissage automatique qui n’est pas associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit second sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
D’autres caractéristiques et avantages de l'invention seront mieux compris à la lecture de
la description qui va suivre et en référence aux dessins annexés, donnés à titre illustratif et nullement limitatif.
représente un système informatique selon l’invention.
représente un procédé selon l’invention.
représente un procédé selon l’invention.
représente une mise en œuvre de l’invention.
représente une autre mise en œuvre de l’invention.
représente une autre mise en œuvre de l’invention.
représente une dernière mise en œuvre de l’invention.
représente un autre procédé selon l’invention.
Pour des raisons de clarté, les éléments représentés ne sont pas nécessairement représentés à la même échelle, les uns par rapport aux autres, sauf mention contraire.
Le principe général de l’invention est basé sur l’utilisation du paradigme des systèmes multi-agents dans la mise en œuvre de l’apprentissage automatique (« machine learning », en anglais) de manière décentralisée et ascendante. En pratique, l’invention recourt à l’approche des systèmes multi-agents adaptatifs coopératifs (« Adaptive Multi-Agent System » ou AMAS en anglais). Dans ce cadre, la présente invention concerne particulièrement le mécanisme d’apprentissage coopératif mis en œuvre par les différents agents.
La figure 1 illustre un système informatique 100 selon l’invention pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique. On entend par système complexe, un système mettant en œuvre une multitude d’éléments électroniques et/ou mécaniques ayant des interactions entre eux et avec leur environnement. En outre, un système complexe est caractérisé par ses propriétés d'ouverture, d'hétérogénéité, de dynamique non linéaire ainsi que la présence de cycles de rétroactions.
Dans la suite de la description, à titre d’exemple, on considèrera que le système complexe est un véhicule routier. Toutefois, d’autres systèmes complexes comme un aéronef ou un train, peuvent être envisagés sans nécessiter de modifications substantielles importantes. On entend par véhicule routier, tout véhicule doté d’un moteur (généralement à explosion ou électrique) destiné à le mouvoir sur un réseau routier et capable de transporter des personnes ou des charges (par exemple, une voiture ou une motocyclette).
Avec cet exemple, une première caractéristique physique peut être choisie parmi toutes les caractéristiques physiques mesurables d’un véhicule routier telles que la vitesse, le couple moteur, le régime moteur, les caractéristiques de l’électro-stabilisateur programmé (« Electronic Stability Programme » ou ESC, en anglais), les caractéristiques du contrôle automatique de la pression des pneus (« Tire Pressure Monitoring System » ou TPMS, en anglais), les caractéristiques du système de frein antiblocage (« Antiblockiersystem » ou ABS, en allemand) ou les caractéristiques du système de transmission, les caractéristiques du système de réduction des NOx. Dans la suite de la description, on considèrera que la première caractéristique physique correspond à la vitesse du véhicule routier.
Dans la figure 1, le système informatique 100 comprend une mémoire 110 de type connu, une pluralité de premier modules logiciels de type connu, ci-après appelés agents d’apprentissage automatique 120, et au moins un second module logiciel de type connu, ci-après appelé agent gestionnaire d’apprentissage automatique 130.
Dans l’exemple de la figure 1, la mémoire 110 est prévue pour stocker des données d’apprentissage. Dans l’invention, les données d’apprentissage comprennent un ensemble de variables mesurées de secondes caractéristiques physiques. La figure 3a illustre des données d’apprentissage 300 comprenant trente-cinq variables : x1, x2, x3,…, x35.
Dans un exemple de la figure 1, les secondes caractéristiques physiques définissent des caractéristiques d’une pluralité de véhicules routiers. Dans cet exemple, les secondes caractéristiques physiques sont du même type que la première caractéristique physique, comme décrit plus haut.
Dans une mise en œuvre particulière, les secondes caractéristiques physiques sont obtenues à partir d’une pluralité de capteurs proprioceptifs de la pluralité de véhicules routiers. Par exemple, les capteurs proprioceptifs de la pluralité de véhicules routiers peuvent être choisis parmi les capteurs suivants : capteur de vitesse, capteur de position de pédale, capteur d'accélération/de décélération, capteur d'angle volant / de braquage, indicateur de clignotant et capteur de pression de pneus.
Dans autre exemple de la figure 1, de manière optionnelle, les secondes caractéristiques physiques définissent des caractéristiques d’un environnement dans lequel évolue chacun de la pluralité de véhicules routiers. Dans cet exemple, les secondes caractéristiques physiques peuvent être choisies parmi toutes les caractéristiques physiques mesurables de l’environnement du véhicule routier telles que les caractéristiques météorologiques observées autour de chaque véhicule routier (par ex. la température de l’air autour du véhicule routier, la vitesse et la direction du vent, le niveau de précipitations) et/ou autour d’au moins l’un des composants du véhicule routier (par ex. la température de l’air dans l’enceinte du moteur du véhicule routier).
Dans une mise en œuvre particulière, les secondes caractéristiques physiques sont mesurées à partir d’une pluralité de capteurs extéroceptifs de la pluralité de véhicules routiers. Par exemple, les capteurs extéroceptifs de la pluralité de véhicules routiers peuvent être choisis parmi les capteurs suivants : capteur de pluie, capteur de luminosité, détecteur d’obstacle, capteur de proximité, détecteur de limitation de vitesse, caméra stéréo et radars/sonars.
Dans l’exemple de la figure 1, la pluralité d’agents d’apprentissage automatique 120, lorsqu’elle est exécutée, est prévue pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs (« Adaptive Multi-Agent Systems » ou AMAS, en anglais).
On rappelle qu’un système multi-agents coopératif est un système d’intelligence artificielle distribuée qui permet à un ensemble d’agents de coopérer les uns avec les autres pour faire émerger une solution. Plus de détails concernant les systèmes multi-agents coopératifs sont fournis dans le document suivant : MARIE-PIERRE, GLEIZES. Self-adaptive complex systems. Proceedings of the 9th European conference on Multi-Agent Systems (EUMAS'11). 2011, p.114-128.
Dans l’invention, le système multi-agents adaptatifs coopératif permet de distribuer des connaissances et de répartir l’apprentissage automatique sur la pluralité d’agents d’apprentissage automatique 120. En pratique, les connaissances correspondent aux données d’apprentissage 300. En outre, le système multi-agents adaptatifs coopératif permet un échange d’informations entre les différents agents d’apprentissage automatique 120 et un apprentissage automatique guidé par des critères prédéterminés. Avec un tel agencement, il est possible d’entraîner un modèle d’apprentissage automatique global couvrant l’ensemble des données d’apprentissage 300, en entraînant une pluralité de modèles d’apprentissage automatique à l’échelle locale.
Dans l’exemple de la figure 1, l’agent gestionnaire d’apprentissage automatique 130, lorsqu’il est exécuté, est prévu pour préparer les données d’apprentissage 300 en vue de leur distribution aux agents d’apprentissage automatique 120.
Pour cela, tout d’abord, l’agent gestionnaire d’apprentissage automatique 130 réduit la dimensionnalité des données d’apprentissage 300, de sorte à obtenir des données réduites d’apprentissage comprenant des variables réduites correspondant à une partie des variables des données d’apprentissage 300.
Dans l’invention, la réduction de dimensionnalité correspond à une réduction de données par diminution du nombre de dimensions/variables des données d’apprentissage 300.
En pratique, on peut utiliser les techniques exploratoires multivariées qui permettent de réduire les dimensions d'un ensemble de données par extraction d'un nombre de facteurs sous-jacents, de dimensions, de classes, etc., expliquant la dispersion des données. Par exemple, on pourra utiliser des méthodes de sélection de variables, comme l’algorithme RFE (« Recursive Feature Elimination » en anglais), l’algorithme T-test de Student, l’algorithme NSC (« Nearest Shrunken Centroids » en anglais) ou l’algorithme mRMR (« minimal-Redondance-Maximale Redundancy» en anglais).
Dans une mise en œuvre particulière, les variables réduites sont les variables des données d’apprentissage 300 dont la corrélation avec la première caractéristique physique est supérieure à une valeur prédéterminée. Ainsi, si l’on considère que la première caractéristique physique correspond à la vitesse du véhicule routier, alors les variables réduites correspondent aux variables des données d’apprentissage 300 qui suffisamment corrélées avec la vitesse du véhicule routier. Il peut s’agir, par exemple de variables telles que le régime moteur ou encore la limitation de vitesse de la portion d’un réseau routier sur laquelle circule le véhicule routier.
La figure 3b illustre des données réduites d’apprentissage 400 obtenues à partir des données d’apprentissage 300 de la figure 3a. Dans l’exemple, de la figure 3b, les données réduites d’apprentissage 400 comprennent dix variables réduites : x1, x7, x13, x14, x22, x27, x30, x33, x34 et x35.
Ensuite, l’agent gestionnaire d’apprentissage automatique 130 partitionne chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées.
Dans un exemple, toutes les variables réduites sont partitionnées en une valeur prédéterminée de partitions. Ainsi, dans cet exemple, toutes les variables réduites possèdent le même nombre de partitions. La figure 3c illustre la variable réduite x1 des données réduites d’apprentissage 400 qui est partitionnée en trois partitions p1-3, p2-3 et p3-3. Toujours dans cet exemple, si l’on considère que la variable réduite x1 correspond à la vitesse du véhicule routier, les partitions p1-3, p2-3 et p3-3 pourraient, respectivement, correspondre aux intervalles suivants : [0-30 km/h[, [30-50 km/h[ et [50-145 km/h].
Dans un autre exemple, chaque variable réduite est partitionnée selon une valeur choisie parmi une pluralité de valeurs prédéterminées de partitions. Ainsi, dans cet exemple, tout ou partie des variables réduites possèdent un nombre différent de partitions. La figure 3c illustre, en outre, la variable réduite x27 des données réduites d’apprentissage 400 qui est partitionnée en quatre partitions p1-4, p2-4, p3-4 et p4-4. Toujours dans cet exemple, si l’on considère que la variable réduite x27 correspond à la limitation vitesse d’une portion d’un réseau routier sur laquelle circule le véhicule routier, les partitions p1-4, p2-4, p3-4 et p4-4 pourraient, respectivement, correspondre aux intervalles suivants : [0-50 km/h[, [50-80 km/h[, [80-110 km/h[ et [110-130 km/h].
En pratique, afin de partitionner chaque variable réduite, l’agent gestionnaire d’apprentissage automatique 130 calcule, pour chaque variable réduite, une pluralité prédéterminée de quantiles de la distribution statistique associée. Ensuite, l’agent gestionnaire d’apprentissage automatique 130 utilise la pluralité de quantiles associée pour réaliser l’étape de partitionnement de chaque variable réduite. On rappelle que les quantiles sont des valeurs qui divisent un jeu de données ordonné en intervalles consécutifs contenant le même nombre de données.
Dans une mise en œuvre particulière, pour chaque variable réduite, le nombre de quantiles est égal à la valeur prédéterminée de partition associée à laquelle on soustrait la valeur "1". Par exemple, pour une variable réduite comprenant trois partitions, l’agent gestionnaire d’apprentissage automatique 130 calculera deux quantiles.
Dans un exemple, tout ou partie des partitions sont agencées de sorte à être distinctes. Cet exemple est illustré par la figure 3c qui montre que les partitions p1-3, p2-3 et p3-3, de la variable réduite x1 des données réduites d’apprentissage 400, ne se chevauchent pas.
Dans un autre exemple, tout ou partie des partitions sont agencées de sorte à se recouvrir selon un taux de recouvrement prédéterminé. Cet exemple est illustré par la figure 3c qui montre que les partitions p1-4, p2-4, p3-4 et p4-4, de la variable réduite x27 des données réduites d’apprentissage 400, se chevauchent. En particulier, les partitions p1-4 et p3-4 chevauchent la partition p2-4, tout comme les partitions p3-4 et p4-3 se chevauchent. Dans l’invention, le taux de recouvrement prédéterminé peut être unique ou multiple selon les variables réduites.
Puis, l’agent gestionnaire d’apprentissage automatique 130 unit les partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes.
La figure 3d illustre douze sous-espaces de données créés à partir des partitions de la figure 3c qui sont associées aux variables réduites x1 et x27 des données d’apprentissage 300 : s1, s2, s3, s4, s5, s6, s7, s8, s9, s10, s11 et x12.
Ensuite, dans la figure 1, l’agent gestionnaire d’apprentissage automatique 130 sauvegarde dans la mémoire 110, les bornes des intervalles de valeurs des variables associées à chaque sous-espace de données. En pratique, l’agent gestionnaire d’apprentissage automatique 130 sauvegarde les bornes des intervalles de valeurs des variables réduites associées à chaque sous-espace de données.
Par ailleurs, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour, répéter au moins l’une des opérations de réduction de dimensionnalité, de partitionnement et d’union, en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée. Cette caractéristique a pour effet de garantir que chaque sous-espace de données aura suffisamment de données pour entraîner un modèle d’apprentissage automatique qui lui sera affecté tout en évitant le phénomène de sous-apprentissage (« underfitting », en anglais).
Dans une mise en œuvre particulière, la valeur seuil prédéterminée est obtenue à partir d’une relation définissant une erreur de généralisation du modèle d’apprentissage automatique à associer à chaque sous-espace. Il est connu que l’erreur de généralisation peut être obtenue à partir d’une mesure de complexité du modèle d’apprentissage automatique. Par exemple, on peut utiliser la mesure de complexité de Rademacher ou encore la mesure de complexité dite dimension VC de Vapnik et Chervonenkis. Dans ce dernier cas, il est connu que l’erreur de généralisation peut être bornée par la relation (1) suivante :
, dans laquelle ε correspond à l’erreur de généralisation, VC correspond à la dimension VC de Vapnik et Chervonenkis et n correspond à la taille du jeu de données à utiliser. On peut déduire n de la relation (1) à partir de la relation (2) suivante :
. Ensuite, n peut être utilisé comme la valeur seuil prédéterminée décrite plus haut. Dans ce cas, la valeur de VC peut être prédéterminée selon les techniques usuelles. En pratique, selon le modèle d’apprentissage automatique utilisé, la valeur de VC peut être évaluée précisément ou bornée.
Par la suite, l’agent gestionnaire d’apprentissage automatique 130 associe chaque agent d’apprentissage automatique 120 à un sous-espace de données et à un modèle d’apprentissage automatique.
Dans un exemple, le modèle d’apprentissage automatique est constitué d’un réseau de neurones artificiels de type perceptron multicouche. Toutefois, tout type de modèle d’apprentissage automatique peut être utilisé avec l’invention sans nécessiter de modifications substantielles importantes.
En outre, l’agent gestionnaire d’apprentissage automatique 130 ajoute à chaque sous-espace de données, les données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage 300 qui ne sont pas des variables réduites. Ainsi, pour chaque donnée associée à un sous-espace de données, l’agent gestionnaire d’apprentissage automatique 130 récupère et incorpore dans ledit sous-espace de données, toutes les données qui lui sont liées et qui font partie des données d’apprentissage 300.
Afin d’illustrer cette caractéristique, nous faisons de nouveau référence aux figures 3a et 3b. Pour rappel, les données d’apprentissage 300 comprennent trente-cinq variables tandis que données réduites d’apprentissage 400 en comprennent dix. Ainsi, pour chaque donnée associée à un sous-espace de données, l’agent gestionnaire d’apprentissage automatique 130 récupère et incorpore dans ledit sous-espace de données, toutes les données associées qui sont comprises dans les vingt-cinq variables des données d’apprentissage 300 qui n’ont pas été choisies comme variables réduites.
Enfin, l’agent gestionnaire d’apprentissage automatique 130 commande chaque agent d’apprentissage automatique 120 pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données. Ainsi, dans l’invention, on entraîne un modèle d’apprentissage par sous-espace de données. Les modèles d’apprentissage automatique ainsi entraînés sont généralement facile à comprendre et à exploiter, puisqu’ils ne concernent que des localités dans l’ensemble des données d’apprentissage 300.
Dans un exemple, l’algorithme d’apprentissage machine est un algorithme d’apprentissage supervisé du type classification ou régression.
Selon un autre aspect de l’invention, l’agent gestionnaire d’apprentissage automatique 130 interagit avec les agents d’apprentissage automatique 120 selon le mécanisme décrit ci-après. Et ce, afin que chaque agent d’apprentissage automatique 120 se spécialise sur un sous-espace de données dans lequel le modèle d’apprentissage automatique entraîné associé est le plus performant.
Tout d’abord, l’agent gestionnaire d’apprentissage automatique 130 sélectionne tout ou partie des données d’apprentissage 300, ci-après appelées données de vérification d’apprentissage.
Dans un exemple, la sélection des données de vérification d’apprentissage est réalisée aléatoirement. Dans un autre exemple, une part prédéterminée des données d’apprentissage est sélectionnée pour former les données de vérification d’apprentissage. Il peut s’agir, par exemple, de 10%, 15% ou 40% des données d’apprentissage qui sont sélectionnées au début, au milieu et/ou à la fin de l’ensemble des données d’apprentissage. Bien sûr, d’autres schémas de sélection peuvent être envisagés sans nécessiter de modifications substantielles importantes.
Ensuite, l’agent gestionnaire d’apprentissage automatique 130 détermine, pour chaque échantillon des données de vérification d’apprentissage, le ou les sous-espaces de données auxquels il appartient, ci-après appelés sous-espaces d’appartenance. Dans un exemple, l’agent gestionnaire d’apprentissage automatique 130 détermine les sous-espaces d’appartenance à partir des bornes des intervalles de valeurs des variables associées à chaque sous-espace de données.
Puis, le système informatique 100 est, en outre, configuré pour réaliser pour chaque échantillon, les opérations suivantes de manière itérative. Dans un exemple, le système informatique 100 choisit l’échantillon courant en parcourant aléatoirement les échantillons des données de vérification d’apprentissage. Toutefois, d’autres schémas de parcours peuvent être envisagés sans nécessiter de modifications substantielles importantes.
Il s’agit, dans une première phase, que chaque agent d’apprentissage automatique 120 associé à un sous-espace d’appartenance, calcule une prédiction du modèle d’apprentissage automatique entraîné associé, à partir de l’échantillon courant, de sorte à obtenir un résultat de prédiction.
Il s’agit ensuite, dans une deuxième phase, que chaque agent d’apprentissage automatique 120 associé à un sous-espace d’appartenance, calcule une erreur d’apprentissage du modèle d’apprentissage automatique entraîné associé, à partir du résultat de prédiction et de l’échantillon.
On rappelle que l’erreur d’apprentissage (également appelée « risque empirique ») permet d’évaluer la qualité d’un modèle d’apprentissage entraîné vis-à-vis des données d’apprentissage qui ont servi à l’entraînement du modèle d’apprentissage. Dans l’invention, n’importe quelle méthode de détermination de l’erreur d’apprentissage peut être envisagée sans nécessiter de modifications substantielles importantes.
Puis, il s’agit, dans une troisième phase, que chaque agent d’apprentissage automatique 120 envoie l’erreur d’apprentissage à l’agent gestionnaire d’apprentissage automatique 130.
Ensuite, il s’agit, dans une quatrième phase, que l’agent gestionnaire d’apprentissage automatique 130 commande, aux agents d’apprentissage automatique 120, l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance, à partir des erreurs d’apprentissage reçues.
Dans l’invention, l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance est réalisée selon trois cas de figure.
Dans un premier cas de figure, on envisage que l’échantillon courant n’est associé à aucun sous-espace d’appartenance. Ce cas de figure peut se présenter au cours d’un apprentissage automatique en ligne (« online machine learning », en anglais) dans lequel de nouveaux échantillons peuvent être présentés.
Dans ce cas, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour identifier le sous-espace de données le plus proche de l’échantillon.
Dans un exemple, l’agent gestionnaire d’apprentissage automatique 130 identifie le sous-espace de données le plus proche de l’échantillon à partir des bornes des intervalles de valeurs des variables associées à chaque sous-espace de données.
Par exemple, le sous-espace de données le plus proche de l’échantillon courant est celui dont la distance euclidienne est minimale entre l’échantillon et tout ou partie des bornes des intervalles de valeurs des variables associées. Dans un exemple, parmi les intervalles suivants de la variable vitesse : [0-20 km/h[, [15-30 km/h[ et [30-50 km/h[ ; l’intervalle [30-50 km/h[ est la plus proche de l’échantillon 55 km/h.
Ensuite, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour commander l’agent d’apprentissage automatique 120 associé audit sous-espace de données le plus proche pour adapter les intervalles de valeurs des variables associées audit sous-espace de données le plus proche de sorte à comprendre l’échantillon courant. Dans l’exemple ci-dessus, la borne supérieure de l’intervalle [30-50 km/h[ est donc agrandie pour couvrir l’échantillon 55 km/h. Dans ce cas, le nouvel intervalle est défini comme suit : [30-55 km/h].
Dans un deuxième cas de figure, on envisage que l’échantillon courant est associé à un seul sous-espace d’appartenance et que l’erreur d’apprentissage associé se situe en deçà d’une valeur prédéterminée. Dans ce cas, l’agent gestionnaire d’apprentissage automatique 130 est en outre, prévu pour commander l’agent d’apprentissage automatique 120 associé audit sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon courant.
Dans l’invention, l’orientation d’un sous-espace d’appartenance dans une direction opposée à un échantillon signifie que l’on rétrécit les bornes des intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte que lesdites bornes s’éloignent de l’échantillon. Dans un exemple, on rétrécit lesdites bornes selon une valeur de rétrécissement prédéterminée. Par exemple, la valeur de rétrécissement prédéterminée correspond à une diminution de 5%, 7%, 10 % ou 22% de l’étendue desdits intervalles. Toutefois, d’autres valeurs de rétrécissement prédéterminées peuvent être envisagées sans nécessiter de modifications substantielles importantes.
Par ailleurs, dans le deuxième cas de figure, l’agent d’apprentissage automatique 120 est capable de refuser de rétrécir les bornes des intervalles de valeurs des variables associées au sous-espace d’appartenance.
Ce refus peut être motivé par la volonté que le sous-espace d’appartenance ne comprenne pas un effectif inférieur à une valeur prédéterminée. En d’autres termes, on souhaite éviter que le sous-espace d’appartenance soit trop petit. Dans un exemple, la valeur prédéterminée correspond à la valeur seuil prédéterminée, décrite plus haut en relation avec la mesure de complexité d’un modèle d’apprentissage automatique. Dans un autre exemple, la valeur prédéterminée est une valeur fixe. Toutefois, d’autres mécanismes de détermination de la valeur prédéterminée peuvent être envisagés sans nécessiter de modifications substantielles importantes.
Le refus peut également être motivé par la volonté de respecter une première valeur de recouvrement prédéterminée entre le sous-espace d’appartenance et tout ou partie des sous-espaces de données voisins. En d’autres termes, on souhaite éviter la formation de « trous » entre les sous-espaces de données en garantissant un certain degré de recouvrement. Dans un exemple, la première valeur de recouvrement prédéterminée est une valeur fixe. Toutefois, d’autres mécanismes de détermination de la première valeur de recouvrement prédéterminée peuvent être envisagés sans nécessiter de modifications substantielles importantes.
Dans un troisième cas de figure, on envisage que l’échantillon courant est associé à au moins deux sous-espaces d’appartenance. Dans ce cas, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour identifier un premier sous-espace d’appartenance associée à l’erreur d’apprentissage la plus faible.
Ensuite, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour commander un premier agent d’apprentissage automatique 120 associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit premier sous-espace d’appartenance, de sorte qu’elles s’orientent dans la direction de l’échantillon.
Dans l’invention, l’orientation d’un sous-espace d’appartenance en direction d’un échantillon signifie que l’on agrandit les bornes des intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte que lesdites bornes se rapprochent de l’échantillon. Dans un exemple, on agrandit lesdites bornes selon une valeur d’agrandissement prédéterminée. Par exemple, la valeur d’agrandissement prédéterminée correspond à un accroissement de 2%, 5%, 14 % ou 37% de l’étendue desdits intervalles. Toutefois, d’autres valeurs d’agrandissement prédéterminées peuvent être envisagées sans nécessiter de modifications substantielles importantes.
Par ailleurs, dans le troisième cas de figure, le premier agent d’apprentissage automatique 120 est capable de refuser d’agrandir les bornes des intervalles de valeurs des variables associées au sous-espace d’appartenance.
Ce refus peut être motivé par la volonté de respecter une seconde valeur de recouvrement prédéterminée entre le premier sous-espace d’appartenance et tout ou partie des sous-espaces de données voisins. En d’autres termes, on souhaite éviter que le premier sous-espace d’appartenance absorbe complètement un ou plusieurs sous-espaces de données voisin. Dans ce cas, la seconde valeur de recouvrement prédéterminée est plus grande ou égale que la première valeur de recouvrement prédéterminée. Dans un exemple, la seconde valeur de recouvrement prédéterminée est une valeur fixe. Toutefois, d’autres mécanismes de détermination de la seconde valeur de recouvrement prédéterminée peuvent être envisagés sans nécessiter de modifications substantielles importantes.
Ensuite, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour commander au moins un second apprentissage automatique 120 qui n’est pas associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit second sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
Enfin, il s’agit, dans une cinquième phase, que chaque agent d’apprentissage automatique 120 associé à un sous-espace d’appartenance, réentraîne le modèle d’apprentissage automatique entraîné associé.
Dans l’invention, le système informatique 100 réalise les opérations itératives ci-dessus jusqu’à l’atteinte d’un critère de convergence prédéterminé. En pratique, le mécanisme de recherche de convergence peut être mis en œuvre avec l’outil dit de traqueur de valeur adaptatif (« Adaptive Value Tracker », ou AVT en anglais) qui permet l’ajustement de paramètres dans le cadre des systèmes multi-agents adaptatifs coopératifs. En effet, le traqueur de valeur adaptatif permet de découvrir une valeur réelle dynamique à partir de retours successifs (« feedbacks », en anglais). Par exemple, ces retours peuvent être de trois types : plus grand, plus petit ou égal. En outre, le traqueur de valeur adaptatif à la propriété intéressante de converger rapidement vers la valeur recherchée et de la maintenir, tout en conservant la possibilité de converger vers une autre valeur si celle-ci venait à changer. Cette propriété en fait en outil très adapté aux paramètres à ajuster rapidement dans un environnement dynamique, comme les intervalles de valeurs des variables associées à chaque sous-espace de données.
Dans un exemple, le critère de convergence prédéterminé est déterminé à partir de l’erreur d’apprentissage des données de vérification d’apprentissage et/ou des intervalles de valeurs des variables associées aux sous-espaces d’appartenance. Par exemple, le critère de convergence prédéterminé correspond à une grandeur mathématique qui se situe au-delà ou en deçà d’une valeur prédéterminée. Dans un exemple, la grandeur mathématique est une moyenne ou une moyenne glissante de l’erreur d’apprentissage des données de vérification d’apprentissage. Dans un autre exemple, la grandeur mathématique est une statistique de dispersion et/ou un taux de recouvrement des intervalles de valeurs des variables associées aux sous-espaces d’appartenance. Toutefois, d’autres fonctions mathématiques et/ou statistiques peuvent être envisagées sans nécessiter de modifications substantielles importantes.
Les figures 2a et 2b illustrent un procédé 200 selon l’invention. Le procédé 200 permet de réaliser un apprentissage automatique prédictif d’au moins une première caractéristique physique du système complexe tel que décrit plus haut. De manière plus précise, le procédé 200 permet de préparer les données d’apprentissage 300 pour réaliser l’apprentissage automatique prédictif.
Dans l’exemple des figures 2a et 2b, la première caractéristique physique et les données d’apprentissage 300 sont similaires à celles décrites en relation avec la figure 1.
Le procédé 200 comprend tout d’abord une première étape de fourniture 210 de la mémoire 110 pour stocker les données d’apprentissage 300.
Puis, le procédé 200 comprend une deuxième étape de fourniture 220 de la pluralité d’agents d’apprentissage automatique 120, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, comme décrit plus haut.
Ensuite, le procédé 200 comprend une troisième étape de fourniture 230 d’au moins un agent gestionnaire d’apprentissage automatique 130, pour préparer les données d’apprentissage 300 en vue de leur distribution aux agents d’apprentissage automatique 120, comme décrit plus haut.
En pratique la troisième étape 230 comprend plusieurs sous-étapes similaires aux opérations décrites plus haut en relation avec l’agent gestionnaire d’apprentissage automatique 130 de la figure 1.
Il s’agit tout d‘abord d’une étape de réduction de dimensionnalité 231 des données d’apprentissage 300, de sorte à obtenir des données réduites d’apprentissage 400 comprenant des variables réduites, comme décrit plus haut.
Ensuite, il s’agit d’une étape de partitionnement 232 de chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées, comme décrit plus haut.
En pratique, dans une mise en œuvre particulière, l’étape de partitionnement 232 comprend, en outre, les étapes suivantes :
- une étape de calcul 2321, pour chaque variable réduite, d’une pluralité prédéterminée de quantiles de la distribution statistique associée, et
- une étape d’utilisation 2322 de la pluralité de quantiles associée pour partitionner chaque variable réduite.
Dans un exemple, tout ou partie des partitions sont agencées de sorte à être distinctes, comme décrit plus haut.
Dans un autre exemple, tout ou partie des partitions sont agencées de sorte à se recouvrir selon un taux de recouvrement prédéterminé, comme décrit plus haut.
Puis, il s’agit d’une étape d’union 233 des partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes, comme décrit plus haut.
Par ailleurs, le procédé 200 comprend, en outre, une étape de répétition 234 d’au moins une des étapes 231, 232 et 233, en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée, comme décrit plus haut.
En outre, il s’agit d’une étape d’association 235 de chaque agent d’apprentissage automatique 120 à un sous-espace de données et à un modèle d’apprentissage automatique.
Par la suite, le procédé 200 comprend, en outre, une étape d’ajout 236 à chaque sous-espace de données, de données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage 300 qui ne sont pas des variables réduites, comme décrit plus haut.
Enfin, il s’agit d’une étape de commande 237 de chaque agent d’apprentissage automatique 120 pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données, comme décrit plus haut.
La figure 4 illustre un procédé 500 selon l’invention. Le procédé 500 permet de réaliser un apprentissage automatique prédictif d’au moins une première caractéristique physique du système complexe tel que décrit plus haut.
Dans l’exemple de la figure 4, la première caractéristique physique et les données d’apprentissage 300 sont similaires à celles décrites en relation avec la figure 1.
Le procédé 500 comprend une première étape de fourniture 510, une deuxième étape de fourniture 520 et une troisième étape de fourniture 530 qui sont similaires aux étapes 210, 220 et 230 du procédé 200.
Ensuite, le procédé 500 comprend une étape de partitionnement 540 similaire aux étapes 232 et 233 du procédé 200. En pratique, dans cette étape, l’agent gestionnaire d’apprentissage automatique 130 partitionne les données d’apprentissage 300 en une pluralité de sous-espaces de données, chaque sous-espace incluant l’union de tout ou partie des intervalles de valeurs associées à au moins deux variables différentes.
Puis, le procédé 500 comprend une étape de sauvegarde 550 dans la mémoire 110, des bornes des intervalles de valeurs des variables associées à chaque sous-espace de données, comme décrit plus haut.
Ensuite, le procédé 500 comprend une étape d’association 560 similaire à l’étape 235 du procédé 200.
Par la suite, le procédé 500 comprend une étape d’application 570, par chaque agent d’apprentissage automatique 120, d’un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir un modèle d’apprentissage automatique entraîné, comme décrit plus haut.
Puis, le procédé 500 comprend une étape de sélection 580, par l’agent gestionnaire d’apprentissage automatique 130, de tout ou partie des données d’apprentissage, ci-après appelées données de vérification d’apprentissage, comme décrit plus haut.
Ensuite, le procédé 500 comprend une étape de détermination 590, par l’agent gestionnaire d’apprentissage automatique 130, pour chaque échantillon des données de vérification d’apprentissage, du ou des sous-espaces de données auxquels il appartient, ci-après appelés sous-espaces d’appartenance, comme décrit plus haut.
Puis, comme décrit plus haut, le procédé 500 comprend, en outre, la répétition des étapes suivantes, pour chaque échantillon, jusqu’à l’atteinte d’un critère de convergence prédéterminé :
- une première étape de calcul 591, par chaque apprentissage automatique 120 associé à un sous-espace d’appartenance, une prédiction du modèle d’apprentissage automatique entraîné associé, à partir de l’échantillon, de sorte à obtenir un résultat de prédiction,
- une deuxième étape de calcul 592, par chaque apprentissage automatique 120 associé à un sous-espace d’appartenance, d’une erreur d’apprentissage du modèle d’apprentissage automatique entraîné associé, à partir du résultat de prédiction et de l’échantillon,
- une étape d’envoi 593, par chaque apprentissage automatique 120 associé à un sous-espace d’appartenance, l’erreur d’apprentissage à l’agent gestionnaire d’apprentissage automatique 130,
- une première étape de commande 594, par l’agent gestionnaire d’apprentissage automatique 130, de l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance, à partir des erreurs d’apprentissage reçues, et
- une étape de réentraînement 595, par chaque apprentissage automatique 120 associé à un sous-espace d’appartenance, du modèle d’apprentissage automatique entraîné associé.
Dans une première mise en œuvre particulière, comme décrit plus haut, lorsque l’échantillon n’est associé à aucun sous-espace d’appartenance, le procédé comprend, en outre, les étapes suivantes :
- une première étape d’identification 594_0_1, par l’agent gestionnaire d’apprentissage automatique 130, le sous-espace de données le plus proche de l’échantillon, et
- une deuxième étape de commande 594_0_2, par l’agent gestionnaire d’apprentissage automatique 130, l’apprentissage automatique 120 associé audit sous-espace de données le plus proche pour adapter les intervalles de valeurs des variables associées audit sous-espace de données le plus proche de sorte à comprendre l’échantillon.
Dans une deuxième mise en œuvre particulière, comme décrit plus haut, lorsque l’échantillon est associé à un seul sous-espace d’appartenance, et que l’erreur d’apprentissage associé se situe en deçà d’une valeur prédéterminée, le procédé comprend, en outre, une troisième étape de commande 594_1, par l’agent gestionnaire d’apprentissage automatique 130, l’apprentissage automatique 120 associé audit sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
Dans une troisième mise en œuvre particulière, comme décrit plus haut, lorsque l’échantillon est associé à au moins deux sous-espaces d’appartenance, le procédé comprend, en outre, les étapes suivantes :
- une seconde étape d’identification 594_2_1, par l’agent gestionnaire d’apprentissage automatique 130, un premier sous-espace d’appartenance associée à l’erreur d’apprentissage la plus faible,
- une quatrième étape de commande 594_2_2, par l’agent gestionnaire d’apprentissage automatique 130, d’un premier agent d’apprentissage automatique 120 associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit premier sous-espace d’appartenance, de sorte qu’elles s’orientent dans la direction de l’échantillon, et
- une cinquième étape de commande 594_2_3, par l’agent gestionnaire d’apprentissage automatique 130, au moins un second apprentissage automatique 120 qui n’est pas associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit second sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
Dans un mode particulier de réalisation de l’invention, les différentes étapes des procédés 200 et 500 sont déterminées par des instructions de programmes d’ordinateur. Par conséquent, l’invention vise aussi un programme avec un code de programme d’ordinateur fixé sur un support de stockage non transitoire, de code de programme étant susceptible d’exécuter les étapes des procédés 200 et 500 lorsque le programme d’ordinateur est chargé dans l’ordinateur ou exécuté dans l’ordinateur.
La présente invention a été décrite et illustrée dans la présente description détaillée et dans les figures. Toutefois, la présente invention ne se limite pas aux formes de réalisation présentées. Ainsi, d’autres variantes et modes de réalisation peuvent être déduits et mis en œuvre par la personne du métier à la lecture de la présente description et des figures annexées

Claims (11)

  1. Système informatique (100) pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage (300), le système comprenant :
    - une mémoire (110) pour stocker les données d’apprentissage,
    - une pluralité de premier modules logiciels (120), ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, et
    - au moins un second module logiciel (130), ci-après appelé agent gestionnaire d’apprentissage automatique, pour :
    - partitionner les données d’apprentissage en une pluralité de sous-espaces de données, chaque sous-espace incluant l’union de tout ou partie des intervalles de valeurs associées à au moins deux variables différentes,
    - sauvegarder dans la mémoire, les bornes des intervalles de valeurs des variables associées à chaque sous-espace de données, et
    - associer chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
    dans lequel, chaque agent d’apprentissage automatique est, en outre, prévu pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir un modèle d’apprentissage automatique entraîné,
    dans lequel, l’agent gestionnaire d’apprentissage automatique, est, en outre, prévu pour :
    - sélectionner tout ou partie des données d’apprentissage, ci-après appelées données de vérification d’apprentissage, et
    - déterminer, pour chaque échantillon des données de vérification d’apprentissage, le ou les sous-espaces de données auxquels il appartient, ci-après appelés sous-espaces d’appartenance,
    dans lequel le système informatique est, en outre, configuré pour réaliser pour chaque échantillon, les opérations suivantes de manière itérative jusqu’à l’atteinte d’un critère de convergence prédéterminé,
    - calculer, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, une prédiction du modèle d’apprentissage automatique entraîné associé, à partir de l’échantillon, de sorte à obtenir un résultat de prédiction,
    - calculer, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, une erreur d’apprentissage du modèle d’apprentissage automatique entraîné associé, à partir du résultat de prédiction et de l’échantillon,
    - envoyer, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, l’erreur d’apprentissage à l’agent gestionnaire d’apprentissage automatique,
    - commander, par l’agent gestionnaire d’apprentissage automatique, l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance, à partir des erreurs d’apprentissage reçus, et
    - réentraîner, par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, le modèle d’apprentissage automatique entraîné associé.
  2. Système informatique selon la revendication 1, dans lequel l’agent gestionnaire d’apprentissage automatique sélectionne aléatoirement les données de vérification d’apprentissage.
  3. Système informatique selon l’une des revendications 1 à 2, dans lequel le système informatique parcours aléatoirement les échantillons des données de vérification d’apprentissage.
  4. Système informatique selon l’une des revendications 1 à 3, dans lequel le critère de convergence prédéterminé est déterminé à partir de l’erreur d’apprentissage des données de vérification d’apprentissage et/ou des intervalles de valeurs des variables associées aux sous-espaces d’appartenance.
  5. Système informatique selon l’une des revendications 1 à 4, lorsque l’échantillon n’est associé à aucun sous-espace d’appartenance, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour :
    - identifier le sous-espace de données le plus proche de l’échantillon, et
    - commander l’agent d’apprentissage automatique associé audit sous-espace de données le plus proche pour adapter les intervalles de valeurs des variables associées audit sous-espace de données le plus proche de sorte à comprendre l’échantillon.
  6. Système informatique selon l’une des revendications 1 à 4, lorsque l’échantillon est associé à un seul sous-espace d’appartenance, et que l’erreur d’apprentissage associé se situe en deçà d’une valeur prédéterminée, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour commander l’agent d’apprentissage automatique associé audit sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
  7. Système informatique selon l’une des revendications 1 à 4, lorsque l’échantillon est associé à au moins deux sous-espaces d’appartenance, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour :
    - identifier un premier sous-espace d’appartenance associée à l’erreur d’apprentissage la plus faible,
    - commander un premier agent d’apprentissage automatique associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit premier sous-espace d’appartenance, de sorte qu’elles s’orientent dans la direction de l’échantillon, et
    - commander au moins un second agent d’apprentissage automatique qui n’est pas associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit second sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
  8. Procédé (500) d’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage (300), le procédé comprenant les étapes suivantes :
    - une première étape de fourniture (510) d’une mémoire (110) pour stocker les données d’apprentissage,
    - une deuxième étape de fourniture (520) d’une pluralité de premier modules logiciels (120), ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, et
    - une troisième étape de fourniture (530) d’au moins un second module logiciel (130), ci-après appelé agent gestionnaire d’apprentissage automatique,
    dans lequel, le procédé comprend, en outre, les étapes suivantes :
    - une étape de partitionnement (540), par l’agent gestionnaire d’apprentissage automatique, des données d’apprentissage en une pluralité de sous-espaces de données, chaque sous-espace incluant l’union de tout ou partie des intervalles de valeurs associées à au moins deux variables différentes,
    - une étape de sauvegarde (550) dans la mémoire, des bornes des intervalles de valeurs des variables associées à chaque sous-espace de données,
    - une étape d’association (560) de chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
    - une étape d’application (570), par chaque agent d’apprentissage automatique, d’un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir un modèle d’apprentissage automatique entraîné,
    - une étape de sélection (580), par l’agent gestionnaire d’apprentissage automatique, de tout ou partie des données d’apprentissage, ci-après appelées données de vérification d’apprentissage, et
    - une étape de détermination (590), par l’agent gestionnaire d’apprentissage automatique, pour chaque échantillon des données de vérification d’apprentissage, du ou des sous-espaces de données auxquels il appartient, ci-après appelés sous-espaces d’appartenance,
    dans lequel, le procédé comprend, en outre, la répétition des étapes suivantes, pour chaque échantillon, jusqu’à l’atteinte d’un critère de convergence prédéterminé :
    - une première étape de calcul (591), par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, une prédiction du modèle d’apprentissage automatique entraîné associé, à partir de l’échantillon, de sorte à obtenir un résultat de prédiction,
    - une deuxième étape de calcul (592), par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, d’une erreur d’apprentissage du modèle d’apprentissage automatique entraîné associé, à partir du résultat de prédiction et de l’échantillon,
    - une étape d’envoi (593), par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, l’erreur d’apprentissage à l’agent gestionnaire d’apprentissage automatique,
    - une première étape de commande (594), par l’agent gestionnaire d’apprentissage automatique, de l’adaptation des intervalles de valeurs des variables associées aux sous-espaces d’appartenance, à partir des erreurs d’apprentissage reçus, et
    - une étape de réentraînement (595), par chaque agent d’apprentissage automatique associé à un sous-espace d’appartenance, du modèle d’apprentissage automatique entraîné associé.
  9. Procédé selon la revendication 8, lorsque l’échantillon n’est associé à aucun sous-espace d’appartenance, le procédé comprend, en outre, les étapes suivantes :
    - une première étape d’identification (594_0_1), par l’agent gestionnaire d’apprentissage automatique, le sous-espace de données le plus proche de l’échantillon, et
    - une deuxième étape de commande (594_0_2), par l’agent gestionnaire d’apprentissage automatique, l’agent d’apprentissage automatique associé audit sous-espace de données le plus proche pour adapter les intervalles de valeurs des variables associées audit sous-espace de données le plus proche de sorte à comprendre l’échantillon.
  10. Procédé selon la revendication 8, lorsque l’échantillon est associé à un seul sous-espace d’appartenance, et que l’erreur d’apprentissage associé se situe en deçà d’une valeur prédéterminée, le procédé comprend, en outre, une troisième étape de commande (594_1), par l’agent gestionnaire d’apprentissage automatique, l’agent d’apprentissage automatique associé audit sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
  11. Procédé selon la revendication 8, lorsque l’échantillon est associé à au moins deux sous-espaces d’appartenance, le procédé comprend, en outre, les étapes suivantes :
    - une seconde étape d’identification (594_2_1), par l’agent gestionnaire d’apprentissage automatique, un premier sous-espace d’appartenance associée à l’erreur d’apprentissage la plus faible,
    - une quatrième étape de commande (594_2_2), par l’agent gestionnaire d’apprentissage automatique, d’un premier agent d’apprentissage automatique associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit premier sous-espace d’appartenance, de sorte qu’elles s’orientent dans la direction de l’échantillon, et
    - une cinquième étape de commande (594_2_3), par l’agent gestionnaire d’apprentissage automatique, au moins un second agent d’apprentissage automatique qui n’est pas associé au premier sous-espace d’appartenance pour adapter les intervalles de valeurs des variables associées audit second sous-espace d’appartenance, de sorte qu’elles s’orientent dans une direction opposée à l’échantillon.
FR1911581A 2019-10-17 2019-10-17 Apprentissage automatique multi-agents. Active FR3102260B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1911581A FR3102260B1 (fr) 2019-10-17 2019-10-17 Apprentissage automatique multi-agents.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1911581 2019-10-17
FR1911581A FR3102260B1 (fr) 2019-10-17 2019-10-17 Apprentissage automatique multi-agents.

Publications (2)

Publication Number Publication Date
FR3102260A1 true FR3102260A1 (fr) 2021-04-23
FR3102260B1 FR3102260B1 (fr) 2023-02-17

Family

ID=69190970

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1911581A Active FR3102260B1 (fr) 2019-10-17 2019-10-17 Apprentissage automatique multi-agents.

Country Status (1)

Country Link
FR (1) FR3102260B1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3074123A1 (fr) * 2018-05-29 2019-05-31 Continental Automotive France Evaluation d'un style de conduite d'un conducteur d'un vehicule routier en mouvement par apprentissage automatique
FR3079954A1 (fr) * 2018-04-10 2019-10-11 Continental Automotive France Apprentissage automatique predictif pour la prediction d'une vitesse future d'un vehicule automobile en mouvement sur une route

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3079954A1 (fr) * 2018-04-10 2019-10-11 Continental Automotive France Apprentissage automatique predictif pour la prediction d'une vitesse future d'un vehicule automobile en mouvement sur une route
FR3074123A1 (fr) * 2018-05-29 2019-05-31 Continental Automotive France Evaluation d'un style de conduite d'un conducteur d'un vehicule routier en mouvement par apprentissage automatique

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MARIE-PIERRE, GLEIZES: "Self-adaptive complex systems", PROCEEDINGS OF THE 9TH EUROPEAN CONFÉRENCE ON MULTI-AGENT SYSTEMS (EUMAS'LL, 2011, pages 114 - 128, XP047010816

Also Published As

Publication number Publication date
FR3102260B1 (fr) 2023-02-17

Similar Documents

Publication Publication Date Title
EP3183621B1 (fr) Calculateur de direction assistée pourvu d'un enregistreur d'événements integré
FR3008506B1 (fr) Procede et dispositif pour fournir des donnees de positions d'appui pour un modele de fonctionnement reposant sur des donnees
FR2929995A1 (fr) Procede et appareil de commande d'un moteur a combustion interne
EP3663987B1 (fr) Procédé et dispositif de détermination de la taille mémoire globale d'une zone mémoire globale allouée aux données d'un réseau de neurones
FR3074123A1 (fr) Evaluation d'un style de conduite d'un conducteur d'un vehicule routier en mouvement par apprentissage automatique
AU2019202373A1 (en) Apparatuses, systems, and methods for remotely capturing automotive vehicle diagnostic information, monitoring, and controlling
EP2446370A1 (fr) Détection de défaut dans un dispositif électrochimique
FR3006785A1 (fr) Procedes de creation d'une base de donnees et d'elaboration d'une carte d'etats de fonctionnement de moteurs d'aeronefs, et un procede de surveillance du fonctionnement d'un moteur d'aeronef associe
WO2016075409A1 (fr) Procédé de surveillance d'un moteur d'aéronef en fonctionnement dans un environnement donné
FR3096637A1 (fr) Procédé et dispositif de détermination d’un chemin pour un véhicule autonome
CN115393818A (zh) 驾驶场景识别方法、装置、计算机设备和存储介质
FR3102260A1 (fr) Apprentissage automatique multi-agents.
EP4042007A1 (fr) Dispositif, procédé et programme d'ordinateur de suivi de moteur d'aéronef
EP0364333A1 (fr) Procédé et dispositif de validation de plots, pour radar, avec mise à jour autoadaptative
WO2019197781A1 (fr) Apprentissage automatique prédictif pour la prédiction d'une vitesse future d'un véhicule automobile en mouvement sur une route
EP3928093A1 (fr) Procédé d'identification d'un article par signature olfactive
FR3102277A1 (fr) Préparation de jeu de données pour un apprentissage automatique multi-agents
FR3094104A1 (fr) Procédé et dispositif de détermination de la taille mémoire globale d’une zone mémoire globale allouée aux données d’un réseau de neurones compte tenu de sa topologie
FR3037170A1 (fr) Procede et systeme de prediction du fonctionnement d'un aeronef par analyse de similarite utilisant des capacites de stockage et de calcul reparties
WO2020048770A1 (fr) Prédiction d'un paramètre de recalage cartographique par apprentissage profond
US20240062073A1 (en) Reconstruction of training examples in the federated training of neural networks
FR3138718A1 (fr) Dispositif électronique et procédé de traitement de données comportant au moins un modèle d’intelligence artificielle auto-adaptatif avec apprentissage local, système électronique et programme d’ordinateur associés
FR3125151A1 (fr) Procédé et dispositif de contrôle d’un véhicule à partir d’une prédiction d’intention d’un piéton de traverser une route
FR2795830A1 (fr) Procede de pilotage d'un processus dynamique complexe
FR3112122A1 (fr) Procédé d’évaluation de l’état relatif d’un moteur d’aéronef

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210423

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

TP Transmission of property

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Effective date: 20230807

PLFP Fee payment

Year of fee payment: 5