FR3102277A1 - Préparation de jeu de données pour un apprentissage automatique multi-agents - Google Patents

Préparation de jeu de données pour un apprentissage automatique multi-agents Download PDF

Info

Publication number
FR3102277A1
FR3102277A1 FR1911592A FR1911592A FR3102277A1 FR 3102277 A1 FR3102277 A1 FR 3102277A1 FR 1911592 A FR1911592 A FR 1911592A FR 1911592 A FR1911592 A FR 1911592A FR 3102277 A1 FR3102277 A1 FR 3102277A1
Authority
FR
France
Prior art keywords
machine learning
data
reduced
variables
partitions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1911592A
Other languages
English (en)
Other versions
FR3102277B1 (fr
Inventor
Jonathan BONNET
Florent Pajot
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive France SAS filed Critical Continental Automotive France SAS
Priority to FR1911592A priority Critical patent/FR3102277B1/fr
Publication of FR3102277A1 publication Critical patent/FR3102277A1/fr
Application granted granted Critical
Publication of FR3102277B1 publication Critical patent/FR3102277B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/043Distributed expert systems; Blackboards

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Machine Translation (AREA)

Abstract

L’invention a pour objet des systèmes informatiques (100) et procédés (200) pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier. Le principe général de l’invention est basé sur l’utilisation du paradigme des systèmes multi-agents dans la mise en œuvre de l’apprentissage automatique (« machine learning », en anglais) de manière décentralisée et ascendante. En pratique, l’invention recourt à l’approche des systèmes multi-agents adaptatifs coopératifs (« Adaptive Multi-Agent System » ou AMAS en anglais). Dans ce cadre, la présente invention concerne particulièrement la préparation du jeu de données d’apprentissage à répartir entre les différents agents. Figure 1

Description

Préparation de jeu de données pour un apprentissage automatique multi-agents
L’invention concerne le domaine de l’apprentissage automatique. Plus précisément, elle concerne des systèmes informatiques et procédés pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier.
Les méthodes d’apprentissage automatique connues trouvent leurs limites face à l’apprentissage de systèmes complexes, qui ont une dynamique non linéaire et sont souvent bruités et instables.
En effet, les modèles d’apprentissage automatique entraînés selon ces méthodes sont difficiles à comprendre et à exploiter, puisqu’ils reproduisent les caractéristiques difficiles des systèmes complexes étudiés, notamment leur non-linéarité.
Il est donc souhaitable de proposer une méthode d’apprentissage automatique qui permette de comprendre et d’exploiter facilement les modèles d’apprentissage automatique entraînés.
La présente invention vise donc à pallier les inconvénients précités.
Pour cela, un premier aspect de l’invention concerne un système informatique pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique.
Et un deuxième aspect de l’invention concerne un procédé d’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique.
Ainsi, l’invention se rapporte à un système informatique pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage. Le système informatique comprend :
- une mémoire pour stocker les données d’apprentissage,
- une pluralité de premier modules logiciels, ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, et
- au moins un second module logiciel, ci-après appelé agent gestionnaire d’apprentissage automatique, pour préparer les données d’apprentissage en vue de leur distribution aux agents d’apprentissage automatique,
dans lequel, l’agent gestionnaire d’apprentissage automatique est prévu pour :
- (a) réduire la dimensionnalité des données d’apprentissage, de sorte à obtenir des données réduites d’apprentissage comprenant des variables réduites correspondant à une partie des variables des données d’apprentissage,
- (b) partitionner chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées,
- (c) unir les partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes,
- (e) associer chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
- (h) commander chaque agent d’apprentissage automatique pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données.
Dans une première mise en œuvre, les secondes caractéristiques physiques définissent des caractéristiques du système complexe et optionnellement des caractéristiques d’un environnement dans lequel évolue le système complexe.
Dans une deuxième mise en œuvre, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour :
- calculer, pour chaque variable réduite, une pluralité prédéterminée de quantiles de la distribution statistique associée, et
- utiliser la pluralité de quantiles associée pour réaliser l’étape de partitionnement de chaque variable réduite.
Dans une troisième mise en œuvre, tout ou partie des partitions sont agencées de sorte à être distinctes ou à se recouvrir selon un taux de recouvrement prédéterminé.
Dans une quatrième mise en œuvre, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour, avant la réalisation de l’opération (e) :
- (d) répéter au moins l’une des opérations (a), (b) et (c), en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée.
Dans une cinquième mise en œuvre, l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour, entre la réalisation des opérations (e) et (g) :
- (f) ajouter à chaque sous-espace de données, les données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage qui ne sont pas des variables réduites.
L’invention couvre également un procédé d’apprentissage prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage. Le procédé comprend les étapes suivantes :
- une première étape de fourniture d’une mémoire pour stocker les données d’apprentissage,
- une deuxième étape de fourniture d’une pluralité de premier modules logiciels, ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs,
- une troisième étape de fourniture d’au moins un second module logiciel, ci-après appelé agent gestionnaire d’apprentissage automatique, pour préparer les données d’apprentissage en vue de leur distribution aux agents d’apprentissage automatique,
dans lequel, la troisième étape de fourniture comprend, en outre, les étapes suivantes :
- une étape de réduction de dimensionnalité des données d’apprentissage, de sorte à obtenir des données réduites d’apprentissage comprenant des variables réduites correspondant à une partie des variables des données d’apprentissage,
- une étape de partitionnement de chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées,
- une étape d’union des partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes,
- une étape d’association de chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
- une étape de commande de chaque agent d’apprentissage automatique pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données.
Selon un premier mode de réalisation, les secondes caractéristiques physiques définissent des caractéristiques du système complexe et optionnellement des caractéristiques d’un environnement dans lequel évolue le système complexe.
Selon un deuxième mode de réalisation, l’étape de partitionnement comprend, en outre, les étapes suivantes :
- une étape de calcul, pour chaque variable réduite, d’une pluralité prédéterminée de quantiles de la distribution statistique associée, et
- une étape d’utilisation de la pluralité de quantiles associée pour partitionner chaque variable réduite.
Selon un troisième mode de réalisation, tout ou partie des partitions sont agencées de sorte à être distinctes ou à se recouvrir selon un taux de recouvrement prédéterminé.
Selon un quatrième mode de réalisation, le procédé comprend, en outre, l’étape suivante, avant la réalisation de l’étape d’association :
- une étape de répétition d’au moins l’une des étapes 231, 232 et 233, en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée.
Selon un cinquième mode de réalisation, le procédé comprend, en outre, les étapes suivantes, entre les étapes d’association et de commande :
- une étape à chaque sous-espace de données, de données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage qui ne sont pas des variables réduites.
D’autres caractéristiques et avantages de l'invention seront mieux compris à la lecture de la description qui va suivre et en référence aux dessins annexés, donnés à titre illustratif et nullement limitatif.
représente un système informatique selon l’invention.
représente un procédé selon l’invention.
représente un procédé selon l’invention.
représente une mise en œuvre de l’invention.
représente une autre mise en œuvre de l’invention.
représente une autre mise en œuvre de l’invention.
représente une dernière mise en œuvre de l’invention.
Pour des raisons de clarté, les éléments représentés ne sont pas nécessairement représentés à la même échelle, les uns par rapport aux autres, sauf mention contraire.
Le principe général de l’invention est basé sur l’utilisation du paradigme des systèmes multi-agents dans la mise en œuvre de l’apprentissage automatique (« machine learning », en anglais) de manière décentralisée et ascendante. En pratique, l’invention recourt à l’approche des systèmes multi-agents adaptatifs coopératifs (« Adaptive Multi-Agent System » ou AMAS en anglais). Dans ce cadre, la présente invention concerne particulièrement la préparation du jeu de données d’apprentissage à répartir entre les différents agents.
La figure 1 illustre un système informatique 100 selon l’invention pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique. On entend par système complexe, un système mettant en œuvre une multitude d’éléments électroniques et/ou mécaniques ayant des interactions entre eux et avec leur environnement. En outre, un système complexe est caractérisé par ses propriétés d'ouverture, d'hétérogénéité, de dynamique non linéaire ainsi que la présence de cycles de rétroactions.
Dans la suite de la description, à titre d’exemple, on considèrera que le système complexe est un véhicule routier. Toutefois, d’autres systèmes complexes comme un aéronef ou un train, peuvent être envisagés sans nécessiter de modifications substantielles importantes. On entend par véhicule routier, tout véhicule doté d’un moteur (généralement à explosion ou électrique) destiné à le mouvoir sur un réseau routier et capable de transporter des personnes ou des charges (par exemple, une voiture ou une motocyclette).
Avec cet exemple, une première caractéristique physique peut être choisie parmi toutes les caractéristiques physiques mesurables d’un véhicule routier telles que la vitesse, le couple moteur, le régime moteur, les caractéristiques de l’électro-stabilisateur programmé (« Electronic Stability Programme » ou ESC, en anglais), les caractéristiques du contrôle automatique de la pression des pneus (« Tire Pressure Monitoring System » ou TPMS, en anglais), les caractéristiques du système de frein antiblocage (« Antiblockiersystem » ou ABS, en allemand) ou les caractéristiques du système de transmission, les caractéristiques du système de réduction des NOx. Dans la suite de la description, on considèrera que la première caractéristique physique correspond à la vitesse du véhicule routier.
Dans la figure 1, le système informatique 100 comprend une mémoire 110 de type connu, une pluralité de premier modules logiciels de type connu, ci-après appelés agents d’apprentissage automatique 120, et au moins un second module logiciel de type connu, ci-après appelé agent gestionnaire d’apprentissage automatique 130.
Dans l’exemple de la figure 1, la mémoire 110 est prévue pour stocker des données d’apprentissage. Dans l’invention, les données d’apprentissage comprennent un ensemble de variables mesurées de secondes caractéristiques physiques. La figure 3a illustre des données d’apprentissage 300 comprenant trente-cinq variables : x1, x2, x3,…, x35.
Dans un exemple de la figure 1, les secondes caractéristiques physiques définissent des caractéristiques d’une pluralité de véhicules routiers. Dans cet exemple, les secondes caractéristiques physiques sont du même type que la première caractéristique physique, comme décrit plus haut.
Dans une mise en œuvre particulière, les secondes caractéristiques physiques sont obtenues à partir d’une pluralité de capteurs proprioceptifs de la pluralité de véhicules routiers. Par exemple, les capteurs proprioceptifs de la pluralité de véhicules routiers peuvent être choisis parmi les capteurs suivants : capteur de vitesse, capteur de position de pédale, capteur d'accélération/de décélération, capteur d'angle volant / de braquage, indicateur de clignotant et capteur de pression de pneus.
Dans autre exemple de la figure 1, de manière optionnelle, les secondes caractéristiques physiques définissent des caractéristiques d’un environnement dans lequel évolue chacun de la pluralité de véhicules routiers. Dans cet exemple, les secondes caractéristiques physiques peuvent être choisies parmi toutes les caractéristiques physiques mesurables de l’environnement du véhicule routier telles que les caractéristiques météorologiques observées autour de chaque véhicule routier (par ex. la température de l’air autour du véhicule routier, la vitesse et la direction du vent, le niveau de précipitations) et/ou autour d’au moins l’un des composants du véhicule routier (par ex. la température de l’air dans l’enceinte du moteur du véhicule routier).
Dans une mise en œuvre particulière, les secondes caractéristiques physiques sont mesurées à partir d’une pluralité de capteurs extéroceptifs de la pluralité de véhicules routiers. Par exemple, les capteurs extéroceptifs de la pluralité de véhicules routiers peuvent être choisis parmi les capteurs suivants : capteur de pluie, capteur de luminosité, détecteur d’obstacle, capteur de proximité, détecteur de limitation de vitesse, caméra stéréo et radars/sonars.
Dans l’exemple de la figure 1, la pluralité d’agents d’apprentissage automatique 120, lorsqu’elle est exécutée, est prévue pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs (« Adaptive Multi-Agent Systems » ou AMAS, en anglais).
On rappelle qu’un système multi-agents coopératif est un système d’intelligence artificielle distribuée qui permet à un ensemble d’agents de coopérer les uns avec les autres pour faire émerger une solution. Plus de détails concernant les systèmes multi-agents coopératifs sont fournis dans le document suivant : MARIE-PIERRE, GLEIZES. Self-adaptive complex systems. Proceedings of the 9th European conference on Multi-Agent Systems (EUMAS'11). 2011, p.114-128.
Dans l’invention, le système multi-agents adaptatifs coopératif permet de distribuer des connaissances et de répartir l’apprentissage automatique sur la pluralité d’agents d’apprentissage automatique 120. En pratique, les connaissances correspondent aux données d’apprentissage 300. En outre, le système multi-agents adaptatifs coopératif permet un échange d’informations entre les différents agents d’apprentissage automatique 120 et un apprentissage automatique guidé par des critères prédéterminés. Avec un tel agencement, il est possible d’entraîner un modèle d’apprentissage automatique global couvrant l’ensemble des données d’apprentissage 300, en entraînant une pluralité de modèles d’apprentissage automatique à l’échelle locale.
Dans l’exemple de la figure 1, l’agent gestionnaire d’apprentissage automatique 130, lorsqu’il est exécuté, est prévu pour préparer les données d’apprentissage 300 en vue de leur distribution aux agents d’apprentissage automatique 120.
Pour cela, tout d’abord, l’agent gestionnaire d’apprentissage automatique 130 réduit la dimensionnalité des données d’apprentissage 300, de sorte à obtenir des données réduites d’apprentissage comprenant des variables réduites correspondant à une partie des variables des données d’apprentissage 300.
Dans l’invention, la réduction de dimensionnalité correspond à une réduction de données par diminution du nombre de dimensions/variables des données d’apprentissage 300.
En pratique, on peut utiliser les techniques exploratoires multivariées qui permettent de réduire les dimensions d'un ensemble de données par extraction d'un nombre de facteurs sous-jacents, de dimensions, de classes, etc., expliquant la dispersion des données. Par exemple, on pourra utiliser des méthodes de sélection de variables, comme l’algorithme RFE (« Recursive Feature Elimination » en anglais), l’algorithme T-test de Student, l’algorithme NSC (« Nearest Shrunken Centroids » en anglais) ou l’algorithme mRMR (« minimal-Redondance-Maximale Redundancy» en anglais).
Dans une mise en œuvre particulière, les variables réduites sont les variables des données d’apprentissage 300 dont la corrélation avec la première caractéristique physique est supérieure à une valeur prédéterminée. Ainsi, si l’on considère que la première caractéristique physique correspond à la vitesse du véhicule routier, alors les variables réduites correspondent aux variables des données d’apprentissage 300 qui suffisamment corrélées avec la vitesse du véhicule routier. Il peut s’agir, par exemple de variables telles que le régime moteur ou encore la limitation de vitesse de la portion d’un réseau routier sur laquelle circule le véhicule routier.
La figure 3b illustre des données réduites d’apprentissage 400 obtenues à partir des données d’apprentissage 300 de la figure 3a. Dans l’exemple, de la figure 3b, les données réduites d’apprentissage 400 comprennent dix variables réduites : x1, x7, x13, x14, x22, x27, x30, x33, x34 et x35.
Ensuite, l’agent gestionnaire d’apprentissage automatique 130 partitionne chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées.
Dans un exemple, toutes les variables réduites sont partitionnées en une valeur prédéterminée de partitions. Ainsi, dans cet exemple, toutes les variables réduites possèdent le même nombre de partitions. La figure 3c illustre la variable réduite x1 des données réduites d’apprentissage 400 qui est partitionnée en trois partitions p1-3, p2-3 et p3-3. Toujours dans cet exemple, si l’on considère que la variable réduite x1 correspond à la vitesse du véhicule routier, les partitions p1-3, p2-3 et p3-3 pourraient, respectivement, correspondre aux intervalles suivants : [0-30 km/h[, [30-50 km/h[ et [50-145 km/h].
Dans un autre exemple, chaque variable réduite est partitionnée selon une valeur choisie parmi une pluralité de valeurs prédéterminées de partitions. Ainsi, dans cet exemple, tout ou partie des variables réduites possèdent un nombre différent de partitions. La figure 3c illustre, en outre, la variable réduite x27 des données réduites d’apprentissage 400 qui est partitionnée en quatre partitions p1-4, p2-4, p3-4 et p4-4. Toujours dans cet exemple, si l’on considère que la variable réduite x27 correspond à la limitation vitesse d’une portion d’un réseau routier sur laquelle circule le véhicule routier, les partitions p1-4, p2-4, p3-4 et p4-4 pourraient, respectivement, correspondre aux intervalles suivants : [0-50 km/h[, [50-80 km/h[, [80-110 km/h[ et [110-130 km/h].
En pratique, afin de partitionner chaque variable réduite, l’agent gestionnaire d’apprentissage automatique 130 calcule, pour chaque variable réduite, une pluralité prédéterminée de quantiles de la distribution statistique associée. Ensuite, l’agent gestionnaire d’apprentissage automatique 130 utilise la pluralité de quantiles associée pour réaliser l’étape de partitionnement de chaque variable réduite. On rappelle que les quantiles sont des valeurs qui divisent un jeu de données ordonné en intervalles consécutifs contenant le même nombre de données.
Dans une mise en œuvre particulière, pour chaque variable réduite, le nombre de quantiles est égal à la valeur prédéterminée de partition associée à laquelle on soustrait la valeur "1". Par exemple, pour une variable réduite comprenant trois partitions, l’agent gestionnaire d’apprentissage automatique 130 calculera deux quantiles.
Dans un exemple, tout ou partie des partitions sont agencées de sorte à être distinctes. Cet exemple est illustré par la figure 3c qui montre que les partitions p1-3, p2-3 et p3-3, de la variable réduite x1 des données réduites d’apprentissage 400, ne se chevauchent pas.
Dans un autre exemple, tout ou partie des partitions sont agencées de sorte à se recouvrir selon un taux de recouvrement prédéterminé. Cet exemple est illustré par la figure 3c qui montre que les partitions p1-4, p2-4, p3-4 et p4-4, de la variable réduite x27 des données réduites d’apprentissage 400, se chevauchent. En particulier, les partitions p1-4 et p3-4 chevauchent la partition p2-4, tout comme les partitions p3-4 et p4-3 se chevauchent. Dans l’invention, le taux de recouvrement prédéterminé peut être unique ou multiple selon les variables réduites.
Puis, l’agent gestionnaire d’apprentissage automatique 130 unit les partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes.
La figure 3d illustre douze sous-espaces de données créés à partir des partitions de la figure 3c qui sont associées aux variables réduites x1 et x27 des données d’apprentissage 300 : s1, s2, s3, s4, s5, s6, s7, s8, s9, s10, s11 et x12.
Par ailleurs, l’agent gestionnaire d’apprentissage automatique 130 est, en outre, prévu pour, répéter au moins l’une des opérations de réduction de dimensionnalité, de partitionnement et d’union, en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée. Cette caractéristique a pour effet de garantir que chaque sous-espace de données aura suffisamment de données pour entraîner un modèle d’apprentissage automatique qui lui sera affecté tout en évitant le phénomène de sous-apprentissage (« underfitting », en anglais).
Dans une mise en œuvre particulière, la valeur seuil prédéterminée est obtenue à partir d’une relation définissant une erreur de généralisation du modèle d’apprentissage automatique à associer à chaque sous-espace. Il est connu que l’erreur de généralisation peut être obtenue à partir d’une mesure de complexité du modèle d’apprentissage automatique. Par exemple, on peut utiliser la mesure de complexité de Rademacher ou encore la mesure de complexité dite dimension VC de Vapnik et Chervonenkis. Dans ce dernier cas, il est connu que l’erreur de généralisation peut être bornée par la relation (1) suivante :
, dans laquelle ε correspond à l’erreur de généralisation, VC correspond à la dimension VC de Vapnik et Chervonenkis et n correspond à la taille du jeu de données à utiliser. On peut déduire n de la relation (1) à partir de la relation (2) suivante :
. Ensuite, n peut être utilisé comme la valeur seuil prédéterminée décrite plus haut. Dans ce cas, la valeur de VC peut être prédéterminée selon les techniques usuelles. En pratique, selon le modèle d’apprentissage automatique utilisé, la valeur de VC peut être évaluée précisément ou bornée.
Par la suite, l’agent gestionnaire d’apprentissage automatique 130 associe chaque apprentissage automatique 120 à un sous-espace de données et à un modèle d’apprentissage automatique.
Dans un exemple, le modèle d’apprentissage automatique est constitué d’un réseau de neurones artificiels de type perceptron multicouche. Toutefois, tout type de modèle d’apprentissage automatique peut être utilisé avec l’invention sans nécessiter de modifications substantielles importantes.
En outre, l’agent gestionnaire d’apprentissage automatique 130 ajoute à chaque sous-espace de données, les données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage 300 qui ne sont pas des variables réduites. Ainsi, pour chaque donnée associée à un sous-espace de données, l’agent gestionnaire d’apprentissage automatique 130 récupère et incorpore dans ledit sous-espace de données, toutes les données qui lui sont liées et qui font partie des données d’apprentissage 300.
Afin d’illustrer cette caractéristique, nous faisons de nouveau référence aux figures 3a et 3b. Pour rappel, les données d’apprentissage 300 comprennent trente-cinq variables tandis que données réduites d’apprentissage 400 en comprennent dix. Ainsi, pour chaque donnée associée à un sous-espace de données, l’agent gestionnaire d’apprentissage automatique 130 récupère et incorpore dans ledit sous-espace de données, toutes les données associées qui sont comprises dans les vingt-cinq variables des données d’apprentissage 300 qui n’ont pas été choisies comme variables réduites.
Enfin, l’agent gestionnaire d’apprentissage automatique 130 commande chaque agent d’apprentissage automatique 120 pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données. Ainsi, dans l’invention, on entraîne un modèle d’apprentissage par sous-espace de données. Les modèles d’apprentissage automatique ainsi entraînés sont généralement facile à comprendre et à exploiter, puisqu’ils ne concernent que des localités dans l’ensemble des données d’apprentissage 300.
Dans un exemple, l’algorithme d’apprentissage machine est un algorithme d’apprentissage supervisé du type classification ou régression.
Les figures 2a et 2b illustrent un procédé 200 selon l’invention. Le procédé 200 permet de réaliser un apprentissage automatique prédictif d’au moins une première caractéristique physique du système complexe tel que décrit plus haut. De manière plus précise, le procédé 200 permet de préparer les données d’apprentissage 300 pour réaliser l’apprentissage automatique prédictif.
Dans l’exemple des figures 2a et 2b, la première caractéristique physique et les données d’apprentissage 300 sont similaires à celles décrites en relation avec la figure 1.
Le procédé 200 comprend tout d’abord une première étape de fourniture 210 de la mémoire 110 pour stocker les données d’apprentissage 300.
Puis, le procédé 200 comprend une deuxième étape de fourniture 220 de la pluralité d’agents d’apprentissage automatique 120, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, comme décrit plus haut.
Ensuite, le procédé 200 comprend une troisième étape de fourniture 230 d’au moins un agent gestionnaire d’apprentissage automatique 130, pour préparer les données d’apprentissage 300 en vue de leur distribution aux agents d’apprentissage automatique 120, comme décrit plus haut.
En pratique la troisième étape 230 comprend plusieurs sous-étapes similaires aux opérations décrites plus haut en relation avec l’agent gestionnaire d’apprentissage automatique 130 de la figure 1.
Il s’agit tout d‘abord d’une étape de réduction de dimensionnalité 231 des données d’apprentissage 300, de sorte à obtenir des données réduites d’apprentissage 400 comprenant des variables réduites, comme décrit plus haut.
Ensuite, il s’agit d’une étape de partitionnement 232 de chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées, comme décrit plus haut.
En pratique, dans une mise en œuvre particulière, l’étape de partitionnement 232 comprend, en outre, les étapes suivantes :
- une étape de calcul 2321, pour chaque variable réduite, d’une pluralité prédéterminée de quantiles de la distribution statistique associée, et
- une étape d’utilisation 2322 de la pluralité de quantiles associée pour partitionner chaque variable réduite.
Dans un exemple, tout ou partie des partitions sont agencées de sorte à être distinctes, comme décrit plus haut.
Dans un autre exemple, tout ou partie des partitions sont agencées de sorte à se recouvrir selon un taux de recouvrement prédéterminé, comme décrit plus haut.
Puis, il s’agit d’une étape d’union 233 des partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes, comme décrit plus haut.
Par ailleurs, le procédé 200 comprend, en outre, une étape de répétition 234 d’au moins une des étapes 231, 232 et 233, en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée, comme décrit plus haut.
En outre, il s’agit d’une étape d’association 235 de chaque agent d’apprentissage automatique 120 à un sous-espace de données et à un modèle d’apprentissage automatique.
Par la suite, le procédé 200 comprend, en outre, une étape d’ajout 236 à chaque sous-espace de données, de données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage 300 qui ne sont pas des variables réduites, comme décrit plus haut.
Enfin, il s’agit d’une étape de commande 237 de chaque agent d’apprentissage automatique 120 pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données, comme décrit plus haut.
La présente invention a été décrite et illustrée dans la présente description détaillée et dans les figures. Toutefois, la présente invention ne se limite pas aux formes de réalisation présentées. Ainsi, d’autres variantes et modes de réalisation peuvent être déduits et mis en œuvre par la personne du métier à la lecture de la présente description et des figures annexées.

Claims (12)

  1. Système informatique (100) pour l’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage (300), le système comprenant :
    - une mémoire (110) pour stocker les données d’apprentissage,
    - une pluralité de premier modules logiciels (120), ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs, et
    - au moins un second module logiciel (130), ci-après appelé agent gestionnaire d’apprentissage automatique, pour préparer les données d’apprentissage en vue de leur distribution aux agents d’apprentissage automatique,
    dans lequel, l’agent gestionnaire d’apprentissage automatique est prévu pour :
    - (a) réduire la dimensionnalité des données d’apprentissage, de sorte à obtenir des données réduites d’apprentissage comprenant des variables réduites correspondant à une partie des variables des données d’apprentissage,
    - (b) partitionner chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées,
    - (c) unir les partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes,
    - (e) associer chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
    - (h) commander chaque agent d’apprentissage automatique pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données.
  2. Système informatique selon la revendication 1, dans lequel les secondes caractéristiques physiques définissent des caractéristiques du système complexe et optionnellement des caractéristiques d’un environnement dans lequel évolue le système complexe.
  3. Système informatique selon l’une des revendications 1 à 2, dans lequel l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour :
    - calculer, pour chaque variable réduite, une pluralité prédéterminée de quantiles de la distribution statistique associée, et
    - utiliser la pluralité de quantiles associée pour réaliser l’étape de partitionnement de chaque variable réduite.
  4. Système informatique selon l’une des revendications 1 à 3, dans lequel tout ou partie des partitions sont agencées de sorte à être distinctes ou à se recouvrir selon un taux de recouvrement prédéterminé.
  5. Système informatique selon l’une des revendications 1 à 4, dans lequel l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour, avant la réalisation de l’opération (e) :
    - (d) répéter au moins l’une des opérations (a), (b) et (c), en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée.
  6. Système informatique selon l’une des revendications 1 à 5, dans lequel l’agent gestionnaire d’apprentissage automatique est, en outre, prévu pour, entre la réalisation des opérations (e) et (g) :
    - (f) ajouter à chaque sous-espace de données, les données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage qui ne sont pas des variables réduites.
  7. Procédé (200) d’apprentissage automatique prédictif d’au moins une première caractéristique physique d’un système complexe du type électronique et/ou mécanique, tel un véhicule routier, à partir d’un ensemble de variables mesurées de secondes caractéristiques physiques, ci-après appelées données d’apprentissage (300), le procédé comprenant les étapes suivantes:
    - une première étape de fourniture (210) d’une mémoire (110) pour stocker les données d’apprentissage,
    - une deuxième étape de fourniture (220) d’une pluralité de premier modules logiciels (120), ci-après appelés agents d’apprentissage automatique, pour réaliser un apprentissage automatique coopératif selon l’approche des systèmes multi-agents adaptatifs coopératifs,
    - une troisième étape de fourniture (230) d’au moins un second module logiciel (130), ci-après appelé agent gestionnaire d’apprentissage automatique, pour préparer les données d’apprentissage en vue de leur distribution aux agents d’apprentissage automatique,
    dans lequel, la troisième étape de fourniture comprend, en outre, les étapes suivantes :
    - une étape de réduction de dimensionnalité (231) des données d’apprentissage, de sorte à obtenir des données réduites d’apprentissage comprenant des variables réduites correspondant à une partie des variables des données d’apprentissage,
    - une étape de partitionnement (232) de chaque variable réduite en une pluralité de partitions, à partir d’une distribution statistique des mesures de secondes caractéristiques physiques associées,
    - une étape d’union (233) des partitions des variables réduites de sorte à générer une pluralité de sous-espaces de données, chaque sous-espace incluant l’union d’au moins deux partitions associées à des variables réduites différentes,
    - une étape d’association (235) de chaque agent d’apprentissage automatique à un sous-espace de données et à un modèle d’apprentissage automatique,
    - une étape de commande (237) de chaque agent d’apprentissage automatique pour appliquer un algorithme d’apprentissage machine au modèle d’apprentissage automatique associé, de sorte à obtenir une pluralité de modèles d’apprentissage automatique entraînés, chacun étant associé à un sous-espace de données.
  8. Procédé selon la revendication 7, dans lequel les secondes caractéristiques physiques définissent des caractéristiques du système complexe et optionnellement des caractéristiques d’un environnement dans lequel évolue le système complexe.
  9. Procédé selon l’une des revendications 7 à 8, dans lequel l’étape de partitionnement comprend, en outre, les étapes suivantes :
    - une étape de calcul (2321), pour chaque variable réduite, d’une pluralité prédéterminée de quantiles de la distribution statistique associée, et
    - une étape d’utilisation (2322) de la pluralité de quantiles associée pour partitionner chaque variable réduite.
  10. Procédé selon l’une des revendications 7 à 9, dans lequel tout ou partie des partitions sont agencées de sorte à être distinctes ou à se recouvrir selon un taux de recouvrement prédéterminé.
  11. Procédé selon l’une des revendications 7 à 10, comprenant, en outre, l’étape suivante, avant la réalisation de l’étape d’association :
    - une étape de répétition (234) d’au moins l’une des étapes (231), (232) et (233), en diminuant le nombre de dimensions et/ou le nombre de partitions, jusqu’à ce que l’effectif associé à chaque sous-espace de données se situe au-delà d’une valeur seuil prédéterminée.
  12. Procédé selon l’une des revendications 7 à 11, comprenant, en outre, les étapes suivantes, entre les étapes d’association et de commande :
    - une étape d’ajout (236) à chaque sous-espace de données, de données liées aux données dudit sous-espace de données et qui sont associées aux variables des données d’apprentissage qui ne sont pas des variables réduites.
FR1911592A 2019-10-17 2019-10-17 Préparation de jeu de données pour un apprentissage automatique multi-agents Active FR3102277B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1911592A FR3102277B1 (fr) 2019-10-17 2019-10-17 Préparation de jeu de données pour un apprentissage automatique multi-agents

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1911592A FR3102277B1 (fr) 2019-10-17 2019-10-17 Préparation de jeu de données pour un apprentissage automatique multi-agents
FR1911592 2019-10-17

Publications (2)

Publication Number Publication Date
FR3102277A1 true FR3102277A1 (fr) 2021-04-23
FR3102277B1 FR3102277B1 (fr) 2021-09-17

Family

ID=69810956

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1911592A Active FR3102277B1 (fr) 2019-10-17 2019-10-17 Préparation de jeu de données pour un apprentissage automatique multi-agents

Country Status (1)

Country Link
FR (1) FR3102277B1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180025269A1 (en) * 2015-04-01 2018-01-25 Landmark Graphics Corporation Model generation for real-time rate of penetration prediction
WO2018212918A1 (fr) * 2017-05-18 2018-11-22 Microsoft Technology Licensing, Llc Architecture de récompense hybride pour apprentissage par renforcement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180025269A1 (en) * 2015-04-01 2018-01-25 Landmark Graphics Corporation Model generation for real-time rate of penetration prediction
WO2018212918A1 (fr) * 2017-05-18 2018-11-22 Microsoft Technology Licensing, Llc Architecture de récompense hybride pour apprentissage par renforcement

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MARIE-PIERREGLEIZES: "Self-adaptive complex systems", PROCEEDINGS OF THE 9TH EUROPEAN CONFÉRENCE ON MULTI-AGENT SYSTEMS (EUMAS'LL, 2011, pages 114 - 128, XP047010816

Also Published As

Publication number Publication date
FR3102277B1 (fr) 2021-09-17

Similar Documents

Publication Publication Date Title
EP3183621B1 (fr) Calculateur de direction assistée pourvu d'un enregistreur d'événements integré
FR3074123A1 (fr) Evaluation d'un style de conduite d'un conducteur d'un vehicule routier en mouvement par apprentissage automatique
EP3152675A1 (fr) Procédé d'analyse d'une scène dynamique, module d'analyse et programme d'ordinateur associés
US11427141B2 (en) Computing system, server and on-vehicle device
WO2014199057A1 (fr) Procedes de creation d'une base de donnees et d'elaboration d'une carte d'etats de fonctionnement d'aeronefs, et un procede de surveillance du fonctionnement d'un aeronef associe
EP3663987A1 (fr) Procédé et dispositif de détermination de la taille mémoire globale d'une zone mémoire globale allouée aux données d'un réseau de neurones
WO2022040360A1 (fr) Détection de dysfonctionnements de véhicule et de cyberattaques à l'aide d'un apprentissage automatique
CN115393818A (zh) 驾驶场景识别方法、装置、计算机设备和存储介质
EP1792278A1 (fr) Procede de detection et de pistage de cibles ponctuelles, dans un systeme de surveillance optronique
KR101076336B1 (ko) 차량용 사고기록 시스템
FR3102277A1 (fr) Préparation de jeu de données pour un apprentissage automatique multi-agents
WO2019025333A1 (fr) Procede d'elaboration d'une consigne de pilotage d'un organe de conduite d'un vehicule automobile
WO2019197781A1 (fr) Apprentissage automatique prédictif pour la prédiction d'une vitesse future d'un véhicule automobile en mouvement sur une route
FR3102260A1 (fr) Apprentissage automatique multi-agents.
FR3050351A1 (fr) Procede de controle d'integrite de l'avionique d'un aeronef, dispositif et produit programme d'ordinateur associes
WO2020048770A1 (fr) Prédiction d'un paramètre de recalage cartographique par apprentissage profond
EP3743778B1 (fr) Augmentation des performances d'équipements électroniques
EP3077264A1 (fr) Procédé et dispositif d'estimation de l'intervalle dans lequel se situe la masse totale d'un véhicule automobile
US20240062073A1 (en) Reconstruction of training examples in the federated training of neural networks
FR3136882A1 (fr) Procédé et dispositif de prédiction d’une capacité à rouler d’un véhicule à la suite d’un accident
EP3856599B1 (fr) Procédé de détermination par multiples paramètres du type du sol sur lequel circule un véhicule, et produit programme d'ordinateur, dispositif de calcul et véhicule associés
US20240142916A1 (en) Method and control unit for automatically selecting data sets for a method for machine learning
FR3143157A1 (fr) Procédé et dispositif de détermination d’un état de vieillissement d’une pièce d’un véhicule
FR3122059A1 (fr) Procédé, dispositif et système de communication de données d’évènement pour véhicule
WO2022152983A1 (fr) Procédé et dispositif de contrôle d'accélération d'un véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210423

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

TP Transmission of property

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Effective date: 20230807

PLFP Fee payment

Year of fee payment: 5