FR3116634A1 - Dispositif apprenant pour système cyber-physique mobile - Google Patents

Dispositif apprenant pour système cyber-physique mobile Download PDF

Info

Publication number
FR3116634A1
FR3116634A1 FR2011987A FR2011987A FR3116634A1 FR 3116634 A1 FR3116634 A1 FR 3116634A1 FR 2011987 A FR2011987 A FR 2011987A FR 2011987 A FR2011987 A FR 2011987A FR 3116634 A1 FR3116634 A1 FR 3116634A1
Authority
FR
France
Prior art keywords
learning
sensor
environment
learning unit
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2011987A
Other languages
English (en)
Other versions
FR3116634B1 (fr
Inventor
Gregorio Ameyugo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR2011987A priority Critical patent/FR3116634B1/fr
Priority to US18/037,544 priority patent/US20230401453A1/en
Priority to EP21815481.3A priority patent/EP4248367A1/fr
Priority to PCT/EP2021/082153 priority patent/WO2022106545A1/fr
Publication of FR3116634A1 publication Critical patent/FR3116634A1/fr
Application granted granted Critical
Publication of FR3116634B1 publication Critical patent/FR3116634B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)
  • Traffic Control Systems (AREA)

Abstract

Dispositif apprenant destiné à être embarqué dans un système cyber-physique (101) mobile muni d’actionneurs (105), le dispositif comprenant au moins un capteur (103) de perception de l’environnement (102) externe du système, au moins un capteur interne (112) apte à fournir une information sur l’état du système, une première unité apprenante (104) configurée pour restituer une perception de l’environnement à partir des données acquises par l’au moins un capteur de perception (103), une seconde unité apprenante (106) configurée pour commander les actionneurs (105), un générateur (109) de scénarios de simulation du système dans son environnement commandé par la première unité apprenante (104) et la seconde unité apprenante (106), un simulateur (107) de scénarios et une plateforme de virtualisation (111) pour simuler le comportement d’un jumeau numérique du système dans les scénarios simulés par le générateur et adapter les paramètres de la seconde unité apprenante (106) afin de commander le système de manière à ce qu’il s’adapte à son environnement. Figure 1

Description

Dispositif apprenant pour système cyber-physique mobile
L’invention concerne le domaine des systèmes distribués apprenants, en particulier les systèmes cyber physiques mobiles comprenant une intelligence artificielle apprenante apte à piloter le déplacement et l’évolution de tels systèmes dans leur environnement ou plus généralement l’interaction de ces systèmes avec leur environnement.
L’invention s’applique notamment au domaine des véhicules autonomes, mais aussi au domaine de la robotique ou des drones.
Une problématique générale dans le domaine des systèmes autonomes concerne le pilotage automatique de tels systèmes se déplaçant et interagissant avec leur environnement.
Plus précisément, les systèmes autonomes utilisent des algorithmes d’apprentissage automatique pour apprendre à reconnaitre les obstacles dans leur environnement et déterminer les trajectoires les plus optimales.
Ces algorithmes fonctionnent typiquement selon deux phases : une phase d’apprentissage pendant laquelle les paramètres de l’algorithme sont déterminés à partir de données d’apprentissage acquises et une phase opérationnelle lors de laquelle l’algorithme entrainé est exécuté pour piloter le système.
Pour des raisons de sécurité, la phase d’apprentissage est généralement réalisée dans des conditions de test avec des systèmes de test dédiés dans un environnement contrôlé.
L’algorithme d’apprentissage mis au point pendant la phase de test est ensuite diffusé à chaque utilisateur pour être exécuté sur chaque système spécifique.
Par exemple, dans le cas de véhicules autonomes, l’apprentissage est réalisé sur des véhicules de test dans un environnement sécurisé. Le logiciel d’apprentissage est ensuite téléchargé sur chaque véhicule en condition opérationnelle pour être utilisé.
Un inconvénient de cette méthode est qu’elle ne prend pas en compte les spécificités de chaque véhicule et les différences par rapport au véhicule de test. En particulier, les caractéristiques physiques d’un véhicule peuvent évoluer au cours du temps, par exemple parce qu’un pneu se dégonfle ou certains capteurs ou moteurs se dégradent. Un algorithme d’apprentissage optimisé pour certaines conditions de test n’est donc pas forcément adapté à une situation opérationnelle réelle ce qui peut entrainer des erreurs de trajectoire en conditions réelles.
Il existe donc un besoin pour améliorer les systèmes apprenants basés sur des algorithmes d’apprentissage automatique afin de mieux prendre en compte les situations opérationnelles réelles en particulier l’évolution des caractéristiques du système.
Une solution pour améliorer l’apprentissage automatique consiste à réaliser l’apprentissage sur des véhicules en conditions opérationnelles, cependant cela pose des problèmes sérieux de sécurité et n’est donc pas envisageable.
Une autre solution consiste à mettre à jour l’apprentissage réalisé en conditions de test à partir de caractéristiques locales du véhicule sur lequel est installé le logiciel de pilotage automatique. On parle alors de sur-apprentissage local.
Cependant cette solution ne permet pas réellement d’améliorer l’apprentissage car elle ne prend pas en compte le fait que les réactions du véhicule vis-à-vis de son environnement sont dépendantes de ses caractéristiques physiques. Par exemple, si une roue du véhicule est légèrement dégonflée, la réaction du véhicule face à un obstacle peut être différente de ce qu’elle serait avec une roue parfaitement gonflée.
Les solutions existantes ne permettent pas de prendre en compte finement dans l’apprentissage les caractéristiques locales d’un véhicule et la relation entre ces caractéristiques et le comportement du véhicule par rapport à une situation externe donnée.
La présente invention vise à proposer un système cyber-physique apprenant qui combine un apprentissage hors ligne classique avec un apprentissage simulé à partir de données acquises directement par le système. Ainsi, l’algorithme de pilotage du système peut être mis à jour régulièrement à partir de nouvelles situations auxquelles le système (ou des systèmes similaires coopérant ensemble) est confronté et/ou en prenant compte de l’évolution des caractéristiques physiques du système.
L’invention a pour objet un dispositif apprenant destiné à être embarqué dans un système cyber-physique mobile muni d’actionneurs, le dispositif comprenant au moins un capteur de perception de l’environnement externe du système, au moins un capteur interne apte à fournir une information sur l’état du système, une première unité apprenante configurée pour restituer une perception de l’environnement à partir des données acquises par l’au moins un capteur de perception, une seconde unité apprenante configurée pour commander les actionneurs, un générateur de scénarios de simulation du système dans son environnement commandé par la première unité apprenante et la seconde unité apprenante, un simulateur de scénarios et une plateforme de virtualisation pour simuler le comportement d’un jumeau numérique du système dans les scénarios simulés par le générateur et adapter les paramètres de la seconde unité apprenante afin de commander le système de manière à ce qu’il s’adapte à son environnement.
Selon un aspect particulier de l’invention, la seconde unité apprenante implémente un algorithme d’apprentissage automatique pour commander les actionneurs à partir de l’au moins un capteur de perception, de l’au moins un capteur interne, l’algorithme d’apprentissage automatique étant entrainé au moyen des scénarios de simulation simulés dans la plateforme de virtualisation.
Dans une variante de réalisation, le dispositif comprend un organe de déclenchement du générateur de scénarios de simulation en fonction d’un type d’évènement prédéterminé détecté par la première unité apprenante.
Selon un aspect particulier de l’invention, l’évènement prédéterminé est déclenché par un utilisateur ou par un algorithme de supervision apte à détecter un évènement.
Selon un aspect particulier de l’invention, le générateur de scénarios de simulation est configuré pour générer, sur commande de l’organe de déclenchement, un scénario de simulation de l’environnement du système dans une fenêtre de temps avant le déclenchement de l’évènement.
Selon un aspect particulier de l’invention, la plateforme de virtualisation est configurée pour simuler le comportement d’un jumeau numérique du système cyber-physique à partir d’un modèle initial du système et d’informations fournies par l’au moins un capteur interne, dans le scénario de simulation généré par le simulateur.
Selon un aspect particulier de l’invention, la plateforme de virtualisation est configurée pour interagir avec la seconde unité apprenante pour mettre à jour les paramètres de l’algorithme d’apprentissage automatique de manière à commander le système cyber-physique en fonction du scénario de simulation généré suite à l’évènement.
Selon un aspect particulier de l’invention, le système cyber-physique est un véhicule autonome, un robot ou un drone.
Selon un aspect particulier de l’invention, l’au moins un capteur de perception est pris parmi une caméra, un Lidar, un laser, un capteur acoustique.
Selon un aspect particulier de l’invention, l’au moins un capteur interne est pris parmi un capteur de température, un capteur de pression, un capteur de vitesse.
Selon un aspect particulier de l’invention, la première unité apprenante implémente un algorithme d’apprentissage automatique configuré pour générer des données caractéristiques de l’environnement à partir de l’au moins un capteur de perception.
Selon un aspect particulier de l’invention, le dispositif comprend une unité de stockage de données pour sauvegarder les données générées par la première unité apprenante sur une durée prédéterminée.
Selon un aspect particulier de l’invention, le générateur de scénarios de simulation et/ou le simulateur et/ou la plateforme de virtualisation sont aptes à être déportés dans un serveur centralisé.
Selon un aspect particulier de l’invention, la plateforme de virtualisation est apte à recevoir des scénarios de simulation générés par des systèmes cyber-physique distants appartenant à une flotte de systèmes.
Selon un aspect particulier de l’invention, le dispositif comprend en outre un organe de conversion d’un scénario de simulation en description sémantique textuelle destinée à être transmise à d’autres systèmes appartenant à la même flotte et un organe de génération d’un scénario de simulation à partir d’une description sémantique textuelle reçue.
L’invention a aussi pour objet un système cyber-physique mobile muni d’actionneurs comprenant un dispositif apprenant selon l’invention configuré pour commander les actionneurs pour commander ledit système dans son environnement.
D’autres caractéristiques et avantages de la présente invention apparaîtront mieux à la lecture de la description qui suit en relation aux dessins annexés suivants.
représente un schéma d’une première variante de réalisation d’un système cyber-physique selon l’invention,
représente une deuxième variante de réalisation du système de la ,
représente une troisième variante de réalisation du système de la ,
représente une quatrième variante de réalisation du système de la ,
représente un exemple de mise en œuvre distribuée du système selon l’invention.
La illustre, sur un schéma, un exemple de système cyber-physique selon l’invention comprenant un dispositif apprenant.
Le système 101 est mobile dans un environnement 102. Par exemple, le système 101 est un véhicule automobile se déplaçant sur une route, ou un robot ou encore un drone.
Le système 101 se déplace dans son environnement au moyen d’actionneurs 105. Les actionneurs désignent tous les éléments du système qui lui permettent de se déplacer ou encore d’interagir avec son environnement. Par exemple, si le système 101 est un véhicule, les actionneurs 105 comprennent notamment les roues, le volant, le levier de vitesse. Si le système 101 est un robot, les actionneurs 105 comprennent également un bras articulé du robot permettant de saisir un objet.
De manière générale, les actionneurs 105 sont pilotés par une commande (par exemple un signal électrique) pour interagir avec l’environnement 102.
Le système 101 est muni d’un dispositif apprenant qui comporte les éléments suivants.
Un ou plusieurs capteurs externes 103 sont disposés sur le système 101 pour acquérir des données ou mesures de perception de l’environnement 102. Autrement dit, les capteurs externes ou capteurs de perception 103 comprennent par exemple une caméra, un dispositif Lidar, un laser, un capteur acoustique ou tout autre capteur permettant de mesurer des informations sur l’environnement 102.
Le ou les capteurs externes 103 sont reliés à une première unité apprenante 104 qui a pour fonction de convertir les données brutes acquises par les capteurs 103 en informations de perception de l’environnement qui soient exploitables pour reconstruire l’environnement 102.
Par exemple, si les données fournies par les capteurs 103 sont des images, l’unité apprenante 104 a pour fonction de détecter et caractériser des objets dans les images acquises, en particulier des obstacles tels que des piétons ou des bâtiments ou encore de détecter les limites d’une route.
Pour cela l’unité apprenante 104 implémente un algorithme d’apprentissage automatique, par exemple un algorithme basé sur un réseau de neurones artificiel.
Une seconde unité apprenante 106 est utilisée pour commander les actionneurs 105 en fonction, notamment, des données fournies par la première unité apprenante 104 pour caractériser l’environnement.
La seconde unité apprenante 106 implémente un autre algorithme d’apprentissage automatique qui a pour fonction de commander les actionneurs 105 de manière à ce que le système 101 interagisse correctement avec son environnement 102.
Par exemple, si le système 101 est un véhicule, un objectif de la seconde unité apprenante 106 est de piloter le déplacement du véhicule dans son environnement en évitant les collisions avec des obstacles et en respectant le code de la route. Si le système 101 est un robot, un objectif de la seconde unité apprenante 106 est de piloter le déplacement du robot et de commander son bras articulé pour réaliser une mission prédéterminée.
Comme introduit en préambule, le ou les algorithme(s) d’apprentissage(s) implémentés par la seconde unité apprenante 106 sont, au préalable, entrainés à réaliser l’objectif visé sur des données d’apprentissage dans un environnement de test. L’entrainement est notamment réalisé au moyen de scénarios 110 de simulation de l’environnement 102 qui permettent d’entrainer l’unité 106 à réaliser l’objectif visé pour un ensemble de scénarios prédéterminés.
Un objectif de l’invention est notamment d’améliorer l’apprentissage réalisé par l’unité 106 pour prendre en compte plus finement l’évolution de l’environnement 102 mais aussi l’évolution des caractéristiques du système 101 dans le temps.
Pour cela, le système 101 est également muni de capteurs internes 112 qui ont pour rôle de mesurer des caractéristiques relatives à l’état du système 101, en particulier l’état des actionneurs 105. Par exemple, les capteurs internes 112 comprennent des capteurs de température, des capteurs de pression, notamment de pression des pneus d’un véhicule, des capteurs de vitesse.
Les mesures fournies par les capteurs internes 112 sont également prises en compte dans l’apprentissage de la seconde unité apprenante 106 pour commander les actionneurs 105.
Par ailleurs, les données générées par la première unité apprenante 104 sont stockées dans une mémoire 108 sur un intervalle de temps prédéfini.
Le dispositif apprenant dont est muni le système 101 comporte également un générateur 109 de scénarios de simulation de l’environnement 102. Ce générateur est d’une part alimenté par une définition d’un ensemble de scénarios 110 initiaux prédéterminés pour réaliser l’apprentissage de l’unité apprenante 106. D’autre part, il est alimenté par les données de perception de l’environnement stockées dans la mémoire 108 pour générer de nouveaux scénarios à partir des informations acquises par les capteurs externes 103. Optionnellement, la génération de scénarios prend également en compte des informations fournies par l’unité apprenante 106.
Le générateur 109 est activé suite à un évènement déclencheur. Cet évènement peut être déclenché manuellement par un utilisateur du système 101, par exemple par le conducteur d’un véhicule qui souhaite mettre à jour l’apprentissage de l’unité 106 suite à un évènement particulier, par exemple une collision du système avec un obstacle. Le déclenchement du générateur 109 peut aussi être réalisé automatiquement au moyen d’un algorithme d’apprentissage automatique configuré pour détecter un évènement particulier, par exemple une collision ou le non respect du code de la route ou encore le non respect d’une mission confiée à un robot, ou bien encore une performance inacceptable du robot pour la tâche réalisée, par exemple, un temps d’exécution excessif. La détection de cet évènement peut être réalisée par la première unité apprenante 104.
Suite à l’évènement déclencheur, le générateur 109 génère un nouveau scénario de l’environnement 102 à partir des données stockées dans la mémoire 108. Ce nouveau scénario est fourni en entrée d’un simulateur 107 apte à simuler le système 101 dans son environnement simulé correspondant au scénario généré.
Une plateforme de virtualisation 111 est ensuite utilisée pour simuler le comportement global du système 101 y compris le paramétrage de l’unité apprenante 106. La plateforme de virtualisation 111 est apte à modéliser un jumeau numérique du système 101 à partir d’un modèle initial du système et des mesures fournies par les capteurs internes 112. Ainsi, le jumeau numérique permet de reproduire fidèlement le système 101 et ses évolutions au cours du temps et de prendre en compte ces évolutions dans l’apprentissage du pilotage du système par l’unité apprenante 106.
Plus précisément, la plateforme de virtualisation 111 simule le comportement du jumeau numérique du système dans le scénario simulé par le simulateur 107. Au cours de cette simulation, un nouvel apprentissage de l’algorithme d’apprentissage automatique exécuté par l’unité apprenante 106 est réalisé dans le but de piloter le système afin d’éviter l’incident qui a été déclencheur du nouveau scénario.
Ce nouvel apprentissage est réalisé pour le nouveau scénario simulé mais également pour l’ensemble des scénarios 110 initiaux afin de toujours vérifier que le pilotage du système est compatible de tous les scénarios prévus.
Autrement dit, l’algorithme d’apprentissage implémenté par l’unité apprenante 106 est exécuté dans la plateforme de virtualisation 111 avec les paramètres de simulation pour réaliser un nouvel apprentissage de cet algorithme.
A l’issue de cet apprentissage, les nouveaux paramètres de l’algorithme déterminés par la plateforme de virtualisation 111 sont transmis à l’unité apprenante 106 qui va mettre à jour son algorithme d’apprentissage pour modifier le pilotage du système.
La nouvelle phase d’apprentissage réalisée par la plateforme de virtualisation 111 est, par exemple, réalisée pendant une période d’inactivité du système 101. Il est également possible de réaliser la phase d’apprentissage sur la plateforme de virtualisation en parallèle de l’opération du système, et transférer les paramètres améliorés au système une fois qu’il sera à l’arrêt ou en condition sûre.
Ainsi, si le système 101 rencontre une situation similaire au scénario ayant conduit à un incident, il pourra améliorer sa réaction afin d’éviter un nouvel incident.
Pour illustrer le fonctionnement du système selon l’invention, un exemple d’application est à présent décrit pour le cas d’une voiture autonome.
Un évènement déclencheur de la génération d’un nouveau scénario est, par exemple, le dépassement d’une ligne, le non respect d’un feu de circulation ou une collision avec un obstacle ou plus généralement un accident de la circulation.
Suite à cet évènement, le générateur 109 produit un scénario de simulation correspondant à cet accident. La plateforme de virtualisation 111 va ensuite réaliser un nouvel apprentissage de l’algorithme de pilotage à partir de ce scénario avec pour objectif de modifier le pilotage du véhicule pour éviter l’accident. Les nouveaux paramètres de l’algorithme d’intelligence artificielle exécuté par l’unité apprenante 106 sont ensuite mis à jour pour que le véhicule améliore sa réaction si le scénario ayant conduit à l’accident se reproduit.
La plateforme de virtualisation 111 prend en compte, via la simulation du jumeau numérique du véhicule, les caractéristiques internes de la voiture, par exemple le niveau de pression des pneus ou bien leur état d’usage qui peut être estimé à travers une corrélation entre le temps écoulé depuis qu’ils ont été changés, et leur niveau d’utilisation.
Dans le cas d’un robot, l’apprentissage vise par exemple à améliorer la manipulation d’un bras articulé du robot pour améliorer sa préhension pour saisir certains types d’objets ou exécuter certaines tâches qui nécessitent une précision.
Un avantage procuré par l’invention est qu’elle permet d’améliorer l’apprentissage de l’unité apprenante en charge du pilotage du système en fonction d’évènements qui interviennent en conditions opérationnelles.
Par ailleurs, contrairement aux solutions basées sur un apprentissage dit hors ligne, au moyen de véhicules de test, l’invention prend en compte, par l’intermédiaire d’un jumeau numérique du système, l’évolution au cours du temps de l’état du système.
L’unité apprenante 106 en charge du pilotage du système 101 exécute un ou plusieurs algorithmes d’apprentissage automatique qui reçoivent en entrée l’ensemble des données acquises par les capteurs externes 103 et internes 112 ainsi que les données de perception de l’environnement produites par la première unité apprenante 104 et produisent en sortie une ou plusieurs commande(s) à destination des actionneurs 105.
Les algorithmes implémentés par l’unité 106 peuvent être choisis parmi les algorithmes de l’état de l’art connus de l’Homme du métier. Sans être exhaustif, on cite plusieurs exemples possibles de tels algorithmes. La référence [1] décrit un algorithme d’aide au stationnement d’un véhicule. La référence [2] décrit un procédé de détection d’évènements de nature connue qui peut être utilisé pour détecter un évènement particulier et déclencher la génération d’un nouveau scénario. La référence [3] décrit un algorithme permettant d’adapter le contrôle d’un véhicule en temps réel. La référence [4] décrit un algorithme d’intelligence artificielle qui permet d’adapter le contrôle d’un véhicule dans un terrain modélisé. La référence [5] décrit un algorithme d’intelligence artificielle pour adapter la génération de trajectoires de robots mobiles. La référence [6] décrit encore un autre exemple d’algorithme d’apprentissage pour la conduite autonome.
La première unité apprenante 104 exécute également un ou plusieurs algorithme(s) d’apprentissage automatique qui ont pour objectif de caractériser l’environnement du système à partir des données acquises par les capteurs externes 103.
Les algorithmes implémentés par l’unité 104 peuvent être choisis parmi les algorithmes de l’état de l’art connus de l’Homme du métier. Sans être exhaustif, on cite plusieurs exemples possibles de tels algorithmes.
La référence [7] décrit un algorithme de détection d’évènements particuliers dans une séquence vidéo.
La référence [9] décrit une méthode de détection pour des mesures acquises par des capteurs d’environnement.
La référence [10] décrit une méthode de détection de piétons dans une séquence vidéo.
La référence [11] décrit une autre méthode de détection d’objets dans des images.
La référence [13] décrit un procédé de caractérisation d’une scène en 3D.
La référence [14] décrit une méthode de reconnaissance d’objets dans une scène observée en 3D.
Par ailleurs, la référence [8] décrit une méthode de génération d’un environnement simulé qui peut être mise en œuvre par le générateur 109.
La référence [12] décrit un système de génération d’un scénario simulé à partir de données fournies par des capteurs qui peut également être utilisé pour réaliser le générateur 109.
Chaque composant du dispositif apprenant selon l’invention pris individuellement ou en combinaison avec un autre peut être réalisé, par exemple, au moyen d’un processeur embarqué. Le processeur peut être un processeur générique, un processeur spécifique, un circuit intégré propre à une application (connu aussi sous le nom anglais d’ASIC pour « Application-Specific Integrated Circuit ») ou un réseau de portes programmables in situ (connu aussi sous le nom anglais de FPGA pour « Field-Programmable Gate Array »). Le dispositif apprenant selon l’invention peut utiliser un ou plusieurs circuits électroniques dédiés ou un circuit à usage général. La technique de l'invention peut se réaliser sur une machine de calcul reprogrammable (un processeur ou un micro-contrôleur par exemple) exécutant un programme comprenant une séquence d'instructions, ou sur une machine de calcul dédiée (par exemple un ensemble de portes logiques comme un FPGA ou un ASIC, ou tout autre module matériel, en particulier des modules électroniques neuromorphiques adaptés à l’apprentissage embarqué).
La décrit une première variante de réalisation de l’invention pour laquelle tous les composants du dispositif apprenant sont embarqués dans le système cyber-physique 101.
La décrit une deuxième variante de réalisation de l’invention pour laquelle le générateur 109 de scénario de simulations est déporté à l’extérieur du système 101, par exemple dans un serveur distant.
La décrit une troisième variante de réalisation de l’invention pour laquelle le générateur 109 de scénario de simulations, le simulateur 107 et la plateforme de virtualisation 111 sont déportés dans un serveur distant.
La décrit une quatrième variante de réalisation de l’invention pour laquelle, en outre, l’unité de stockage ou mémoire 108 qui permet de sauvegarder les données de perception sur un intervalle de temps est également déportée dans un serveur distant.
Sans sortir du cadre de l’invention, chacun des composants 109,107,111,108 peut être déporté seul ou en combinaison avec un autre vers un serveur de calcul ayant des ressources de calcul augmentées. Ces différentes variantes nécessitent que le système 101 comporte un équipement de communication permettant d’échanger des données avec le serveur distant. Il peut s’agir par exemple d’un équipement de communication radio basé sur une technologie sans fil (par exemple technologie 5G).
La décrit un autre mode de réalisation de l’invention pour laquelle les scénarios de simulation générés suite à un évènement sont partagés entre plusieurs systèmes coopérants 501,502,503 ensemble au sein d’une flotte. Un avantage de cette variante est qu’elle permet un apprentissage coopératif, l’ensemble des véhicules bénéficiant des nouveaux scénarios générés par chaque véhicule suite à un évènement, et conduisant à une accélération du niveau de sécurité globale de la flotte.
Plus précisément, dans ce mode de réalisation, les nouveaux scénarios générés par l’un quelconque des systèmes (le système 501 sur l’exemple de la ) sont retransmis à tous les autres systèmes 502,503 de la flotte pour qu’ils réalisent un nouvel apprentissage.
Dans une autre variante de réalisation du système décrit à la , les scénarios de simulation sont transmis aux autres véhicules de la flotte sous une forme compressée, par exemple sous la forme d’une description sémantique. De cette façon, la bande passante consommée par ces transferts de données est diminuée.
Plus précisément, le système 501 qui génère un nouveau scénario, génère également une description sémantique de ce scénario. Par exemple, une description sémantique peut être obtenue à l’aide d’algorithmes d’image sémantique qui créent une description textuelle à partir d’une image. La description textuelle du scénario générée est ensuite transmise aux autres systèmes 502,503 de la flotte qui peuvent re-générer les scénarios de simulation à partir de cette description textuelle en utilisant un algorithme génératif de scène à partir du texte.
La référence [15] donne un exemple de méthode génération de description sémantique à partir d’images.
La référence [16] donne un exemple de méthode de génération de scène à partir d’une description sémantique (ontologie).
Cette variante de réalisation présente un avantage important pour limiter la quantité de données échangées entre les systèmes de la flotte pour partager les scénarios.
Références
[1] Demande de brevet européen EP3152097
[2] Demande de brevet européen EP3198523
[3] A. Hill, E. Lucet, R. Lenain, ‘Neuroevolution with CMA-ES for real-time gain tuning of a car-like robot controller’, proc. 16th Int. Conf. on Informatics in Control, Automation and Robotics, 29-31 July 2019, Prague, Czech Republic, 9 pages.
[4] E. Lucet, R. Lenain, C. Grand, ‘Dynamic path tracking control of a vehicle on slippery terrain’, Control Engineering Practice, 42, Sept. 2015, pp. 60-73.
[5] M.A. Rahmouni, E. Lucet, R. Bearee, A. Olabi, M. Grossard, ‘Robot trajectory generation for three-dimensional flexible load transfer’, proc. 45th Annual Conf. of the IEEE Industrial Electronics Society., 14-17 Oct. 2019, Lisbon, Portugal, pp. 711-716.
[6] A. Aminiet al., "Learning Robust Control Policies for End-to-End Autonomous Driving From Data-Driven Simulation," inIEEE Robotics and Automation Letters, vol. 5, no. 2, pp. 1143-1150, April 2020, doi: 10.1109/LRA.2020.2966414.
[7] P.C. Ribeiro, R. Audigier, Q.C. Pham, ‘RIMOC, a feature to discriminate unstructured motions: Application to violence detection for video-surveillance’, Computer Vision and Image Understanding, 144, March 2016, pp.121-143.
[8] D. Larnaout, V. Gay-Bellile, S. Bourgeois, M. Dhome, ‘Fast and automatic city-scale environment modelling using hard and/or weak constrained bundle adjustments’, Machine Vision and Applications, 27(6), Aug. 2016, pp. 943-962.
[9] G. Vaquette, C. Achard, L. Lucat, ‘Robust information fusion in the DOHT paradigm for real time action detection’, Journal of Real-Time Image Processing, online Déc. 2016, 14p.
[10] T. Chesnais, T. Chateau, N. Allezard, Y. Dhome, B. Meden, M. Tamaazousti, A. Chan-Hon-Tong, ‘A Region Driven and Contextualized Pedestrian Detector’, proc. 8th Int. Conf. on Computer Vision Theory and Application, 21-24 Feb. 2013, Barcelona, Spain, pp. 796-799.
[11] F. Chabot, M. Chaouch, J. Rabarisoa, C. Teulière, T. Chateau, ‘Deep MANTA: A Coarse-to-fine Many-Task Network for joint 2D and 3D vehicle analysis from monocular image’, proc. IEEE Conf. on Computer Vision and Pattern Recognition, 21-26 July 2017, Honolulu, Hawaii, USA, pp. 1827-1836.
[12] demande internationale WO 2018011497
[13] demande de brevet européen EP3384462
[14] demande de brevet français FR 3076028
[15] « A hierarchical approach for generating descriptive image paragraphs », J. Krause et al. Stanford University, 10/04/2017
[16] “Ontology based scene creation for the development of automated vehicles”, G. Bagschik et al, Institute of control engineering, 23/04/2018.

Claims (16)

  1. Dispositif apprenant destiné à être embarqué dans un système cyber-physique (101) mobile muni d’actionneurs (105), le dispositif comprenant au moins un capteur (103) de perception de l’environnement (102) externe du système, au moins un capteur interne (112) apte à fournir une information sur l’état du système, une première unité apprenante (104) configurée pour restituer une perception de l’environnement à partir des données acquises par l’au moins un capteur de perception (103), une seconde unité apprenante (106) configurée pour commander les actionneurs (105), un générateur (109) de scénarios de simulation du système dans son environnement commandé par la première unité apprenante (104) et la seconde unité apprenante (106), un simulateur (107) de scénarios et une plateforme de virtualisation (111) pour simuler le comportement d’un jumeau numérique du système dans les scénarios simulés par le générateur et adapter les paramètres de la seconde unité apprenante (106) afin de commander le système de manière à ce qu’il s’adapte à son environnement.
  2. Dispositif selon la revendication 1 dans lequel la seconde unité apprenante (106) implémente un algorithme d’apprentissage automatique pour commander les actionneurs (105) à partir de l’au moins un capteur de perception (104), de l’au moins un capteur interne (112), l’algorithme d’apprentissage automatique étant entrainé au moyen des scénarios de simulation simulés dans la plateforme de virtualisation (111).
  3. Dispositif selon la revendication 2 comprenant un organe de déclenchement du générateur (109) de scénarios de simulation en fonction d’un type d’évènement prédéterminé détecté par la première unité apprenante (104).
  4. Dispositif selon la revendication 3 dans lequel l’évènement prédéterminé est déclenché par un utilisateur ou par un algorithme de supervision apte à détecter un évènement.
  5. Dispositif selon l’une quelconque des revendications 3 ou 4 dans lequel le générateur (109) de scénarios de simulation est configuré pour générer, sur commande de l’organe de déclenchement, un scénario de simulation de l’environnement du système dans une fenêtre de temps avant le déclenchement de l’évènement.
  6. Dispositif selon l’une quelconque des revendications 3 à 4 dans lequel la plateforme de virtualisation (111) est configurée pour simuler le comportement d’un jumeau numérique du système cyber-physique (101) à partir d’un modèle initial du système et d’informations fournies par l’au moins un capteur interne (112), dans le scénario de simulation généré par le simulateur (107).
  7. Dispositif selon la revendication 6 dans lequel la plateforme de virtualisation (111) est configurée pour interagir avec la seconde unité apprenante (106) pour mettre à jour les paramètres de l’algorithme d’apprentissage automatique de manière à commander le système cyber-physique (101) en fonction du scénario de simulation généré suite à l’évènement.
  8. Dispositif selon l’une quelconque des revendications précédentes dans lequel le système cyber-physique (101) est un véhicule autonome, un robot ou un drone.
  9. Dispositif selon l’une quelconque des revendications précédentes dans lequel l’au moins un capteur de perception (103) est pris parmi une caméra, un Lidar, un laser, un capteur acoustique.
  10. Dispositif selon l’une quelconque des revendications précédentes dans lequel l’au moins un capteur interne (112) est pris parmi un capteur de température, un capteur de pression, un capteur de vitesse.
  11. Dispositif selon l’une quelconque des revendications précédentes dans lequel la première unité apprenante (104) implémente un algorithme d’apprentissage automatique configuré pour générer des données caractéristiques de l’environnement à partir de l’au moins un capteur de perception (103).
  12. Dispositif selon la revendication 7 comprenant une unité de stockage de données (108) pour sauvegarder les données générées par la première unité apprenante (104) sur une durée prédéterminée.
  13. Dispositif selon l’une quelconque des revendications précédentes dans lequel le générateur (109) de scénarios de simulation et/ou le simulateur (107) et/ou la plateforme de virtualisation (111) sont aptes à être déportés dans un serveur centralisé.
  14. Dispositif selon l’une quelconque des revendications précédentes dans lequel la plateforme de virtualisation (111) est apte à recevoir des scénarios de simulation générés par des systèmes cyber-physique distants appartenant à une flotte de systèmes.
  15. Dispositif selon la revendication 14 comprenant en outre un organe de conversion d’un scénario de simulation en description sémantique textuelle destinée à être transmise à d’autres systèmes appartenant à la même flotte et un organe de génération d’un scénario de simulation à partir d’une description sémantique textuelle reçue.
  16. Système cyber-physique mobile (101) muni d’actionneurs (105) comprenant un dispositif apprenant selon l’une quelconque des revendications précédentes configuré pour commander les actionneurs pour commander ledit système dans son environnement (102).
FR2011987A 2020-11-23 2020-11-23 Dispositif apprenant pour système cyber-physique mobile Active FR3116634B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR2011987A FR3116634B1 (fr) 2020-11-23 2020-11-23 Dispositif apprenant pour système cyber-physique mobile
US18/037,544 US20230401453A1 (en) 2020-11-23 2021-11-18 Learning device for mobile cyber-physical system
EP21815481.3A EP4248367A1 (fr) 2020-11-23 2021-11-18 Dispositif apprenant pour système cyber-physique mobile
PCT/EP2021/082153 WO2022106545A1 (fr) 2020-11-23 2021-11-18 Dispositif apprenant pour système cyber-physique mobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2011987A FR3116634B1 (fr) 2020-11-23 2020-11-23 Dispositif apprenant pour système cyber-physique mobile
FR2011987 2020-11-23

Publications (2)

Publication Number Publication Date
FR3116634A1 true FR3116634A1 (fr) 2022-05-27
FR3116634B1 FR3116634B1 (fr) 2022-12-09

Family

ID=74860038

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2011987A Active FR3116634B1 (fr) 2020-11-23 2020-11-23 Dispositif apprenant pour système cyber-physique mobile

Country Status (4)

Country Link
US (1) US20230401453A1 (fr)
EP (1) EP4248367A1 (fr)
FR (1) FR3116634B1 (fr)
WO (1) WO2022106545A1 (fr)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3152097A1 (fr) 2014-06-04 2017-04-12 Commissariat à l'Énergie Atomique et aux Énergies Alternatives Dispositif d'aide au parking et vehicule equipe d'un tel dispositif
EP3198523A1 (fr) 2014-09-26 2017-08-02 Commissariat à l'Énergie Atomique et aux Énergies Alternatives Procede et systeme de detection d'evenements de nature connue
WO2018011497A1 (fr) 2016-07-13 2018-01-18 Commissariat A L'energie Atomique Et Aux Energies Alternatives Système et procédé de capture embarquée et de reproduction 3d/360° du mouvement d'un opérateur dans son environnement
EP3384462A1 (fr) 2015-12-01 2018-10-10 Commissariat à l'Énergie Atomique et aux Énergies Alternatives Procede de caracterisation d'une scene par calcul d'orientation 3d
US20180349785A1 (en) * 2017-06-06 2018-12-06 PlusAI Corp Method and system for on-the-fly object labeling via cross temporal validation in autonomous driving vehicles
FR3076028A1 (fr) 2017-12-21 2019-06-28 Commissariat A L'energie Atomique Et Aux Energies Alternatives Methode de reconnaissance d'objets dans une scene observee en trois dimensions
DE102018220865A1 (de) * 2018-12-03 2020-06-18 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt sowie Kraftfahrzeug
DE102019206908A1 (de) * 2019-05-13 2020-11-19 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt, Kraftfahrzeug sowie System

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3152097A1 (fr) 2014-06-04 2017-04-12 Commissariat à l'Énergie Atomique et aux Énergies Alternatives Dispositif d'aide au parking et vehicule equipe d'un tel dispositif
EP3198523A1 (fr) 2014-09-26 2017-08-02 Commissariat à l'Énergie Atomique et aux Énergies Alternatives Procede et systeme de detection d'evenements de nature connue
EP3384462A1 (fr) 2015-12-01 2018-10-10 Commissariat à l'Énergie Atomique et aux Énergies Alternatives Procede de caracterisation d'une scene par calcul d'orientation 3d
WO2018011497A1 (fr) 2016-07-13 2018-01-18 Commissariat A L'energie Atomique Et Aux Energies Alternatives Système et procédé de capture embarquée et de reproduction 3d/360° du mouvement d'un opérateur dans son environnement
US20180349785A1 (en) * 2017-06-06 2018-12-06 PlusAI Corp Method and system for on-the-fly object labeling via cross temporal validation in autonomous driving vehicles
FR3076028A1 (fr) 2017-12-21 2019-06-28 Commissariat A L'energie Atomique Et Aux Energies Alternatives Methode de reconnaissance d'objets dans une scene observee en trois dimensions
DE102018220865A1 (de) * 2018-12-03 2020-06-18 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt sowie Kraftfahrzeug
DE102019206908A1 (de) * 2019-05-13 2020-11-19 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt, Kraftfahrzeug sowie System

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
A. AMINI ET AL.: "Learning Robust Control Policies for End-to-End Autonomous Driving From Data-Driven Simulation", IEEE ROBOTICS AND AUTOMATION LETTERS, vol. 5, no. 2, April 2020 (2020-04-01), pages 1143 - 1150, XP011770686, DOI: 10.1109/LRA.2020.2966414
A. HILLE. LUCETR. LENAIN: "Neuroevolution with CMA-ES for real-time gain tuning of a car-like robot controller", PROC. 16TH INT. CONF. ON INFORMATICS IN CONTROL, AUTOMATION AND ROBOTICS, 29 July 2019 (2019-07-29), pages 9
D. LARNAOUTV. GAY-BELLILES. BOURGEOISM. DHOME: "Fast and automatic city-scale environment modelling using hard and/or weak constrained bundle adjustments", MACHINE VISION AND APPLICATIONS, vol. 27, no. 6, August 2016 (2016-08-01), pages 943 - 962, XP036021533, DOI: 10.1007/s00138-016-0766-6
E. LUCETR. LENAINC. GRAND: "Dynamic path tracking control of a vehicle on slippery terrain", CONTROL ENGINEERING PRACTICE, vol. 42, September 2015 (2015-09-01), pages 60 - 73
F. CHABOTM. CHAOUCHJ. RABARISOAC. TEULIÈRET. CHATEAU: "Deep MANTA: A Coarse-to-fine Many-Task Network for joint 2D and 3D vehicle analysis from monocular image", PROC. IEEE CONF. ON COMPUTER VISION AND PATTERN RÉCOGNITION, pages 1827 - 1836
G. BAGSCHIK ET AL.: "Ontology based scene création for the development of automated vehicles", 23 April 2018, INSTITUTE OF CONTROL ENGINEERING
G. VAQUETTEC. ACHARDL. LUCAT: "Robust information fusion in the DOHT paradigm for real time action detection", JOURNAL OF REAL-TIME IMAGE PROCESSING, December 2016 (2016-12-01), pages 14p
J. KRAUSE ET AL.: "A hierarchical approach for generating descriptive image paragraphs", 4 October 2017, STANFORD UNIVERSITY
M.A. RAHMOUNIE. LUCET, R.BEAREE, A. OLABIM. GROSSARD: "Robot trajectory génération for three-dimensional flexible load transfer", PROC. 45TH ANNUAL CONF. OF THE IEEE INDUSTRIAL ELECTRONICS SOCIETY., 14 October 2019 (2019-10-14), pages 711 - 716, XP033669990, DOI: 10.1109/IECON.2019.8927150
P.C. RIBEIROR. AUDIGIER: "RIMOC, a feature to discriminate un-structured motions: Application to violence détection for video-surveillance', Computer Vision and Image Understanding", Q.C. PHAM, vol. 144, March 2016 (2016-03-01), pages 121 - 143
T. CHESNAIST. CHATEAUN. ALLEZARDY. DHOMEB. MEDENM. TAMAAZOUSTIA. CHAN-HON-TONG: "A Région Driven and Contextualized Pedestrian Detector", PROC. 8TH INT. CONF. ON COMPUTER VISION THEORY AND APPLICATION, 21 February 2013 (2013-02-21), pages 796 - 799

Also Published As

Publication number Publication date
US20230401453A1 (en) 2023-12-14
FR3116634B1 (fr) 2022-12-09
EP4248367A1 (fr) 2023-09-27
WO2022106545A1 (fr) 2022-05-27

Similar Documents

Publication Publication Date Title
US20200363800A1 (en) Decision Making Methods and Systems for Automated Vehicle
CN111919225B (zh) 使用模拟环境对自主机器进行培训、测试和验证
CN111273655B (zh) 用于自动驾驶车辆的运动规划方法和系统
US10867409B2 (en) Methods and systems to compensate for vehicle calibration errors
Velasco-Hernandez et al. Autonomous driving architectures, perception and data fusion: A review
US11110917B2 (en) Method and apparatus for interaction aware traffic scene prediction
CN110901656B (zh) 用于自动驾驶车辆控制的实验设计方法和系统
US20200156639A1 (en) Efficient Optimal Control With Dynamic Model For Autonomous Vehicle
CN111627054A (zh) 用于预测高置信度密集点云的深度补全误差地图的方法和装置
US11628865B2 (en) Method and system for behavioral cloning of autonomous driving policies for safe autonomous agents
CN111208814B (zh) 用于自动车辆的、利用动态模型的、基于记忆的最优运动规划
US20200033870A1 (en) Fault Tolerant State Estimation
Liu Engineering autonomous vehicles and robots: the dragonfly modular-based approach
Swief et al. A survey of automotive driving assistance systems technologies
Tremblay et al. Multimodal dynamics modeling for off-road autonomous vehicles
Baskaran et al. End-to-end drive by-wire PID lateral control of an autonomous vehicle
FR3116634A1 (fr) Dispositif apprenant pour système cyber-physique mobile
US20230050217A1 (en) System and method for utilizing model predictive control for optimal interactions
US11603119B2 (en) Method and apparatus for out-of-distribution detection
Becker et al. Bosch's approach toward automated driving
Gupta et al. Smart autonomous vehicle using end to end learning
US11989020B1 (en) Training machine learning model(s), in simulation, for use in controlling autonomous vehicle(s)
Berettoni Environment perception for an autonomous radio-controlled vehicle with artificial intelligence algorithm
Hu et al. Multi‐task deep learning with optical flow features for self‐driving cars
Mahna Improving Steering Ability of an Autopilot in a Fully Autonomous Car

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220527

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4