FR3133357A1 - Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile - Google Patents

Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile Download PDF

Info

Publication number
FR3133357A1
FR3133357A1 FR2202187A FR2202187A FR3133357A1 FR 3133357 A1 FR3133357 A1 FR 3133357A1 FR 2202187 A FR2202187 A FR 2202187A FR 2202187 A FR2202187 A FR 2202187A FR 3133357 A1 FR3133357 A1 FR 3133357A1
Authority
FR
France
Prior art keywords
vehicle
mobile communication
data
points
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2202187A
Other languages
English (en)
Inventor
Thibault Griffon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stellantis Auto Sas Fr
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2202187A priority Critical patent/FR3133357A1/fr
Publication of FR3133357A1 publication Critical patent/FR3133357A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

La présente invention concerne un procédé et un dispositif de contrôle d’un véhicule autonome (10) embarquant un capteur de détection d’objet (101). A cet effet, des premières données représentatives de coordonnées d’un ensemble de points (11) représentatifs d’un objet détecté par le capteur (101) sont déterminées. Des deuxièmes données représentatives de localisation, dans l’environnement (1) du véhicule autonome (10), d’un ou plusieurs dispositifs de communication mobile (12). Un type de l’objet détecté est déterminé à partir des premières données et des deuxièmes données. Le véhicule autonome est contrôlé en fonction du type de l’objet détecté pour adapter son comportement vis-à-vis de l’objet. Figure pour l’abrégé : Figure 1

Description

Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile
La présente invention concerne les procédés et dispositifs de contrôle de véhicule autonome, notamment de véhicule automobile. La présente invention concerne également un procédé et un dispositif d’identification d’un objet détecté par au moins un capteur d’un véhicule, notamment un véhicule autonome.
Arrière-plan technologique
La sécurité routière est un des enjeux importants dans le cadre du développement des véhicules. Pour améliorer la sécurité des usagers de la route, les véhicules contemporains embarquent de plus en plus de fonctions pour assister le conducteur dans la conduite du véhicule. De telles fonctions sont généralement mises en œuvre par des systèmes d’aide à la conduite, connus sous le nom de systèmes dits ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé »). Les systèmes d’aide à la conduite les plus aboutis assurent le contrôle du véhicule qui devient un véhicule dit autonome, c’est-à-dire un véhicule apte à rouler dans l’environnement routier sans intervention du conducteur.
Le contrôle de certains de ces systèmes ADAS requière une bonne connaissance de l’environnement des véhicules les embarquant, notamment une bonne connaissance des objets statiques ou mobiles présent dans l’environnement du véhicule. A cet effet, les véhicules équipés de systèmes ADAS embarquent un ou plusieurs capteurs de détection d’objets tels que des caméras, radars, et/ou encore lidars (de l’anglais « Light Detection And Ranging », ou « Détection et estimation de la distance par la lumière » en français). Les données acquises par ces capteurs permettent au véhicule de détecter la présence d’un ou plusieurs objets situés dans son environnement, par exemple sur sa trajectoire, et d’obtenir des informations sur ces objets telles que la distance entre l’objet détecté et le véhicule, des informations sur la dynamique de l’objet détecté (par exemple la vitesse).
La seule détection de l’objet n’est cependant pas toujours suffisante pour pouvoir adapter le comportement du véhicule vis-à-vis de l’objet détecté, notamment lorsque le véhicule circule sous le contrôle d’un ou plusieurs systèmes ADAS dans un mode de circulation semi-autonome, voire autonome.
Résumé de la présente invention
Un objet de la présente invention est de résoudre au moins un des inconvénients de l’arrière-plan technologique.
Un objet de la présente invention est d’améliorer le comportement d’un véhicule, par exemple un véhicule autonome, en fonction de son environnement.
Un autre objet de la présente invention est d’améliorer la connaissance d’un véhicule sur un ou plusieurs objets détectés dans son environnement.
Selon un premier aspect, la présente invention concerne un procédé de contrôle d’un véhicule autonome comprenant au moins un capteur de détection d’objet, le procédé comprenant les étapes suivantes :
- détermination de premières données représentatives de coordonnées d’un ensemble de points représentatifs d’un objet détecté dans un environnement du véhicule autonome à partir de données obtenues du au moins un capteur ;
- réception de deuxièmes données représentatives de localisation de chaque dispositif de communication mobile d’un ensemble de dispositifs de communication mobile comprenant au moins un dispositif de communication mobile dans l’environnement ;
- détermination d’un type de l’objet à partir des premières données et des deuxièmes données ;
- contrôle dudit véhicule autonome en fonction du type de l’objet.
L’utilisation de données représentatives de la localisation d’un ou plusieurs dispositifs de communication mobile (tels qu’un téléphone intelligent) en plus des données représentatives de points représentant un objet détecté dans l’environnement du véhicule permet d’avoir plus d’informations sur l’environnement du véhicule autonome, notamment participe à identifier le type de l’objet détecté avec plus de précision qu’avec les seules données représentatives des points. La localisation d’un dispositif de communication mobile permet d’obtenir des informations sur la présence d’une personne dans l’environnement du véhicule autonome, le dispositif de communication mobile étant associé à son porteur, c’est-à-dire à une personne.
L’identification du type de l’objet détecté permet d’adapter le comportement du véhicule autonome vis-à-vis de cet objet détecté.
Selon une variante, le procédé comprend en outre une étape de comparaison des premières données et des deuxièmes données, la détermination du type de l’objet étant fonction d’un résultat de la comparaison.
Selon une autre variante, le procédé comprend en outre une étape de détermination de présence ou d’absence d’au moins un dispositif de communication mobile dans l’ensemble de points en fonction du résultat de la comparaison, la détermination du type de l’objet étant fonction d’un résultat de la détermination de présence ou d’absence.
Selon une variante supplémentaire, le procédé comprend en outre une étape de détermination d’un nombre de dispositifs de communication mobile présents dans l’ensemble de points en fonction du résultat de la comparaison, la détermination du type de l’objet étant fonction du nombre de dispositifs de communication mobile présents dans l’ensemble de points.
Selon encore une variante, le procédé comprend en outre une étape de détermination d’une forme d’une enveloppe extérieure de l’ensemble de points, la détermination du type de l’objet étant fonction de la forme.
Selon une variante additionnelle, les deuxièmes données sont reçues selon un mode de communication piéton à véhicule, dit P2V.
Selon une autre variante, le au moins un capteur de détection d’objet correspond à un radar, un LIDAR ou une caméra.
Selon un deuxième aspect, la présente invention concerne un dispositif de contrôle d’un véhicule autonome, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé selon le premier aspect de la présente invention.
Selon un troisième aspect, la présente invention concerne un véhicule, par exemple de type automobile, comprenant un dispositif tel que décrit ci-dessus selon le deuxième aspect de la présente invention.
Selon un quatrième aspect, l’invention concerne un système comprenant un dispositif tel que décrit ci-dessus selon le deuxième aspect de la présente invention relié en communication avec au moins un véhicule autonome et au moins un dispositif de communication mobile.
Selon un cinquième aspect, la présente invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de la présente invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un sixième aspect, la présente invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de la présente invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon la présente invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de la présente invention ressortiront de la description des exemples de réalisation particuliers et non limitatifs de la présente invention ci-après, en référence aux figures 1 à 3 annexées, sur lesquelles :
illustre schématiquement un environnement d’un véhicule autonome, selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement un dispositif configuré pour contrôler le véhicule autonome de la , selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre un organigramme des différentes étapes d’un procédé de contrôle du véhicule autonome de la , selon un exemple de réalisation particulier et non limitatif de la présente invention.
Description des exemples de réalisation
Un procédé et un dispositif de contrôle d’un véhicule autonome vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1 à 3. Des mêmes éléments sont identifiés avec des mêmes signes de référence tout au long de la description qui va suivre.
Selon un exemple particulier et non limitatif de réalisation de la présente invention, un procédé de contrôle d’un véhicule autonome, lequel embarque un ou plusieurs capteurs de détection d’objet tels que radar et/ou LIDAR et/ou caméra, comprend la détermination de premières données représentatives de coordonnées d’un ensemble de points (correspondant par exemple à un nuage de points) représentatifs d’un objet détecté dans un environnement du véhicule autonome. Les premières données sont par exemple déterminées ou obtenues à partir de données reçues du ou des capteurs de détection d’objets. Des deuxièmes données représentatives de localisation, dans l’environnement du véhicule autonome, de chaque dispositif de communication mobile d’un ensemble de dispositifs de communication mobile sont en outre reçues via une connexion sans fil, par exemple selon un mode de communication de type piéton à véhicule, dit P2V (de l’anglais « Pedestrian-to-Vehicle »), ou via un réseau de communication mobile de type LTE 4G ou 5G. Un type de l’objet est déterminé en mettant par exemple en corrélation les premières données et les deuxièmes données, c’est-à-dire par exemple en comparant la localisation de l’ensemble de points et la localisation de chaque dispositif de communication mobile. Le véhicule autonome est ainsi contrôlé en fonction du type de l’objet détecté pour adapter son comportement, par exemple son comportement dynamique, en fonction du type de l’objet détecté.
La illustre schématiquement un véhicule 10 circulant dans un environnement 1, selon un exemple de réalisation particulier et non limitatif de la présente invention.
La illustre un véhicule 10, par exemple un véhicule automobile, embarquant un ou plusieurs capteurs configurés pour détecter la présence d’objets dans l’environnement 1 du véhicule 10. Selon d’autres exemples, le véhicule 10 correspond à un car, un bus, un camion, un véhicule utilitaire ou une motocyclette, c’est-à-dire à un véhicule de type véhicule terrestre motorisé.
Le véhicule 10 correspond par exemple à un véhicule circulant dans un mode autonome ou semi-autonome. Le véhicule circule par exemple selon un niveau d’autonomie supérieur ou égal à 3, selon l’échelle définie par l’agence fédérale américaine qui a établi 5 niveaux d’autonomie allant de 1 à 5, le niveau 0 correspondant à un véhicule n’ayant aucune autonomie, dont la conduite est sous la supervision totale du conducteur, le niveau 1 correspondant à un véhicule avec un niveau d’autonomie minimal, dont la conduite est sous la supervision du conducteur avec une assistance minimale d’un système ADAS, et le niveau 5 correspondant à un véhicule complètement autonome.
Les 5 niveaux d’autonomie de la classification de l’agence fédérale chargée de la sécurité routière sont :
- niveau 0 : aucune automatisation, le conducteur du véhicule contrôle totalement les fonctions principales du véhicule (moteur, accélérateur, direction, freins) ;
- niveau 1 : assistance au conducteur, l’automatisation est active pour certaines fonctions du véhicule, le conducteur gardant un contrôle global sur la conduite du véhicule ; le régulateur de vitesse fait partie de ce niveau, comme d’autres aides telles que l’ABS (système antiblocage des roues) ou l’ESP (électro-stabilisateur programmé) ;
- niveau 2 : automatisation de fonctions combinées, le contrôle d’au moins deux fonctions principales est combiné dans l’automatisation pour remplacer le conducteur dans certaines situations ; par exemple, le régulateur de vitesse adaptatif combiné avec le centrage sur la voie permet à un véhicule d’être classé niveau 2, tout comme l’aide au stationnement (de l’anglais « Park assist ») automatique ;
- niveau 3 : conduite autonome limitée, le conducteur peut céder le contrôle complet du véhicule au système automatisé qui sera alors en charge des fonctions critiques de sécurité ; la conduite autonome ne peut cependant avoir lieu que dans certaines conditions environnementales et de trafic déterminées (uniquement sur autoroute par exemple) ;
- niveau 4 : conduite autonome complète sous conditions, le véhicule est conçu pour assurer seul l’ensemble des fonctions critiques de sécurité sur un trajet complet ; le conducteur fournit une destination ou des consignes de navigation mais n’est pas tenu de se rendre disponible pour reprendre le contrôle du véhicule ;
- niveau 5 : conduite complètement autonome sans l’aide de conducteur dans toutes les circonstances.
Selon l’exemple de la , le premier véhicule 10 circule sur une portion de route à deux voies de circulations 1001, 1002. Le premier véhicule 10 circule par exemple sur la voie de circulation de droite 1001, les deux voies de circulation 1001 et 1002 étant selon un même sens de circulation. Selon une variante, la voie de circulation 1001 est selon un sens de circulation et la voie de circulation 1002 selon le sens inverse de circulation.
Le véhicule 10 embarque par exemple un ou plusieurs des capteurs 101 suivants :
- un ou plusieurs radars à ondes millimétriques arrangés sur le véhicule 10, par exemple à l’avant, à l’arrière, sur chaque coin avant/arrière du véhicule ; chaque radar est adapté pour émettre des ondes électromagnétiques et pour recevoir les échos de ces ondes renvoyées par un ou plusieurs objets, dans le but de détecter des obstacles et leurs distances vis-à-vis du véhicule 10 ; et/ou
- un ou plusieurs LIDAR(s) (de l’anglais « Light Detection And Ranging », ou « Détection et estimation de la distance par la lumière » en français), un capteur LIDAR correspondant à un système optoélectronique composé d’un dispositif émetteur laser, d’un dispositif récepteur comprenant un collecteur de lumière (pour collecter la partie du rayonnement lumineux émis par l’émetteur et réfléchi par tout objet situé sur le trajet des rayons lumineux émis par l’émetteur) et d’un photodétecteur qui transforme la lumière collectée en signal électrique ; un capteur LIDAR permet ainsi de détecter la présence d’objets situés dans le faisceau lumineux émis et de mesurer la distance entre le capteur et chaque objet détecté ; et/ou
- une ou plusieurs caméras (associées ou non à un capteur de profondeur) pour l’acquisition d’une ou plusieurs images de l’environnement autour du véhicule 10 se trouvant dans le champ de vision de la ou les caméras.
Les données obtenues de ce ou ces capteurs 101 varient selon le type de capteur. Lorsqu’il s’agit d’un radar ou d’un LIDAR, les données correspondent par exemple à des données de distance entre des points de l’objet détecté et le capteur. Chaque objet détecté est ainsi représenté par un nuage de points (chaque point correspondant à un point de l’objet recevant le rayonnement émis par le capteur et réfléchissant au moins en partie ce rayonnement), le nuage de points représentant l’enveloppe (ou une partie de l’enveloppe) de l’objet détecté tel que vu par le capteur et in fine par le véhicule 10 embarquant le capteur. Lorsqu’il s’agit d’une caméra vidéo, les données correspondent à des données associées à chaque pixel de la ou les images acquises, par exemple des valeurs de niveaux de gris codés sur par exemple 8, 10, 12 ou plus de bits pour chaque canal couleur, par exemple RGB (de l’anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu »). Ces données permettent par exemple de déterminer la position d’un objet ou une série de positions successives prises par un objet mobile, et d’en déduire un ou plusieurs paramètres dynamiques de l’objet mobile tels que la vitesse et/ou l’accélération.
Les données acquises par le ou les capteurs embarqués alimentent par exemple un ou plusieurs systèmes d’aide à la conduite, dit ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé ») embarqués dans le véhicule 10. De tels systèmes ADAS sont configurés pour assister, voire remplacer, le conducteur du véhicule 10 pour contrôler le véhicule 10 sur son parcours.
Le véhicule 10 embarque par exemple à cet effet un ou plusieurs des systèmes ADAS suivant :
- système de régulation adaptative de vitesse, dit ACC (de l’anglais « Adaptive Cruise Control ») ; et/ou
- régulateur de vitesse prédictif, dit système PCC (de l’anglais « Predictive Cruise Control ») ; et/ou
- système d’adaptation intelligente de la vitesse, dit système ISA (de l’anglais « Intelligent Speed Adaptation ») ; et/ou
- système d’adaptation de la vitesse en virage, dit système CSA (de l’anglais « Curve Speed Assist ») ; et/ou
- système de contrôle électronique de stabilité, dit système ESC (de l’anglais « Electronic Stability Control » ou en français « Contrôle électronique de la stabilité »), DSC (de l’anglais « Dynamic Stability Control » ou en français « Contrôle dynamique de la stabilité ») ou encore ESP (de l’anglais « Electronic Stability Program » ou en français « Programme électronique de la stabilité ») ; et/ou
- système d’aide au maintien dans la file de circulation du véhicule, dit système LKA (de l’anglais « Lane-Keeping Assist » ou en français « Assistant de maintien dans la file ») ou LPA (de l’anglais « Lane Positioning Assist » ou en français « Assistant de positionnement dans la file ») ; et/ou
- système de changement semi-automatique de voie de circulation (de l’anglais SALC de l’anglais « Semi Automatic Lane Change »).
Les exemples de systèmes ADAS de la liste ci-dessus sont fournis à titre illustratif et ne sont pas limitatifs, cette liste n’étant pas exhaustive.
Le véhicule 10 embarque avantageusement un système de communication configuré pour communiquer avec un ou plusieurs dispositifs distants 111 via une infrastructure d’un réseau de communication sans fil et/ou avec un ou plusieurs dispositifs de communication mobile (par exemple un téléphone intelligent (de l’anglais « smartphone ») 12. Le dispositif distant 111 correspond par exemple à un serveur du « cloud » 100 (ou « nuage » en français). L’infrastructure de communication sans fil comprend par exemple un ensemble de dispositifs de communication 110 de type antenne de réseau cellulaire de type LTE 4G ou 5G ou de type UBR (Unité Bord de Route).
Le système de communication du véhicule 10 comprend par exemple une ou plusieurs antennes de communication reliées à une unité de contrôle télématique, dite TCU (de l’anglais « Telematic Control Unit »), elle-même reliée à un ou plusieurs calculateurs du système embarqué du véhicule 10. La ou les antennes, l’unité TCU et le ou les calculateurs forment par exemple une architecture multiplexée pour la réalisation de différents services utiles pour le bon fonctionnement du véhicule et pour assister le conducteur et/ou les passagers du véhicule dans le contrôle du véhicule 10. Le ou les calculateurs et l’unité TCU communiquent et échangent des données entre eux par l’intermédiaire d’un ou plusieurs bus informatiques, par exemple un bus de communication de type bus de données CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (selon la norme ISO 17458) ou Ethernet (selon la norme ISO/IEC 802-3).
Le système de communication sans fil permettant l’échange de données entre le véhicule 10 et le ou les dispositifs distants 111 et/ou dispositifs de communication mobile 12 correspond par exemple à :
- un système de communication véhicule à infrastructure V2I (de l’anglais « vehicle-to-infrastructure »), par exemple basé sur les standards 3GPP LTE-V ou IEEE 802.11p de ITS G5 ; ou
- un système de communication de type réseau cellulaire, par exemple un réseau de type LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) LTE 4G ou 5G ; ou
- un système de communication de type Wifi selon IEEE 802.11, par exemple selon IEEE 802.11n ou IEEE 802.11ac.
Le dispositif de communication mobile 12 correspond par exemple à un téléphone intelligent (de l’anglais « Smartphone ») ou à tout objet connecté (par exemple une montre connectée) permettant d’échanger des données avec le réseau. Un tel dispositif de communication mobile 12 est par exemple porté par un individu ou une personne et est associé à cette personne.
Le dispositif de communication mobile 12 est avantageusement configuré pour communiquer avec l’infrastructure réseau, par exemple avec le dispositif distant 111 et/ou le véhicule 10 via l’antenne ou UBR 110, selon le mode de communication dit V2X, plus particulièrement selon un mode de véhicule à piéton V2P (de l’anglais « Véhicle-to-Pedestrian ») ou de piéton à véhicule P2V.
Selon un exemple particulier de réalisation, l’ensemble des nœuds de l’infrastructure réseau (c’est-à-dire les dispositifs de communication associés au véhicule 10, au dispositif de communication mobile 12, et l’antenne ou UBR 110) forment par exemple un réseau sans fil ad hoc (aussi appelé WANET (de l’anglais « Wireless Ad hoc Network ») ou MANET (de l’anglais « Mobile Ad hoc Network »)), correspondant à un réseau sans fil décentralisé. Le réseau sans fil ad hoc correspond avantageusement à un réseau véhicule ad hoc (ou VANET, de l’anglais « Vehicular Ad hoc Network ») ou à un réseau véhiculaire ad hoc intelligent (ou InVANET, de l’anglais « Intelligent Vehicular Ad hoc Network »), aussi appelé réseau « GeoNetworking ». Dans un tel réseau, deux véhicules ou plus, embarquant chacun un nœud, peuvent communiquer entre eux dans le cadre d’une communication véhicule à véhicule V2V ; chaque véhicule peut communiquer avec l’infrastructure mise en place dans le cadre d’une communication véhicule à infrastructure V2I ; chaque véhicule peut communiquer avec un ou des individus équipés de dispositifs mobiles 12 dans le cadre d’une communication véhicule à piéton V2P ou P2V.
Dans un tel réseau, le dispositif de communication mobile 12 est par exemple considéré comme une station personnelle de système intelligent de transport (dite P-ITS-S, de l’anglais « Personal Intelligent Transportation System Station »), le nœud correspondant au véhicule 10 correspondant à une station véhiculaire de système intelligent de transport (ou V-ITS-S, de l’anglais « Vehicular Intelligent Transportation System Station ») et le nœud correspondant à l’antenne 110 correspondant à des stations de bord de route de système intelligent de transport (ou R-ITS-S, de l’anglais « Roadside Intelligent Transportation System Station »).
Selon un mode de réalisation particulier, le dispositif de communication mobile 12 communique avec le véhicule 10 selon un mode de communication de type piéton à véhicule P2V, par exemple selon un mode de communication directe. Un mode de communication directe est par exemple conforme à ITS G5 en Europe ou DSRC (de l’anglais « Dedicated Short Range Communications » ou en français « Communications dédiées à courte portée ») aux Etats-Unis d’Amérique, qui reposent tous les deux sur le standard IEEE 802.11p.
Un processus de contrôle du véhicule 10 est avantageusement mis en œuvre par un ou plusieurs processeurs.
Selon un premier mode de mise en œuvre, le ou les processeurs appartiennent à un ou plusieurs processeurs d’un ou plusieurs calculateurs du système embarqué du véhicule 10.
Selon un deuxième mode de mise en œuvre, le ou les processeurs a ou, selon un autre, par un ou plusieurs processeurs d’un dispositif distant tel que le serveur 111.
Dans une première opération, des premières données représentatives de coordonnées d’un ensemble de points 11 représentatifs d’un objet détecté dans l’environnement 1 du véhicule autonome 10 sont déterminées à partir de données obtenues du au moins un capteur 101.
Les coordonnées des points de l’ensemble de points 11 sont par exemple exprimées dans l’espace monde.
Lorsque le capteur 101 correspond à un radar ou à un LIDAR, les données obtenues de ce capteur correspondent à la distance entre le capteur et chaque point de l’objet détecté. L’ensemble de points forme un nuage de points à partir duquel il est possible de déterminer une surface formée des points correspondant à l’enveloppe extérieure de l’objet détecté.
Selon le premier mode de mise en œuvre, les données obtenues du ou des capteurs 101 sont transmises au serveur 111 via une liaison sans fil au travers du réseau de communication. Le serveur 111 traite les données reçues pour obtenir un ensemble de coordonnées des points formant l’ensemble de points.
Le véhicule 10 transmet par exemple ses coordonnées courantes avec les données issues du ou des capteurs 101 à destination du serveur 101. Les coordonnées du véhicule 10 sont par exemple obtenues par un récepteur d’un système de positionnement (ou de géolocalisation) par satellite embarqué dans le véhicule 10. Un tel récepteur est par exemple intégré au véhicule 10 ou est embarqué dans un dispositif de communication mobile (par exemple un téléphone intelligent) relié au véhicule 10 via une connexion sans fil de type Bluetooth® ou Wifi®. Le système de géolocalisation par satellite correspond par exemple à un système GPS (de l’anglais « Global Positioning System » ou en français « Système mondial de positionnement ») ou à un système Galileo.
Les coordonnées des points de l’ensemble 11 sont ainsi déterminées à partir des données obtenues du ou des capteurs 101 et des coordonnées du véhicule 10.
Selon le deuxième mode de réalisation, les coordonnées des points formant l’ensemble de points sont par exemple obtenues directement obtenues du ou des capteurs 101. Selon une variante, les coordonnées des points sont obtenues à partir d’une part des informations de distance entre le capteur 101 et chacun des points obtenues du capteur 101 et d’autre part des coordonnées de la position courante du véhicule 10 obtenues du récepteur du système de géolocalisation embarqué dans le véhicule 10.
Les premières données sont par exemple stockées en mémoire du serveur 111 ou du véhicule 10, selon le mode de mise en œuvre.
Dans une deuxième opération, des deuxièmes données représentatives de localisation d’un ou plusieurs dispositifs de communication mobile tels que le dispositif 12 sont reçues de chacun de ces dispositifs.
La localisation d’un dispositif de communication mobile 12 est par exemple obtenue d’un récepteur d’un système de positionnement (ou de géolocalisation) par satellite intégré au dispositif de communication mobile 12.
Les deuxièmes données correspondent par exemple à un couple de coordonnées (par exemple formé de la latitude et de la longitude) exprimées dans l’espace monde.
Les deuxièmes données sont par exemple transmises à intervalles réguliers (par exemple toutes les 200, 500, 1000 ms) par le dispositif de communication mobile 12 à destination du serveur 111 et/ou du véhicule 10 selon le mode de communication P2V.
Dans une troisième opération, le type de l’objet correspondant à l’ensemble de points 11 détectés par le capteur 101 est déterminé ou identifié à partir des premières données et des deuxièmes données.
La détermination comprend par exemple une identification de l’ensemble de points 11, une telle identification comprenant par exemple une classification du nuage de point, par exemple une classification de la forme de la surface de l’enveloppe extérieure déterminée à partir des coordonnées des points, selon toute méthode connue de l’homme du métier. La classification comprend par exemple une comparaison de la forme obtenue avec un ensemble de classes de forme, chaque classe étant associé à un type d’objet (par exemple une voiture, un camion ou bus, un cycliste, un piéton, etc.). Une telle classification est par exemple mise en œuvre dans le cadre d’une méthode d’apprentissage machine ou d’apprentissage automatique (de l’anglais « machine learning ») mise en œuvre par exemple par un réseau de neurones.
La détermination comprend par exemple la comparaison de la localisation du ou des dispositifs de communication mobile avec la localisation de l’objet détecté (obtenue des coordonnées des points de l’ensemble de points). Une telle comparaison permet de déterminer si un ou plusieurs dispositifs de communication mobile 12 sont positionnées à une localisation correspondant à celle de l’objet correspondant à l’ensemble de points 11. La comparaison permet également de déterminer le nombre de dispositifs de communication mobile détectés comme présent à l’endroit occupé par l’ensemble de points 11.
Selon une variante de réalisation, lorsque plusieurs dispositifs de communication mobile 12 sont localisés dans une zone comprenant l’ensemble de points, la proximité des dispositifs de communication mobile les uns par rapport aux autres est déterminée, selon toute méthode connue de l’homme du métier, par exemple selon la méthode décrite dans le document US10771921 publié le 08 septembre 2020.
Le résultat de la comparaison (présence ou absence d’un dispositif de communication mobile à l’endroit du nuage de points 11, nombre de dispositif(s) de communication mobile présent(s) à l’endroit du nuage de points 11 et/ou information de proximité entre les dispositifs de communication mobile lorsqu’ils sont plusieurs) permet ainsi d’affiner la détermination du type de l’objet.
Par exemple, si l’analyse du nuage de point permet d’identifier l’objet comme correspondant à un véhicule de type camion ou bus, le résultat de la comparaison de la localisation du ou des dispositifs de communication mobile avec la localisation de l’objet peut permettre de déterminer si l’objet est un bus ou un camion.
Par exemple, si le nombre de dispositifs de communication mobile ayant une localisation indiquant une présence dans l’ensemble de points est supérieur ou égal à 3, l’objet détecté peut être classifié comme correspondant à un bus ou un car plus qu’un camion.
Selon un autre exemple, si la forme de l’objet détecté permet d’identifier l’objet comme étant une personne ou un vélo mais que l’environnement 1 correspond à une autoroute ou à une voie rapide (c’est-à-dire un environnement dans lequel un piéton ou un cycliste ne devrait pas se trouver), le résultat de la comparaison permet de confirmer que l’objet détecté correspond effectivement à une personne ou un cycliste si un dispositif de communication mobile est localisé à une position correspondant à ou comprise dans l’ensemble de points. Dans le cas contraire (si aucun dispositif de communication mobile n’est présent à cet endroit), une nouvelle vérification du type de l’objet détecté à partir des données issues du capteur 101 ou d’un autre capteur est mise en œuvre.
Un dispositif de communication mobile est dit présent dans l’ensemble de points 11 lorsque sa position correspond à la position de l’ensemble de points 11.
Une position d’un dispositif de communication mobile est dite « correspondant » à celle de l’ensemble de points lorsque par exemple la distance entre la position du dispositif de communication mobile et le barycentre des coordonnées des points formant l’ensemble de points est inférieure à une distance seuil (par exemple à une distance inférieure à 0.2, 0.5, 0.8 ou 1 m).
La détermination de la présence ou de l’absence de dispositif(s) de communication mobile dans l’ensemble de points 11 et/ou la détermination du nombre de dispositif(s) de communication mobile présents dans l’ensemble de points 11 permet ainsi de confirmer ou d’affiner une identification du type de l’objet obtenue à partir des seules informations associées à l’ensemble de points détectés (par exemple la forme du nuage de points, c’est-à-dire la forme de l’enveloppe extérieure du nuage de points 11).
Dans une quatrième opération, le véhicule autonome 10 est contrôlé en fonction du type de l’objet identifié à la troisième opération.
Lorsque l’identification du type de l’objet est mise en œuvre par le serveur 111 (premier mode de réalisation), une information représentative du type de l’objet est transmise par le serveur 111 à destination du véhicule 10, par exemple selon un mode de communication de type infrastructure vers véhicule, dite I2V.
L’information du type de l’objet détecté est avantageusement prise en compte par le ou les systèmes ADAS assurant la conduite du véhicule 10 en mode autonome (avec par exemple un niveau d’autonomie supérieur ou égal à 3).
Par exemple, si le type de l’objet détecté correspond à un bus ou un car, la vitesse du véhicule 10 est diminuée en approche de l’objet, un car ou un bus étant susceptible de s’arrêter plus souvent qu’un camion, avec en outre un risque de présence de piétons à proximité du bus ou du car plus élevé.
De la même manière, si le type de l’objet détecté correspond à un piéton ou à un cycliste sur une voie de circulation non prévue à cet effet, la vitesse du véhicule 10 est contrôlée de manière à être réduite en approche de l’objet, une manœuvre d’évitement est mise en œuvre et/ou un message d’alerte est par exemple transmis à l’infrastructure selon le mode véhicule vers infrastructure V2I et/ou à destination du dispositif de communication mobile localisé à l’endroit de l’objet détecté selon le mode V2P.
La illustre schématiquement un dispositif 2 configuré pour le contrôle d’un véhicule autonome, par exemple le véhicule 10, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le dispositif 2 correspond par exemple à un dispositif embarqué dans le véhicule 10, par exemple un calculateur. Selon un autre exemple, le dispositif 2 correspond à un dispositif distant tel que le serveur 111.
Le dispositif 2 est par exemple configuré pour la mise en œuvre des opérations décrites en regard de la et/ou des étapes du procédé décrit en regard de la . Des exemples d’un tel dispositif 2 comprennent, sans y être limités, un équipement électronique embarqué tel qu’un ordinateur de bord d’un véhicule, un calculateur électronique tel qu’une UCE (« Unité de Commande Electronique »), un téléphone intelligent, une tablette, un ordinateur portable, un ordinateur ou un serveur. Les éléments du dispositif 2, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif 2 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels.
Le dispositif 2 comprend un (ou plusieurs) processeur(s) 20 configurés pour exécuter des instructions pour la réalisation des étapes du procédé et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif 2. Le processeur 20 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif 2 comprend en outre au moins une mémoire 21 correspondant par exemple une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur est par exemple stocké sur la mémoire 21.
Selon différents modes de réalisation particuliers, le dispositif 2 est couplé en communication avec d’autres dispositifs ou systèmes similaires et/ou avec des dispositifs de communication, par exemple une TCU (de l’anglais « Telematic Control Unit » ou en français « Unité de Contrôle Télématique »), par exemple par l’intermédiaire d’un bus de communication ou au travers de ports d’entrée / sortie dédiés.
Selon un mode de réalisation particulier et non limitatif, le dispositif 2 comprend un bloc 22 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple un serveur distant ou le « cloud » lorsque le dispositif 2 correspond à un calculateur, une TCU lorsque le dispositif 2 correspond à un serveur, d’autres nœuds du réseau ad hoc. Les éléments d’interface du bloc 22 comprennent une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Bluetooth® ou Wi-Fi®, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français) ;
- interface LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Des données sont par exemple chargées vers le dispositif 2 via l’interface du bloc 22 n utilisant un réseau Wi-Fi® tel que selon IEEE 802.11, un réseau Bluetooth® ou un réseau mobile tel qu’un réseau 4G (ou LTE Advanced selon 3GPP release 10 – version 10) ou 5G.
Selon un autre mode de réalisation particulier, le dispositif 2 comprend une interface de communication 23 qui permet d’établir une communication avec d’autres dispositifs (tels que d’autres calculateurs du système embarqué) via un canal de communication 230. L’interface de communication 23 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 230. L’interface de communication 23 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Selon un mode de réalisation particulier supplémentaire, le dispositif 2 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage 240, un ou des haut-parleurs 250 et/ou d’autres périphériques 260 (système de projection) via respectivement des interfaces de sortie 24, 25 et 26. Selon une variante, l’un ou l’autre des dispositifs externes est intégré au dispositif 2.
La illustre un organigramme des différentes étapes d’un procédé de contrôle d’un véhicule autonome, par exemple le véhicule 10, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le procédé est par exemple mis en œuvre par un dispositif embarqué dans le véhicule 10 ou par un dispositif distant 111, par exemple par le dispositif 2 de la .
Dans une première étape 31, des premières données représentatives de coordonnées d’un ensemble de points représentatifs d’un objet détecté dans un environnement du véhicule autonome sont déterminées à partir de données obtenues du au moins un capteur.
Dans une deuxième étape 32, des deuxièmes données représentatives de localisation, dans l’environnement, de chaque dispositif de communication mobile d’un ensemble de dispositifs de communication mobile comprenant au moins un dispositif de communication mobile sont reçues.
Dans une troisième étape 33, un type de l’objet est déterminé à partir des premières données et des deuxièmes données.
Dans une quatrième étape 34, le véhicule autonome est contrôlé en fonction du type de l’objet déterminé à la troisième opération 33. A cet effet, l’information du type de l’objet est prise en compte par un ou plusieurs systèmes ADAS du véhicule autonome pour adapter le comportement du véhicule autonome au type de l’objet.
Selon une variante, les variantes et exemples des opérations décrits en relation avec la s’appliquent aux étapes du procédé de la .
Bien entendu, la présente invention ne se limite pas aux exemples de réalisation décrits ci-avant mais s’étend à un procédé de détermination d’un type d’objet détecté par un capteur d’un véhicule qui inclurait des étapes secondaires sans pour cela sortir de la portée de la présente invention. Il en serait de même d’un dispositif configuré pour la mise en œuvre d’un tel procédé.
La présente invention concerne également un véhicule, par exemple automobile ou plus généralement un véhicule autonome à moteur terrestre, comprenant le dispositif 2 de la .
La présente invention concerne également un système de communication comprenant le dispositif 2 de la correspondant à un dispositif distant de type serveur relié en communication sans fil à un ou plusieurs véhicules et à un ou plusieurs dispositifs de communication mobile.

Claims (8)

  1. Procédé de contrôle d’un véhicule autonome (10) comprenant au moins un capteur (101) de détection d’objet, ledit procédé comprenant les étapes suivantes :
    - détermination (31) de premières données représentatives de coordonnées d’un ensemble de points (11) représentatifs d’un objet détecté dans un environnement (1) dudit véhicule autonome (10) à partir de données obtenues dudit au moins un capteur (101) de détection d’objet ;
    - réception (32) de deuxièmes données représentatives de localisation de chaque dispositif de communication mobile (12) d’un ensemble de dispositifs de communication mobile comprenant au moins un dispositif de communication mobile dans ledit environnement ;
    - détermination de présence ou d’absence de dispositif de communication mobile dudit ensemble de dispositifs de communication mobile dans ledit ensemble de points (11) en fonction d’un résultat d’une comparaison entre lesdites premières données et lesdites deuxièmes données ;
    - détermination (33) d’un type dudit objet à partir desdites premières données et d’un résultat de ladite détermination de présence ou d’absence ;
    - contrôle (34) dudit véhicule autonome (10) en fonction du type dudit objet.
  2. Procédé selon la revendication 1, comprenant en outre une étape de détermination d’un nombre de dispositifs de communication mobile (12) présents dans ledit ensemble de points (11) en fonction du résultat de ladite comparaison, ladite détermination du type dudit objet étant fonction du nombre de dispositifs de communication mobile présents dans ledit ensemble de points.
  3. Procédé selon l’une des revendications 1 à 2, comprenant en outre une étape de détermination d’une forme d’une enveloppe extérieure dudit ensemble de points (11), ladite détermination du type dudit objet étant fonction de ladite forme.
  4. Procédé selon l’une des revendications 1 à 3, pour lequel lesdites deuxièmes données sont reçues selon un mode de communication piéton à véhicule, dit P2V.
  5. Procédé selon l’une des revendications 1 à 4, pour lequel ledit au moins un capteur de détection d’objet correspond à un radar, un LIDAR ou une caméra.
  6. Programme d’ordinateur comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur.
  7. Dispositif (2) de contrôle d’un véhicule autonome, ledit dispositif (2) comprenant une mémoire (21) associée à au moins un processeur (20) configuré pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 1 à 5.
  8. Véhicule (10) comprenant le dispositif (2) selon la revendication 7.
FR2202187A 2022-03-14 2022-03-14 Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile Pending FR3133357A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2202187A FR3133357A1 (fr) 2022-03-14 2022-03-14 Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2202187 2022-03-14
FR2202187A FR3133357A1 (fr) 2022-03-14 2022-03-14 Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile

Publications (1)

Publication Number Publication Date
FR3133357A1 true FR3133357A1 (fr) 2023-09-15

Family

ID=81648782

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2202187A Pending FR3133357A1 (fr) 2022-03-14 2022-03-14 Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile

Country Status (1)

Country Link
FR (1) FR3133357A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199941A1 (fr) * 2017-04-26 2018-11-01 The Charles Stark Draper Laboratory, Inc. Amélioration de la perception de véhicule autonome à l'aide de données collectées hors véhicule
US10771921B2 (en) 2015-12-18 2020-09-08 Panasonic Intellectual Property Management Co., Ltd. Pedestrian terminal device, vehicle-mounted terminal device, pedestrian-to-vehicle communication control device, pedestrian-to-vehicle communication system, and pedestrian-to-vehicle communication method
US20210365038A1 (en) * 2019-02-19 2021-11-25 SZ DJI Technology Co., Ltd. Local sensing based autonomous navigation, and associated systems and methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10771921B2 (en) 2015-12-18 2020-09-08 Panasonic Intellectual Property Management Co., Ltd. Pedestrian terminal device, vehicle-mounted terminal device, pedestrian-to-vehicle communication control device, pedestrian-to-vehicle communication system, and pedestrian-to-vehicle communication method
WO2018199941A1 (fr) * 2017-04-26 2018-11-01 The Charles Stark Draper Laboratory, Inc. Amélioration de la perception de véhicule autonome à l'aide de données collectées hors véhicule
US20210365038A1 (en) * 2019-02-19 2021-11-25 SZ DJI Technology Co., Ltd. Local sensing based autonomous navigation, and associated systems and methods

Similar Documents

Publication Publication Date Title
FR3118616A1 (fr) Procédé et dispositif d’alerte anticollision et/ou de freinage d’urgence
FR3103437A1 (fr) Procédé et dispositif de détermination de consigne pour véhicule
WO2022258896A1 (fr) Procédé et dispositif de désactivation de système d'aide à la conduite
WO2022152986A1 (fr) Procédé et dispositif de suivi de trajectoire d'un véhicule circulant sur une voie de circulation
FR3133357A1 (fr) Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile
FR3119817A1 (fr) Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR3106553A1 (fr) Procédé et dispositif de traitement de données d’environnement de véhicule
FR3133814A1 (fr) Procédé et dispositif de contrôle d’un véhicule autonome sur la base de la localisation d’un dispositif de communication mobile sur le chemin du véhicule autonome
FR3107873A1 (fr) Procédé et dispositif de contrôle d’un véhicule dans une zone météorologique à risque
FR3118824A1 (fr) Procédé et dispositif de reprise en main par un conducteur d’un véhicule autonome circulant dans un tunnel
FR3107114A1 (fr) Procédé et dispositif de validation de données de cartographie d’un environnement routier de véhicule
WO2024115827A1 (fr) Procédé et dispositif de contrôle d'un système d'aide à la conduite dans un environnement comportant un croisement
EP4090565B1 (fr) Procédé et dispositif de contrôle d'un vehicule
WO2022229534A1 (fr) Procédé et dispositif de contrôle d'un système d'arrêt-démarrage automatique de moteur dans un groupement de véhicules par peloton
FR3137352A1 (fr) Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule circulant dans un environnement routier comprenant une intersection
FR3137781A1 (fr) Procédé et dispositif de détermination d’une largeur d’une voie latérale adjacente à une voie de circulation
FR3132896A1 (fr) Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule dans un environnement routier comportant une fusion de voies
FR3129911A1 (fr) Procédé et dispositif de contrôle d’un système d’aide à la conduite
FR3118746A1 (fr) Procédé et dispositif d’aide à la conduite d’un véhicule circulant sur une chaussée comprenant plusieurs voies de circulation
FR3130228A1 (fr) Procédé et dispositif de contrôle d’un système de changement de voie automatique
FR3135814A1 (fr) Procédé et dispositif de contrôle d’un système de régulation de vitesse d’un véhicule en approche d’un élément de signalisation routière
FR3133816A1 (fr) Procédé et dispositif de détermination d’instructions de contrôle pour véhicule en fonction de l’éblouissement d’une caméra du véhicule par le soleil
FR3140452A1 (fr) Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule en fonction d’une hauteur d’un bord de voie
FR3133002A1 (fr) Procédé et dispositif de communication de données de perception d’environnement pour véhicule
FR3141424A1 (fr) Procédé et dispositif de contrôle de gestion des messages d’alertes pour un système de régulation adaptative de vitesse d’un véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230915

PLFP Fee payment

Year of fee payment: 3

CD Change of name or company name

Owner name: STELLANTIS AUTO SAS, FR

Effective date: 20240423