FR3095063A1 - Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager, véhicule automobile autonome et programme d’ordinateur associés - Google Patents
Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager, véhicule automobile autonome et programme d’ordinateur associés Download PDFInfo
- Publication number
- FR3095063A1 FR3095063A1 FR1903847A FR1903847A FR3095063A1 FR 3095063 A1 FR3095063 A1 FR 3095063A1 FR 1903847 A FR1903847 A FR 1903847A FR 1903847 A FR1903847 A FR 1903847A FR 3095063 A1 FR3095063 A1 FR 3095063A1
- Authority
- FR
- France
- Prior art keywords
- vehicle
- gesture
- user
- boarding
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager , véhicule automobile autonome et programme d’ordinateur associés Ce dispositif électronique (20) de pilotage d’un véhicule automobile autonome (10) est propre à être relié à au moins un capteur (22) et comprend un module de détection (30) configuré pour détecter, via ledit au moins un capteur (22), un usager (32) se trouvant à l’intérieur d’une zone de détection (A). Ce dispositif électronique de pilotage (20) comprend en outre un module d’identification (34) configuré pour identifier, via ledit au moins un capteur (22), une gestuelle (36) de l’usager (32) détecté ; et un module de commande (38) configuré pour commander une action du véhicule (10) en fonction de la gestuelle (36) identifiée. Figure pour l'abrégé : Figure 1
Description
La présente invention concerne un dispositif électronique de pilotage d’un véhicule automobile autonome, le dispositif étant propre à être relié à au moins un capteur.
L’invention se rapporte également à un véhicule automobile autonome comprenant un tel dispositif électronique de pilotage.
L’invention concerne aussi un procédé de pilotage d’un véhicule automobile autonome, le procédé étant mis en œuvre par un tel dispositif électronique de pilotage.
L’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un tel procédé de pilotage.
L’invention concerne le domaine du pilotage automatique des véhicules automobiles autonomes, notamment dans le cadre d’un système de transport comprenant une flotte de véhicules automobiles autonomes.
Avec les systèmes de transport actuels comprenant chacun une flotte de véhicules automobiles autonomes, on connaît une application logicielle pour ordiphone (de l’anglaissmartphone) permettant à un usager d’indiquer qu’il souhaite monter à bord du prochain véhicule qui arrivera à la zone d’embarquement pour la destination souhaitée.
Avec les systèmes de transport actuels, pour indiquer qu’il souhaite monter à bord du prochain véhicule pour sa destination qui arrivera à la zone d’embarquement, et pour réserver alors une place dans ce prochain véhicule, l’usager peut aussi utiliser un dispositif électronique d’appel, disposé dans la zone d’embarquement.
Lorsque l’usager exécute l’application logicielle pour ordiphone ou active le dispositif d’appel, celle-ci ou celui-ci envoie alors un message à destination d’un équipement électronique de supervision de la flotte de véhicules automobiles autonomes, afin que l’équipement de supervision détermine le prochain véhicule dans lequel l’usager pourra monter, et effectue alors la réservation de ce véhicule pour l’usager.
Toutefois, une telle application logicielle pour ordiphone ou un tel dispositif d’appel ne sont parfois pas facilement accessibles pour l’usager, l’usager n’ayant pas nécessairement un ordiphone à sa disposition, ou bien n’ayant pas téléchargé l’application logicielle correspondante, ou encore ne se trouvant pas nécessairement à proximité du dispositif d’appel.
Le but de l’invention est alors de proposer un dispositif de pilotage d’un véhicule automobile autonome permettant de simplifier pour un usager l’utilisation du véhicule autonome.
A cet effet, l’invention a pour objet un dispositif électronique de pilotage d’un véhicule automobile autonome, le dispositif étant propre à être relié à au moins un capteur et comprenant :
- un module de détection configuré pour détecter, via ledit au moins un capteur, un usager se trouvant à l’intérieur d’une zone de détection ;
- un module d’identification configuré pour identifier, via ledit au moins un capteur, une gestuelle de l’usager détecté ; et
- un module de commande configuré pour commander une action du véhicule en fonction de la gestuelle identifiée.
Ainsi, avec le dispositif de pilotage selon l’invention, le module d’identification permet d’identifier une gestuelle d’un usager respectif détecté à l’intérieur de la zone de détection, puis le module de commande permet de commander simplement une action du véhicule en fonction de la gestuelle identifiée, le module de commande étant configuré pour calculer des instructions de pilotage correspondant à ladite action.
L’action commandée est par exemple un arrêt du véhicule ou une prolongation d’une phase d’embarquement à bord du véhicule lorsque l’usager souhaite monter à bord dudit véhicule, ou encore une poursuite de mouvement du véhicule lorsque l’usager indique au contraire qu’il ne veut pas monter à bord de ce véhicule. Ainsi, si la gestuelle identifiée est une gestuelle de montée à bord du véhicule, alors l’action commandée est l’arrêt ou la prolongation de la phase d’embarquement à bord du véhicule. Inversement, si la gestuelle identifiée est une gestuelle d’absence de montée à bord du véhicule, c’est-à-dire une gestuelle de refus de monter à bord du véhicule ou encore une gestuelle de non-montée à bord du véhicule, alors l’action commandée est la poursuite de mouvement du véhicule.
Le dispositif de pilotage selon l’invention permet alors de fluidifier l’intégration des véhicules automobiles autonomes dans les habitudes des usagers, de simplifier leur utilisation et d’offrir une solution permettant de répondre à leurs attentes.
Suivant d’autres aspects avantageux de l’invention, le dispositif électronique de pilotage comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- la gestuelle est une gestuelle de montée à bord du véhicule ou une gestuelle d’absence de montée à bord du véhicule ;
- si la gestuelle identifiée est une gestuelle de montée à bord, alors l’action commandée est un arrêt du véhicule ou une prolongation d’une phase d’embarquement à bord du véhicule ; et
si la gestuelle identifiée est une gestuelle d’absence de montée à bord, alors l’action commandée est une poursuite de mouvement du véhicule ;
- le module de commande est en outre configuré pour commander l’arrêt du véhicule seulement si un ensemble de condition(s) d’arrêt est rempli, respectivement pour commander la prolongation de la phase d’embarquement à bord du véhicule seulement si un ensemble de condition(s) de prolongation est rempli ;
l’ensemble de condition(s) d’arrêt comportant de préférence une capacité du véhicule à recevoir l’usager et une distance suffisante entre une position du véhicule et une zone d’embarquement de l’usager pour l’arrêt du véhicule ;
l’ensemble de condition(s) de prolongation comportant de préférence une capacité du véhicule à recevoir l’usager, une vitesse du véhicule inférieure à un seuil prédéfini de vitesse maximale et une distance entre le véhicule et une zone d’embarquement de l’usager inférieure à un seuil prédéfini de distance maximale ;
- le dispositif comprend en outre un module d’émission configuré pour émettre au moins un signal de réponse via le véhicule et suite à l’identification de la gestuelle ;
chaque signal de réponse émis étant de préférence choisi parmi le groupe consistant en : un signal lumineux, un signal sonore et un message affiché sur un écran ;
- le module d’identification est en outre configuré pour effectuer le suivi de l’usager détecté, notamment tant que l’usager détecté se trouve à l’intérieur de la zone de détection ;
- le module de détection est en outre configuré pour calculer un premier indice de confiance associé à la détection de l’usager, le module d’identification étant alors configuré pour identifier la gestuelle de l’usager détecté seulement si le premier indice de confiance calculé pour la détection dudit usager est supérieur à un premier seuil ;
- le module d’identification est en outre configuré pour calculer un deuxième indice de confiance pour l’identification de la gestuelle, le module de commande étant alors configuré pour commander l’action du véhicule en fonction de la gestuelle identifiée seulement si le deuxième indice de confiance calculé pour l’identification de ladite gestuelle est supérieur à un deuxième seuil ;
- un type de la gestuelle est choisi parmi le groupe consistant en : une gestuelle d’au moins un bras, une gestuelle d’au moins une main et un déplacement rapide de l’usager ;
- chaque capteur est choisi parmi le groupe consistant en : un capteur d’image(s), un lidar, un leddar ;
- le module de détection est configuré pour détecter l’usager via un algorithme d’apprentissage automatique, tel qu’un algorithme basé sur un réseau de neurones, un algorithme basé sur une machine à vecteurs de support, ou un algorithme basé sur un modèle à parties déformables ;
- le module d’identification est configuré pour identifier la gestuelle via un algorithme d’apprentissage automatique, tel qu’un algorithme basé sur un réseau de neurones, un algorithme basé sur une machine à vecteurs de support, ou un algorithme basé sur un modèle à parties déformables ; et
- la zone de détection comporte une zone d’embarquement et/ou un voisinage du véhicule.
L’invention a également pour objet un véhicule automobile autonome comprenant un dispositif électronique de pilotage, le dispositif de pilotage étant tel que défini ci-dessus.
L’invention a également pour objet un procédé de pilotage d’un véhicule automobile autonome, le procédé étant mis en œuvre par un dispositif électronique de pilotage, propre à être relié à au moins un capteur, le procédé comprenant l’étape consistant à :
- détecter, via ledit au moins un capteur, un usager se trouvant à l’intérieur d’une zone de détection ;
- identifier, via ledit au moins un capteur, une gestuelle de l’usager détecté ; et
- commander une action du véhicule en fonction de la gestuelle identifiée.
L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé de pilotage tel que défini ci-dessus.
Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :
Dans la suite de la description, l’expression « sensiblement égal(e) à » définit typiquement une relation d’égalité à plus ou moins 10%, de préférence à plus ou moins 5%. Par analogie, l’expression « sensiblement inférieur(e) à » ou « sensiblement supérieur(e) à » désigne typiquement une relation d’inégalité où la valeur de référence est définie à plus ou moins 10%, de préférence à plus ou moins 5%.
Sur la figure 1, un véhicule automobile autonome 10 est par exemple un véhicule de transport en commun, tel qu’un bus ou un taxi, configuré pour se déplacer sur une route. Le véhicule 10 comprend, de manière connue, des roues arrière 12, des roues avant 14, un moteur 16 relié mécaniquement via une chaîne de transmission (non représentée) aux roues arrière 12 et/ou avant 14 pour l’entraînement desdites roues 12, 14 en rotation autour de leur axe, un système de direction (non représenté), adapté pour agir sur les roues 12 et/ou 14 du véhicule 10 de manière à modifier l’orientation de sa trajectoire, et un système de freinage (non représenté), adapté pour exercer une force de freinage sur les roues 12, 14 du véhicule 10.
Le véhicule 10 est typiquement constitué par un véhicule à traction et/ou propulsion, électrique. A cet effet, le moteur 16 est constitué par un moteur électrique, et le véhicule 10 comprend une batterie électrique (non représentée) raccordée électriquement au moteur 16 pour l’alimentation du moteur 16 en électricité. En variante, le véhicule 10 est un véhicule à traction et/ou propulsion thermique, et le moteur 16 est alors un moteur thermique.
En complément, le véhicule automobile autonome 10 comprend un dispositif électronique de conduite autonome 18 adapté pour piloter le véhicule 10 de manière autonome en recevant des informations sur l’environnement du véhicule 10 par l’intermédiaire de capteurs d’environnement (non représentés) et en agissant sur le moteur 16, le système de direction et le système de freinage, de manière à modifier la vitesse, l’accélération et la trajectoire du véhicule 10 en réaction aux informations reçues.
Le véhicule 10 automobile autonome présente de préférence un niveau d’automatisation supérieur ou égal à 3 selon le barème de l’Organisation Internationale des Constructeurs Automobiles (OICA). Le niveau d’automatisation est alors égal à 3, c’est-à-dire une automatisation conditionnelle (de l’anglaisConditional Automation), ou égal à 4, c’est-à-dire une automatisation élevée (de l’anglaisHigh Automation), ou encore égal à 5, c’est-à-dire une automatisation complète (de l’anglaisFull Automation).
Selon le barème de l’OICA, le niveau 3 d’automatisation conditionnelle correspond à un niveau pour lequel le conducteur n’a pas besoin de surveiller en permanence la conduite dynamique, ni l’environnement de conduite, tout en devant toujours être en mesure de reprendre le contrôle du véhicule 10 automobile autonome. Selon ce niveau 3, un système de gestion de la conduite autonome, embarqué à bord du véhicule 10 automobile autonome, effectue alors la conduite longitudinale et latérale dans un cas d’utilisation défini et est apte à reconnaître ses limites de performance pour demander alors au conducteur de reprendre la conduite dynamique avec une marge de temps suffisante.
Le niveau 4 d’automatisation élevée correspond à un niveau pour lequel le conducteur n’est pas requis dans un cas d’utilisation défini. Selon ce niveau 4, le système de gestion de la conduite autonome, embarquée à bord du véhicule 10 automobile autonome, exécute alors la conduite dynamique latérale et longitudinale dans toutes les situations de ce cas d’utilisation défini.
Le niveau 5 d’automatisation complète correspond enfin à un niveau pour lequel le système de gestion de la conduite autonome, embarqué à bord du véhicule 10 automobile autonome, effectue la conduite dynamique latérale et longitudinale dans toutes les situations rencontrées par le véhicule 10 automobile autonome, pendant tout son trajet. Aucun conducteur n’est alors requis.
Le véhicule 10 comprend également un dispositif électronique de pilotage 20, propre à être relié à au moins un capteur 22.
Le dispositif électronique de pilotage 20 est configuré pour piloter le véhicule 10, c’est-à-dire pour agir sur le comportement du véhicule 10, en particulier pour commander une action du véhicule, telle qu’un arrêt du véhicule, une prolongation d’une phase d’embarquement de passager(s) à bord du véhicule, ou encore une poursuite de mouvement du véhicule.
Le dispositif électronique de pilotage 20 comprend un module 30 de détection, via ledit au moins un capteur 22, d’un usager 32 se trouvant à l’intérieur d’une zone de détection A, comme représenté sur la figure 1.
Le dispositif électronique de pilotage 20 comprend un module 34 d’identification, via ledit au moins un capteur 22, d’une gestuelle 36 de l’usager 32 détecté, et un module 38 de commande d’une action du véhicule 10 en fonction de la gestuelle 36 identifiée.
En complément facultatif, Le dispositif électronique de pilotage 20 comprend un module 40 d’émission d’au moins un signal de réponse via le véhicule et suite à l’identification de la gestuelle 36.
Dans l’exemple de la figure 1, le dispositif électronique de pilotage 20 comprend une unité de traitement d’informations 42 formée par exemple d’une mémoire 44 et d’un processeur 46 associé à la mémoire 44.
Dans l’exemple de la figure 1, le module de détection 30, le module d’identification 34 et le module commande 38, ainsi qu’en complément facultatif le module d’émission 40, sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutable par le processeur 46. La mémoire 44 du dispositif électronique de pilotage 20 est alors apte à stocker un logiciel de détection configuré pour détecter, via ledit au moins un capteur 22, l’usager 34 se trouvant à l’intérieur de la zone de détection A, un logiciel d’identification configuré pour identifier, via ledit au moins un capteur 22, la gestuelle 36 de l’usager 32 détecté, et un logiciel de commande configuré pour commander une action du véhicule en fonction de la gestuelle 36 identifiée. En complément facultatif, la mémoire 44 est également apte à stocker un logiciel d’émission configuré pour émettre au moins un signal de réponse via le véhicule et suite à l’identification de la gestuelle. Le processeur 46 est alors apte à exécuter chacun des logiciels parmi le logiciel de détection, le logiciel d’identification et le logiciel de commande, ainsi qu’en complément facultatif le logiciel d’émission.
En variante non représentée, le module de détection 30, le module d’identification 34 et le module commande 38, ainsi qu’en complément facultatif le module d’émission 40, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglaisField Programmable Gate Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglaisApplication Specific integrated Circuit), un GPU (de l’anglaisGraphics Processing Unit), un GPGPU (de l’anglaisG eneral- P urpose computing on G raphics Processing U nits).
Lorsque le dispositif électronique de pilotage 20 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple, un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non-volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou encore une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comportant des instructions logicielles.
Chaque capteur 22 est de préférence embarqué à bord du véhicule 10 et est apte à être relié au dispositif électronique de pilotage 20.
Chaque capteur 22 est un capteur d’image(s), tel qu’une caméra, un lidar (de l’anglaislight detection and ranging), ou encore un leddar (de l’anglaislight emitting diode detection and ranging). La caméra est par exemple un caméra 2D, une caméra stéréoscopique, ou encore une caméra 3D.
Chaque capteur 22 est connu en soi, et est orienté vers l’extérieur du véhicule 10, en direction de la zone de détection A, afin de détecter chaque usager 32 se trouvant à l’intérieur de cette zone de détection A.
Chaque capteur 22 est apte à prendre au moins une image de la zone de détection A. Le capteur 22 étant un capteur d’image(s), tel qu’une caméra, un lidar, ou encore un leddar, l’homme du métier comprendra que l’image s’entend au sens large comme une mesure de la zone de détection A effectuée par le capteur 22, qu’il s’agisse d’une image ou succession d’images (au sens strict du terme) prise(s) par le capteur d’image(s), ou encore un ensemble de point(s) de mesure de type lidar ou leddar relatif à la zone de détection A.
En complément facultatif, au moins un capteur 22 est un capteur installé en voirie, par exemple fixé à un mât vertical, ou encore à un bâtiment, un tel capteur 22 étant alors appelé capteur d’infrastructure. Le capteur d’infrastructure est de même type que le capteur embarqué à bord du véhicule 10, et est un capteur d’image(s), un lidar, ou encore un leddar. Le capteur d’infrastructure permet alors d’améliorer la détection d’usager(s) 32 se trouvant à l’intérieur de la zone de détection A, en prenant des images supplémentaires de la zone de détection A, de préférence avec un axe de prise de vue, distinct de celui du ou des capteurs 22 embarqués à bord du véhicule 10.
Selon ce complément facultatif, le capteur d’infrastructure est apte à être relié au dispositif électronique de pilotage 20 via un équipement électronique distant, tel qu’un équipement électronique de supervision apte à superviser à distance, voire à contrôler à distance, une flotte de véhicule(s) automobile(s) 10, l’équipement de supervision étant également appelé PCC (de l’acronyme Poste de Commande Central).
La zone de détection A comporte une zone d’embarquement et/ou un voisinage du véhicule 10.
La zone d’embarquement est connue en soi, et est par exemple une zone délimitée par un marquage au sol, un quai de bus, une zone de chargement de taxi, ou encore une infrastructure dédiée de transport en commun.
Le voisinage du véhicule 10 est par exemple une zone située à une distance du véhicule 10 qui est inférieure à une distance maximale prédéfinie, tout en étant en dehors de la ou des voies de circulation du véhicule 10. La distance maximale prédéfinie est par exemple comprise entre 10 mètres et 100 mètres, de préférence comprise entre 20 mètres et 80 mètres, de préférence encore sensiblement égale à 50 mètres, et ledit voisinage correspond alors à la zone en dehors de la ou des voies de circulation et située à moins de cette distance maximale du véhicule 10.
Le module de détection 30 est configuré pour détecter, via ledit au moins un capteur 22, chaque usager 32 se trouvant à l’intérieur de la zone de détection A. Le module de détection 30 est par exemple configuré pour détecter chaque usager 32 via un algorithme d’apprentissage automatique. L’algorithme d’apprentissage automatique est typiquement un algorithme basé sur un réseau de neurones, un algorithme basé sur une machine à vecteurs de support, également notée SVM (de l’anglaisSupport Vector Machine), c’est-à-dire un algorithme basé sur des séparateurs à vastes marges, ou encore un algorithme basé sur un modèle à parties déformables (de l’anglaisDeformable Parts Models ). L’algorithme d’apprentissage automatique est de préférence supervisé, le but de l’algorithme étant de détecter l’usager 32.
Le module de détection 30 est alors configuré pour surveiller la zone de détection A pour acquérir au moins une image de la zone de détection A, de la part de chaque capteur 22, et pour appliquer l’algorithme d’apprentissage automatique à la ou aux images de la zone de détection A acquises, afin de détecter chaque usager 32 se trouvant à l’intérieur de cette zone de détection A.
En complément facultatif, le module de détection 30 est en outre configuré pour calculer un premier indice de confiance associé à la détection de l’usager 32.
En complément facultatif, le module de détection 30 est en outre configuré pour déterminer une ou plusieurs caractéristiques relatives à l’usager 32 ou aux usagers 32, permettant ensuite de faciliter l’identification d’une éventuelle gestuelle 36. Ces caractéristiques sont par exemple une estimation du nombre de personnes à l’intérieur de la zone de détection A, la présence d’un fauteuil roulant, d’une personne avec une canne, ou encore d’un enfant, c’est-à-dire plus généralement d’une personne à mobilité réduite (PMR) ou d’un enfant.
Le module d’identification 34 configuré pour identifier, via ledit au moins un capteur 22, une gestuelle 36 de l’usager 32 détecté. Le module d’identification 34 est par exemple configuré pour identifier la gestuelle via un algorithme d’apprentissage automatique. L’algorithme d’apprentissage automatique est par exemple du même type que celui utilisé pour détecter le ou les usagers 32 à l’intérieur de la zone de détection A.
En complément facultatif, le module d’identification 34 est en outre configuré pour effectuer le suivi de l’usager 32 détecté, notamment tant que l’usager 32 détecté se trouve à l’intérieur de la zone de détection A.
Lorsqu’en complément facultatif, le module de détection 30 est configuré pour calculer le premier indice de confiance associé à la détection de l’usager 32, le module d’identification 34 étant alors de préférence configuré pour identifier la gestuelle 36 de l’usager 32 détecté seulement si le premier indice de confiance calculé pour la détection dudit usager 32 est supérieur à un premier seuil, typiquement prédéfini.
En complément facultatif encore, le module d’identification 34 est en outre configuré pour calculer un deuxième indice de confiance pour l’identification de la gestuelle 36, le module de commande 38 étant alors configuré pour commander l’action du véhicule 10 en fonction de la gestuelle 36 identifiée seulement si le deuxième indice de confiance calculé pour l’identification de ladite gestuelle 36 est supérieur à un deuxième seuil, typiquement prédéfini.
La gestuelle 36 identifiée par le module d’identification 34 est une gestuelle 36A de montée à bord du véhicule 10 ou bien une gestuelle 36B d’absence de montée à bord du véhicule 10.
Un type de la gestuelle 36 est choisi parmi le groupe consistant en : une gestuelle d’au moins un bras, une gestuelle d’au moins une main et un déplacement rapide de l’usager.
Sur la figure 2, quelques exemples de gestuelle de montée à bord 36A sont illustrés. Dans l’exemple en haut et à gauche de la figure 2, la gestuelle de montée à bord 36A consiste à lever un ou les bras, tout en ne les croisant pas, la gestuelle avec les bras en croix étant une gestuelle d’absence de montée à bord 36B, comme cela sera décrit ci-après en regard de la figure 3. Dans l’exemple en haut et à droite de la figure 2, la gestuelle de montée à bord 36A consiste à agiter un ou les bras, par exemple selon les flèches F1, tout en ne les croisant pas. Dans l’exemple en bas et à gauche de la figure 2, la gestuelle de montée à bord 36A consiste à avoir un bras en avant. Un autre exemple, non représenté, de gestuelle de montée à bord 36A est une position statique ou encore un déplacement à vitesse faible de l’usager 32 à l’intérieur de la zone d’embarquement. Un autre exemple encore, non représenté, de gestuelle de montée à bord 36A est un déplacement rapide de l’usager 32 à l’intérieur du voisinage surveillé par le ou les capteurs 22 et en direction de la zone d’embarquement. Par déplacement à faible vitesse, on entend par exemple un déplacement à une vitesse sensiblement inférieure à 1 m/s. Par déplacement rapide, on entend par exemple un déplacement à une vitesse sensiblement supérieure à 1,5 m/s.
Dans l’exemple de la figure 3, une gestuelle d’absence de montée à bord 36B consiste à croiser les bras, tout en ayant les bras levés ou devant soi en variante.
Le module de commande 38 est configuré pour commander une action du véhicule 10 en fonction de la gestuelle 36 identifiée. L’action commandée est par exemple transmise au dispositif électronique de conduite autonome 18 par le module de commande 38.
Si la gestuelle 36 identifiée est une gestuelle de montée à bord 36A, alors l’action commandée est un arrêt du véhicule 10 ou une prolongation d’une phase d’embarquement de passager(s), tel(s) que l’usager 32, à bord du véhicule 10.
Si la gestuelle 36 identifiée est au contraire une gestuelle d’absence de montée à bord 36B, alors l’action commandée est une poursuite de mouvement du véhicule 10. L’homme du métier comprendra alors que même si un usager 32 indique qu’il ne veut pas monter à bord du véhicule 10 et donc que la gestuelle 36 identifiée est une gestuelle d’absence de montée à bord 36B, alors le véhicule 10 peut quand même s’arrêter s’il a reçu par ailleurs une instruction d’arrêt, notamment si un passager à l’intérieur du véhicule 10 a demandé un arrêt et/ou si d’autres usagers sur le quai ont demandé l’arrêt du véhicule 10.
Autrement dit, l’homme du métier comprendra que la commande par le module de commande 38 d’une poursuite de mouvement du véhicule 10 n’entrainera pas nécessairement une poursuite effective du mouvement du véhicule, une telle commande étant moins prioritaire qu’une commande d’arrêt émise par ailleurs. En revanche, la commande par le module de commande 38 d’un arrêt du véhicule 10 ou d’une prolongation d’une phase d’embarquement à bord du véhicule 10 provoquera bien l’arrêt ou la prolongation de la phase d’embarquement à bord du véhicule 10, même si une commande de poursuite de mouvement a été émise par ailleurs.
L’homme du métier observera en outre que lorsqu’un même usager 32 effectue successivement deux gestuelles 36 contradictoires, par exemple une gestuelle de montée à bord 36A suivie d’une gestuelle d’absence de montée à bord 36B, ou inversement une gestuelle d’absence de montée à bord 36B suivie d’une gestuelle de montée à bord 36A, alors le module de commande 38 est configuré pour commander l’action du véhicule 10 en fonction de la dernière gestuelle 36 identifiée. Autrement dit, la dernière gestuelle 36 effectuée par un usager 32 annule une gestuelle 36 précédemment effectuée par le même usager 32.
En complément facultatif, en cas d’incohérence de la part de l’usager 32, typiquement à partir de deux suites de gestuelles 36 contradictoires - par exemple une gestuelle de montée à bord 36A suivie d’une gestuelle d’absence de montée à bord 36B, suivie à nouveau d’une gestuelle de montée à bord 36A et d’une gestuelle d’absence de montée à bord 36B - le module de commande 38 est configuré pour commander l’arrêt du véhicule 10, ceci afin d’éviter davantage d’hésitations.
Le dispositif de pilotage 10 est apte à déterminer que des gestuelles 36 ont été effectuées par un même usager 32, de par le suivi de l’usager 32 détecté apte à être effectué par le module d’identification 34, notamment tant que l’usager 32 détecté se trouve à l’intérieur de la zone de détection A.
En complément facultatif, le module de commande 38 est en outre configuré pour commander l’arrêt du véhicule 10 seulement si un ensemble de conditions d’arrêt est rempli, respectivement pour commander la prolongation de la phase d’embarquement à bord du véhicule 10 seulement si un ensemble de conditions de prolongation est rempli.
L’ensemble de conditions d’arrêt comporte par exemple une capacité du véhicule 10 à recevoir l’usager 32, c’est-à-dire qu’il doit rester au moins une place libre à l’intérieur du véhicule 10 pour accueillir ledit usager 32 ; et une distance suffisante entre une position du véhicule 10 et une zone d’embarquement de l’usager 32 pour l’arrêt du véhicule 10, c’est-à-dire que le véhicule 10 doit pouvoir être en capacité de décélérer suffisamment compte tenu de ses position et vitesse courantes afin de s’arrêter en regard de la zone d’embarquement.
L’ensemble de conditions de prolongation comporte de préférence une capacité du véhicule 10 à recevoir l’usager 32 c’est-à-dire qu’il doit rester au moins une place libre à l’intérieur du véhicule 10 pour accueillir ledit usager 32 ; une vitesse du véhicule 10 inférieure à un seuil prédéfini de vitesse maximale et une distance entre le véhicule 10 et une zone d’embarquement de l’usager 32 inférieure à un seuil prédéfini de distance maximale. Le seuil prédéfini de vitesse maximale est par exemple sensiblement égal à 5 km/h. Le seuil prédéfini de distance maximale est par exemple sensiblement égal à 1 mètre.
En complément facultatif, l’ensemble de conditions de prolongation comporte en outre le non-dépassement d’une temporisation maximale. Cette condition supplémentaire permet d’éviter que le véhicule 10 reste trop longtemps à l’arrêt ou que la phase d’embarquement à bord soit prolongée pour une durée dépassant ladite temporisation maximale, ceci afin d’assurer une continuité de service satisfaisante pour l’ensemble des usagers 32. La temporisation maximale est par exemple sensiblement égale à 2 minutes, la temporisation étant lancée à compter de l’arrêt initial du véhicule 10 en regard de la zone d’embarquement.
En complément facultatif encore, l’ensemble de conditions d’arrêt et l’ensemble de conditions de prolongation comportent en outre chacun la position de l’usager 32 située à une distance du véhicule 10 inférieure à un deuxième seuil prédéfini de distance maximale. Ceci permet d’éviter qu’un usager 32 se trouvant en une position trop éloignée du véhicule 10 et/ou de la zone d’embarquement soit pris en compte par le dispositif de pilotage 20 et entraine ensuite un retard trop important du véhicule 10, notamment vis-à-vis de la continuité du service. Le deuxième seuil prédéfini de distance maximale est par exemple sensiblement égal à 50 mètres.
Le module d’émission 40 est configuré pour émettre au moins un signal de réponse via le véhicule 10 et suite à l’identification de la gestuelle 36.
Chaque signal de réponse émis est de préférence choisi parmi le groupe consistant en : un signal lumineux, un signal sonore et un message affiché sur un écran.
Le signal lumineux est par exemple un clignotement du ou des clignotants avant du véhicule 10, un appel de phare, un signal émis par un bandeau de diodes électroluminescentes, ou bandeau LED, situé de préférence à proximité du pare-brise, un tel bandeau permettant d’afficher une couleur spécifique ou encore de jouer une séquence lumineuse prédéfinie.
Le signal sonore est par exemple un coup de klaxon, ou encore un message, de préférence préenregistré, émis sur un haut-parleur extérieur au véhicule 10.
Le message affiché sur l’écran, telle qu’une girouette, est par exemple choisi parmi le groupe de messages suivant : « Je m’arrête » ; « Ce n’est pas clair » ; « Souhaitez-vous monter ? » ; « Je ne dessers pas cet arrêt » ; « Véhicule déjà complet », etc. La girouette est un écran d’affichage se trouvant généralement au-dessus, voire en-dessous, du pare-brise à l’avant du véhicule 10. La girouette permet typiquement d’afficher un message, notamment de manière déroulante lorsque la longueur du message est supérieure au nombre maximal de caractères affichables, ce nombre maximal dépendant de la largeur de la girouette.
Le fonctionnement du dispositif électronique de pilotage 20 selon l’invention va désormais être expliqué à l’aide de la figure 4 représentant un organigramme du procédé, selon l’invention, de pilotage du véhicule automobile autonome 10, le procédé étant mis en œuvre par ledit dispositif de pilotage 20.
Lors d’une étape initiale 100, le dispositif électronique de pilotage 20 détecte, via son module de détection 30 et ledit au moins un capteur 22, au moins un usager 32 se trouvant à l’intérieur de la zone de détection A.
Lors de l’étape suivante 110, le dispositif de pilotage 20 identifie, via son module d’identification 34 et ledit au moins un capteur 22, une gestuelle 36 de l’usager 32 détecté.
Le dispositif de pilotage 20 commande ensuite, lors de l’étape 120 et via son module de commande 38, une action du véhicule 10 en fonction de la gestuelle 36 identifiée.
Si la gestuelle 36 identifiée est une gestuelle de montée à bord 36A, telle que l’une des gestuelles 36A visibles à la figure 2, alors le dispositif de pilotage 20 commande l’arrêt du véhicule 10 ou respectivement la prolongation d’une phase d’embarquement à bord du véhicule 10, de préférence sous réserve que l’ensemble de condition(s) d’arrêt ou respectivement l’ensemble de condition(s) de prolongation soit rempli.
Si la gestuelle 36 identifiée est au contraire une gestuelle d’absence de montée à bord 36B, alors l’action commandée est la poursuite de mouvement du véhicule 10, sous réserve que l’arrêt du véhicule 10 n’ait pas été commandé par ailleurs.
En complément facultatif, le dispositif de pilotage 20 émet enfin, lors de l’étape 130 et via son module d’émission 40, au moins un signal de réponse et suite à l’identification de la gestuelle 36, ce signal de réponse étant typiquement émis à destination de l’usager 32 afin de l’informer de la prise en compte de sa gestuelle 36 préalablement identifiée.
L’homme du métier notera que pendant une phase d’arrêt, la détection 100 d’usager 32 et l’identification 110 de gestuelle 36 continuent d’être mises en œuvre régulièrement afin de détecter un éventuel changement de gestuelle 36 de l’usager pouvant indiquer finalement un refus de monter à bord.
Lorsque le dispositif de pilotage 20 détecte un usager 32 effectuant une gestuelle de montée à bord 36A respective, de préférence avec un deuxième indice de confiance supérieur au deuxième seuil et sous réserve que l’ensemble de condition(s) d’arrêt soit rempli, alors il va commander l’arrêt du véhicule 10 de manière irrévocable, c’est-à-dire qu’à partir de ce moment, l’usager 32 n’aura plus à maintenir sa gestuelle de montée à bord 36A pour commander l’arrêt du véhicule 10. L’usager 32 peut néanmoins indiquer son souhait de ne finalement plus monter à bord via une nouvelle gestuelle d’absence de montée à bord 36B, ce qui remettra alors en cause la précédente action commandée et relancera le véhicule 10 dans sa mission courante vers sa prochaine destination.
Lorsque le véhicule 10 est à l’arrêt, sur le point de fermer ses portes pour repartir, après avoir débarqué/embarqué des usagers 32, le véhicule 10 peut aussi avoir déjà démarré mais encore à une vitesse faible et proche de l’arrêt afin de garantir un nouvel arrêt dans des conditions de sécurité satisfaisante pour les passagers à l’intérieur du véhicule 10 et pour l’usager 32 souhaitant embarquer. Cette situation correspond au cas où l’ensemble de condition(s) de prolongation est rempli, permettant au module de commande 38 de commander la prolongation de la phase d’embarquement à bord du véhicule 10 si une gestuelle de montée à bord 36A a été identifiée.
Ainsi, le dispositif de pilotage 20 selon l’invention permet de simplifier pour un usager 32 l’utilisation du véhicule autonome 10.
En effet, le module d’identification 34 permet d’identifier une gestuelle 36 respective de l’usager 32 détecté à l’intérieur de la zone de détection A, puis le module de commande 38 permet de commander simplement, ceci en fonction de la gestuelle identifiée, une action du véhicule 10, telle qu’un arrêt du véhicule 10 ou une prolongation d’une phase d’embarquement à bord du véhicule 10 lorsque l’usager 32 souhaite monter à bord dudit véhicule 10 et effectue alors une gestuelle de montée à bord 36A (figure 2), ou encore une poursuite de mouvement du véhicule lorsque l’usager 32 indique au contraire qu’il ne veut pas monter à bord de ce véhicule 10 et effectue alors une gestuelle d’absence de montée à bord 36B (figure 3).
Le dispositif de pilotage 20 selon l’invention permet alors de fluidifier l’intégration des véhicules automobiles autonomes 10 dans les habitudes des usagers, de simplifier leur utilisation et d’offrir une solution permettant de répondre à leurs attentes.
Claims (11)
- Dispositif électronique (20) de pilotage d’un véhicule automobile autonome (10), le dispositif (20) étant propre à être relié à au moins un capteur (22) et comprenant :
- un module de détection (30) configuré pour détecter, via ledit au moins un capteur (22), un usager (32) se trouvant à l’intérieur d’une zone de détection (A) ;
caractérisé en ce qu’il comprend en outre :
- un module d’identification (34) configuré pour identifier, via ledit au moins un capteur (22), une gestuelle (36) de l’usager (32) détecté ; et
- un module de commande (38) configuré pour commander une action du véhicule (10) en fonction de la gestuelle (36) identifiée. - Dispositif (20) selon la revendication 1, dans lequel la gestuelle (36) est une gestuelle (36A) de montée à bord du véhicule (10) ou une gestuelle (36B) d’absence de montée à bord du véhicule (10).
- Dispositif (20) selon la revendication 2, dans lequel si la gestuelle (36) identifiée est une gestuelle de montée à bord (36A), alors l’action commandée est un arrêt du véhicule (10) ou une prolongation d’une phase d’embarquement à bord du véhicule (10) ; et
si la gestuelle (36) identifiée est une gestuelle d’absence de montée à bord (36B), alors l’action commandée est une poursuite de mouvement du véhicule (10). - Dispositif (20) selon la revendication 3, dans lequel le module de commande (38) est en outre configuré pour commander l’arrêt du véhicule (10) seulement si un ensemble de condition(s) d’arrêt est rempli, respectivement pour commander la prolongation de la phase d’embarquement à bord du véhicule (10) seulement si un ensemble de condition(s) de prolongation est rempli ;
l’ensemble de condition(s) d’arrêt comportant de préférence une capacité du véhicule (10) à recevoir l’usager (32) et une distance suffisante entre une position du véhicule (10) et une zone d’embarquement de l’usager (32) pour l’arrêt du véhicule (10) ;
l’ensemble de condition(s) de prolongation comportant de préférence une capacité du véhicule (10) à recevoir l’usager (32), une vitesse du véhicule (10) inférieure à un seuil prédéfini de vitesse maximale et une distance entre le véhicule (10) et une zone d’embarquement de l’usager (32) inférieure à un seuil prédéfini de distance maximale. - Dispositif (20) selon l’une quelconque des revendications précédentes, dans lequel le dispositif (20) comprend en outre un module d’émission (40) configuré pour émettre au moins un signal de réponse via le véhicule (10) et suite à l’identification de la gestuelle (36) ;
chaque signal de réponse émis étant de préférence choisi parmi le groupe consistant en : un signal lumineux, un signal sonore et un message affiché sur un écran. - Dispositif (20) selon l’une quelconque des revendications précédentes, dans lequel le module d’identification (34) est en outre configuré pour effectuer le suivi de l’usager (32) détecté, notamment tant que l’usager (32) détecté se trouve à l’intérieur de la zone de détection (A).
- Dispositif (20) selon l’une quelconque des revendications précédentes, dans lequel le module de détection (30) est en outre configuré pour calculer un premier indice de confiance associé à la détection de l’usager (32), le module d’identification (34) étant alors configuré pour identifier la gestuelle (36) de l’usager (32) détecté seulement si le premier indice de confiance calculé pour la détection dudit usager (32) est supérieur à un premier seuil.
- Dispositif (20) selon l’une quelconque des revendications précédentes, dans lequel le module d’identification (34) est en outre configuré pour calculer un deuxième indice de confiance pour l’identification de la gestuelle (36), le module de commande (38) étant alors configuré pour commander l’action du véhicule (10) en fonction de la gestuelle (36) identifiée seulement si le deuxième indice de confiance calculé pour l’identification de ladite gestuelle (36) est supérieur à un deuxième seuil.
- Véhicule automobile autonome (10) comprenant un dispositif électronique de pilotage (20), caractérisé en ce que le dispositif de pilotage (20) est selon l’une quelconque des revendications précédentes.
- Procédé de pilotage d’un véhicule automobile autonome (10), le procédé étant mis en œuvre par un dispositif électronique de pilotage (20), propre à être relié à au moins un capteur (22), le procédé comprenant l’étape consistant à :
- détecter, via ledit au moins un capteur (22), un usager (32) se trouvant à l’intérieur d’une zone de détection (A) ;
caractérisé en ce qu’il comprend en outre les étapes consistant à :
- identifier, via ledit au moins un capteur (22), une gestuelle (36) de l’usager (32) détecté ; et
- commander une action du véhicule (10) en fonction de la gestuelle (36) identifiée. - Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé de pilotage selon la revendication précédente.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1903847A FR3095063B1 (fr) | 2019-04-10 | 2019-04-10 | Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager, véhicule automobile autonome et programme d’ordinateur associés |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1903847 | 2019-04-10 | ||
FR1903847A FR3095063B1 (fr) | 2019-04-10 | 2019-04-10 | Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager, véhicule automobile autonome et programme d’ordinateur associés |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3095063A1 true FR3095063A1 (fr) | 2020-10-16 |
FR3095063B1 FR3095063B1 (fr) | 2021-10-22 |
Family
ID=67742673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1903847A Active FR3095063B1 (fr) | 2019-04-10 | 2019-04-10 | Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager, véhicule automobile autonome et programme d’ordinateur associés |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3095063B1 (fr) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210253135A1 (en) * | 2020-02-18 | 2021-08-19 | Toyota Motor North America, Inc. | Determining transport operation level for gesture control |
CN115416665A (zh) * | 2022-09-02 | 2022-12-02 | 长城汽车股份有限公司 | 手势控车方法、装置、车辆及存储介质 |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160167648A1 (en) * | 2014-12-11 | 2016-06-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle interaction with external environment |
DE102016217770A1 (de) * | 2016-09-16 | 2018-03-22 | Audi Ag | Verfahren zum Betrieb eines Kraftfahrzeugs |
-
2019
- 2019-04-10 FR FR1903847A patent/FR3095063B1/fr active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160167648A1 (en) * | 2014-12-11 | 2016-06-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle interaction with external environment |
DE102016217770A1 (de) * | 2016-09-16 | 2018-03-22 | Audi Ag | Verfahren zum Betrieb eines Kraftfahrzeugs |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210253135A1 (en) * | 2020-02-18 | 2021-08-19 | Toyota Motor North America, Inc. | Determining transport operation level for gesture control |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
CN115416665A (zh) * | 2022-09-02 | 2022-12-02 | 长城汽车股份有限公司 | 手势控车方法、装置、车辆及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
FR3095063B1 (fr) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3627270B1 (fr) | Dispositif électronique de détermination d'une trajectoire d'arrêt d'urgence d'un véhicule autonome, véhicule et procédé associés | |
FR3095063A1 (fr) | Dispositif électronique et procédé de pilotage d’un véhicule automobile autonome avec gestuelle d’un usager, véhicule automobile autonome et programme d’ordinateur associés | |
EP3386822B1 (fr) | Procédé de suivi d'une cible | |
EP3482269A1 (fr) | Procédé de conduite autonome pour véhicule | |
FR3063557A1 (fr) | Dispositif de determination de l'etat d'attention d'un conducteur de vehicule, systeme embarque comportant un tel dispositif, et procede associe | |
FR3100200A1 (fr) | Dispositif de commande prédictif du mouvement d’un véhicule automobile | |
FR3045544A1 (fr) | Procede et dispositif pour l’assistance au changement de vitesse et au changement de voie. | |
EP3426534A2 (fr) | Procede d'assistance a la conduite d'un vehicule | |
FR3095403A1 (fr) | Dispositif de pilotage pour véhicule automobile, véhicule automobile, procédé de commande d’un tel véhicule automobile et programme d’ordinateur associés | |
EP3632388A1 (fr) | Dispositif électronique de pilotage d'une rampe d'accès à une porte de véhicule, véhicule, procédé de pilotage et programme d'ordinateur associés | |
EP3386821B1 (fr) | Dispositif d'assistance à la conduite | |
FR3086075A1 (fr) | Systeme electronique de supervision d'un vehicule autonome, procede et programme d'ordinateur associes | |
EP3731205A1 (fr) | Dispositif électronique de communication, appareil de surveillance, installation de supervision, procédé de communication et programme d'ordinateur associés | |
EP4374340A1 (fr) | Procédé et dispositif de contrôle d'ouverture de porte de véhicule | |
FR3040958A1 (fr) | Procede et dispositif de surveillance | |
FR3122391A1 (fr) | Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome | |
CA3078350A1 (fr) | Plateforme et procede de supervision d'une infrastructure pour vehiculesde transport, vehicule, systeme de transport et programme d'ordinateur associes | |
FR3095405A1 (fr) | Dispositif électronique de communication, appareil de surveillance, installation de supervision, procédé de communication et programme d’ordinateur associés | |
FR3095399A1 (fr) | Procédé et système d’aide au stationnement d’un véhicule automobile comprenant un module de régulation de toute discontinuité dans la distance restante à parcourir | |
EP3867126B1 (fr) | Procédé et dispositif d'aide à la conduite d'un véhicule automobile en phase de recul | |
EP4153462A1 (fr) | Véhicule routier et procédé de conduite autonome avec surveillance de la personne transportée pour améliorer l'acceptation de manoeuvres autonomes | |
EP3588463A1 (fr) | Dispositif électronique et procédé de surveillance d'un ensemble de véhicules automobiles autonomes, système de transport et programme d'ordinateur associés | |
FR3128175A1 (fr) | Procede de commande de freinage | |
WO2024189283A1 (fr) | Procédé et dispositif de contrôle d'un système actif de freinage d'urgence par témoin de signalisation | |
FR3107025A1 (fr) | Dispositif de pilotage d’un véhicule automobile, système de surveillance, système de transport, procédé de commande et programme d’ordinateur associés |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20201016 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
TP | Transmission of property |
Owner name: TRANSDEV GROUP INNOVATION, FR Effective date: 20210318 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |