FR3122391A1 - Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome - Google Patents

Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome Download PDF

Info

Publication number
FR3122391A1
FR3122391A1 FR2104483A FR2104483A FR3122391A1 FR 3122391 A1 FR3122391 A1 FR 3122391A1 FR 2104483 A FR2104483 A FR 2104483A FR 2104483 A FR2104483 A FR 2104483A FR 3122391 A1 FR3122391 A1 FR 3122391A1
Authority
FR
France
Prior art keywords
driver
autonomous vehicle
vehicle
attention
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2104483A
Other languages
English (en)
Inventor
Luciano Ojeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2104483A priority Critical patent/FR3122391A1/fr
Publication of FR3122391A1 publication Critical patent/FR3122391A1/fr
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Hospice & Palliative Care (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Developmental Disabilities (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L’invention concerne un procédé et un dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome (10). A cet effet, une séquence d’images est projetée sur une surface vitrée du véhicule autonome (10) dans le champ de vision associée à une position de conduite du véhicule autonome (10). Chaque image de la séquence comprend la représentation d’un ou plusieurs objets graphiques, le défilement de la séquence d’images faisant apparaitre l’au moins un objet graphique dans plusieurs positions (11, 12, 13). Les directions prises par le regard du conducteur sont déterminées pendant l’affichage de la séquence d’images. Les directions prises par le regard du conducteur sont comparées aux positions (11, 12, 13) prises par l’objet graphique pour déterminer, à partir du résultat de la comparaison, l’état d’attention du conducteur. Figure pour l’abrégé : Figure 1

Description

Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome
L’invention concerne les procédés et dispositifs de détermination d’un état d’attention d’un conducteur d’un véhicule autonome ou semi-autonome. L’invention concerne également un procédé et un dispositif d’évaluation de l’attention d’un conducteur d’un véhicule autonome ou semi-autonome. L’invention concerne également un procédé et un dispositif d’alerte du conducteur en cas d’inattention du conducteur.
Arrière-plan technologique
La sécurité routière est un des enjeux importants dans le cadre du développement des véhicules. Les véhicules contemporains embarquent pour certains d’entre eux un système de sécurité en charge de contrôler l’attention du conducteur.
Un tel système est connu sous le nom de système DMS (de l’anglais « Driver Monitoring System ») et aussi appelé moniteur d’attention du conducteur ou encore alerte de fatigue du conducteur, un tel système permettant de surveiller l’attention du conducteur et d’alerter ce dernier lorsqu’un endormissement ou une baisse de l’attention est détectée. Le système DMS comporte une ou plusieurs caméras détectant l’orientation de la tête et/ou du regard du conducteur pour en déduire si le conducteur est attentif, c’est-à-dire s’il regarde dans la direction de la route, et/ou si le conducteur s’endort en détectant les fermetures ou les clignotements des yeux.
Un autre système de sécurité contrôle le maintien du volant par le conducteur pour déterminer un état d’attention du conducteur.
Le problème associé à ces systèmes est qu’ils ne garantissent pas une véritable attention du conducteur, ces systèmes ne garantissant pas le focus attentionnel du conducteur sur l’environnement routier. Au mieux, le système DMS garantit que le conducteur regarde dans la bonne direction et que ses yeux ne se ferment pas trop souvent. En effet, un conducteur peut regarder la route qui défile devant lui sans être réellement attentif à son environnement, un tel phénomène étant connu sous le nom de « regard vide » ou d’« hypnose de l’autoroute » par exemple.
Maintenir l’attention du conducteur est primordial pour garantir la sécurité sur la route, y compris pour la conduite d’un véhicule autonome. Même en situation de conduite autonome, le contrôle du véhicule nécessite parfois une intervention humaine (par exemple lors du passage d’un mode de conduite autonome à un mode de conduite manuel) avec une attention totale du conducteur pour garantir la sécurité de son véhicule et des autres usagers de la route.
Un objet de la présente invention est de résoudre au moins un des inconvénients de l’art antérieur.
Un objet de la présente invention est d’améliorer la sécurité dans un véhicule autonome ou semi-autonome.
Un autre objet de la présente invention est de garantir un niveau d’attention optimal du conducteur d’un véhicule autonome.
Selon un premier aspect, l’invention concerne un procédé de détermination d’un état d’attention d’un conducteur d’un véhicule autonome, le procédé étant mis en œuvre par au moins un processeur embarqué dans le véhicule autonome, le procédé comprenant les étapes suivantes :
- contrôle d’une projection d’une pluralité d’images d’au moins un objet graphique sur une surface vitrée du véhicule autonome dans un champ de vision correspondant à une position de conduite du véhicule autonome, le au moins un objet graphique prenant une pluralité de positions selon une séquence déterminée dans la pluralité d’images ;
- détermination d’une séquence de directions d’un regard du conducteur pendant la projection de la pluralité d’images ;
- comparaison de la séquence de directions du regard avec la séquence déterminée de la pluralité de positions ;
- détermination de l’état d’attention du conducteur en fonction d’un résultat de la comparaison.
Selon une variante, la projection est déclenchée par :
- une détection d’un défaut d’attention du conducteur par un système de surveillance du conducteur embarqué dans le véhicule autonome lorsqu’un niveau d’autonomie du véhicule autonome est égal à 2 ;
- une réception d’une requête de transition d’un niveau d’autonomie supérieur ou égal à 3 à un niveau d’autonomie inférieur ou égal à 2.
Selon une autre variante, une position finale de la pluralité de positions prises par le au moins un objet graphique correspond à :
- une position d’un véhicule détecté devant le véhicule autonome par au moins un capteur de détection d’objet embarqué sur le véhicule autonome ; ou
- une position coïncidant avec un axe de vision principale du champ de vision
Selon une variante supplémentaire, l’état d’attention étant déterminé comme correspondant à un état inattentif du conducteur lorsque :
- le résultat de la comparaison indique que le regard du conducteur ne suit pas la séquence déterminée de la pluralité de positions ; et/ou
- le regard du conducteur n’est pas maintenu sur une direction de circulation du véhicule autonome pendant une durée au moins égale à une durée déterminée, et
l’état d’attention étant déterminé comme correspondant à un état attentif du conducteur lorsque :
- le résultat de la comparaison indique que le regard du conducteur suit la séquence déterminée de la pluralité de positions ; et/ou
- le regard du conducteur est maintenu sur une direction de circulation du véhicule autonome pendant une durée au moins égale à une durée déterminée.
Selon encore une variante, le procédé comprend en outre un rendu d’une alerte sonore lorsque l’état d’attention correspond à l’état inattentif.
Selon une variante additionnelle, la pluralité de positions comprend trois positions, le au moins un objet graphique clignotant à une fréquence déterminée pour au moins une des trois positions, la projection du au moins un objet graphique prenant fin lorsque l’état d’attention est déterminé comme correspondant à l’état attentif du conducteur.
Selon une autre variante, le procédé comprend en outre une étape de détection d’au moins un objet devant le véhicule autonome représentatif d’un danger de collision avec le véhicule autonome, la pluralité de positions prises par le au moins un objet graphique correspondant à différentes positions prises par le au moins un objet relativement au véhicule autonome, une alerte sonore étant rendu lorsque le résultat de la comparaison indique que le regard du conducteur ne suit pas la séquence déterminée à échéance d’un délai déterminé à compter de la détection.
Selon un deuxième aspect, l’invention concerne un dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé selon le premier aspect de l’invention.
Selon un troisième aspect, l’invention concerne un véhicule, par exemple de type automobile, comprenant un dispositif tel que décrit ci-dessus selon le deuxième aspect de l’invention.
Selon un quatrième aspect, l’invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de l’invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un cinquième aspect, l’invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de l’invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de l’invention ressortiront de la description des modes de réalisation non limitatifs de l’invention ci-après, en référence aux figures 1 à 4 annexées, sur lesquelles :
illustre schématiquement la projection d’un objet graphique dans un véhicule autonome selon un premier point de vue, selon un exemple de réalisation particulier de la présente invention ;
illustre schématiquement un champ de vision associé à une position de conduite du véhicule autonome de la , selon un exemple de réalisation particulier de la présente invention ;
illustre schématiquement un dispositif configuré pour déterminer un état d’attention d’un conducteur du véhicule autonome de la , selon un exemple de réalisation particulier de la présente invention ;
illustre un organigramme des différentes étapes d’un procédé de détermination d’un état d’attention d’un conducteur du véhicule autonome de la , selon un exemple de réalisation particulier de la présente invention.
Un procédé et un dispositif de détermination d’un état d’attention d’un conducteur du véhicule autonome vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1 à 4. Des mêmes éléments sont identifiés avec des mêmes signes de référence tout au long de la description qui va suivre.
Selon un exemple particulier et non limitatif de réalisation de l’invention, la détermination de l’état d’attention d’un conducteur d’un véhicule autonome ou semi-autonome comprend le contrôle de la projection d’une séquence d’images sur une surface vitrée du véhicule autonome, par exemple sur le pare-brise ou sur une lamelle d’un matériau transparent positionnée dans le champ de vision associée à une position de conduite du véhicule autonome. Chaque image de la séquence comprend la représentation d’un ou plusieurs objets, appelées objets graphiques ou objets virtuels, le défilement de la séquence d’images faisant apparaitre l’au moins un objet graphique dans plusieurs positions sur la surface vitrée selon une séquence de déplacement déterminée. Les directions prises par le regard ou la tête du conducteur sont déterminées ou mesurées, par exemple par le système DMS du véhicule, pendant l’affichage de la séquence d’images. Les directions ou orientations prises par le regard du conducteur sont comparées aux positions prises par l’objet graphique pour déterminer, à partir du résultat de la comparaison, l’état d’attention du conducteur. L’état d’attention appartient par exemple à un ensemble d’états prenant 2 états : attentif ou inattentif.
L’affichage d’un objet graphique, par exemple sur le pare-brise, dans le champ de vision correspondant à une position de conduite normale du véhicule et le suivi du regard permet de vérifier si le conducteur suit réellement le déplacement de l’objet graphique. Cela permet ainsi de s’assurer de la pleine attention du conducteur dans le cas où le conducteur suit le déplacement, et dans le cas contraire, cela permet de détecter un état inattentif du conducteur, même si ce dernier regarde dans la direction de la route.
Un tel procédé permet ainsi de déterminer l’état d’attention réel du conducteur et ainsi d’améliorer la sécurité pour le véhicule autonome, et pour les usagers de la route de manière générale.
illustre schématiquement la projection d’un objet graphique dans un véhicule autonome 10, selon un exemple de réalisation particulier et non limitatif de la présente invention.
La présente une vue de l’intérieur d’un véhicule 10, notamment de la partie avant de l’habitacle du véhicule 10 comprenant notamment le volant, le tableau de bord, le siège conducteur 102 (siège avant gauche selon l’exemple de la ) et le pare-brise du véhicule 10.
Le véhicule 10 correspond par exemple à un véhicule à moteur thermique, à moteur(s) électrique(s) ou encore un véhicule hybride avec un moteur thermique et un ou plusieurs moteurs électriques. Le véhicule 1 correspond ainsi par exemple à un véhicule terrestre, par exemple une automobile, un camion, un car.
Le véhicule 10 correspond avantageusement à un véhicule autonome, l’expression véhicule autonome englobant également la notion de véhicule semi-autonome.
Un véhicule autonome correspond avantageusement à un véhicule dont la conduite est supervisée au moins partiellement par un ou plusieurs systèmes d’aide à la conduite, dits systèmes ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé »).
Le véhicule 10 correspond ainsi par exemple à un véhicule autonome avec un niveau d’autonomie déterminé, par exemple un niveau d’autonomie supérieur au niveau 2 ou au niveau 3. Le niveau d’autonomie du véhicule 10 correspond par exemple à un des 5 niveaux de la classification selon l’agence fédérale américaine chargée de la sécurité routière ou à un des 6 niveaux de la classification de l’organisation internationale des constructeurs automobiles.
Les niveaux suivants décrivent chacun un niveau d’autonomie, le niveau 0 correspondant à un niveau sans autonomie, sous la supervision totale du conducteur, les 5 niveaux allant de 1 à 5 correspondants aux niveaux d’autonomie définis par la classification de l’agence fédérale chargée de la sécurité routière :
- niveau 0 : aucune automatisation, le conducteur du véhicule contrôle totalement les fonctions principales du véhicule (moteur, accélérateur, direction, freins) ;
- niveau 1 : assistance au conducteur, l’automatisation est active pour certaines fonctions du véhicule, le conducteur gardant un contrôle global sur la conduite du véhicule ; le régulateur de vitesse fait partie de ce niveau, comme d’autres aides telles que l’ABS (système antiblocage des roues) ou l’ESP (électro-stabilisateur programmé) ;
- niveau 2 : automatisation de fonctions combinées, le contrôle d’au moins deux fonctions principales est combiné dans l’automatisation pour remplacer le conducteur dans certaines situations ; par exemple, le régulateur de vitesse adaptatif combiné avec le centrage sur la voie permet à un véhicule d’être classé niveau 2, tout comme l’aide au stationnement (de l’anglais « Park assist ») automatique ;
- niveau 3 : conduite autonome limitée, le conducteur peut céder le contrôle complet du véhicule au système automatisé qui sera alors en charge des fonctions critiques de sécurité ; la conduite autonome ne peut cependant avoir lieu que dans certaines conditions environnementales et de trafic déterminées (uniquement sur autoroute par exemple) ;
- niveau 4 : conduite autonome complète sous conditions, le véhicule est conçu pour assurer seul l’ensemble des fonctions critiques de sécurité sur un trajet complet ; le conducteur fournit une destination ou des consignes de navigation mais n’est pas tenu de se rendre disponible pour reprendre le contrôle du véhicule ;
- niveau 5 : conduite complètement autonome sans l’aide de conducteur dans toutes les circonstances.
Le véhicule 10 embarque avantageusement un ensemble de capteurs configurés pour obtenir des données sur l’environnement du véhicule 10, ces données ou une partie d’entre elles étant notamment utilisées pour la conduite en mode autonome du véhicule 10. Ce ou ces capteurs correspondent par exemple à des capteurs d’un ou plusieurs systèmes de détection d’objet dans l’environnement du véhicule 10, les données obtenues de ce ou ces capteurs permettant par exemple de détecter des objets dans l’environnement du véhicule 10, par exemple devant le véhicule 10. Ce ou ces systèmes de détection d’objet sont par exemple associés à ou compris dans un ou plusieurs systèmes ADAS.
Le ou les capteurs associés à ces systèmes de détection d’objet correspondent par exemple à un ou plusieurs des capteurs suivants :
- un ou plusieurs radars à ondes millimétriques arrangés sur le véhicule 10, par exemple à l’avant, à l’arrière, sur chaque coin avant/arrière du véhicule ; chaque radar est adapté pour émettre des ondes électromagnétiques et pour recevoir les échos de ces ondes renvoyées par un ou plusieurs objets, dans le but de détecter des obstacles et leurs distances vis-à-vis du véhicule ; et/ou
- un ou plusieurs LIDAR(s) (de l’anglais « Light Detection And Ranging », ou « Détection et estimation de la distance par la lumière » en français), un capteur LIDAR correspondant à un système optoélectronique composé d’un dispositif émetteur laser, d’un dispositif récepteur comprenant un collecteur de lumière (pour collecter la partie du rayonnement lumineux émis par l’émetteur et réfléchi par tout objet situé sur le trajet des rayons lumineux émis par l’émetteur) et d’un photodétecteur qui transforme la lumière collectée en signal électrique ; un capteur LIDAR permet ainsi de détecter la présence d’objets situés dans le faisceau lumineux émis et de mesurer la distance entre le capteur et chaque objet détecté ; et/ou
- une ou plusieurs caméras (associées ou non à un capteur de profondeur) pour l’acquisition d’une ou plusieurs images de l’environnement autour du véhicule se trouvant dans le champ de vision de la ou les caméras.
Le véhicule 10 embarque avantageusement un système configuré pour afficher des images comprenant un ou plusieurs objets graphiques sur une surface vitrée du véhicule 10, par exemple sur le pare-brise ou sur une lamelle transparente s’élevant par exemple de la planche de bord, par exemple derrière le tableau de bord ou le volant. Un tel système d’affichage comprend par exemple un projecteur intégré dans la planche de bord. Un tel système de projection d’images ou de contenus graphiques correspond par exemple à un système dit à réalité augmentée, dite AR (de l’anglais « Augmented Reality »), par exemple un système de Vision Tête Haute, dite VTH ou HUD (de l’anglais « Head Up Display » ou en français « Affichage Tête Haute »), lequel permet l’incrustation d’objets virtuels dans le champ de vision du conducteur, par exemple sur le pare-brise du véhicule 10, de manière à superposer les objets virtuels sur la scène routière réelle. La projection des images de l’objet graphique est par exemple contrôlée par un ou plusieurs calculateurs du système embarqué du véhicule 10, par exemple par le calculateur du système d’infodivertissement, dit calculateur IVI (de l’anglais « In-Vehicle Infotainment » ou en français « Infodivertissement embarqué ») du véhicule 10.
L’objet graphique affiché correspond par exemple à une représentation d’un panneau d’avertissement, d’un véhicule, par exemple automobile, ou d’un piéton, l’objet graphique étant affichée selon une séquence déterminée dans laquelle l’objet graphique prend par exemple trois positions successives 11, 12 et 13 d’un point de vue temporel. L’objet graphique 11, 12, 13 est par exemple semi-transparent pour permettre au conducteur de voir l’environnement routier au travers de cet objet graphique 11, 12, 13.
Le déplacement de l’objet graphique est par exemple continu ou discontinu. Dans le cas d’un déplacement discontinu, l’objet graphique prend par exemple 2, 3, 4 ou 5 positions successives. Selon l’exemple particulier de la , l’objet graphique prend 3 positions successives, allant de la première position 11 à la position finale 13 en passant par la position intermédiaire 12.
Le véhicule 10 embarque également avantageusement des moyens 101 de suivi de la direction ou de l’orientation du regard ou de la tête du conducteur. De tels moyens correspondent par exemple à un système DMS 101.
Le système DMS 101 comprend par exemple une ou plusieurs caméras configurées pour l’acquisition de données représentatives du visage du conducteur, par exemple des images du visages, des données relatives à certains points du visage, des données relatives à certaines parties du visage (par exemple les yeux, les paupières). La ou les caméras correspondent par exemple à une ou plusieurs des dispositifs d’acquisition suivants :
- caméra infrarouge ;
- caméra d’acquisition d’image de type RGB (de l’anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu ») ;
- caméra d’acquisition d’image associée à un ou plusieurs dispositifs (par exemple une ou plusieurs LED (de l’anglais « Light-Emitting Diode » ou en français « Diode électroluminescente ») émettant de la lumière dans l’infrarouge ou dans la bande proche de l’infrarouge.
Le système DMS 101 met en œuvre un ensemble de fonctions primaires assurant par exemple le suivi du regard du conducteur (de l’anglais « gaze tracking »), la détermination ou le suivi de la posture de la tête du conducteur (de l’anglais « head pose » ou « head gaze ») et/ou le suivi du visage (de l’anglais « face tracking »).
De telles fonctions s’appuient sur les données obtenues de la ou les caméras pour par exemple :
- détecter les yeux dans le visage et déterminer la direction associée au regard du conducteur (détection d’inattention) ;
- déterminer la fréquence de fermeture des paupières et la durée pendant laquelle les paupières sont fermées (détection d’endormissement) ;
- déterminer la posture de la tête et ainsi déterminer dans quelle direction regarde le conducteur (détection d’inattention).
illustre schématiquement le champ de vision associé à une position de conduite du véhicule autonome 10, selon un exemple de réalisation particulier et non limitatif de la présente invention.
La illustre la partie avant du véhicule autonome 10 selon une vue de dessus. Le champ de vision 210 est associé à un point de vue 21 qui correspond au point de vue selon lequel un conducteur est censé regarder la route devant lui lorsqu’il conduite le véhicule 10. Ce point de vue 21 est par exemple positionné au milieu du siège conducteur 102 (avant gauche dans le sens de circulation du véhicule 10 selon l’exemple particulier de la ), à l’endroit de la tête du conducteur si le conducteur était assis dans le siège conducteur 102. Le point de vue 21 est par exemple positionné au centre d’un appui-tête reposant sur le siège conducteur 102 lorsque le siège est équipé d’un tel appui-tête.
Le champ de vision 210 s’étend par exemple autour d’un axe de vision principale 2100, et couvre une zone entre une limite verticale supérieure (formant par exemple un angle de 15° avec l’axe 2100 depuis le point de vue 21), une limite verticale inférieure (formant par exemple un angle de 15° avec l’axe 2100 depuis le point de vue 21), une limite latérale droite (formant par exemple un angle de 20 ou 25° avec l’axe 2100 depuis le point de vue 21) et une limite latérale gauche (formant par exemple un angle de 25 ou 30° avec l’axe 2100 depuis le point de vue 21).
L’objet graphique (dont la position finale 13 est illustrée sur la ) est avantageusement projeté ou affiché à l’intérieur du champ de vision 210, pour s’assurer que le conducteur regarde la route ou l’environnement devant le véhicule 10 selon ce champ de vision 210.
La ou les images de l’objet graphique sont avantageusement collimatées à une distance ‘d’ du point de vue selon l’axe 2100, une telle distance ‘d’ étant avantageusement supérieure ou égale à 3.5 m, par exemple égale à 3.5, 4 ou 4.5 m.
Un processus de détermination d’un état d’attention du conducteur du véhicule 10 est avantageusement mis en œuvre par le véhicule 10 (c’est-à-dire par un ou plusieurs dispositifs embarqués dans le véhicule 10, par exemple un ou plusieurs calculateurs).
Dans une première opération, une pluralité d’images sont projetées sur une surface vitrée du véhicule 10 dans le champ de vision 201, par exemple sur le pare-brise du véhicule 10. Chaque image comprend la représentation d’un objet graphique, la séquence d’images étant prévu pour que l’objet graphique soit affiché dans plusieurs positions 11 à 13 selon une séquence déterminée, par exemple selon une séquence déterminée au préalable, selon une séquence déterminée de manière aléatoire ou selon une séquence fonction d’un ou plusieurs évènements détectés par le véhicule 10, tels que par exemple la présence d’un objet (par exemple un autre véhicule) devant le véhicule 10, la présence d’un tel objet présentant un risque (par exemple de collision) pour le véhicule 10.
La taille de l’objet graphique est avantageusement prévue pour ne pas occulter l’environnement routier vu par le conducteur au travers du pare-brise. L’objet graphique est par exemple compris dans un cadre de quelques centimètres de côté au niveau du plan focal (par exemple environ 3° de côté, c’est-à-dire environ 18 cm de côté à une distance ‘d’ égale à 3,5 m). Selon une variante, les dimensions de l’objet graphique varient, par exemple en fonction de l’environnement routier dans lequel évolue le véhicule 10 et/ou en fonction des objets détectés devant le véhicule 10.
La projection des images de l’objet graphique est déclenchée par exemple par :
- la détection d’une inattention du conducteur par le système DMS 101 lorsque le véhicule 10 circule dans un mode semi-autonome correspondant par exemple à un niveau d’autonomie égal à 2. L’inattention du conducteur est par exemple détectée lorsque la direction du regard du conducteur reste en dehors du champ de vision 210 pendant une durée supérieure à un seuil, par supérieure à 10, 20, 30 ou 60 secondes. La détection d’une telle inattention entraine par exemple le déclenchement d’une alarme, par exemple sonore, visuelle ou haptique, le déclenchement de l’alarme déclenchant par exemple la projection des images sur le pare-brise ; ou
- la réception (par exemple par le calculateur en charge de contrôler le système de détermination de l’état d’attention) d’une requête (émise par exemple par un calculateur contrôlant la conduite en mode autonome du véhicule 10) de transition d’un niveau d’autonomie supérieur ou égal à 3 à un niveau d’autonomie inférieur ou égal à 2, une telle requête demandant au conducteur de reprendre le contrôle du véhicule pour que ce dernier sorte du mode autonome (de niveau 3 ou 4 par exemple) et passe en mode semi-autonome (niveau 2 par exemple) ou totalement manuel (niveau 0 ou 1). Une telle requête correspond par exemple à une requête dite TOR (de l’anglais « Take-Over Request » ou en français « requête de prise en charge »).
Selon un premier exemple de réalisation, la projection est telle que l’objet graphique est affiché pour prendre 3 positions 11, 12, 13 successives temporellement. Les positions successives prises par l’objet graphique décrivent un mouvement déterminé, par exemple un mouvement de fuite en avant (allant du bas du parebrise pour la première position 11 vers le haut du parebrise pour la position finale 13), ou un mouvement allant de la gauche vers la droite ou inversement.
Les positions prises par l’objet graphique sont par exemple déterminées de manière aléatoire, par exemple lorsqu’aucun danger n’est détecté devant le véhicule 10. Un danger correspond par exemple à la présence d’un objet, mobile ou immobile, devant le véhicule 10, par exemple un autre véhicule (par exemple une voiture, un camion, un vélo ou une moto), un piéton, un objet fixe positionné sur la voie de circulation, un carrefour, une entrée d’un tunnel, une chaussée se rétrécissant.
Une séquence aléatoire permet d’éviter qu’un conducteur s’habitue à un affichage répété des objets selon une même séquence, le conducteur habitué pouvant alors machinalement suivre le mouvement de l’objet graphique sans toutefois y apporter l’attention nécessaire.
La position finale 13 de l’objet graphique correspond par exemple à :
- une position située le long de l’axe de vision principale 2100 (par exemple par défaut lorsqu’aucun objet n’est détecté devant le véhicule ou lorsqu’aucun objet n’est détecté sur une distance par rapport au véhicule 10 inférieure à un seuil, par exemple sur une distance inférieure à 200 m) ; une telle position le long de l’axe 2100 permet d’amener le regard du conducteur dans l’axe de vision principale ;
- une position correspondant à celle d’un objet détecté devant le véhicule, l’objet graphique venant en incrustation virtuelle à l’endroit de l’objet réel détecté par le véhicule 10 ; un tel positionnement sur un potentiel danger représenté par l’objet réel détecté permet d’amener le regard du conducteur sur l’objet réel représentant un danger potentiel.
Selon un deuxième exemple de réalisation, le mouvement de l’objet graphique suit le mouvement d’un objet détecté devant le véhicule 10, le mouvement de l’objet détecté correspondant par exemple au déplacement de l’objet détecté, le cas échéant, relativement au déplacement du véhicule 10. Selon une variante, l’objet graphique est initialement affiché dans une première position avant de suivre le mouvement de l’objet détecté.
Selon un exemple particulier, la représentation graphique de l’objet graphique varie d’une position à une autre, ou seulement pour la position finale. L’affichage de l’objet graphique est par exemple prévu de manière à ce que l’objet graphique clignote lorsqu’il atteint la position finale, par exemple à une fréquence déterminée égale à par exemple 2 ou 3 Hz. Selon un autre exemple, la ou les couleurs de l’objet graphique varie d’une position à une autre, ou seulement pour la position finale.
Dans une deuxième opération, le système DMS 101 détermine quelles sont les directions suivies par le regard du conducteur pendant la projection des images représentant les différentes positions prises par l’objet graphique 11, 12, 13.
Les informations de directions sont par exemple transmises par le système DMS au système (ou au calculateur) en charge de contrôler la projection des images représentant l’objet graphique.
Les directions du regard du conducteur sont par exemple exprimées angulairement selon le point de vue 21 par rapport à l’axe de vision principale 2100.
Dans une troisième opération, le système (ou le calculateur) en charge de contrôler la projection des images représentant l’objet graphique et ayant reçu les directions du regard du conducteur pendant l’affichage des différentes positions de l’objet graphique analyse les données reçues. Le système ou le calculateur compare avantageusement les informations ou données représentatives des directions du regard du conducteur avec les différentes positions successives 11, 12, 13 prises par l’objet graphique, ces positions 11, 12 et 13 étant avantageusement exprimées dans le même référentiel que celui des directions du regard du conducteur.
Dans cette troisième opération, le système ou le calculateur vérifie si le regard du conducteur suit l’affichage ou la projection de l’objet graphique dans ses différentes positions et détermine une ou plusieurs différences, le cas échéant.
Dans une quatrième opération, un état d’attention du conducteur est déterminé en fonction du résultat de la comparaison mise en œuvre à la troisième opération.
L’état d’attention prend par exemple deux valeurs, une première valeur (correspondant par exemple à 0) correspondant à un état inattentif du conducteur (aussi appelé état d’inattention ou défaut d’attention) et une deuxième valeur (correspondant par exemple à 1) correspondant à un état attentif du conducteur.
L’état inattentif est détecté ou déterminé lorsque par exemple :
- le résultat de la comparaison indique que le regard du conducteur ne suit pas la séquence déterminée de la pluralité de positions, c’est-à-dire que le mouvement de la direction du regard ne coïncide pas ou ne correspond pas au mouvement de l’objet graphique, le résultat de la comparaison indiquant une ou plusieurs différences entre le mouvement de la direction du regard et celui de l’objet graphique ; et/ou
- le regard du conducteur n’est pas maintenu sur une direction de circulation du véhicule 10 (c’est-à-dire que le conducteur ne regarde pas dans la direction de la route suivie par le véhicule 10) pendant une durée au moins égale à une durée déterminée, par exemple pendant une durée égale à au moins 5 secondes.
L’état attentif est détecté ou déterminé lorsque par exemple :
- le résultat de la comparaison indique que le regard du conducteur suit la séquence déterminée de la pluralité de positions, c’est-à-dire que le mouvement de la direction du regard coïncide ou correspond au mouvement de l’objet graphique, le résultat de la comparaison ne constatant aucune différence entre le mouvement de la direction du regard et celui de l’objet graphique ; et/ou
- le regard du conducteur est maintenu sur une direction de circulation du véhicule autonome pendant une durée au moins égale à une durée déterminée, c’est-à-dire pendant une durée au moins égale à 5 secondes par exemple.
Lorsque l’état d’attention est déterminé comme étant l’état attentif, alors le processus prend fin avec la quatrième opération.
Lorsque l’état d’attention est déterminé comme étant l’état inattentif, alors le processus se poursuit avec la cinquième opération.
Dans une cinquième opération, lorsqu’il est déterminé que l’état du conducteur correspond à l’état inattentif avec un défaut d’attention, alors une alerte est rendue dans le véhicule 10. L’alerte correspond par exemple au rendu vocal d’un message d’alerte dans un ou plusieurs haut-parleurs du véhicule 10, et/ou à l’affichage d’un message d’alerte sur un écran du véhicule 10 et/ou sur le parebrise du véhicule 10 et/ou au rendu d’un ou plusieurs effets haptiques (par exemple vibrations du siège conducteur 102).
Selon un premier exemple particulier, lorsque le mouvement formé par les différentes directions successives du regard coïncide avec le mouvement de l’objet graphique, alors l’objet graphique disparait en atteignant sa position finale, par exemple après avoir clignoté 3 fois à une fréquence comprise entre 2 et 3 Hz.
Selon un deuxième exemple particulier, si la direction du regard est détectée dans la direction de la route (direction de circulation du véhicule 10) et maintenue dans cette direction pendant un temps supérieur à par exemple 5 secondes, l’objet graphique disparaît en atteignant sa troisième position (par exemple après avoir clignoté 3 fois), même lorsque le résultat de la comparaison indique que la direction du regard conducteur ne coïncide pas avec le mouvement de l’objet graphique.
Selon un troisième exemple particulier, si la direction du regard est détectée dans la direction de la route (direction de circulation du véhicule 10) et maintenue dans cette direction pendant un temps inférieur à par exemple 5 secondes avant de sortie du champ de vision 201 et si le résultat de la comparaison indique que la direction du regard conducteur ne coïncide pas avec le mouvement de l’objet graphique, alors une alerte sonore retentit dans le véhicule 10 (avec par exemple un rendu par synthèse vocale du « attention » ou « danger »).
Selon un quatrième exemple particulier, si la direction du regard est détectée hors de la direction de la route (par exemple hors du champ de vision 201), une alerte sonore retentit (avec par exemple un rendu par synthèse vocale du « attention » ou « danger »), sauf si la direction du regard est détectée en direction du rétroviseur intérieur ou d’un des rétroviseurs extérieurs 22, 23. Ce quatrième exemple correspond une exception selon laquelle le conducteur est autorisé à regarder dans une direction différence de la direction de circulation du véhicule 10.
Selon un cinquième exemple particulier, si un ou plusieurs systèmes ADAS de détection d’objet détectent un danger avant (obstacle, véhicule avec un temps restant avant collision, dit TTC (de l’anglais « Time-to-Collision ») inférieur à par exemple 5 secondes), alors l’objet graphique est affiché aligné avec l’objet détecté dès la première position 11, avec par exemple un clignotement à 3 Hz pour attirer l’attention du conducteur au plus tôt et l’alerter d’un danger imminent. Si le regard du conducteur n’est pas détecté sur l’objet graphique à échéance d’un délai déterminé (par exemple 1 ou 2 secondes) alors une alerte sonore retentit (avec par exemple un rendu par synthèse vocale du « attention » ou « danger »).
Selon un mode de mise en œuvre particulier, lorsqu’aucun objet ou danger n’est détecté devant le véhicule, l’affichage de l’objet graphique est interrompu par le conducteur via une action déterminée du conducteur, par exemple par appui sur un bouton (physique dans l’habitacle ou graphique affiché via une interface homme-machine sur un écran dans l’habitacle du véhicule) ou en prononçant une commande vocale. Une telle validation volontaire du conducteur montre au système que le conducteur est attentif et qu’une éventuelle alerte sonore mise en œuvre après détection d’inattention du conducteur par le système DMS peut être arrêtée.
illustre schématiquement un dispositif 3 configuré pour déterminer un état d’attention du conducteur du véhicule autonome 10, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le dispositif 3 correspond par exemple à un dispositif embarqué dans le véhicule 10, par exemple un calculateur.
Le dispositif 3 est par exemple configuré pour la mise en œuvre des opérations décrites en regard des et 2 et/ou des étapes du procédé décrit en regard de la . Des exemples d’un tel dispositif 3 comprennent, sans y être limités, un équipement électronique embarqué tel qu’un ordinateur de bord d’un véhicule, un calculateur électronique tel qu’une UCE (« Unité de Commande Electronique »), un téléphone intelligent, une tablette, un ordinateur portable. Les éléments du dispositif 3, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif 3 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels.
Le dispositif 3 comprend un (ou plusieurs) processeur(s) 30 configurés pour exécuter des instructions pour la réalisation des étapes du procédé et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif 3. Le processeur 30 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif 3 comprend en outre au moins une mémoire 31 correspondant par exemple une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur est par exemple stocké sur la mémoire 31.
Selon différents modes de réalisation particuliers, le dispositif 3 est couplé en communication avec d’autres dispositifs ou systèmes similaires et/ou avec des dispositifs de communication, par exemple une TCU (de l’anglais « Telematic Control Unit » ou en français « Unité de Contrôle Télématique »), par exemple par l’intermédiaire d’un bus de communication ou au travers de ports d’entrée / sortie dédiés.
Selon un mode de réalisation particulier et non limitatif, le dispositif 3 comprend un bloc 32 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple un serveur distant ou le « cloud », d’autres nœuds du réseau ad hoc. Les éléments d’interface du bloc 32 comprennent une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Bluetooth® ou Wi-Fi®, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français) ;
- interface LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Selon un autre mode de réalisation particulier, le dispositif 3 comprend une interface de communication 33 qui permet d’établir une communication avec d’autres dispositifs (tels que d’autres calculateurs du système embarqué) via un canal de communication 330. L’interface de communication 33 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 330. L’interface de communication 33 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Selon un mode de réalisation particulier supplémentaire, le dispositif 3 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage 340, un ou des haut-parleurs 350 et/ou d’autres périphériques 360 (système de projection) via respectivement des interfaces de sortie 34, 35 et 36. Selon une variante, l’un ou l’autre des dispositifs externes est intégré au dispositif 3.
illustre un organigramme des différentes étapes d’un procédé de détermination d’un état d’attention d’un conducteur du véhicule autonome 10, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le procédé est par exemple mis en œuvre par un dispositif embarqué dans le véhicule 10, par exemple par un ou plusieurs processeurs embarqués dans le véhicule 10, ou par le dispositif 3 de la .
Dans une première étape 41, la projection d’une pluralité d’images d’au moins un objet graphique est contrôlée pour affichage de l’objet graphique sur une surface vitrée du véhicule autonome dans un champ de vision correspondant à une position de conduite du véhicule autonome, le au moins un objet graphique prenant une pluralité de positions selon une séquence déterminée dans la pluralité d’images.
Dans une deuxième étape 42, une séquence de directions d’un regard du conducteur prises pendant la projection de la pluralité d’images est déterminée.
Dans une troisième étape 43, la séquence de directions du regard est comparée avec la séquence déterminée de la pluralité de positions.
Dans une quatrième étape 44, l’état d’attention du conducteur est déterminé en fonction d’un résultat de la comparaison.
Selon une variante de réalisation, les variantes et exemples des opérations décrits en relation avec la ou la s’appliquent aux étapes du procédé de la .
Bien entendu, l’invention ne se limite pas aux modes de réalisation décrits ci-avant mais s’étend à un procédé de rendu d’une alerte en cas d’inattention d’un conducteur d’un véhicule autonome qui inclurait des étapes secondaires sans pour cela sortir de la portée de la présente invention. Il en serait de même d’un dispositif configuré pour la mise en œuvre d’un tel procédé.
L’invention concerne également un véhicule, par exemple automobile ou plus généralement un véhicule autonome à moteur terrestre, comprenant le dispositif 3 de la .

Claims (10)

  1. Procédé de détermination d’un état d’attention d’un conducteur d’un véhicule autonome (10), ledit procédé étant mis en œuvre par au moins un processeur embarqué dans ledit véhicule autonome (10), ledit procédé comprenant les étapes suivantes :
    - contrôle (41) d’une projection d’une pluralité d’images d’au moins un objet graphique sur une surface vitrée dudit véhicule autonome (10) dans un champ de vision (210) correspondant à une position de conduite dudit véhicule autonome (10), ledit au moins un objet graphique prenant une pluralité de positions (11, 12, 13) selon une séquence déterminée dans ladite pluralité d’images ;
    - détermination (42) d’une séquence de directions d’un regard dudit conducteur pendant ladite projection de ladite pluralité d’images ;
    - comparaison (43) de ladite séquence de directions du regard avec ladite séquence déterminée de la pluralité de positions ;
    - détermination (44) dudit état d’attention du conducteur en fonction d’un résultat de ladite comparaison.
  2. Procédé selon la revendication 1, pour lequel ladite projection est déclenchée par :
    - une détection d’un défaut d’attention dudit conducteur par un système de surveillance du conducteur embarqué dans ledit véhicule autonome (10) lorsqu’un niveau d’autonomie dudit véhicule autonome est égal à 2 ;
    - une réception d’une requête de transition d’un niveau d’autonomie supérieur ou égal à 3 à un niveau d’autonomie inférieur ou égal à 2.
  3. Procédé selon la revendication 1 ou 2, pour lequel une position finale (13) de ladite pluralité de positions prises par ledit au moins un objet graphique correspond à :
    - une position d’un véhicule détecté devant ledit véhicule autonome (10) par au moins un capteur de détection d’objet embarqué sur ledit véhicule autonome (10) ; ou
    - une position coïncidant avec un axe de vision principale (2100) dudit champ de vision (210).
  4. Procédé selon l’une quelconque des revendications 1 à 3, pour lequel ledit état d’attention étant déterminé comme correspondant à un état inattentif dudit conducteur lorsque :
    - ledit résultat de la comparaison indique que le regard dudit conducteur ne suit pas ladite séquence déterminée de la pluralité de positions (11, 12, 13) ; et/ou
    - le regard dudit conducteur n’est pas maintenu sur une direction de circulation dudit véhicule autonome (10) pendant une durée au moins égale à une durée déterminée, et
    ledit état d’attention étant déterminé comme correspondant à un état attentif dudit conducteur lorsque :
    - ledit résultat de la comparaison indique que le regard dudit conducteur suit ladite séquence déterminée de la pluralité de positions (11, 12, 13) ; et/ou
    - le regard dudit conducteur est maintenu sur une direction de circulation dudit véhicule autonome (10) pendant une durée au moins égale à une durée déterminée.
  5. Procédé selon la revendication 4, comprenant en outre un rendu d’une alerte sonore lorsque ledit état d’attention correspond à l’état inattentif.
  6. Procédé selon la revendication 4 ou 5, pour lequel ladite pluralité de positions (11, 12, 13) comprend trois positions, ledit au moins un objet graphique clignotant à une fréquence déterminée pour au moins une des trois positions (11, 12, 13), la projection dudit au moins un objet graphique prenant fin lorsque ledit état d’attention est déterminé comme correspondant à l’état attentif dudit conducteur.
  7. Procédé selon l’une quelconque des revendications 1 à 6, comprenant en outre une étape de détection d’au moins un objet devant ledit véhicule autonome (10) représentatif d’un danger de collision avec ledit véhicule autonome (10), ladite pluralité de positions (11, 12, 13) prises par ledit au moins un objet graphique correspondant à différentes positions prises par ledit au moins un objet relativement audit véhicule autonome (10), une alerte sonore étant rendu lorsque ledit résultat de la comparaison indique que le regard dudit conducteur ne suit pas ladite séquence déterminée à échéance d’un délai déterminé à compter de ladite détection.
  8. Programme d’ordinateur comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur.
  9. Dispositif (3) de détermination d’un état d’attention d’un conducteur d’un véhicule autonome, ledit dispositif (3) comprenant une mémoire (31) associée à au moins un processeur (30) configuré pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 1 à 7.
  10. Véhicule (10) comprenant le dispositif (3) selon la revendication 9.
FR2104483A 2021-04-29 2021-04-29 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome Pending FR3122391A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2104483A FR3122391A1 (fr) 2021-04-29 2021-04-29 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2104483A FR3122391A1 (fr) 2021-04-29 2021-04-29 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome
FR2104483 2021-04-29

Publications (1)

Publication Number Publication Date
FR3122391A1 true FR3122391A1 (fr) 2022-11-04

Family

ID=76283994

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2104483A Pending FR3122391A1 (fr) 2021-04-29 2021-04-29 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome

Country Status (1)

Country Link
FR (1) FR3122391A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132319A1 (en) * 2004-12-08 2006-06-22 Denso Corporation Driver fatigue assessment device and method
US20160046295A1 (en) * 2014-08-14 2016-02-18 Robert Bosch Gmbh Method and device for determining a reaction time of a vehicle driver
DE102017209793A1 (de) * 2017-06-09 2018-12-13 Robert Bosch Gmbh Verfahren zum Betreiben eines Kraftfahrzeugs, Fahrerassistenzsystem
US20210053586A1 (en) * 2019-08-20 2021-02-25 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for improving visual scanning behavior associated with controlling a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132319A1 (en) * 2004-12-08 2006-06-22 Denso Corporation Driver fatigue assessment device and method
US20160046295A1 (en) * 2014-08-14 2016-02-18 Robert Bosch Gmbh Method and device for determining a reaction time of a vehicle driver
DE102017209793A1 (de) * 2017-06-09 2018-12-13 Robert Bosch Gmbh Verfahren zum Betreiben eines Kraftfahrzeugs, Fahrerassistenzsystem
US20210053586A1 (en) * 2019-08-20 2021-02-25 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for improving visual scanning behavior associated with controlling a vehicle

Similar Documents

Publication Publication Date Title
JP7210589B2 (ja) ダイナミックレンジを拡大するための複数の動作モード
FR3045177A1 (fr) Procede de controle d'une fonctionnalite d'un vehicule automobile au moyen d'un terminal mobile
FR2963601A1 (fr) Procede et dispositif pour determiner une vitesse de circulation adaptee d'un vehicule
FR3096948A1 (fr) Procédé de calcul de la position latérale d'un véhicule automobile
EP3931056B1 (fr) Régulation de la vitesse d'un véhicule lors d'un dépassement en virage
EP3646306A1 (fr) Procédé de signalement d'une suggestion d'un comportement et terminal associé
FR2977851A1 (fr) Commande de regulation de vitesse d'un vehicule
FR3122391A1 (fr) Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome
EP4352305A1 (fr) Procédé et dispositif de désactivation de système d'aide à la conduite
FR3119817A1 (fr) Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR3118616A1 (fr) Procédé et dispositif d’alerte anticollision et/ou de freinage d’urgence
EP4090565B1 (fr) Procédé et dispositif de contrôle d'un vehicule
FR3142150A1 (fr) Procédé et dispositif d’aide au stationnement d’un deuxième véhicule par un premier véhicule stationné
WO2023002098A1 (fr) Procédé et dispositif de contrôle d'ouverture de porte de véhicule
WO2023002099A1 (fr) Procédé et dispositif de contrôle d'un système de régulation adaptative de vitesse d'un véhicule
EP4377939A1 (fr) Procédé et dispositif d'alerte de véhicules circulant en sens inverse sur une même voie de circulation
FR3141913A1 (fr) Procédé et dispositif de surveillance d’un véhicule
FR3142154A1 (fr) Procédé et dispositif de rendu d’un message d’autorisation d’un changement de voie
FR3107024A1 (fr) Procédé et dispositif de contrôle d’un véhicule
FR3139532A1 (fr) Procédé de détection d’une collision prochaine, procédé d’étalonnage d’un système de détection de collision et véhicule automobile associé
FR3104093A1 (fr) Procédé et dispositif de contrôle d’un capteur LIDAR embarqué dans un véhicule
FR3131261A1 (fr) Procédé et dispositif d’alerte sur un véhicule circulant dans un environnement routier
FR3126163A1 (fr) Procédé et dispositif d’affichage d’une alerte en approche d’un panneau de stop
FR3135241A1 (fr) Procédé et dispositif de contrôle d’un système d’indication d’une limite de vitesse d’un véhicule
FR3140845A1 (fr) Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20221104

PLFP Fee payment

Year of fee payment: 3