FR2963916B1 - Appareil pour faire fonctionner un objet mobile - Google Patents

Appareil pour faire fonctionner un objet mobile Download PDF

Info

Publication number
FR2963916B1
FR2963916B1 FR1157445A FR1157445A FR2963916B1 FR 2963916 B1 FR2963916 B1 FR 2963916B1 FR 1157445 A FR1157445 A FR 1157445A FR 1157445 A FR1157445 A FR 1157445A FR 2963916 B1 FR2963916 B1 FR 2963916B1
Authority
FR
France
Prior art keywords
vehicle
moving object
point
driver
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
FR1157445A
Other languages
English (en)
Other versions
FR2963916A1 (fr
Inventor
Hiroshi Inou
Mamoru Sawada
Seiji Totsuka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of FR2963916A1 publication Critical patent/FR2963916A1/fr
Application granted granted Critical
Publication of FR2963916B1 publication Critical patent/FR2963916B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)

Abstract

Dans un appareil d'assistance à la conduite d'un objet mobile, un calculateur (26f) de composantes de boucle projette le mouvement relatif d'une zone d'environnement dans un système de coordonnées formé par modélisation d'une sphère rétinienne d'un conducteur de l'objet mobile. Le calculateur (26f) de composantes de boucle calcule chacune des composantes rotationnelles du mouvement relatif projeté de la zone d'environnement autour d'une direction de l'œil du conducteur correspondante jusqu'au point de regard. Un dispositif de définition de trajectoire cible (26g) définit, en tant que trajectoire cible de l'objet mobile, une ligne d'amplitude égale reliant une partie des composantes rotationnelles du mouvement relatif projeté de la zone d'environnement, la partie des composantes rotationnelles ayant une même amplitude.

Description

APPAREIL D'ASSISTANCE A LA CONDUITE D'UN OBJET MOBILE SUR LA BASE DE LA POSITION CIBLE DE CELUI-CI
La présente invention concerne les appareils de définition d'une trajectoire cible (lieu de déplacement) d'un objet mobile, et d'assistance à la conduite de l'objet mobile sur la base de la trajectoire cible définie.
Le demandeur à l'origine de la présente demande a déjà déposé la demande de brevet US n° 12/462 416 correspondant à la demande de brevet japonais n° 2008-203410. La publication de la demande de brevet US n° 2010/0 036 563 de la demande de brevet US correspondant à la publication de la demande de brevet japonais n°2010-036777 décrit un appareil d'assistance au déplacement pour un objet mobile. L'appareil d'assistance au déplacement définit virtuellement, sur une zone autour de l'objet mobile, une pluralité de points de référence. L'appareil d'assistance au déplacement définit en particulier virtuellement, sur une route sur laquelle l'objet mobile est censé se déplacer, une pluralité de rangées de points de référence espacés de manière régulière. L'appareil d'assistance au déplacement convertit le mouvement relatif de chacun des points de référence par rapport à l'objet mobile en mouvement relatif d'un point de référence correspondant sur un système de coordonnées formé par modélisation d'une sphère rétinienne d'un conducteur de l'objet mobile. Le mouvement relatif de chaque point de référence sur le système de coordonnées par rapport à l'objet mobile représente le mouvement relatif visuel d'un point de référence correspondant par rapport à l'objet mobile, en d'autres termes, des informations de mouvement de chaque point de référence relatives à l'objet mobile sur la rétine du conducteur.
Ensuite, l'appareil d'assistance au déplacement définit, sur la base du mouvement relatif visuel de chaque point de référence par rapport à l'objet mobile, un point de regard du conducteur et une trajectoire (lieu de déplacement) de l'objet mobile.
La définition d'une trajectoire de l'objet mobile sur la base du mouvement relatif visuel de chaque point de référence par rapport à l'objet mobile, qui correspond à la reconnaissance visuelle du conducteur d'un point de référence correspondant, permet le contrôle d'une trajectoire de l'objet mobile ; la trajectoire contrôlée de l'objet mobile est associée à la sensation du conducteur. Ceci permet d'assister de façon appropriée la conduite de l'objet mobile par le conducteur sans provoquer d'inconfort chez le conducteur.
Les inventeurs ont découvert qu'il existe un point à améliorer dans la publication du brevet susmentionné. L'appareil d'assistance au déplacement décrit dans la publication de brevet définit virtuellement, sur la route sur laquelle l'objet mobile se déplace, une pluralité de rangées de points de référence espacés de manière régulière en tant que points candidats d'un lieu de déplacement de l'objet mobile, les points de référence de chaque rangée étant orthogonaux à la direction longitudinale de la route. L'appareil d'assistance au déplacement calcule le mouvement relatif visuel de chaque point de référence par rapport à l'objet mobile. Ensuite, l'appareil d'assistance au déplacement définit, comme point de regard, un point de référence ayant le mouvement relatif visuel minimal dans tous les points de référence, et détermine, comme point de trajectoire, un point de référence ayant le mouvement relatif visuel minimal dans tous les points de référence de chaque rangée. L'appareil d'assistance au déplacement relie les points de trajectoire des rangées respectives des points de référence jusqu'au point de regard afin de déterminer la trajectoire de l'objet mobile.
Le procédé de détermination de la trajectoire de l'appareil d'assistance au déplacement énoncé ci-dessus peut déterminer une trajectoire correcte d'un objet mobile si l'objet mobile passe à une condition d'état stable (rayon de braquage constant, angle de braquage constant et vitesse constante) sur un virage d'une route. Cependant, si l’objet mobile effectue un virage sur une route alors que son rayon de braquage est modifié, la position du point de trajectoire de chaque rangée des points de référence peut être décalée latéralement. Ce décalage latéral de la position du point de trajectoire dans chaque rangée des points de référence peut rendre non uniforme la trajectoire déterminée de l'objet mobile basée sur les points de trajectoire et le point de regard. Ainsi, il existe une exigence de détermination correcte d'une trajectoire d'un objet mobile même si l'objet mobile prend un virage lorsque son rayon de braquage est modifié.
Au vu des circonstances énoncées ci-dessus, un aspect de la présente description cherche à proposer des appareils d'assistance à la conduite d'un objet mobile, qui sont conçus pour répondre à l'exigence énoncée ci-dessus.
Un autre aspect de la présente description vise en particulier à proposer de tels appareils pour déterminer correctement une trajectoire cible d'un objet mobile même si l'objet mobile prend un virage lorsque son rayon de braquage est modifié.
Un aspect de la présente invention propose un appareil d'assistance à la conduite d'un objet mobile. L'appareil comprend un dispositif de définition du point de regard qui définit un point de regard d'un conducteur de l'objet mobile, un détecteur de mouvement qui détecte le mouvement relatif d'une zone d’environnement autour de l'objet mobile par rapport à l'objet mobile, et un calculateur de composantes de boucle. Le calculateur de composantes de boucle projette le mouvement relatif de la zone d’environnement dans un système de coordonnées, le système de coordonnées étant formé par modélisation d'une sphère rétinienne du conducteur de l'objet mobile. Le calculateur calcule chacune des composantes rotationnelles du mouvement relatif projeté de la zone d’environnement autour d'une direction correspondante de l'œil du conducteur au point de regard. L'appareil comprend un dispositif de définition de trajectoire cible qui définit, comme trajectoire cible de l'objet mobile, une ligne d'amplitude égale reliant une partie des composantes rotationnelles du mouvement relatif projeté du de la zone d’environnement, la partie des composantes rotationnelles ayant une même amplitude, et un dispositif d'assistance qui assiste la conduite de l'objet mobile sur la base de la trajectoire cible de l'objet mobile définie par le dispositif de définition de la trajectoire cible.
Les inventeurs de la présente demande se sont concentrés sur le fait que, lorsque l'objet mobile amorce un virage sur une route depuis une partie rectiligne de celle-ci, chaque composante de la boucle du mouvement relatif projeté change dynamiquement en fonction du changement de la forme de la route et du changement du point de regard du conducteur. En particulier, si la route décrit un virage à droite de telle sorte que le point de regard du conducteur est fixé sur le virage de la route, les niveaux d'amplitude de certaines des composantes de la boucle proches du côté droit de la route sont supérieurs à ceux des composantes restantes, et les niveaux d'amplitude des composantes de boucle sont progressivement réduits du côté droit de la route vers le côté gauche de celle-ci.
En revanche, si la route décrit un virage vers la gauche de telle sorte que le point de regard du conducteur est fixé sur le virage de la route, les niveaux d'amplitude de certaines des composantes de boucle proches du côté gauche de la route sont supérieurs à ceux des composantes de boucle restantes, et les niveaux d'amplitude des composantes de boucle sont progressivement réduits du côté gauche de la route vers le côté droit de celle-ci.
Comme décrit ci-dessus, la répartition des niveaux d'amplitude des composantes de boucle change de manière dynamique en fonction du changement de forme de la route et/ou du changement du point de regard en raison du changement de forme de la route. De plus, la répartition des niveaux d'amplitude des composantes de boucle varie d'un côté de la route dans son sens transversal à l'autre côté de celle-ci. Ainsi, une ligne d'amplitude égale reliant les composantes de boucle qui sont identiques les unes aux autres est appropriée pour la trajectoire cible de l'objet mobile.
Ainsi, selon un aspect de la présente description, chacune des composantes rotationnelles du mouvement relatif projeté de la zone d’environnement autour d'une direction correspondante de l'œil du conducteur à la direction du point de regard est calculée. Une ligne d'amplitude égale reliant une partie des composantes rotationnelles du mouvement relatif projeté du de la zone d’environnement est définie en tant que trajectoire cible de l'objet mobile ; la partie des composantes rotationnelles ayant une même amplitude.
Ainsi, même si l'objet mobile effectue un virage alors que son rayon de braquage est modifié, il est possible de déterminer de manière appropriée la trajectoire cible de l'objet mobile sur la base de la ligne d'amplitude égale puisque la répartition des niveaux d'amplitude des composantes de boucle change de manière dynamique en fonction du changement du rayon de braquage de l'objet mobile.
Les caractéristiques et/ou avantages ci-dessus et/ou autres caractéristiques et/ou avantages des divers aspects de la présente description seront en outre appréciés eu égard à la description suivante effectuée en conjugaison avec les dessins joints. Divers aspects de la présente description peuvent comprendre et/ou exclure différentes caractéristiques et/ou différents avantages le cas échéant. De plus, divers aspects de la présente description peuvent combiner le cas échéant une ou plusieurs caractéristique(s) d'autres modes de réalisation. Les descriptions des caractéristiques et/ou avantages de modes de réalisation particuliers ne doivent pas être interprétées comme limitant d'autres modes de réalisation ou les revendications. D'autres aspects de la présente description ressortiront clairement à la lecture de la description suivante d'un mode de réalisation en référence aux dessins joints sur lesquels :
La figure 1 est un schéma de principe d'un appareil d'assistance à la conduite selon un mode de réalisation de la présente description ; la figure 2A est un organigramme illustrant schématiquement une tâche d'assistance à la conduite devant être exécutée par une unité de calcul électronique d'assistance à la conduite selon le mode de réalisation de l’invention illustré sur la figure 1 ; la figure 2B est une vue illustrant schématiquement une pluralité de points définis dans une zone prédéterminée dans une zone d’environnement de circulation autour d'un véhicule selon le mode de réalisation de l’invention ; la figure 3A est une vue illustrant schématiquement des composantes de divergence s'étendant radialement depuis un point de regard selon le mode de réalisation de l’invention; la figure 3B est une vue illustrant schématiquement des composantes de boucle tournant autour du point de regard selon le mode de réalisation de l’invention ; la figure 4A est une vue illustrant schématiquement une relation entre un axe X et un axe Y d'un système de coordonnées orthogonales définies par 1’ unité de calcul électronique d'assistance à la conduite selon le mode de réalisation de l’invention ; la figure 4B est une vue illustrant schématiquement le système de coordonnées orthogonales définies par l’unité de calcul électronique d'assistance à la conduite selon le mode de réalisation de l’invention; la figure 4C est une vue illustrant schématiquement une relation entre le système de coordonnées orthogonales et le système de coordonnées d’une sphère rétinienne, défini par l’unité de calcul électronique d'assistance à la conduite selon le mode de réalisation de l’invention ; la figure 5 est une vue illustrant schématiquement des lignes d'amplitude égale selon le mode de réalisation de l’invention ; la figure 6 est une vue illustrant schématiquement que le rayon de courbure de la trajectoire actuelle est supérieur à celui de la trajectoire cible de telle sorte que le véhicule a tendance à sous-virer selon le mode de réalisation de l’invention ; la figure 7 est une vue illustrant schématiquement que le rayon de courbure de la trajectoire actuelle est inférieur à celui de la trajectoire cible de telle sorte que le véhicule a tendance à sur-virer (voir figure 7), l’unité de calcul électronique d'assistance à la conduite 26 réduit le couple d'assistance à l'étape S160 selon le mode de réalisation ; la figure 8 est une vue illustrant schématiquement un instant au cours duquel l'écart entre le rayon de courbure de la trajectoire actuelle est supérieur à celui de la trajectoire cible selon le mode de réalisation de l’invention; la figure 9 est une vue illustrant schématiquement une relation entre le système de coordonnées orthogonales et un système de coordonnées de la sphère rétinienne définie par l’unité de calcul électronique d'assistance à la conduite selon le mode de réalisation de l’invention ; et la figure 10 est une vue illustrant schématiquement un point de regard, et une valeur absolue d'une vitesse de changement d'angle excentrique de chacun de la pluralité de points selon le mode de réalisation de l’invention.
Nous allons décrire un mode de réalisation de la présente invention ci-après en nous référant aux dessins joints.
Un exemple de la structure d'un appareil AP selon la présente description destiné à assister la conduite d’un véhicule, tel qu'un véhicule motorisé, qui peut parcourir une route est illustré sur la figure 1. Ce véhicule est un exemple de divers objets mobiles possibles. L'appareil AP installé dans le véhicule comprend un détecteur d'environnement 10, un détecteur de mouvement de véhicule 16, une unité de calcul électronique, ci-après appelée ECU, d'assistance à la conduite (bloc de Commande Electronique) 26, un actionneur de braquage 28, un commutateur de commande 30 et un appareil photo de capture de visage 32. Chacun des éléments 10, 16, 28, 30 et 32 est connecté de sorte à communiquer avec l'ECU d'assistance à la conduite 26.
Le détecteur d'environnement 10 comprend une base de données de cartes routières 12 et un capteur de position actuelle, tel qu'un récepteur GPS 14. La base de données (BD) de cartes routières 12 stocke des données de carte routière. Le capteur de position actuelle 14 sert à déterminer une position actuelle du véhicule. Le détecteur d'environnement 10 sert à détecter une zone d’environnement de circulation, tel qu'une zone de circulation, autour du véhicule, sur la base des données de carte routière stockées dans la base de données de cartes routières 12 et la position actuelle du véhicule déterminée par le capteur de position actuelle 14. Par exemple, le détecteur d'environnement 10 sert à mesurer, comme zone d’environnement de circulation autour du véhicule, la forme d'une route allant dans la direction du mouvement vers l'avant du véhicule par rapport à la position actuelle. Le détecteur d'environnement 10 sert également à envoyer le champ d'environnement de circulation détecté autour du véhicule à l'ECU d'assistance à la conduite 26.
Le détecteur de mouvement de véhicule 16 comprend un capteur d'accélération latérale 18, un capteur d'accélération verticale 20, un capteur de vitesse 22, et un capteur de vitesse de lacet 24.
Le capteur d'accélération latérale 18 sert à mesurer l'amplitude de mouvement du véhicule dans la direction latérale (direction transversale) du véhicule, et à produire un signal indicatif de l'amplitude de mouvement mesurée dans la direction latérale du véhicule vers l'ECU d'assistance à la conduite 26.
Le capteur d'accélération verticale 20 sert à mesurer l'amplitude de mouvement du véhicule dans la direction verticale (sens de la hauteur) du véhicule, et à produire un signal indicatif de l'amplitude de mouvement mesurée dans la direction verticale du véhicule vers l'ECU d'assistance à la conduite 26.
Le capteur de vitesse 22 sert à mesurer la vitesse du véhicule et à transmettre un signal indicatif de la vitesse mesurée du véhicule à l'ECU d'assistance à la conduite 26.
Le capteur de vitesse de lacet 24 sert à mesurer la vitesse de lacet du véhicule, et transmettre un signal indicatif de la vitesse de lacet mesurée du véhicule à l'ECU d'assistance à la conduite 26 ; la vitesse de lacet est une vitesse de changement d'un angle de braquage du véhicule dans sa direction de braquage.
Le commutateur de commande 30 est conçu pour être utilisable par le conducteur. Lorsqu'il est activé par le conducteur, le commutateur de commande 30 envoie, vers l'ECU d'assistance à la conduite 26, un signal de déclenchement pour démarrer une tâche d'assistance à la conduite. L'appareil photo de capture de visage 32 sert à capturer successivement des images du visage d'un conducteur du véhicule, et à transmettre successivement en sortie à l'ECU d'assistance à la conduite 26, les images du visage ainsi capturées successivement. L'ECU d'assistance à la conduite 26 est conçu, par exemple, par un circuit de micro-ordinateur normal constitué, par exemple, d'une unité centrale, d'un support d'enregistrement 26a comprenant une ROM (mémoire morte), telle qu'une ROM réinscriptible, une RAM (mémoire vive) et similaire, une interface d’entrée /sortie, etc. Le circuit de micro-ordinateur normal est défini dans ce mode de réalisation comme comprenant au moins une unité centrale et une mémoire principale de celle-ci.
Le support d'enregistrement 26a stocke au préalable différents programmes. L'ECU d'assistance à la conduite 26 comprend, comme modules fonctionnels, un détecteur d'iris 26b, un dispositif de définition de point de regard 26c, un détecteur de mouvement 26d, un projecteur 26e, un calculateur 26f, un dispositif de définition de trajectoire cible 26g, et un contrôleur 26h. Ces modules fonctionnels peuvent être mis en œuvre grâce à l'exécution d'un programme d'assistance à la conduite P inclus dans les divers programmes décrits ultérieurement.
Le détecteur d'iris 26b sert à détecter les positions des iris des deux yeux (au moins d'un œil) du conducteur sur la base des images du visage captées successivement.
Le dispositif de définition de point de regard 26c sert à déterminer, sur la base des positions des iris, la direction d'un point du regard du conducteur vers lequel la ligne de visée du conducteur est dirigée, définissant ainsi le point de regard du conducteur sur la base de la direction déterminée du point de regard du conducteur.
Le détecteur de mouvement 26d sert à détecter, sur la base des signaux mesurés des capteurs respectifs du détecteur de mouvement du véhicule 16, le mouvement relatif de la zone d’environnement autour du véhicule par rapport au conducteur.
Le projecteur 26e sert à projeter le mouvement relatif de la zone d’environnement autour du véhicule dans un système de coordonnées tridimensionnel formé par modélisation d'une sphère rétinienne du conducteur du véhicule en supposant que le conducteur observe le point de regard fixement.
Le calculateur 26f sert à calculer les composantes de boucle du mouvement relatif projeté de la zone d’environnement autour du véhicule ; une composante de boucle dans la zone d’environnement est une composante rotationnelle du mouvement relatif projeté de la zone d’environnement autour d'une direction correspondante de l'œil du conducteur vers le point de regard. C'est-à-dire que le calculateur 26f sert à obtenir les composantes rotationnelles du flux relatif de la zone d’environnement reconnu visuellement par le conducteur ; les composantes rotationnelles du flux relatif de la zone d’environnement sont chacune en rotation relative autour du point de regard par rapport au conducteur. Nous allons décrire en détail comment calculer les composantes rotationnelles ultérieurement.
Le dispositif de définition de trajectoire cible 26g sert à déterminer, en tant que trajectoire cible du véhicule, une ligne d'amplitude (de potentielle) égale reliant les composantes rotationnelles qui sont identiques les unes aux autres et s'étendant devant le véhicule. L'actionneur de braquage 28 sert à générer un couple d'assistance pour assister l'effort de braquage du conducteur du volant du véhicule.
Le contrôleur 26h sert à calculer, sur la base de la vitesse du véhicule et de la vitesse de lacet mesurée par le capteur de vitesse 22 et du capteur de vitesse de lacet 24, une trajectoire actuelle du véhicule lorsque, par exemple, le véhicule décrit un virage sur la route, et à contrôler l'actionneur de braquage 28 pour ajuster le couple d'assistance de telle sorte que la trajectoire actuelle du véhicule soit sensiblement associée à la trajectoire cible du véhicule.
Nous allons décrire ensuite la tâche d'assistance à la conduite devant être exécutée par l'ECU d'assistance à la conduite 26 selon le programme d'assistance à la conduite P ci-après en référence à la figure 2A. Par exemple, la tâche d'assistance à la conduite est démarrée par l'ECU d'assistance à la conduite 26 en réponse à la réception du signal de déclenchement provenant du commutateur de commande 30, et exécutée de manière cyclique tant que le signal de déclenchement est activé, en d'autres termes, le commutateur de commande 30 est activé.
Premièrement, l'ECU d'assistance à la conduite 26 capture les signaux mesurés produits par les capteurs 18, 20, 22 et 24 à l'étape S100. Ensuite, l'ECU d'assistance à la conduite 26 effectue un traitement d'image des images du visage captées successivement afin de détecter les positions des iris des deux yeux du conducteur sur la base des images du visage captées successivement à l'étape SI 10.
Suite à l'étape S110, l'ECU d'assistance de conduite 26 détermine, sur la base des positions des iris, la direction d'un point de regard du conducteur vers laquelle la ligne de visée du conducteur est dirigée.
Dans ce mode de réalisation, le détecteur d'environnement 10 est équipé de la base de données de carte routière 12 et du capteur de position actuelle 14. Pour cette raison, à l'étape S120, l'ECU d'assistance à la conduite 26 reconnaît, sur la base des données de carte routière stockées dans la base de données de carte routière 12 et de la position actuelle du véhicule déterminée par le capteur de position actuelle 14, la zone d’environnement de circulation autour du véhicule, tel que la forme d'une route passant dans la direction du déplacement vers l'avant du véhicule depuis la position actuelle. Ensuite, à l'étape S120, l'ECU d'assistance à la conduite 26 définit, dans la zone d’environnement de circulation reconnu autour du véhicule, le point de regard du conducteur sur la base de la direction déterminée du point de regard du conducteur vers lequel est dirigée la ligne de visée du conducteur.
Suite à l'étape S120, l'ECU d'assistance à la conduite 26 effectue un procédé de calcul de composante rotationnelle (une composante de boucle) énoncé ci-dessus à l'étape S130. Nous allons décrire en détail ci-après la façon de réaliser le procédé de calcul de la composante rotationnelle.
Premièrement, l'ECU d'assistance à la conduite 26 définit une pluralité de points P dans une zone prédéterminée AL, telle qu'une zone AL que le conducteur peut reconnaître visiblement, dans la zone d’environnement de circulation reconnu de l'étape S 130a. En d'autres termes, la pluralité de points P représente la zone d’environnement de circulation reconnu autour du véhicule.
La forme formée par l'agencement de la pluralité de points P peut être un motif matriciel, un motif concentrique, un motif ellipsoïdal ou similaire. Par exemple, la figure 2B illustre schématiquement un motif matriciel de la pluralité de points P dans la zone AL de la zone d’environnement de circulation.
Il est à noter que la pluralité de points P peut être définie de telle sorte qu'une relation de position entre chaque point P et le véhicule soit continuellement constante, ou ils peuvent être définis de manière fixe dans le champ d'environnement de circulation de telle sorte qu'une relation positionnelle relative entre chaque point P et le véhicule varie avec le déplacement du véhicule. Si la pluralité de points P sont définis de manière fixe dans le champ d'environnement de circulation de telle sorte qu'une relation positionnelle relative entre chaque point P et le véhicule varie avec le déplacement du véhicule, lorsque certains points P sur un côté proche du véhicule disparaissent de la zone AL, les points correspondants P sont nouvellement définis sur un côté éloigné du véhicule. Ceci permet de maintenir le nombre de points P constant indépendamment du déplacement du véhicule.
Suite à l'étape S 130a, l'ECU d'assistance à la conduite 26 détecte, sur la base des signaux mesurés du capteur d'accélération latérale 18, du capteur d'accélération verticale 20, du capteur de vitesse 22, et du capteur de vitesse de lacet 24, le mouvement du véhicule à l'étape S 130b. Ensuite, à l'étape S 130b, l'ECU d'assistance à la conduite 26 convertit le mouvement détecté du véhicule en mouvement relatif de la zone d’environnement de circulation par rapport au véhicule, à savoir, convertit le mouvement détecté du véhicule en mouvement relatif de chaque point P par rapport au véhicule, détectant ainsi le mouvement relatif de chaque point P par rapport au véhicule. C'est-à-dire que, puisque le flux (mouvement) de la zone d’environnement de circulation (route) visiblement reconnu par le conducteur résulte du mouvement relatif entre le conducteur et la zone d’environnement de circulation, il est possible de détecter le mouvement relatif de chaque point P par rapport au véhicule sur la base du mouvement du véhicule.
Suite à l'étape S 130b, l'ECU d'assistance à la conduite 26 projette le mouvement relatif de chaque point P dans un système de coordonnées tridimensionnel formé par modélisation d'une sphère rétinienne du conducteur du véhicule en supposant que le conducteur observe le point de regard fixement à l’étape S 130c ; Nous appellerons le système de coordonnées tridimensionnel "système de coordonnées de sphère rétinienne".
Ensuite l'ECU d'assistance à la conduite 26 calcule une composante de boucle du mouvement relatif projeté de chaque point P ; la composante de boucle du mouvement relatif projeté de chaque point P représente une composante rotationnelle du mouvement relatif projeté d'un point P correspondant autour d'une direction correspondante de l'œil du conducteur vers le point de regard de l'étape S130d. C'est-à-dire que le calculateur 26e calcule les composantes rotationnelles dans le flux relatif de la zone d’environnement reconnu visuellement par le conducteur ; les composantes rotationnelle du flux relatif de la zone d’environnement tournent chacune relativement autour du point de regard par rapport au conducteur à l'étape S130d.
En particulier, tandis que le véhicule se déplace, le conducteur du véhicule est visuellement conscient du mouvement du véhicule en reconnaissant visuellement le flux de la zone d’environnement autour du véhicule. Le flux de la zone d’environnement visuellement reconnaissable comprend les composantes de divergence (composantes divergentes) s'étendant radialement depuis le point de regard (voir figure 3A), et les composantes de boucle (composantes rotationnelles) tournant autour du point de regard (voir figure 3B). A l'étape S130d, l'ECU d'assistance à la conduite 26 calcule la composante de boucle de chaque point P au moyen de la procédure suivante.
Premièrement, l'ECU d'assistance à la conduite 26 définit, dans le support d'enregistrement 26a, un système de coordonnées orthogonales en définissant : le point de regard par rapport à un point cible, une direction depuis la position actuelle du véhicule (position du point de l'œil du conducteur) vers le point cible sur l'axe X, une direction orthogonale à l'axe X et s'étendant dans la direction latérale du véhicule sur l'axe Y, et une direction orthogonale aux axes X et Y et s'étendant dans la direction verticale du véhicule sur l'axe Z (voir figure 4A). Ensuite, comme illustré sur la figure 4B, l'ECU d'assistance à la conduite 26 obtient les coordonnées (x, y, z) de la pluralité de points P.
Comme le montre la figure 4C, le mouvement relatif d'un point A avec une coordonnée (x, y, z) à une distance R de l'origine du système de coordonnées orthogonales est projeté dans le système de coordonnées de la sphère rétinienne (voir étape S 130c). H est à noter que le point A dans le système de coordonnées orthogonales est converti en un point (une image) a (θ, φ) dans le système de coordonnées de la sphère rétinienne ; Θ représente l'angle d'azimut depuis l'axe X sur le plan X Y formé par l'axe X et l'axe Y, et φ représente l'angle d'élévation depuis l'axe X sur le plan X Z formé par l'axe X et l'axe Z.
Ensuite, l'ECU d'assistance à la conduite 26 calcule une composante φ de la boucle du mouvement relatif projeté de chaque point A dans le système de coordonnées de la sphère rétinienne dans l'équation suivante [1] :
où le point (·) sur une lettre représente la dérivée temps ‘d/dt (temps).
C'est-à-dire que, puisque la direction de la ligne de visée du conducteur vers le point de regard est définie comme l'axe X, une composante de boucle (rotation) autour de l'axe X peut être calculée, sur la base des coordonnées y et z et des composantes de l'axe y et z de la vitesse du véhicule, comme l'amplitude de la vitesse de véhicule dans le plan Y Z formé par l'axe Y et l'axe Z. La composante axe y de la vitesse du véhicule dans la direction de l'axe Y s'étendant dans la direction latérale du véhicule peut être obtenue sur la base du signal mesuré produit depuis le capteur d'accélération latérale 18. De même, la composante de l'axe z de la vitesse du véhicule dans la direction de l'axe Z s'étendant dans la direction verticale du véhicule peut être obtenue sur la base du signal mesuré produit depuis le capteur d'accélération verticale 20. L'ECU d'assistance à la conduite 26 calcule la composante de boucle du mouvement relatif projeté de chaque point P de la même manière que le point A à l'étape S130d.
Au terme du calcul de la composante de boucle du mouvement relatif projeté de chaque point P, l'ECU d'assistance à la conduite 26 passe à l'étape S140, et détermine, sur la base des composantes de boucle calculées des mouvements relatifs projetés des points P respectifs, une trajectoire cible du véhicule à l’étape S140. Nous allons décrire en détail ci-après la façon de déterminer la trajectoire cible du véhicule sur la base des composantes de boucle calculées des mouvements relatifs projetés des points P respectifs à l'étape S140.
Les inventeurs de la demande se sont concentrés sur le fait que, lorsque le véhicule amorce un virage sur la route depuis une partie rectiligne de celle-ci, la composante de boucle du mouvement relatif projeté de chaque point P change dynamiquement en fonction du changement de la forme de la route et du changement du point de regard du conducteur. En particulier, si la route décrit un virage vers la droite de telle sorte que le point de regard du conducteur est fixé sur le virage de la route (voir figure 5), les niveaux d'amplitude de certains des points P proches du côté droit de la route sont plus grands que ceux des points restants, et les niveaux d'amplitude des points P sont progressivement réduits depuis le côté droit de la route vers le côté gauche de celle-ci.
En revanche, si la route décrit un virage vers la gauche de telle sorte que le point de regard du conducteur est fixé sur le virage de la route, les niveaux d'amplitude de certains des points P proches du côté gauche de la route sont supérieurs à ceux des points restants, et les niveaux d'amplitude des points P sont progressivement réduits du côté gauche de la route vers le côté droit de celle-ci. Il est à noter que, sur la figure 5 sont illustrées cinq lignes d'amplitude égale reliant chacune les points dont les composantes de boucle sont identiques les unes aux autres. L'épaisseur de chacune des cinq lignes d'amplitude égale révèle un niveau d'amplitude correspondant. La figure 5 montre clairement que la ligne d'amplitude égale située le plus près du côté droit de la route est la plus épaisse des cinq lignes d'amplitude égale, de sorte que celle-ci a le niveau d'amplitude le plus élevé.
Comme décrit ci-dessus, la répartition des niveaux d'amplitude des points P change dynamiquement en fonction du changement de la forme de la route et/ou du changement du point de regard dû au changement de la forme de la route. De plus, la répartition des niveaux d'amplitude des points P varie depuis un côté de la route dans sa direction transversale vers l'autre côté de celle-ci. Ainsi, les lignes d'amplitude égale reliant chacune les points dont les composantes de boucle sont identiques les unes aux autres sont appropriées pour la trajectoire cible du véhicule.
Ainsi, à l'étape S140, l'ECU d'assistance à la conduite 26 détermine l'une des lignes d'amplitude égale comme trajectoire cible du véhicule. Ainsi, même si le véhicule vire sans que son rayon de braquage soit modifié, l'ECU d'assistance à la conduite 26 détermine de manière appropriée la trajectoire cible du véhicule sur la base des lignes d'amplitude égale puisque la répartition des niveaux d'amplitude des points P change dynamiquement en fonction du changement de rayon de braquage du véhicule.
De préférence, à l'étape S140, l'ECU d'assistance à la conduite 26 détermine, comme trajectoire cible du véhicule, l'une des lignes d'amplitude égale, qui s'étend depuis l'extrémité avant du véhicule. Ceci permet l'assistance à la conduite du véhicule tout en maintenant sa trajectoire actuelle.
Il est à noter que la trajectoire cible du véhicule déterminée sur la base des lignes d'amplitude égale se trouve dans le système de coordonnées de la sphère rétinienne. Ainsi, afin de comparer facilement la trajectoire cible du véhicule avec une trajectoire actuelle du véhicule, l'ECU d'assistance à la conduite 26 convertit la trajectoire cible du véhicule dans le système de coordonnées de la sphère rétinienne en une trajectoire actuelle du véhicule dans un système de coordonnées orthogonales dont un axe, tel que l'axe Y, est aligné avec la direction de déplacement du véhicule. Les figures 6 et 7 illustrent deux exemples de la trajectoire cible convertie dans le système de coordonnées orthogonales, respectivement.
Suite à l'étape S140, l'ECU d'assistance à la conduite 26 calcule, sur la base de la vitesse du véhicule et de la vitesse de lacet, qui sont actuellement mesurées par les capteurs correspondants 22 et 24, une trajectoire actuelle du véhicule en supposant qu'une condition de braquage actuelle définie sur la base de la vitesse du véhicule et la vitesse de lacet mesurées actuellement est maintenue intacte au fil du temps à l'étape S150. En variante, la trajectoire actuelle peut être définie comme un prolongement de la trajectoire précédente. De plus, l'ECU d'assistance à la conduite 26 peut calculer la trajectoire actuelle sur la base de l'angle de braquage actuel du volant à la place de la vitesse de lacet ou en plus de celle-ci.
Suite à l'étape S150, l'ECU d'assistance à la conduite 26 compare la trajectoire cible à la trajectoire actuelle, et si la trajectoire cible est différente de la trajectoire actuelle, l'ECU d'assistance à la conduite 26 contrôle la trajectoire du véhicule de telle sorte que la trajectoire actuelle soit associée à la trajectoire cible à l'étape S160.
En particulier, à l'étape S160, l'ECU d'assistance à la conduite 26 ajuste le couple d'assistance de telle sorte que la trajectoire actuelle soit sensiblement associée à la trajectoire cible.
Par exemple, si le rayon de courbure de la trajectoire actuelle est supérieur à celui de la trajectoire cible de telle sorte que le véhicule a tendance à sous-virer (voir figure 6), l'ECU d'assistance à la conduite 26 augmente le couple d'assistance à l'étape S160. D'autre part, si le rayon de courbure de la trajectoire actuelle est plus petit que celui de la trajectoire cible de telle sorte que le véhicule a tendance à survirer (voir figure 7), l'ECU d'assistance à la conduite 26 réduit le couple d'assistance à l'étape S160.
Ensuite, l'ECU d'assistance à la conduite 26 détermine si le commutateur de commande 30 est désactivé (OFF), en d'autres termes, qu'aucun signal de déclenchement n'est entré depuis le commutateur de commande 30 à l'étape S170. Jusqu'à ce que la détermination de l'étape S170 soit affirmative (OUI), l'ECU d'assistance à la conduite 26 effectue cycliquement la tâche d'assistance à la conduite de l'étape S100 à l'étape S170. Lorsque la détermination de l'étape S170 est affirmative (OUI), l'ECU d'assistance à la conduite 26 termine la tâche d'assistance à la conduite. A l'étape S160, l'ECU d'assistance à la conduite 26 peut modifier les caractéristiques de braquage du véhicule afin de contrôler la trajectoire du véhicule.
Les caractéristiques de braquage peuvent être modifiées en modifiant l'équilibre des charges avant-arrière du véhicule. Le décalage de l'équilibre des charges vers l'avant améliore les caractéristiques de braquage. Ainsi, comme le montre la figure 6, si le rayon de courbure de la trajectoire actuelle est supérieur à celui de la trajectoire de cible de telle sorte que le véhicule ait tendance à sous-virer (voir figure 6), l'ECU d'assistance à la conduite 26 peut décaler la charge vers le côté roue avant. D'autre part, si l'équilibre des charges est décalé vers le côté roue arrière, la stabilité du véhicule est améliorée. Ainsi, si le rayon de courbure de la trajectoire actuelle est inférieur à celui de la trajectoire cible de telle sorte que le véhicule ait tendance à sur-virer (voir figure 7), l'ECU d'assistance à la conduite 26 peut décaler la charge vers le côté roue arrière du véhicule. Divers procédés peuvent être utilisés pour décaler l'équilibre des charges avant-arrière du véhicule. Par exemple, le contrôle de la force motrice et/ou de la force de freinage, ou la gestion des facteurs de stabilité peuvent décaler l'équilibre des charges avant-arrière du véhicule.
Il est à noter que, lors de l'étape S160, en considérant le retard de commande, comme le montre la figure 8, l'ECU d'assistance à la conduite 26 compare de préférence une position future du véhicule après un écoulement de N secondes sur la trajectoire actuelle avec une position future du véhicule après un écoulement de N secondes sur la trajectoire cible, et commande la trajectoire du véhicule sur la base de l'écart entre la position future du véhicule sur la trajectoire actuelle et celle du véhicule sur la trajectoire cible.
Comme décrit ci-dessus, l'appareil d'assistance à la conduite AP installé dans un véhicule selon ce mode de réalisation est configuré pour calculer une composante de boucle en mouvement relatif de chaque point P ; la composante de boucle du mouvement relatif de chaque point P représente une composante rotationnelle du mouvement relatif d'un point correspondant P autour d'une direction correspondante de l'œil du conducteur vers le point de regard. L'appareil d'assistance à la conduite AP selon ce mode de réalisation est également configuré pour déterminer, comme trajectoire cible du véhicule, l'une des lignes d'amplitude égale reliant chacune des points dont les composantes de boucle sont identiques les unes aux autres.
Ainsi, même si le véhicule braque avec son rayon de braquage modifié, la configuration de l'appareil d'assistance à la conduite AP détermine de manière appropriée la trajectoire cible du véhicule sur la base des lignes d'amplitude égale étant donné que la répartition des niveaux d'amplitude des points P change dynamiquement en fonction du changement du rayon de braquage du véhicule.
La présente description n'est pas limitée au mode de réalisation énoncé ci-dessus, et peut être modifiée ou déformée en restant dans la portée de la présente description.
Dans ce mode de réalisation, l'appareil d'assistance à la conduite AP est équipé de l'appareil photo de capture de visage 32 pour capturer successivement les images du visage du conducteur du véhicule, et l'appareil d'assistance à la conduite AP est configuré pour détecter les positions des iris des deux yeux du conducteur sur la base des images du visage capturées successivement, et définir, sur la base des positions des iris, le point de regard du conducteur. Cependant, la présente description n'est pas limitée à cette configuration.
En particulier, l'appareil d'assistance à la conduite AP peut être doté d'un appareil photo avant 32a monté sur le véhicule (voir lignes fantômes sur la figure 1), et peut être configuré pour représenter le mouvement de chacun d'une pluralité de points définis dans une image capturée par l'appareil photo avant en tant que vecteur, à savoir un flux optique, et définir, en tant que point de regard, un point présentant le flux optique minimal. Ceci vient du fait que, sur la base de théories psychologiques et autres constatations ainsi que sur la base de la connaissance empirique, nous savons que le conducteur regarde un point qui se déplace le moins dans la ligne de visée du conducteur. Dans ce cas, le dispositif de définition de point de regard 26c peut calculer le flux optique au niveau de chacun de la pluralité de points, ou peut calculer les flux optiques au niveau de certains de la pluralité de points ; ces points au niveau desquels les flux optiques sont calculés sont limités par leur présence sur la route. Un point présentant le flux optique minimal peut être choisi comme point de regard parmi certains de la pluralité de points ; ces points en tant que points candidats pour le point de regard sont limités par leur présence sur la route. A l'étape S120, l'ECU d'assistance à la conduite 26 peut convertir le mouvement détecté du véhicule par le détecteur de mouvement de véhicule 160 en mouvement relatif de la zone d’environnement de circulation par rapport au véhicule, c'est-à-dire, peut convertir le mouvement détecté du véhicule en mouvement relatif de chacun d'une pluralité de points P situés dans la zone prédéterminée AL dans la zone d’environnement de circulation reconnu par rapport au véhicule, détectant ainsi le mouvement relatif de chaque point P par rapport au véhicule. En se basant sur le mouvement relatif de chaque point P, l'ECU d'assistance à la conduite 26 peut définir, comme point de regard, un point présentant le mouvement relatif minimal par rapport au véhicule.
Dans cette modification, en supposant que le conducteur du véhicule regarde dans la direction de déplacement du véhicule, l'ECU d'assistance à la conduite 26 peut projeter le mouvement relatif de chaque point P dans le système de coordonnées de la sphère rétinienne formé par modélisation de la sphère rétinienne du conducteur du véhicule. Ensuite, l'ECU d'assistance à la conduite 26 calcule une quantité du mouvement relatif projeté de chaque point P ; la quantité du mouvement relatif observé de chaque point P.
Sur la figure 9 correspondant à la figure 4C, un système de coordonnées orthogonales est défini en définissant : la direction de déplacement du véhicule sur l'axe Y, une direction orthogonale à l'axe Y et s'étendant dans la direction latérale du véhicule sur l'axe X, et une direction orthogonale aux axes X et Y et s'étendant dans la direction verticale du véhicule sur l'axe Z. Ensuite, comme le montre la figure 9, l'ECU d'assistance à la conduite 26 obtient les coordonnées (x, y, z) de la pluralité de points P.
Comme le montre la figure 9, le mouvement relatif d'un point A avec une coordonnée (x, y, z) à une distance R par rapport à l'origine du système de coordonnées orthogonales est projeté dans le système de coordonnées de la sphère rétinienne. Il est à noter que le point A dans le système de coordonnées orthogonales est converti en un point (une image) a (θ, φ) dans le système de coordonnées de la sphère rétinienne ; θ représente l'angle d'azimut depuis l'axe X sur le plan X Y formé par l'axe X et l'axe Y, et φ représente l'angle d'élévation depuis l'axe X sur le plan X Z formé par l'axe X et l'axe Z. C'est-à-dire que, dans l'étape S120, l'ECU d'assistance à la conduite 26 calcule, comme mouvement observé, une vitesse de changement absolu d'angle excentrique ω de l'image a selon l'équation [2] suivante :
où V représente la vitesse du véhicule, et γ représente la vitesse de lacet. L'équation [2] est obtenue de la manière suivante. L'angle excentrique ω est représenté en utilisant l'angle d'azimut Θ et l'angle d'élévation φ tel que représenté dans l'équation [3] suivante : ω = cos''(cos cpcos Θ) [3]
De plus, la relation entre l'angle Θ, l'angle φ, conjointement avec l'excentrique ω dans le système de coordonnées rétiniennes et les coordonnées (x, y, z) dans le système de coordonnées orthogonales illustré sur la figure 9 est représentée par les équations [4] à [8] suivantes :
De plus, lorsque la formule indiquée en tant qu'équation [9] suivante est employée pour différencier l'équation [3], l'équation [10] suivante est obtenue :
Lorsque la vitesse du véhicule V et la vitesse de lacet γ sont prises en considération, les valeurs différenciées de Θ et φ sont calculées, sur la base des équations [4] et [5], en tant que les équations [11] et [12] suivantes :
La substitution des équations [11] et [12] dans l'équation [10] établit l'équation [2].
A l'étape S120, l'ECU d'assistance à la conduite 26 peut successivement calculer, en fonction de l'équation [2], les vitesses de changement des points P respectifs en utilisant les positions (θ, φ), la distance R, la vitesse du véhicule V et la vitesse de lacet γ. La vitesse de changement de chaque point P représente la quantité de mouvement relatif dans la sensation visuelle du conducteur puisqu'elle est calculée sur la base du système de coordonnées de la sphère rétinienne. A savoir, l'ECU d'assistance à la conduite 26 peut convertir le mouvement relatif physique de chaque point P situé dans la zone prédéterminée AL en mouvement relatif visuel. A l'étape S120, l'ECU d'assistance à la conduite 26 définit le point de regard du conducteur sur la base de la vitesse de changement de l'angle excentrique de chacun des points P. En particulier, la figure 10 illustre schématiquement les valeurs absolues des vitesses de changement d'angle excentrique des points P respectifs, chacun étant représenté par un segment ayant une longueur proportionnelle. Comme le montre la figure 10, l'ECU d'assistance à la conduite 26 cherche l'ensemble des valeurs absolues des vitesses de changement de l'angle excentrique pour trouver la valeur absolue minimale d'un point P en tant que point de regard.
Il est à noter que, comme le conducteur est censé regarder un point sur la route tout en conduisant le véhicule, une position du point de regard peut être limitée sur la route à l'avant du véhicule.
Dans le mode de réalisation susmentionné, l'appareil d'assistance à la conduite AP détecte le mouvement du véhicule, et convertit le mouvement détecté du véhicule en mouvement relatif du champ d'environnement de circulation par rapport au véhicule, mais la présente description n'est pas limitée à ce mode de réalisation.
En particulier, l'appareil d'assistance à la conduite AP peut être configuré pour détecter, au moyen d'une unité de détection d'objet, telle qu'un laser millimétrique, un laser-radar, un appareil photo stéréoscopique, des informations de position, telles qu'une direction d'azimut et une distance par rapport au véhicule, d'au moins un objet stationnaire existant dans la zone d’environnement de circulation, détectant ainsi le mouvement de l'au moins un objet stationnaire. En tant que l'au moins un objet stationnaire devant être détecté, un point sur la surface de la route à l'avant du véhicule, une glissière de sécurité, un marqueur ou similaire peut être utilisé. L'appareil d'assistance à la conduite AP peut détecter le mouvement relatif de l'au moins un objet stationnaire dans le système de coordonnées de la sphère rétinienne sur la base des informations positionnelles de l'au moins un objet stationnaire.
Dans le mode de réalisation susmentionné, l'appareil d'assistance à la conduite AP projette, dans le système de coordonnées de la sphère rétinienne, le mouvement relatif de chacun de la pluralité de points P situés dans la zone AL de la zone d’environnement de circulation, et calcule une composante de boucle du mouvement relatif projeté de chaque point P, mais la présente description n'est pas limitée à ce mode de réalisation.
En particulier, puisqu'une trajectoire cible devrait être définie sur la route que le véhicule est censé emprunter, les points P peuvent être définis sur la route que le véhicule est censé emprunter. Ceci réduit la charge de traitement de l'ECU d'assistance à la conduite 26.
La trajectoire cible peut être affichée sur une unité d'affichage, telle qu'un affichage tête haute ou similaire sans exécution du contrôle de trajectoire du véhicule.
Dans le mode de réalisation susmentionné, le véhicule est utilisé comme exemple d'objets mobiles de la présente description. Cependant, d'autres types d'objets mobiles, tels qu'un avion, une motocyclette, un fauteuil roulant et similaire peuvent également être utilisés comme objet mobile de la présente description.
Bien qu'un mode de réalisation illustratif de la présente description ait été décrit dans les présentes, la présente description n'est pas limitée au mode de réalisation décrit ici, mais inclut n'importe lequel et l'ensemble des modes de réalisation présentant des modifications, des omissions, des combinaisons (par exemple, d'aspects de divers modes de réalisation), des adaptations et/ou des variantes, comme l'apprécierait l'homme du métier sur la base de la présente description. Les limites dans les revendications doivent être interprétées au sens large sur la base du langage employé dans les revendications, sans se borner aux exemples décrits dans le présent Mémoire ou lors de la poursuite de la demande, lesquels exemples doivent être interprétés comme non-exclusifs.

Claims (4)

  1. REVENDICATIONS
    1. Appareil d'assistance à la conduite d'un objet mobile, l'appareil comprenant : un dispositif de définition de point de regard (26c) qui définît un point de regard dïm conducteur de l'objet mobile ; un détecteur de mouvement (26d) qui détecte le mouvement relatif d’une zone d’environnement autour de l'objet mobile par rapport à l'objet mobile : un calculateur (26f) de composantes de boucle qui. : - projette le mouvement relatif de la zone d’environnement dans un système de coordonnées, le système de coordonnées étant formé par modélisation d'une sphère rétinienne du conducteur de l'objet mobile, et - calcule chacune des composantes rotationnelles du mou vement relatif projeté de la zone d’environnement autour d'une direction correspondante de l'œil du conducteur vers le point de regard ; un dispositif de définition de trajectoire cible (26g) ; et un dispositif d’assistance qui assiste la conduite de l'objet mobile sur la base de la trajectoire cible de l'objet mobile définie par le dispositif de définition de trajectoire cible, caractérisé en ce que le dispositif de définition de trajectoire cible (26g) définit, en tant que trajectoire cible de l'objet mobile, une ligne d'amplitude égale reliant une partie des composantes rotationnelles du mouvement relatif projeté, ladite partie des composantes rotationnelles ayant une même amplitude.
  2. 2. Appareil selon la. revendication 1, dans lequel l'objet mobile est un véhicule qui se déplace sur une route, et le détecteur de mouvement (26d) est configuré pour définir une pluralité de points sur une surface, de la route dans une direction de déplacement du véhicule dans la zone d'environnement en tant que paramètres indicatifs la zone d’environnement, et détecter le mouvement relatif de chacun de la pluralité de points par rapport, à l'objet mobile en tant que mouvement relatif de la zone d’environnement autour de l'objet mobile. 3. Appareil selon la revendication 2, dans lequel le détecteur de mouvement comprend : une unité de stockage de carte routière (12) qui stocke des données de carte routière ; un détecteur de position actuelle (14) qui détecte une position actuelle du véhicule- ; et un détecteur de mouvement du véhicule (16) qui. détecte le mouvement du véhicule dans une direction latérale du véhicule, et détecte le mouvement du véhicule dans une direction verticale du véhicule, le détecteur de mouvement (16) étant configuré pour définir, en tant que zone d’environnement autour du véhicule, une zone d’environnement de circulation autour du véhicule sur la base des données de la carte routière et de la position actuelle du véhicule, et pour détecter le mouvement relatif de chacun de la pluralité de points par rapport à l'objet mobile dans la zone d’environnement de circulation sur la base du mouvement détecté du véhicule dans la direction latérale et du mouvement détecté du véhicule dans la direction verticale.
  3. 4. Appareil selon la revendication 1, dans lequel les lignes d'amplitude égale sont une pluralité de lignes, chacune de la pluralité de lignes d'amplitude égale reliant une partie correspondante des composantes rotationnelles du mouvement relatif projeté de la zone d’environnement, ladite partie des composantes rotationnelles ayant une même amplitude, et. le dispositif de définition de la trajectoire cible (26g) est configuré pour choisir l'une de la pluralité de lignes d'amplitude égale en tant que trajectoire cible de l'objet mobile, l'une de la pluralité de lignes d'amplitude égale s'étendant, à partir de l'extrémité avant de l'objet mobile dans la direction de déplacement de l’objet mobile jusqu'au point de regard. 5. Appareil selon la revendication 1, dans lequel le détecteur de mouvement (16) comprend en outre un détecteur de position qui. détecte une position d'un objet stationnaire existant dans la zone d’environnement en tant que paramètre indicatif de la zone d’environnement, et détecte le mouvement relatif de la zone d’environnement sur la base de la position détectée de l'objet stationnaire. 6. Appareil selon la revendication 1, dans lequel le dispositif de définition de point de regard (26c) est configuré pour définir, en tant que point de regard, un point du mouvement relatif projeté de la zone d’environnement, le point du mouvement relatif projeté de la zone d’environnement est. le mouvement relatif minimal coniparat.ivenient à un autre point du mouvement relatif projeté de la zone d’environnement.
  4. 7. Appareil selon la revendication 1, comprenant en outre un appareil photo de conducteur (32) qui capture une image du conducteur, l'image comprenant au moins un œil du conducteur, et le dispositif de définition de point de regard (26c) est configuré pour analyser l'image, et définir le point de regard sur la base d'un résultat de l'analyse de l'image. 8. Appareil selon la revendication 1, comprenant en outre un appareil, photo avant (32a) capturant successivement des images dans une direction de déplacement du véhicule, et. le dispositif de définition de point de regard (26c) est. configuré pour définir le point de regard sur la base des flux optiques dans chacune des images capturées. 9. Appareil selon la revendication 1, dans lequel le dispositif d'assistance est configuré pour calculer une trajectoire actuelle de l'objet mobile sur la base d'une condition de mouvement, actuel de l’objet mobile, et. commande une trajectoire de l'objet mobile sur la base d'un résultat, d'une comparaison entre la trajectoire actuelle de l’objet mobile et. la trajectoire cible de l'objet mobile.
FR1157445A 2010-08-23 2011-08-22 Appareil pour faire fonctionner un objet mobile Expired - Fee Related FR2963916B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010186412A JP4978721B2 (ja) 2010-08-23 2010-08-23 運転支援装置
JP2010186412 2010-08-23

Publications (2)

Publication Number Publication Date
FR2963916A1 FR2963916A1 (fr) 2012-02-24
FR2963916B1 true FR2963916B1 (fr) 2019-06-21

Family

ID=45561319

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1157445A Expired - Fee Related FR2963916B1 (fr) 2010-08-23 2011-08-22 Appareil pour faire fonctionner un objet mobile

Country Status (5)

Country Link
US (1) US8401714B2 (fr)
JP (1) JP4978721B2 (fr)
CN (1) CN102407849B (fr)
DE (1) DE102011081370B4 (fr)
FR (1) FR2963916B1 (fr)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2752357B1 (fr) * 2011-08-31 2017-08-09 Toyota Jidosha Kabushiki Kaisha Dispositif de commande de la conduite d'un véhicule
FR3006817B1 (fr) * 2013-06-10 2016-11-18 Hispano Suiza Sa Dispositif et procede d'assistance d'un systeme de generation electrique d'un aeronef
JP6108974B2 (ja) * 2013-06-14 2017-04-05 日立オートモティブシステムズ株式会社 車両制御システム
JP5947279B2 (ja) * 2013-12-20 2016-07-06 株式会社デンソー 進路推定装置,及びプログラム
JP6206258B2 (ja) * 2014-03-06 2017-10-04 富士通株式会社 軌跡推定装置、軌跡推定方法およびプログラム
JP6281405B2 (ja) * 2014-05-12 2018-02-21 株式会社デンソー 運転支援装置
EP2950294B1 (fr) * 2014-05-30 2019-05-08 Honda Research Institute Europe GmbH Procédé et véhicule avec un système d'assistance au conducteur pour une analyse de scène de trafic fondée sur le risque
US9747812B2 (en) 2014-10-22 2017-08-29 Honda Motor Co., Ltd. Saliency based awareness modeling
JP6390525B2 (ja) * 2015-06-04 2018-09-19 株式会社デンソー 運転支援装置
JP6723836B2 (ja) * 2016-06-03 2020-07-15 株式会社デンソーテン レーダ装置および信号処理方法
KR101896790B1 (ko) * 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
JP6919349B2 (ja) * 2017-06-09 2021-08-18 株式会社アイシン 走行支援システム
US11237554B2 (en) * 2018-03-08 2022-02-01 Steering Solutions Ip Holding Corporation Driver readiness assessment system and method for vehicle
FR3087734B1 (fr) * 2018-10-24 2020-11-27 Institut De Recherche Tech Systemx Procede d'aide a la conduite, systeme et vehicule associes
US11479245B2 (en) * 2019-02-14 2022-10-25 Honda Motor Co., Ltd. Semi-autonomous vehicle control system and method of controlling a semi-autonomous vehicle
GB2583898B (en) * 2019-04-17 2021-09-08 Jaguar Land Rover Ltd Control system for driver monitoring and steering control
US20210064030A1 (en) * 2019-08-27 2021-03-04 Yu-Sian Jiang Driver assistance for a vehicle and method for operating the same
CN113408331A (zh) * 2020-03-17 2021-09-17 株式会社斯巴鲁 注视对象检测装置
US20220280010A1 (en) * 2021-03-02 2022-09-08 Yujin Robot Co., Ltd. Moving path planning apparatus and method for robot
DE102021129244A1 (de) * 2021-11-10 2023-05-11 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem und Verfahren zum Betreiben eines Fahrassistenzsystems

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2701480B2 (ja) 1989-10-05 1998-01-21 富士電機株式会社 カップ式飲料自動販売機
JPH05270368A (ja) 1991-12-04 1993-10-19 Nec Corp 自動車速度制御システム
US5517021A (en) * 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JP3201094B2 (ja) 1993-09-16 2001-08-20 三菱自動車工業株式会社 車両用自動操舵装置
JPH07156818A (ja) 1993-12-08 1995-06-20 Mitsubishi Motors Corp 車両用自動操舵装置
DE19734307C2 (de) * 1997-08-08 1999-06-10 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
JPH11348696A (ja) * 1998-06-15 1999-12-21 Toyota Motor Corp 進行路形状推定装置及びこれを用いた走行支援装置
AU2003300514A1 (en) * 2003-12-01 2005-06-24 Volvo Technology Corporation Perceptual enhancement displays based on knowledge of head and/or eye and/or gaze position
JP4161923B2 (ja) * 2004-03-09 2008-10-08 株式会社デンソー 車両安定化制御システム
JP4277081B2 (ja) * 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
US7616782B2 (en) * 2004-05-07 2009-11-10 Intelliview Technologies Inc. Mesh based frame processing and applications
JP4622317B2 (ja) * 2004-05-31 2011-02-02 株式会社デンソー 経路案内装置及びプログラム
JP4835054B2 (ja) * 2005-07-12 2011-12-14 株式会社デンソー 車両安定化制御システム
DE102007040539B4 (de) * 2006-09-04 2014-03-27 Denso Corporation Fahrzeugsteuersystem
JP2008203410A (ja) 2007-02-19 2008-09-04 Toshiba Matsushita Display Technology Co Ltd 表示制御回路
US8301343B2 (en) * 2007-05-02 2012-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle behavior control device
JP2009292409A (ja) * 2008-06-09 2009-12-17 Yazaki Corp ヘッドアップディスプレイ装置
JP4735676B2 (ja) * 2008-08-06 2011-07-27 株式会社デンソー 走行支援装置
JP2010186412A (ja) 2009-02-13 2010-08-26 Hitachi Ltd 文書管理方法及び管理装置

Also Published As

Publication number Publication date
FR2963916A1 (fr) 2012-02-24
US8401714B2 (en) 2013-03-19
DE102011081370A1 (de) 2012-05-03
JP2012041020A (ja) 2012-03-01
CN102407849A (zh) 2012-04-11
DE102011081370B4 (de) 2021-03-18
CN102407849B (zh) 2014-09-03
JP4978721B2 (ja) 2012-07-18
US20120046802A1 (en) 2012-02-23

Similar Documents

Publication Publication Date Title
FR2963916B1 (fr) Appareil pour faire fonctionner un objet mobile
US10455882B2 (en) Method and system for providing rear collision warning within a helmet
EP3316068B1 (fr) Système autonome de prise de vues animées par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible
EP2893867B1 (fr) Détection d'inattention visuelle basée sur la convergence des yeux
EP2950521B1 (fr) Caméra capable de réduire le flou de mouvement dans un environnement de faible luminance et véhicule comprenant celle-ci
JP5989701B2 (ja) 境界検出装置および境界検出方法
JP5966640B2 (ja) 漫然運転検出装置及びプログラム
JP2019533209A (ja) 運転者監視のためのシステム及び方法
JP5358414B2 (ja) 漫然状態判定装置、方法及びプログラム
WO2010067770A1 (fr) Dispositif de détection de l'émergence d'objets tridimensionnels
FR2865307A1 (fr) Dispositif de determination du risque de collision
CN109501807B (zh) 自动驾驶注意力检测系统及方法
EP3306428A1 (fr) Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible
FR2997046A1 (fr) Systeme d'assistance de conduite et son procede de gestion
FR2987928A1 (fr) Appareil de surveillance de peripherie de vehicule
JP6683185B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP2010018201A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
KR20200050959A (ko) 화상 처리 디바이스, 화상 처리 방법, 및 프로그램
JP2007240422A (ja) 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
US20190266743A1 (en) Occupant monitoring apparatus
EP3579191B1 (fr) Estimation dynamique du tangage instantané et du roulis instantané d'une caméra embarquée dans un véhicule automobile
JP6717330B2 (ja) 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
WO2020110435A1 (fr) Dispositif de reconnaissance d'environnement extérieur
JP7014680B2 (ja) 注視対象物検知装置、注視対象物検知方法、およびプログラム

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLSC Publication of the preliminary search report

Effective date: 20180316

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

ST Notification of lapse

Effective date: 20230405