FR3052568A1 - Systeme embarque et procede de determination d'un cap - Google Patents

Systeme embarque et procede de determination d'un cap Download PDF

Info

Publication number
FR3052568A1
FR3052568A1 FR1655223A FR1655223A FR3052568A1 FR 3052568 A1 FR3052568 A1 FR 3052568A1 FR 1655223 A FR1655223 A FR 1655223A FR 1655223 A FR1655223 A FR 1655223A FR 3052568 A1 FR3052568 A1 FR 3052568A1
Authority
FR
France
Prior art keywords
sensor
directions
embedded system
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1655223A
Other languages
English (en)
Inventor
Thomas Heitzmann
Benazouz Bradai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1655223A priority Critical patent/FR3052568A1/fr
Publication of FR3052568A1 publication Critical patent/FR3052568A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Un système embarqué (2) comprend un premier capteur (4) apte à générer une image (IMG) d'un environnement rencontré par un véhicule (V) et un second capteur (6) apte à mesurer une distance libre (di) pour une pluralité de directions dans ledit environnement. Le système embarqué comprend en outre : - un module d'identification conçu pour déterminer la localisation d'un objet (O) dans l'image générée (IMG) ; et - un module de détermination d'un cap (C) de l'objet (O) en fonction des distances libres (di) mesurées pour les directions associées à la localisation déterminée. Un procédé de détermination de cap est également proposé.

Description

Système embarqué et procédé de détermination d’un cap
Domaine technique auquel se rapporte l'invention
La présente invention concerne les systèmes embarqués pour véhicule.
Elle concerne plus particulièrement un système embarqué et un procédé de détermination d’un cap. L’invention s’applique particulièrement avantageusement dans le cas où le système embarqué comprend un capteur d’image et un capteur de temps de vol.
Arriere-plan technologique
On utilise de plus en plus de nos jours des systèmes permettant d’appréhender (au moyen de capteurs) l’environnement routier d’un véhicule et d’analyser cet environnement, dans un but d’assistance à la conduite, voire de pilotage automatique du véhicule.
Parmi les capteurs utilisés dans ce cadre, certains permettent d’obtenir une image de l’environnement ; ils sont toutefois en général assez peu précis lorsqu’il s’agit de déterminer la distance des objets observés. C’est pourquoi on utilise également des capteurs de mesure de distance, par exemple des capteurs d’obstacles, dont les directions de mesure sont toutefois en nombre limité afin de réduire le coût de tels capteurs.
Objet de l’invention
Dans ce contexte, la présente invention propose un système embarqué comprenant un premier capteur apte à générer une image d’un environnement rencontré par un véhicule et un second capteur apte à mesurer une distance libre pour une pluralité de directions dans ledit environnement, caractérisé par un module d’identification conçu pour déterminer la localisation d’un objet dans l’image générée et par un module de détermination d’un cap de l’objet en fonction des distances libres mesurées pour les directions associées à la localisation déterminée.
On combine ainsi astucieusement les informations fournies par deux types de capteur différents pour obtenir une évaluation précise du cap de l’objet, typiquement un autre véhicule, situé devant le véhicule équipé du système embarqué.
Selon d’autres caractéristiques envisageables à titre optionnel (et donc non limitatif) : - le second capteur est un capteur de temps de vol (un tel capteur fonctionnant par mesure du temps de vol d’une onde émise par le capteur, puis réfléchie par l’objet, puis enfin détecté par le capteur après réflexion), ce qui permet une bonne précision dans la mesure des distances libres précitées ; - le second capteur est ainsi par exemple un télémètre laser à balayage, ou un capteur d’obstacle (un tel capteur comprenant par exemple un émetteur et un récepteur pour chaque direction de mesure) ; - le premier capteur est une caméra vidéo, ou un radar, ou encore un un système à ultrasons ; - le système embarqué comprend en outre un module de commande d’un actionneur (tel qu’un système de freinage, un groupe motopropulseur ou un système de commande de direction) en fonction du cap déterminé ; - le module de commande est conçu pour anticiper une trajectoire de l’objet en fonction du cap déterminé et pour émettre une commande destinée à l’actionneur en fonction de la trajectoire anticipée ; - le module de détermination est conçu pour sélectionner, parmi la pluralité de directions, des directions correspondant à la localisation déterminée, et/ou pour déterminer le cap de l’objet en fonction des distances libres mesurées pour les directions sélectionnées. L’invention propose également un procédé de détermination d’un cap d’un objet par un système embarqué dans un véhicule et comprenant un premier capteur apte à générer une image d’un environnement rencontré par le véhicule et un second capteur apte à mesurer une distance libre pour une pluralité de directions dans ledit environnement, le procédé comprenant les étapes suivantes : - localisation d’un objet dans l’image générée ; - détermination du cap de l’objet en fonction des distances libres mesurées pour les directions associées à la localisation déterminée.
Les caractéristiques optionnelles présentées ci-dessus dans le cadre du système embarqué peuvent également s’appliquer à un tel procédé.
Description detaillee d’un exemple de réalisation
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés : - la figure 1 représente schématiquement les éléments principaux d’un système embarqué dans un véhicule ; - la figure 2 représente, sous forme de blocs fonctionnels, une unité de traitement du système embarqué de la figure 1.
La figure 1 représente schématiquement les éléments principaux d’un système embarqué 2 dans un véhicule V (ici un véhicule automobile).
Ce système embarqué comprend un capteur d’image 4, un capteur de temps de vol 6, un actionneur 8 et une unité de traitement 10.
Le capteur d’image 4 est par exemple une caméra vidéo. Le capteur d’image 4 est placé dans le véhicule de manière à capturer une image IMG de l’environnement extérieur du véhicule V, situé à l’avant du véhicule (c’est-à-dire rencontré par le véhicule V lorsque ce dernier avance), dans un angle solide A correspondant au champ de vision du capteur d’image 4. Comme représenté schématiquement en figure 1, cet environnement comprend un objet O, ici un autre véhicule automobile.
En variante, le capteur d’image 4 pourrait être un radar ou un système à ultrasons. On remarque que, dans ces cas notamment, l’image capturée par le capteur d’image 4 peut alors être une image (ou représentation) monodimensionnelle de l’environnement situé à l’avant du véhicule V.
Le capteur de temps de vol 6 est par exemple un télémètre laser à balayage (ou "laser scanner selon l’appellation anglo-saxonne parfois utilisée). En variante, il pourrait s’agir d’un capteur d’obstacle (typiquement à infrarouge ou à laser).
Un tel capteur de temps de vol 6 permet de mesurer, pour chacune d’une pluralité de directions dans l’environnement faisant face au véhicule V, la distance libre d, jusqu’au premier obstacle rencontré dans la direction concernée, généralement en décomptant le temps mis par un rayon lumineux (ou plus généralement une onde électromagnétique) émis dans la direction concernée pour être détecté au niveau du capteur de temps de vol 6 après réflexion sur le premier obstacle rencontré (au niveau d’un point d’impact P,).
Du fait de la technique utilisée, les mesures de distance effectuées par le capteur de temps de vol 6 sont précises.
Dans l’exemple décrit ici, le capteur de temps de vol 6 est conçu pour mesurer les distances libres d, respectivement associées à N directions (avec N compris entre 10 et 24, ici N = 16) ; ces N directions sont ici toutes horizontales (ou quasiment horizontales), et correspondent à une pluralité d’angle répartis sur une plage angulaire d’étendue inférieure à 45° située à l’avant du véhicule. L’actionneur 8 permet de commander au moins en partie la trajectoire du véhicule V. Dans l’exemple décrit ici, l’actionneur 8 est un système de freinage. Il pourrait s’agir en variante d’un groupe motopropulseur ou d’un système de commande de direction.
Comme expliqué plus bas, l’unité de traitement 10 peut commander l’actionneur 8 au moyen d’un signal de commande CMD déterminé en fonction de divers traitements effectués au sein de l’unité de traitement 10. L’unité de traitement 10 peut commander l’actionneur 8 dans un but d’assistance à la conduite (l’unité de traitement 10 étant par exemple conçue pour commander un freinage du véhicule V si un objet est détecté à faible distance à l’avant du véhicule V), ou dans un but de pilotage automatique du véhicule V (cas d’un véhicule autonome).
La figure 2 représente l’unité de traitement 10 sous forme de blocs fonctionnels, ou modules.
Chaque module 12, 14, 16 représenté sur la figure 2 correspond à une fonctionnalité particulière mise en oeuvre par l’unité de traitement 10. Plusieurs (voire tous les) modules peuvent toutefois en pratique être mis en oeuvre par une même entité physique, par exemple un processeur sur lequel s’exécute des instructions de programme mémorisées dans une mémoire associé au processeur (chaque module étant alors dans ce cas mis en oeuvre par l’exécution d’un jeu particulier d’instructions mémorisées dans ladite mémoire). L’unité de traitement 10 comprend ainsi un module d’identification 12 d’un objet O dans l’image IMG générée par le capteur d’image 4.
Afin d’identifier l’objet O dans l’image IMG, le module d’identification 12 utilise par exemple un algorithme de reconnaissance de formes.
Le module d’identification 12 détermine ainsi la localisation de l’objet O dans l’image IMG et peut donc délivrer des données Z indicatives de la zone de l’image IMG dans laquelle l’objet O a été localisé. Ces données Z sont par exemple les coordonnées dans l’image IMG de ladite zone.
En variante, après identification de l’objet O dans l’image (ici bidimensionnelle) IMG comme indiqué ci-dessus, le module d’identification peut projeter l’objet identifié sur un seul axe (par exemple l’axe horizontal de l’image IMG) et les données Z correspondent alors uniquement aux abscisses délimitant la zone de localisation de l’objet O.
Dans le cas d’une image monodimensionnelle (par exemple dans certains cas où le capteur d’image 4 est un radar ou un système à ultrasons), on peut par exemple directement obtenir de telles données Z (abscisses délimitant la zone de localisation de l’objet O) par traitement (segmentation de l’image, avec éventuellement suivi des segments obtenus) de l’image monodimensionnelle. L’unité de traitement 10 comprend également un module de détermination 14 du cap G de l’objet O (ici comme déjà indiqué un autre véhicule automobile, situé à l’avant du véhicule V) en fonction des distances libres d, mesurées par le capteur de temps de vol 6 et des données Z indicatives de la zone de l’image IMG où a été localisé l’objet O.
Précisément, le module de détermination 14 sélectionne, parmi la pluralité de directions de mesure du capteur de temps de vol 6, les directions qui correspondent à la zone de l’image IMG où a été localisé l’objet O. Pour ce faire, l’unité de traitement 10 mémorise par exemple une table de correspondance qui associe une abscisse dans l’image IMG à chacune desdites directions de mesure : les directions sélectionnées sont alors celles dont l’abscisse (d’après la table de correspondance) est comprise dans la plage d’abscisses de la zone définie par les données Z.
Le module de détermination 14 détermine alors le cap G de l’objet O en fonction des distances libres d, mesurées pour les directions sélectionnées comme il vient d’être indiqué. Pour ce faire, le module de détermination 14 détermine par exemple l’orientation, dans le plan horizontal, d’une droite D construite par régression linéaire à partir des points d’impact P, sur l’objet O (c’est-à-dire pour les directions sélectionnées) des rayons émis par le capteur de temps de vol 6 (la position de chaque point d’impact P, étant déterminée par la distance libre d, mesurée correspondante), puis l’orientation de la droite D’ perpendiculaire à la droite D, orientation qui correspond au cap G du véhicule V. L’unité de traitement 10 comprend enfin un module de commande 16 conçu pour générer la commande GMD destinée à l’actionneur 8 en fonction de données traitées au sein de l’unité de traitement 10, et notamment en fonction du cap G déterminé comme expliqué ci-dessus.
En effet, lorsqu’il est déterminé (par exemple par analyse de l’image IMG au sein du module de commande 16) que l’objet O est un autre véhicule, le module de commande 16 peut anticiper la trajectoire future de cet autre véhicule en fonction du cap G déterminé par le module de détermination 14 (et émettre alors éventuellement une commande GMD destinée à l’actionneur 8 en fonction de cette trajectoire anticipée).
Ainsi par exemple, lorsque le module de commande 16 détecte (par analyse de l’image IMG) que l’objet O est un autre véhicule situé sur une voie voisine de celle empruntée par le véhicule V et reçoit du module de détermination 14 un cap G indiquant que l’objet O est dirigé vers la voie empruntée par le véhicule V, le module de commande 16 émet à destination de l’actionneur 8 une commande GMD de décélération et/ou de freinage léger. Geci permet d’anticiper le freinage du véhicule V (sans attendre que le module de commande 16 détecte l’objet O sur la même voie que celle du véhicule V) et par conséquent d’éviter un freinage brutal.

Claims (11)

  1. REVENDICATIONS
    1. Système embarqué (2) comprenant un premier capteur (4) apte à générer une image (IMG) d’un environnement rencontré par un véhicule (V) et un second capteur (6) apte à mesurer une distance libre (d,) pour une pluralité de directions dans ledit environnement, caractérisé par : - un module d’identification (12) conçu pour déterminer la localisation (Z) d’un objet (O) dans l’image générée (IMG) ; et par - un module de détermination (14) d’un cap (G) de l’objet (O) en fonction des distances libres (d,) mesurées pour les directions associées à la localisation déterminée (Z).
  2. 2. Système embarqué selon la revendication 1, dans lequel le second capteur (6) est un capteur de temps de vol.
  3. 3. Système embarqué selon la revendication 2, dans lequel le second capteur (6) est un télémètre laser à balayage.
  4. 4. Système embarqué selon la revendication 2, dans lequel le second capteur est un capteur d’obstacle.
  5. 5. Système embarqué selon l’une des revendications 1 à 3, dans lequel le premier capteur (4) est une caméra vidéo.
  6. 6. Système embarqué selon l’une des revendications 1 à 3, dans lequel le premier capteur est un radar.
  7. 7. Système embarqué selon l’une des revendications 1 à 3, dans lequel le premier capteur est un système à ultrasons.
  8. 8. Système embarqué selon l’une des revendications 1 à 7, comprenant un module de commande (16) d’un actionneur (8) en fonction du cap déterminé (C).
  9. 9. Système embarqué selon la revendication 8, dans lequel le module de commande (16) est conçu pour anticiper une trajectoire de l’objet (O) en fonction du cap déterminé (G) et pour émettre une commande (CMD) destinée à l’actionneur (8) en fonction de la trajectoire anticipée.
  10. 10. Système embarqué selon l’une des revendications 1 à 9, dans lequel le module de détermination (14) est conçu pour sélectionner, parmi la pluralité de directions, des directions correspondant à la localisation déterminée (Z), et pour déterminer le cap (G) de l’objet (O) en fonction des distances libres (d,) mesurées pour les directions sélectionnées.
  11. 11. Procédé de détermination d’un cap (G) d’un objet (O) par un système embarqué (2) dans un véhicule (V) et comprenant un premier capteur (4) apte à générer une image (IMG) d’un environnement rencontré par le véhicule (V) et un second capteur (6) apte à mesurer une distance libre (d,) pour une pluralité de directions dans ledit environnement, le procédé comprenant les étapes suivantes : - localisation d’un objet (O) dans l’image générée (IMG) ; - détermination du cap (G) de l’objet (O) en fonction des distances libres (di) mesurées pour les directions associées à la localisation déterminée.
FR1655223A 2016-06-08 2016-06-08 Systeme embarque et procede de determination d'un cap Pending FR3052568A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1655223A FR3052568A1 (fr) 2016-06-08 2016-06-08 Systeme embarque et procede de determination d'un cap

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1655223A FR3052568A1 (fr) 2016-06-08 2016-06-08 Systeme embarque et procede de determination d'un cap

Publications (1)

Publication Number Publication Date
FR3052568A1 true FR3052568A1 (fr) 2017-12-15

Family

ID=57190040

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1655223A Pending FR3052568A1 (fr) 2016-06-08 2016-06-08 Systeme embarque et procede de determination d'un cap

Country Status (1)

Country Link
FR (1) FR3052568A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030100982A1 (en) * 2001-11-29 2003-05-29 Rao Manoharprasad K. Remote sensing based pre-crash threat assessment system
WO2005123440A1 (fr) * 2004-06-15 2005-12-29 Daimlerchrysler Ag Procede pour detecter un changement d'orientation d'un vehicule proche
US20090157314A1 (en) * 2007-12-04 2009-06-18 Ruediger Jordan Method for measuring lateral movements in a driver assistance system
US20100254019A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Uv laser beamlett on full-windshield head-up display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030100982A1 (en) * 2001-11-29 2003-05-29 Rao Manoharprasad K. Remote sensing based pre-crash threat assessment system
WO2005123440A1 (fr) * 2004-06-15 2005-12-29 Daimlerchrysler Ag Procede pour detecter un changement d'orientation d'un vehicule proche
US20090157314A1 (en) * 2007-12-04 2009-06-18 Ruediger Jordan Method for measuring lateral movements in a driver assistance system
US20100254019A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Uv laser beamlett on full-windshield head-up display

Similar Documents

Publication Publication Date Title
EP3328705B1 (fr) Champ de focalisation de détection d'objet variable pour commande de véhicule automatisée
EP2533226A1 (fr) Dispositif de contrôle des alentours d'un véhicule
US11954918B2 (en) Object detection device, object detection method, and storage medium
US11726176B2 (en) Annotation of radar-profiles of objects
JP2000266539A (ja) 車間距離計測装置
WO2018212287A1 (fr) Dispositif de mesure, procédé de mesure et programme
JP2024116258A (ja) 路面情報取得方法、路面情報取得装置、及び路面情報取得プログラム
JP2024038322A (ja) 測定装置、測定方法およびプログラム
WO2013169185A1 (fr) Système et procédé de vision pour véhicule à moteur
JP2023118759A (ja) 測定装置、測定方法およびプログラム
FR3052568A1 (fr) Systeme embarque et procede de determination d'un cap
FR3052560B1 (fr) Systeme embarque et procede de determination d'une position relative
FR3055287A1 (fr) Dispositif de determination d'une limitation de vitesse, systeme embarque comprenant un tel dispositif et procede de determination d'une limitation de vitesse
FR3061886A1 (fr) Procede de determination d'une fin de zone de travaux, dispositif de gestion de zone de travaux et systeme embarque comprenant un tel dispositif
EP3698321A1 (fr) Procede de traitement de donnees et systeme embarque associe
FR3047217B1 (fr) Dispositif de determination de l'etat d'un feu de signalisation, systeme embatque comprenant un tel dispositif, vehicule comprenant un tel systeme et procede de determination associe
EP3865816B1 (fr) Méthodes et systèmes pour mesurer à distance l'orientation angulaire d'un véhicule au sein d'un convoi automobile routier.
EP3704625A1 (fr) Procédé de traitement de données pour système d'aide à la conduite d'un véhicule et système d'aide à la conduite associé
EP3726494B1 (fr) Procédé d'assistance à la conduite de véhicules, programme d'ordinateur et système associés
EP3775988B1 (fr) Procédé et dispositif de détection d'objets dans l'environnement d'un véhicule, en présence de goutelettes
WO2019151109A1 (fr) Procédé d'acquisition d'informations de surface de route
WO2016146823A1 (fr) Procédé d'estimation de paramètres géométriques représentatifs de la forme d'une route, système d'estimation de tels paramètres et véhicule automobile équipé d'un tel système
KR20220045736A (ko) 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법
EP1528409A1 (fr) Procédé et dispositif de mesure de la vitesse d'un véhicule en déplacement sur une trajectoire courbe déterminée
KR20230174730A (ko) 동적 물체의 대략적인 물체 위치를 결정하는 방법, 컴퓨터 프로그램, 장치 및 차량

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20171215