FR3051275A1 - Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol - Google Patents

Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol Download PDF

Info

Publication number
FR3051275A1
FR3051275A1 FR1654322A FR1654322A FR3051275A1 FR 3051275 A1 FR3051275 A1 FR 3051275A1 FR 1654322 A FR1654322 A FR 1654322A FR 1654322 A FR1654322 A FR 1654322A FR 3051275 A1 FR3051275 A1 FR 3051275A1
Authority
FR
France
Prior art keywords
image
marking
ground
agents
agent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1654322A
Other languages
English (en)
Inventor
Marc Revilloud
Mohamed Cherif Rahal
Dominique Gruyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut Vedecom
Original Assignee
Institut Vedecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Vedecom filed Critical Institut Vedecom
Priority to FR1654322A priority Critical patent/FR3051275A1/fr
Priority to PCT/FR2017/051143 priority patent/WO2017194890A1/fr
Priority to US16/301,061 priority patent/US20190188498A1/en
Priority to EP17727655.7A priority patent/EP3455788A1/fr
Priority to CN201780029644.5A priority patent/CN109791598A/zh
Priority to JP2019511815A priority patent/JP6978491B2/ja
Publication of FR3051275A1 publication Critical patent/FR3051275A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

La présente invention a pour objet un procédé de traitement d'image pour la reconnaissance de marquage au sol comportant une étape de réception d'au moins une image du sol à l'avant et/ou à l'arrière d'un véhicule caractérisé en ce qu'il comporte une étape de calcul d'une image numérique correspondant à une carte de confiance consistant à affecter à chaque pixel de l'image acquise une valeur correspondant au degré de confiance de l'appartenance de ce pixel à une zone de marquage, puis à procéder à une étape de détection de marquage pour calculer une spline

Description

Procédé de traitement d'image pour la reconnaissance de marquage au sol et système pour la détection du marquage au sol
Domaine de l'invention
La présente invention concerne le domaine de la reconnaissance du marquage au sol, notamment de marquage routier ou de marquage sur des aires de stationnement de véhicules.
On entend par « marquage » une ligne au sol de couleur différente de la chaussée (une route ou une aire de circulation ou de stationnement), et qui délimite un côté d'une voie de circulation. La ligne au sol peut être continue ou interrompue. On entend également par « marquage » le bord de la chaussée, c'est-à-dire la frontière entre la surface destinée à la circulation, par exemple en bitume, et le bas-côté.
Un procédé de détection de marquages routiers est généralement utilisé pour assister le conducteur d'un véhicule automobile, par exemple en émettant un signal sonore et/ou lumineux quand le véhicule s'écarte d'une voie de circulation. Il est également envisagé d'utiliser ce type de procédé pour le contrôle automatique d'un véhicule automobile, par exemple en contrôlant automatiquement la vitesse et/ou la direction du véhicule en fonction de marquages routiers détectés.
Les applications concernent également la fourniture d'informations à des systèmes d'aide à la conduite (Advanced Driver Assistance Systems -ADAS) assistant le conducteur à maintenir son véhicule dans sa voie de circulation à partir d'une estimation temps réel des paramètres des bords de voie, la conception de véhicule sans pilote, analyse du patrimoine routier pour évaluer la qualité et l'éventuelle dégradation des marquages existants, la constitution de bases de données géo-référencées avancées, les limiteurs de vitesse adaptatifs,...
Les difficultés techniques pour le suivi et la reconnaissance de lignes de marquages routiers résultent des conditions d'acquisition des images embarquées, subissant les ombres projetées, les éblouissements, les occultations par des obstacles, etc.
Le document leng, Tarel et Charbonnier, « Estimation robuste pour la détection et le suivi par caméra », Traitement du signal vol. 21 n. 3, p. 205-226, 2004 décrit un procédé de détection d'un marquage routier dans une image. Dans ce procédé, on estime les paramètres d'une courbe représentative du marquage routier. Cette estimation est basée sur un ensemble de points extraits de l'image comme étant susceptibles de correspondre à une portion de marquage routier, et sur une fonction de bruit qui modélise la correspondance statistique entre les points extraits et le marquage routier.
On a constaté cependant que les procédés de détection de marquages routiers connus offraient une fiabilité limitée. En particulier, en raison par exemple de l'état de la route, de l'éclairage, de la visibilité, de la présence d'éléments parasites, de l'absence de marquage routier ou de la présence de deux marquages routiers à proximité l'un de l'autre, les procédés de détection de marquages routiers connus peuvent fournir des résultats peu précis ou faux. De plus, les procédés de détection de marquages routiers ne sont d'aucune utilité dans le cas d'une route non marquée.
De façon générale, les procédés de reconnaissance du marquage au sol fonctionnent en deux étapes :
En premier lieu, on extrait les primitives de marquages routiers à partir d'informations caméras.
En second lieu, on analyse spatialement les primitives via des méthodes mathématiques (régression polynomiale, RANSAC, transformée de Hough) pour en extraire les voies de circulation. Ce modèle fut utilisé pour le développement de l'algorithme de détection multivoies du LIVIC.
Etat de la technique
On connaît dans l'état de la technique le brevet européen EP 1221643 décrivant un dispositif et procédé pour la reconnaissance des lignes de marquage routières. Ce procédé comprend les étapes suivantes : - acquisition d'images de la route vers l'avant de véhicule; - établissement d'une fenêtre de détection de voie de circulation sur les données d'images ; - détection d'une marque de voie de circulation qui passe au travers de la fenêtre de détection sur la base d'une information de luminance sur chaque point à l'intérieur de la fenêtre de détection de voie de circulation considérée; - établissement d'une pluralité d'autres fenêtres de détection de voie de circulation; - détection d'une intensité de bord à l'intérieur de chaque fenêtre de détection de bruit; - modification d'une valeur de poids de chacune des fenêtres de détection de voie de circulation conformément à l'intensité de bord dans celle considérée des fenêtres de détection de bruit; et - calcul d'un profil de route en utilisant l'une quelconque des marques de circulation qui sont détectées et la valeur de poids modifiée.
Inconvénients de l'art antérieur
Les solutions de l'art antérieur ne sont pas totalement satisfaisantes. En particulier, elles sont mal adaptées à la reconnaissance des topologies de changement de rayon de courbure avec une accélération angulaire progressive que l'on rencontre par exemple pour les marquages de voies de sorties d'une voie principale. Ces zones de raccordement continu entre droite et cercle, avec accélération angulaire progressive, dite clothoïde sont mal reconnues par les solutions de l'art antérieur parce que les traitements sont basés sur des modèles géométriques adaptés à la reconnaissance de lignes droites ou à courbure constante. Si l'on augmente l'ordre polynomiale, le bruit augmente conduit à des pertes de reconnaissance.
Solution apportée par l'invention
Afin de remédier à ces inconvénients, l'invention concerne un procédé de traitement d'image pour la reconnaissance de marquage au sol comportant une étape de réception d'au moins une image du sol à l'avant et/ou à l'arrière d'un véhicule caractérisé en ce qu'il comporte une étape de calcul d'une image numérique correspondant à une carte de confiance consistant à affecter à chaque pixel de l'image acquise une valeur correspondant au degré de confiance de l'appartenance de ce pixel à une zone de marquage, puis à procéder à une étape de détection de marquage pour calculer une spline.
Avantageusement le procédé comporte en outre une étape de masquage partielle de l'image acquise par les informations provenant d'un module de détection des éléments situés dans le champ des caméras au dessus du niveau du sol.
Selon un mode de réalisation préféré le procédé selon l'invention comprend les étapes consistant à : - recevoir au moins une image du sol à l'avant et/ou à l'arrière d'un véhicule - procéder à un prétraitement de l'image consistant à affecter à chaque pixel de ladite image un indicateur numérique représentatif de l'appartenance dudit pixel à un marquage - initialiser un procesus multi-agent consistant à : - propager une pluralité d'agents en partant des pixels de bords de l'image [un pixel] vers le centre optique de ladite image, chacun des agents étant associé à un champ de perception de N pixels voisins, - à commander le déplacement de chacun desdits agents dans ledit champ de perception, dans la direction du barycentre dudit champs de perception pondéré par ledit indicateur numérique d'appartenance des pixels du champs - à itérer pour chacun des agents cette étape jusqu'au bords de la bande de l'image contenant au moins un marquage - à enregistrer pour chacun desdits agents les coordonnées des pixels parcourus ainsi que la valeur de l'indicateur numérique d'appartenance associé - à sélectionner l'agent dont les valeurs numériques enregistrées sont maximales - à enregistrer la séquence d'enregistrements de cet agent puis, après cette étape d'initialisation, pour chaque nouvelle image, - à ré-estimer la position de départ de chacun des agents en fonction de l'intersection entre l'estimation de marquage obtenue lors de l'itération précédente, et le bord de l'image - à ré-initialiser les agents sélectionnés lors de l'étape précédente à ladite position de départ puis : - à propager l'ensemble desdits agents sélectionnés en partant desdites positions de départ - à commander le déplacement de chacun desdits agents dans ledit champ de perception, dans la direction du barycentre dudit champs de perception pondéré par ledit indicateur numérique d'appartenance des pixels du champs - à itérer pour chacun des agents cette étape jusqu'au bords de la bande de l'image contenant au moins un marquage - à enregistrer pour chacun desdits agents les coordonnées des pixels parcourus ainsi que la valeur de l'indicateur numérique d'appartenance associé - à sélectionner l'agent dont les valeurs numériques enregistrées sont maximales - à enregistrer la séquence d'enregistrements de cet agent pour la nouvelle image.
Avantageusement, le procédé comporte en outre une étape de traitement consistant, pour chacun desdites enregistrements, à appliquer un lissage par une méthode de spline cubique pondéré par la valeur dudit indicateur numérique d'appartenance.
Selon une variante, le procédé comporte des moyens d'échange d'information entre moyens de détection de marquage. L'invention concerne aussi un système pour la détection du marquage au sol comportant au moins une caméra et un calculateur, caractérisé en ce que ledit calculateur exécute un programme commandant traitement d'image pour la reconnaissance de marquage au sol comportant une étape de réception d'au moins une image du sol à l'avant et/ou à l'arrière d'un véhicule caractérisé en ce qu'il comporte une étape de calcul d'une image numérique correspondant à une carte de confiance consistant à affecter à chaque pixel de l'image acquise une valeur correspondant au degré de confiance de l'appartenance de ce pixel à une zone de marquage, puis à procéder à une étape de détection de marquage pour calculer une spline.
De préférence, ledit calculateur reçoit également des signaux de services fournit par un capteur de position angulaire de la colonne de direction, et sur la vitesse de rotation des roues arrières.
Selon une variante, le système comporte en outre un lidar constitué par un laser mobile assurant un balayage en direction de l'avant du véhicule pour détecter tout élément au dessus du plan de la route, et filtrer l'espace image pour éviter le traitement des zones au sol occultées par un obstacle ou un véhicule.
Description détaillée d'un exemple non limitatif de l'invention
La présente invention sera mieux comprise à la lecture de la description détaillée d'un exemple non limitatif de l'invention qui suit, se référant aux dessins annexés où - la figure 1 représente une vue schématique de l'architecture matérielle de l'invention - la figure 2 représente une vue schématique de l'architecture fonctionnelle de l'invention - la figure 3 représente un exemple de logigramme d'un module de détection de marquage
Architecture matérielle
La figure 1 représente une vue schématique de l'architecture matérielle d'un système de reconnaissance de marquage au sol selon un exemple de réalisation, installé dans un véhicule automobile.
Le système comprend dans l'exemple décrit trois caméras (1 à 3), dont deux sont disposées à l'avant du véhicule, à droite et à gauche, et l'une est en position central à l'arrière du véhicule. L'angle de vue de chacune des caméras (1 à 3) est plat, c'est-à-dire présente un champ plus large que haut.
Un commutateur réseau éthernet (« switch » en anglais) (4) reçoit les signaux des caméras (1 à 3) et les transmet à un calculateur (5). Ce calculateur (5) assure le traitement et la détection des marquages.
Un deuxième calculateur (6) reçoit les informations relatives au marquage sous forme de splines et applique un algorithme de planification afin de guider le véhicule.
Les caméras (1 à 3) sont alimentées par une source d'alimentation (7). Alternativement, les caméras (1 à 3) peuvent être alimentées directement par le câble réseau, par une technologie « Power Ethernet ».
La position et l'orientation de chacune des caméras (1 à 3) par rapport au référentiel lié à l'essieu arrière du véhicule sont connues par un processus de calibration des caméras au moment du montage des caméras sur le véhicule.
Pour chacune des caméras (1 à 3), on détermine des paramètres intrinsèques correspondant directement au couple de modèle de caméra et d'objectif, et des paramètres extrinsèques correspondant à la position et l'orientation par rapport à l'essieu arrière.
Le calculateur (5) reçoit également des signaux de services fournit par un capteur de position angulaire de la colonne de direction, et par un capteur détectant la vitesse de rotation des roues arrières. Ces informations sont transmises par le réseau CAN du véhicule via un circuit d'interfaçage (8).
Ces informations permettent de recalculer périodiquement la position des marquages détectés aux itérations précédentes, pour les mettre en correspondance avec la détection faite à l'itération courante.
Un lidar (9) constitué par un laser mobile assurant un balayage en direction de l'avant du véhicule pour détecter tout élément au dessus du plan de la route, et filtrer l'espace image pour éviter le traitement des zones au sol occultées par un obstacle ou un véhicule.
Architecture fonctionnelle
Les images acquises par les caméras (1 à 3) font l'objet d'un traitement d'images par un module (11) recevant également les informations provenant d'un module de masquage (12) traitant les informations transmises par le lidar (9).
Le module (11) calcule une carte de confiance sous la forme d'une image en niveau de gris, augmentant la luminosité des zones susceptibles de correspondre à un masquage ou réduisant la luminosité du pixels pour les zones dont la probabilité de correspondre à un marquage routier est faible.
En d'autre terme, chaque pixel de cette image présente un niveau représentatif de la probabilité d'appartenance à un marquage routier.
Opérateur de détecteur de marquage
Le calcul de cette carte de confiance est réalisé par des opérateurs de détection de marquages routiers
Les opérateurs de détection de marquages routiers ont pour objectif de créer une carte de confiance, utilisée ensuite par les agents traqueurs de marquages.
Opérateur de convolution
Le premier opérateur est basé sur une convolution entre le voisinage horizontale d'un pixel donné et d'un modèle parfait de marquage. La fonction /caractérisée par l'ensemble des pixels d'une ligne est convoluée avec la courbe g correspondant à une fonction porte. Cet opérateur est fonction de l, la largeur estimée du marquage routier qui correspondra à la largeur de la fonction porte. Cette convolution est définie comme suit :
avec Y correspondant à l'absices du pixel traité dans une ligne de l'image m correspondant à une variable de l'intégrale l(y) correspondant au niveau de gris représentatif du degré de confiance du pixel alpha correspondant au ratio haut/bas de g S correspondant à un paramètre prédéterminé correspondant à une largeur nominale de marquage routier projeté dans l'espace image et centré autour de y avec g(m) définit comme suit :
Ce traitement réalisé par le module (11) permet donc de calculer la valeur de chaque pixel d'une image correspondant à une carte de confiance distinguant les zones présentant une forte probabilité d'appartenance à un marquage routier.
Ce traitement réalisé par le module (11) est inhibé dans les zones de l'image correspondant à une information de masquage fournit par le module de masquage (12). Détection de marquage A partir de cette image calculée par le module (11), un module de détection (13) applique un traitement par une méthode multi-agents détectant les splines correspondant aux marquages routiers. Détermination du champ de perception d'un agent
Le modèle de perception d'un agent est basé sur un champ de perception triangulaire. Le champ de perception est défini par un sommet (point correspondant à la position de l'agent) et une base présentant une largeur 2.S (où S précédemment défini correspond à la largeur nominal d'un marquage projeté dans l'espace image), une profondeur L fonction de la distance à l'égo-véhicule (distance de la zone traitée par l'agent par rapport à un point de référence du véhicule). Ce triangle définit un vecteur Vagent correspondant à la direction de l'agent, correspondant à l'axe perpendiculaire à la base passant par le sommet.
Ce champ triangulaire est ensuite projeté dans l'espace image pour définir l'ensemble des pixels de l'image de confiance qui seront traités par l'agent. Détermination du modèle de déplacement d'un agent
Le modèle de déplacement est déterminé par le calcul du barycentre du champ triangulaire précédemment défini, pondéré par la valeur des pixels de ce champ (éventuellement un seuillage bas est appliqué, pour éliminer des pixels de valeur trop faible).
Ce barycentre pondéré détermine un point cible visé par l'agent. On calcule l'angle entre le vecteur Vagent et le vecteur VdéPiacement définit par le sommet du triangle et les coordonnées du barycentre.
Si l'ensemble des points contenus dans le champ de perception de l'agent est inférieur à la valeur seuil, le calcul du barycentre n'est pas possible.
Dans ce cas, la cible peut être déterminée à partir des informations provenant d'un ou plusieurs agents voisins. Cette situation se produit par exemple lorsque l'agent se propage entre deux tirets, et qu'un agent voisin se propage dans un marquage continu. Dans ce cas, l'évolution de la direction d'évolution du premier agent est identique à celle du second agent.
Dans le cas où un agent ne peut pas calculer un barycentre, et ne dispose d'aucun agent voisin pouvant calculer un barycentre, l'angle de déplacement est inchangé, l'agent continuant à se déplacer dans la direction précédemment fixée. L'agent est ensuite déplacé dans la direction correspond à cet angle, limité à une valeur prédéterminée. Cette valeur prédéterminée est fonction du type de route et du maximum de courbure envisagé pour la détection. Cette valeur peut être variable, en fonction d'une hypothèse sur la nature de la voie sur laquelle circule le véhicule (valeur réduite si la voie est une autoroute, valeur plus importante si la voie est une route départementale).
La longueur de déplacement est constante, et correspond à la distance entre deux pixels.
Comportement de l'agent L'agent alterne les étapes de perception et les étapes de déplacement, de manière itérative, jusqu'à ce qu'à la ligne correspondant à l'horizon dans l'espace image. A chaque point de passage de l'agent, on enregistre la valeur du pixel correspondant, et la position de l'agent sous forme d'un couple [Vx, Px] avec x variant entre le point de départ et le point d'arrivé de l'agent. Sélection des agents L'étape suivante consiste à sélectionner les agents dont le déplacement correspond à un marquage.
Pour cela, un ratio Rroute est enregistré, pour chacun des types de marquage que l'on souhaite détecter. Par exemple, pour un marquage continu, le ratio est de 1.
Pour un marquage discontinu, le ratio est compris entre 0 et 1, en fonction de la modulation du marquage. L'agent est conservé si : - Si le ratio Ragent i entre o Les valeurs Vx de pixels supérieures à un seuil prédéterminé et o Les valeurs Vx de pixels inférieures à un seuil prédéterminé Est inférieur au ratio Rroute, avec une marge de tolérance prédéfinie Ou L'intensité moyenne Vx des pixels enregistrés par l'agent est supérieure à un seuil prédéterminé.
Création d'un agent
Les agents sont créés sur le bord bas, droite ou gauche de l'image, et se déplacent en direction du centre optique de l'image.
On distingue trois phases : la phase d'initialisation, où on envoie une pluralité de N agents séparés chacun d'une distance prédéterminée sur l'image de confiance une phase de réinitialisation, où on utilise les traces précédentes des agents sélectionnés, pour réinitialiser l'agent correspondant, à sa position de début de sa trace à chaque itération, création o d'un agent à droite de l'agent le plus à droite sélectionné, ou o d'un agent à gauche de l'agent le plus à gauche sélectionné. A chaque itération, on change de choix de coté.
Estimation de la forme du marquage routier L'estimation de la forme du marquage routier, ou de la spline cubique du marquage est réalisée par un traitement consistant à calculer, à partir de tous les pixels traversés par l'agent, une spline cubique caractérisant le marquage.
La formule du spline cubique est calculée par minimisation de la fonction f suivante : Où : - F est la fonction de régression - X, correspondant à la coordonnée selon x du ieme pixel traversé par l'agent - y, correspondant à la coordonnée selon y du ieme pixel traversé par l'agent - w, correspondant à la valeur de gris V, du ieme pixel traversé par l'agent - B désigne un espace fonctionnel.
Le résultat de ce traitement fournit la spline correspondant au marquage
routier.
Présentation d'une variante de réalisation
La figure 3 représente un autre exemple de logigramme d'une solution de reconnaissance de marquages au sol selon l'invention, et plus précisément du module (13) de détection du marquage.
Le traitement s'applique sur les images de confiance calculées par le module (11).
La première étape (20) consiste à déterminer pour chaque tiret de marquage un ensemble de paramètres décrivant l'évolution maximale de leur position. Cette évolution prend en compte l'erreur résultant du tangage du véhicule et des erreurs résultant de défauts de planéité du sol. L'étape suivante (21) détermine s'il existait, lors de l'itération précédente, au moins un agent sélectionné, décrivant le marquage sur l'image de confiance précédente. - S'il existait au moins un agent, l'étape suivante (22) consiste à étudier la cohérence spatiale des estimations de marquage afin de supprimer les agents non cohérents.
On ajoute ensuite à l'étape (23) un agent à droite ou à gauche de l'agent respectivement le plus à droite ou le plus à gauche de l'agent sélectionné lors de l'itération précédente. S'il n'existait aucun agent sélectionné, on initialise (24) une pluralité d'agents se propageant dans la direction du centre optique. L'étape (25) consiste, pour chacun des agents, à estimer les agents voisins, avant la propagation des agents. L'étape (26) consiste à lancer le processus de détection par agent des marquages décrit ci-après en référence à la figure 4. L'étape (27) consiste à estimer les seuils de perception et de stabilité pour chacun des agents. Les seuils de perception sont calculés en estimant les tirets identifiés à l'aide de la trace de l'agent, et extrapolant la position et la longueur des tirets suivants.
En fonction de ces éléments, on ajuste le seuil de perception de l'agent pour la prochaine itération.
La stabilité est estimée en fonction du ratio entre le nombre de pixels dont la valeur est supérieure à une valeur seuil, et le nombre de pixels dont la valeur est inférieure à cette valeur seuil. L'étape (28) consiste à supprimer les agents inappropriés, si la valeur de stabilité est inférieure à une valeur seuil, ou si la moyenne des valeurs des pixels de la trace est inférieure à une valeur seuil. L'étape (29) concerne l'estimation de la vitesse moyenne du véhicule par rapport à l'axe de la route. Cette estimation est issue du recalage temporel des traces des agents par une méthode de régression. L'étape (30) de typage des marquages consiste à enregistrer dans une mémoire tampon les valeurs successives des premiers pixels de la trace des agents, et d'en déduire le type de marquage en les comparant à une bibliothèque de signature des différents types de marquage. L'étape (31) consiste à réinitialiser les agents à l'intersection entre le champ de perception de la caméra (frustum de la caméra) et la spline cubique caractérisant le marquage. L'étape (32) concerne le tri de gauche à droite des agents afin de calculer les voisins pour l'étape (25) de l'itération suivante. L'étape (33) consiste à calculer la voie courante sur laquelle se situe le véhicule. L'étape (34) consiste à supprimer les marquages au-delà des lignes infranchissables caractérisées lors de l'étape (30). Cette étape permet de réduire la puissance de calcul nécessaire et d'éviter un changement de voie inopiné en cas d'utilisation d'un pilote automatique.
Logigramme de la simulation multi-agent
La première étape (40) correspond à l'estimation de l'orientation de la route ; Elle est obtenue par une méthode de consensus sur la direction des agents. L'étape (41) consiste à déterminer l'agent le plus en arrière, et à le déplacer (étape (42)) avec le modèle d'évolution précédemment défini. L'étape (43) consiste à vérifier si l'agent a atteint la ligne d'horizon, s'il n'a pas atteint la ligne d'horizon, on reitère le processus à partir de l'étape (40) sinon, s'il a atteint la ligne d'horizon, on vérifie s'il respecte des seuils de stabilité comme décrit précédemment et si la moyenne de pixels sur la trace est conforme à la comparaison précédemment décrite.
On procède ensuite à une étape (44) de vérification. Si le résultat est négatif, on réinitialise l'agent au démarrage et on procède à une étape (45) de réitération du processus à partir de l'étape (40) en supprimant les moyens de coopération avec les agents voisins. L'agent est alors marqué avec un drapeau de réinitialisation. Un agent déjà réinitialisé ne peut pas être réinitialisé une seconde fois.
On procède ensuite (étape 46) à l'enregistrement des pixels de la trace de l'agent et on procède (étape 47) à l'estimation du déplacement du marquage entre l'itération courante et l'itération précédente, afin de permettre le traitement de l'étape (29) d'estimation de la vitesse moyenne par consensus. L'étape (48) réalise une estimation, par comparaison de la trace de l'agent de l'itération précédente et de l'itération courante, d'une éventuelle situation de décrochage de l'agent. Le décrochage est défini comme une perte d'information (tiret de marquage) entre l'itération précédente et l'itération courante.
En cas de décrochage détecté lors de l'étape (on procède à une étape (49) de réitération du processus à partir de l'étape (40) en supprimant les moyens de coopération avec les agents voisins. L'agent est réinitialisé au début de la zone de décrochage détectée, et de réitération du processus à partir de l'étape (40)
Si tous les agents ont atteint la ligne d'horizon, le processus prend fin (étape (50)).

Claims (8)

  1. Revendications
    1 - Procédé de traitement d'image pour la reconnaissance de marquage au sol comportant une étape de réception d'au moins une image du sol à l'avant et/ou à l'arrière d'un véhicule caractérisé en ce qu'il comporte une étape de calcul d'une image numérique correspondant à une carte de confiance consistant à affecter à chaque pixel de l'image acquise une valeur correspondant au degré de confiance de l'appartenance de ce pixel à une zone de marquage, puis à procéder à une étape de détection de marquage pour calculer une spline.
  2. 2 - Procédé de traitement d'image pour la reconnaissance de marquage au sol comportant une étape de réception d'au moins une image du sol à l'avant et/ou à l'arrière d’un véhicule caractérisé en ce qu'il comporte en outre une étape de masquage partiel de l'image acquise par les informations provenant d'un module de détection des éléments situés dans le champ de caméras au-dessus du niveau du sol.
  3. 3 - Procédé de traitement d'image pour la reconnaissance de marquage au sol selon la revendication 1 caractérisé en ce qu'il comprend les étapes consistant à : - recevoir au moins une image du sol à 11 avant et/ou à l'arrière d’un véhicule - procéder à un prétraitement de l'image consistant à affecter à chaque pixel de ladite image un indicateur numérique représentatif de l'appartenance dudit pixel à un marquage - initialiser un processus multi-agent consistant à : - propager une pluralité d'agents en partant des pixels de bords de l'image vers le centre optique de ladite image, chacun des agents étant associé à un champ de perception de N pixels voisins, - à commander le déplacement de chacun desdits agents dans ledit champ de perception, dans la direction du barycentre dudit champs de perception pondéré par ledit indicateur numérique d'appartenance des pixels du champ - à itérer pour chacun des agents cette étape jusqu'aux bords de la bande de l'image contenant au moins un marquage - à enregistrer pour chacun desdits agents les coordonnées des pixels parcourus ainsi que la valeur de l'indicateur numérique d'appartenance associé - à sélectionner l'agent dont les valeurs numériques enregistrées sont maximales - à enregistrer la séquence d'enregistrements de cet agent puis, après cette étape d'initialisation, pour chaque nouvelle image, - à ré-estimer la position de départ de chacun des agents en fonction de l'intersection entre l'estimation de marquage obtenue lors de l'itération précédente, et le bord de 1'image - à ré-initialiser les agents sélectionnés lors de l'étape précédente à ladite position de départ puis : - à propager l'ensemble desdits agents sélectionnés en partant desdites positions de départ - à commander le déplacement de chacun desdits agents dans ledit champ de perception, dans la direction du barycentre dudit champ de perception pondéré par ledit indicateur numérique d'appartenance des pixels du champ - à itérer pour chacun des agents cette étape jusqu'aux bords de la bande de l'image contenant au moins un marquage - à enregistrer pour chacun desdits agents les coordonnées des pixels parcourus ainsi que la valeur de l'indicateur numérique d'appartenance associé - à sélectionner l'agent dont les valeurs numériques enregistrées sont maximales - à enregistrer la séquence d'enregistrements de cet agent pour la nouvelle image.
  4. 4 - Procédé de traitement d'image pour la reconnaissance de marquage au sol selon la revendication 3 caractérisé en ce qu'il comporte en outre une étape de traitement consistant, pour chacun desdites enregistrements, à appliquer un lissage par une méthode de spline cubique pondéré par la valeur dudit indicateur numérique d'appartenance.
  5. 5 - Procédé de traitement d'image pour la reconnaissance de marquage au sol selon la revendication 3 caractérisé en ce qu'il comporte des étapes d'échange d'informations entre moyens de détection de marquage.
  6. 6 - Système pour la détection du marquage au sol comportant au moins une caméra (1 à 3) et un calculateur (5), caractérisé en ce que ledit calculateur (5) exécute un programme commandant un traitement d'image pour la reconnaissance de marquage au sol comportant une étape de réception d'au moins une image du sol à l’avant et/ou à l'arrière d’un véhicule caractérisé en ce qu'il comporte une étape de calcul d'une image numérique correspondant à une carte de confiance consistant à affecter à chaque pixel de l'image acquise une valeur correspondant au degré de confiance de l'appartenance de ce pixel à une zone de marquage, puis à procéder à une étape de détection de marquage pour calculer une spline.
  7. 7 - Système pour la détection du marquage au sol selon la revendication précédente caractérisé en ce que ledit calculateur (5) reçoit également des signaux de services fournit par un capteur de position angulaire de la colonne de direction, et un capteur détectant la vitesse de rotation des roues arrières.
  8. 8 - Système pour la détection du marquage au sol selon la revendication 6 caractérisé en ce qu'il comporte en outre un lidar (7) constitué par un laser mobile assurant un balayage en direction de l'avant du véhicule pour détecter tout élément au-dessus du plan de la route, et filtrer l'espace image pour éviter le traitement des zones au sol occultées par un obstacle ou un véhicule.
FR1654322A 2016-05-13 2016-05-13 Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol Pending FR3051275A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR1654322A FR3051275A1 (fr) 2016-05-13 2016-05-13 Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol
PCT/FR2017/051143 WO2017194890A1 (fr) 2016-05-13 2017-05-11 Procédé de traitement d'image pour la reconnaissance de marquage au sol et système pour la détection du marquage au sol
US16/301,061 US20190188498A1 (en) 2016-05-13 2017-05-11 Image Processing Method For Recognizing Ground Marking And System For Detecting Ground Marking
EP17727655.7A EP3455788A1 (fr) 2016-05-13 2017-05-11 Procédé de traitement d'image pour la reconnaissance de marquage au sol et système pour la détection du marquage au sol
CN201780029644.5A CN109791598A (zh) 2016-05-13 2017-05-11 用于识别地面标记的图像处理方法以及地面标记检测系统
JP2019511815A JP6978491B2 (ja) 2016-05-13 2017-05-11 地面マーキングを認識するための画像処理方法、および地面マーキングを検出するためのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1654322A FR3051275A1 (fr) 2016-05-13 2016-05-13 Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol

Publications (1)

Publication Number Publication Date
FR3051275A1 true FR3051275A1 (fr) 2017-11-17

Family

ID=57113443

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1654322A Pending FR3051275A1 (fr) 2016-05-13 2016-05-13 Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol

Country Status (6)

Country Link
US (1) US20190188498A1 (fr)
EP (1) EP3455788A1 (fr)
JP (1) JP6978491B2 (fr)
CN (1) CN109791598A (fr)
FR (1) FR3051275A1 (fr)
WO (1) WO2017194890A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110687549A (zh) * 2019-10-25 2020-01-14 北京百度网讯科技有限公司 障碍物检测方法和装置

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11150664B2 (en) * 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
CN109947109B (zh) * 2019-04-02 2022-06-21 北京石头创新科技有限公司 机器人工作区域地图构建方法、装置、机器人和介质
CN110430400B (zh) * 2019-08-12 2020-04-24 中国人民解放军火箭军工程大学 一种双目可运动摄像机的地平面区域检测方法
FR3105961B1 (fr) 2020-01-08 2022-08-12 Psa Automobiles Sa Procédé et dispositif de détermination d’un indicateur de changement de voie pour véhicule
FR3107114B1 (fr) 2020-02-12 2022-01-14 Psa Automobiles Sa Procédé et dispositif de validation de données de cartographie d’un environnement routier de véhicule
FR3107024A1 (fr) 2020-02-12 2021-08-13 Psa Automobiles Sa Procédé et dispositif de contrôle d’un véhicule
FR3107875A1 (fr) 2020-03-05 2021-09-10 Psa Automobiles Sa Procédé et dispositif de contrôle d’activation de clignotants de véhicule
FR3110998A1 (fr) 2020-05-26 2021-12-03 Psa Automobiles Sa Procédé de régulation d’un trafic routier aux abords d’une zone de croisement de voies de circulation.
DE102020214991A1 (de) 2020-11-27 2022-06-02 Robert Bosch Gesellschaft mit beschränkter Haftung Optischer Sensor
DE102020215401A1 (de) 2020-12-07 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Optischer Sensor
FR3119817A1 (fr) 2021-02-16 2022-08-19 Psa Automobiles Sa Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR3120223A1 (fr) 2021-02-26 2022-09-02 Psa Automobiles Sa Procédé et dispositif d’aide à la conduite d’un véhicule basé sur la détection d’au moins une ligne marquée sur le sol d’une voie de circulation.
FR3123033B1 (fr) 2021-05-19 2023-04-07 Psa Automobiles Sa Procédé et dispositif d’aide à la conduite d’un véhicule circulant sur une voie de circulation.
FR3123745A1 (fr) 2021-06-07 2022-12-09 Psa Automobiles Sa Procédé d’aide à la conduite d’un véhicule circulant sur une voie de circulation délimitée par une première et une deuxième lignes marquées au sol.
FR3123619B1 (fr) 2021-06-08 2023-04-21 Psa Automobiles Sa Procédé de régulation de vitesse d’un véhicule circulant sur une chaussée à partir d’un véhicule cible.
FR3123618B1 (fr) 2021-06-08 2023-04-21 Psa Automobiles Sa Procédé et dispositif de régulation de vitesse d’un véhicule à partir d’un véhicule cible
FR3129910B1 (fr) 2021-12-02 2023-10-27 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule
FR3130234B1 (fr) 2021-12-09 2023-11-03 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule
FR3130233B1 (fr) 2021-12-09 2023-11-03 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule
FR3131724B1 (fr) 2022-01-13 2023-11-24 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de changement semi-automatique de voie de circulation d’un véhicule
FR3131885B1 (fr) 2022-01-17 2024-04-05 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de changement semi-automatique de voie de circulation d’un véhicule
FR3131884B1 (fr) 2022-01-17 2024-02-09 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de changement semi-automatique de voie de circulation d’un véhicule
FR3131889A1 (fr) 2022-01-18 2023-07-21 Psa Automobiles Sa Procédé de contrôle d’un système d’aide à la conduite d’un véhicule circulant sur une voie de circulation
FR3131890B1 (fr) 2022-01-19 2023-12-08 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de changement semi-automatique de voie de circulation d’un véhicule
FR3132265B1 (fr) 2022-01-31 2023-12-15 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de guidage latéral d’un véhicule
FR3132896A1 (fr) 2022-02-22 2023-08-25 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule dans un environnement routier comportant une fusion de voies
FR3133043B1 (fr) 2022-02-28 2024-01-12 Psa Automobiles Sa Procédé et dispositif de contrôle de sélection d’un véhicule cible d’un système de régulation adaptative de vitesse d’un véhicule
FR3134215A1 (fr) 2022-04-05 2023-10-06 Psa Automobiles Sa Procédé et dispositif de détermination d’un type de ligne de marquage au sol pour véhicule
FR3134779A1 (fr) 2022-04-25 2023-10-27 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite de véhicule en fonction d’un type de ligne de marquage au sol déterminé à partir de données caméra et de données dynamiques du véhicule
FR3135047A1 (fr) 2022-04-27 2023-11-03 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule en fonction d’une information d’intersection de lignes de marquage au sol
FR3135240B1 (fr) 2022-05-03 2024-04-19 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite de véhicule en fonction de la détection d’un panneau de signalisation et d’un changement de voie
FR3136305B1 (fr) 2022-06-01 2024-04-19 Psa Automobiles Sa Procédé et dispositif de contrôle de système d’aide à la conduite d’un véhicule basé sur une limite de vitesse
FR3137352B1 (fr) 2022-06-30 2024-05-17 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule circulant dans un environnement routier comprenant une intersection
FR3137642A1 (fr) 2022-07-05 2024-01-12 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de changement semi-automatique de voie de circulation d’un véhicule en fonction d’une valeur maximale d’un paramètre dynamique
FR3137780A1 (fr) 2022-07-11 2024-01-12 Psa Automobiles Sa Procédé et dispositif de détermination d’un tracé arrière d’au moins une délimitation latérale de voie de circulation
FR3137781A1 (fr) 2022-07-11 2024-01-12 Psa Automobiles Sa Procédé et dispositif de détermination d’une largeur d’une voie latérale adjacente à une voie de circulation
FR3138101B1 (fr) 2022-07-20 2024-06-07 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système SALC d’un véhicule en fonction de la qualité des lignes de marquage au sol
FR3138098A1 (fr) 2022-07-25 2024-01-26 Psa Automobiles Sa Procédé et dispositif de détermination d’une vitesse de rotation en lacet d’un véhicule
FR3138397A1 (fr) 2022-07-27 2024-02-02 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système SALC d’un véhicule en fonction de la présence d’une structure de séparation de voies
FR3140452A1 (fr) 2022-09-30 2024-04-05 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite d’un véhicule en fonction d’une hauteur d’un bord de voie
FR3140590A1 (fr) 2022-10-06 2024-04-12 Psa Automobiles Sa Procédé et dispositif de contrôle de l’intensité lumineuse de feux de signalisation arrière d’un véhicule
FR3141666B1 (fr) 2022-11-03 2024-09-20 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule changeant de voie de circulation
FR3142152A1 (fr) 2022-11-21 2024-05-24 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite avec fonction d’arrêt sécurisé pour véhicule
FR3142154A1 (fr) 2022-11-23 2024-05-24 Psa Automobiles Sa Procédé et dispositif de rendu d’un message d’autorisation d’un changement de voie
FR3146861A1 (fr) 2023-03-24 2024-09-27 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide au maintien sur voie de circulation d’un véhicule

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
JP3104645B2 (ja) * 1996-08-28 2000-10-30 松下電器産業株式会社 道路白線検出方法及び道路白線検出装置
JPH11213137A (ja) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd 画像処理装置
JP3630100B2 (ja) 2000-12-27 2005-03-16 日産自動車株式会社 車線検出装置
FR2858447A1 (fr) * 2003-07-29 2005-02-04 Holding Bev Sa Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications
JP3856798B2 (ja) * 2004-04-09 2006-12-13 松下電器産業株式会社 ナビゲーション装置
US8634593B2 (en) * 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
JP2016000602A (ja) * 2014-06-12 2016-01-07 トヨタ自動車株式会社 車線変更支援装置
CN104392212B (zh) * 2014-11-14 2017-09-01 北京工业大学 一种基于视觉的道路信息检测及前方车辆识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AHARON BAR HILLEL ET AL: "Recent progress in road and lane detection: a survey", MACHINE VISION AND APPLICATIONS, vol. 25, no. 3, 1 April 2014 (2014-04-01), pages 727 - 745, XP055113665, ISSN: 0932-8092, DOI: 10.1007/s00138-011-0404-2 *
BROGGI A ET AL: "An agent based evolutionary approach to path detection for off-road vehicle guidance", PATTERN RECOGNITION LETTERS, ELSEVIER, AMSTERDAM, NL, vol. 27, no. 11, 1 August 2006 (2006-08-01), pages 1164 - 1173, XP027922645, ISSN: 0167-8655, [retrieved on 20060801] *
JÉRÔME PERRIN, MARC REVILLOUD: "Délégation de conduite & véhicules autonomes", 20 December 2013 (2013-12-20), XP055342610, Retrieved from the Internet <URL:http://www.vedecom.fr/images/lettres/lettre_vedecom_6_decembre_2013.pdf> [retrieved on 20170206] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110687549A (zh) * 2019-10-25 2020-01-14 北京百度网讯科技有限公司 障碍物检测方法和装置
CN110687549B (zh) * 2019-10-25 2022-02-25 阿波罗智能技术(北京)有限公司 障碍物检测方法和装置
US11579307B2 (en) 2019-10-25 2023-02-14 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for detecting obstacle

Also Published As

Publication number Publication date
JP2019517089A (ja) 2019-06-20
JP6978491B2 (ja) 2021-12-08
EP3455788A1 (fr) 2019-03-20
WO2017194890A1 (fr) 2017-11-16
CN109791598A (zh) 2019-05-21
US20190188498A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
FR3051275A1 (fr) Procede de traitement d’image pour la reconnaissance de marquage au sol et systeme pour la detection du marquage au sol
US20230111722A1 (en) Curb detection by analysis of reflection images
EP3327618B1 (fr) Procédé et appareil pour commander la vitesse d&#39;un véhicule
EP2051206B1 (fr) Procédé de détermination automatique du coefficient d&#39;une pente sur le point d&#39;être abordée par un véhicule automobile, et dispositif associé
CN114902070A (zh) 传感器退化检测和修复
EP2642464A1 (fr) Procédé de détermination d&#39;information
FR2899332A1 (fr) Dispositif de mesure de champ de visibilite pour vehicule et systeme d&#39;assistance a la conduite pour vehicule
EP3332352A1 (fr) Dispositif et procede de detection de place de stationnement libre pour un vehicule automobile
FR3106918A1 (fr) Procédé et dispositif de reconstruction des voies
FR2947935A1 (fr) Procede de definition d&#39;une fenetre de recherche
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d&#39;objets sur des images d&#39;une scene
FR3047589A1 (fr) Procede et dispositif d&#39;estimation de la position laterale d&#39;un vehicule dans une voie de circulation
US11138448B2 (en) Identifying a curb based on 3-D sensor data
WO2018041978A1 (fr) Dispositif de détermination d&#39;une limitation de vitesse, système embarqué comprenant un tel dispositif et procédé de détermination d&#39;une limitation de vitesse.
FR3106108A1 (fr) Procédé et dispositif de détermination de trajectoire d’une route
FR2938228A1 (fr) Procede de mesure de distance au moyen d&#39;une camera embarquee dans un vehicule automobile
CN110599542A (zh) 面向几何区域的自适应vslam局部建图的方法和装置
FR2897460A1 (fr) Procede et dispositif de detection de reperes routiers dans une image
EP4373723A1 (fr) Dispositif et procédé de détection d&#39;une sortie de voie d&#39;un véhicule
FR3138951A1 (fr) Système et procédé d&#39;aide à la navigation d&#39;un système mobile au moyen d&#39;un modèle de prédiction de traversabilité d&#39;un terrain par le système mobile
FR3054355B1 (fr) Procede et systeme de determination d&#39;un espace libre situe dans une zone d&#39;environnement d&#39;un vehicule automobile
FR3129905A1 (fr) Procédé d’aide à la conduite pour véhicule automobile en présence de piétons.
WO2024194543A1 (fr) Procede d&#39;analyse d&#39;un flux video, programme d&#39;ordinateur, dispositif de traitement et vehicule associes
FR3105961A1 (fr) Procédé et dispositif de détermination d’un indicateur de changement de voie pour véhicule
WO2022033902A1 (fr) Procédé d&#39;alignement d&#39;au moins deux images formées de points tridimensionnels

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20171117

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9