FR3139227A1 - Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome. - Google Patents

Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome. Download PDF

Info

Publication number
FR3139227A1
FR3139227A1 FR2208554A FR2208554A FR3139227A1 FR 3139227 A1 FR3139227 A1 FR 3139227A1 FR 2208554 A FR2208554 A FR 2208554A FR 2208554 A FR2208554 A FR 2208554A FR 3139227 A1 FR3139227 A1 FR 3139227A1
Authority
FR
France
Prior art keywords
image
vehicle
threshold
coordinates
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2208554A
Other languages
English (en)
Inventor
Hamza El Hanbali
Yassine Et-Thaqfy
Zoubida Lahlou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2208554A priority Critical patent/FR3139227A1/fr
Publication of FR3139227A1 publication Critical patent/FR3139227A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

L’invention concerne un procédé et un dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome, ledit véhicule comportant une caméra monoculaire embarquée, ledit procédé étant mis en œuvre par un dispositif de détection comprenant un réseau de neurones convolutif entrainé pour localiser un objet dans une image, ledit procédé comportant des étapes de : Réception (201) d’une image de l’environnement avant dudit véhicule ;Localisation (202) d’objets dans ladite image ;Pour chaque objet localisé, détermination (203) si ledit objet localisé est dans ladite voie de circulation ;Puis (204), détermination d’une largeur de l’objet ;Puis, si le rapport entre ladite largeur de l’objet et une largeur de l’image est supérieur à un premier seuilcréation (205) et transmission d’un signal vers un dispositif d’aide à la conduite. Figure pour l’abrégé : Figure 2

Description

Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome.
L’invention est dans le domaine des systèmes d’aide à la conduite de véhicule autonome. En particulier, l’invention concerne la détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome.
On entend par « véhicule » tout type de véhicule tel qu’un véhicule automobile, un cyclomoteur, une motocyclette, un robot de stockage dans un entrepôt, etc. On entend par « conduite autonome » d’un « véhicule autonome » tout procédé apte à assister la conduite du véhicule. Le procédé peut ainsi consister à diriger partiellement ou totalement le véhicule ou à apporter tout type d’aide à une personne physique conduisant le véhicule. Le procédé couvre ainsi toute conduite autonome, du niveau 0 au niveau 5 dans le barème de l’OICA, pour Organisation International des Constructeurs Automobiles.
Les procédés aptes à assister la conduite du véhicule sont aussi nommés ADAS (de l’acronyme anglais « Advanced Driver Assistance Systems »), systèmes ADAS, aides à la conduite ou systèmes d’aide à la conduite. Par exemple, lorsque le véhicule autonome détecte un autre véhicule dont on se rapproche avec un risque de collision, un système ADAS est un système de freinage d’urgence, un système de régulation de vitesse adaptatif, un système de changement de voie, un système d’alerte au conducteur pour qu’il reprenne le contrôle du véhicule, etc.
Un véhicule équipé d’un système d’ADAS tel que, par exemple, le freinage d’urgence, la régulation de vitesse adaptative ou le changement de voie automatique, possède de nombreux capteurs embarqués. Certains de ces capteurs, comme un LIDAR, des capteurs ultra-sons, un RADAR, …, sont aptes à mesurer la distance entre le véhicule et un autre véhicule qui le précède. Ces véhicules possèdent également une caméra embarquée, généralement situé au milieu en haut de parebrise. Cette caméra est apte à capturer des images de l’environnement avant du véhicule autonome. Par image de l’environnement avant du véhicule, on entend une représentation visuelle de l’environnement avant du véhicule, comme le voit un conducteur, la représentation étant numérique et étant stockée sous forme binaire.
On connait les réseaux de neurones aptes à traiter des images. On connait également les réseaux de neurones convolutifs ou réseaux de neurones à convolution (l’acronyme anglais étant CNN de « Convolutionnal Neural Network ») qui sont des réseaux de neurones spécialement conçus pour traiter des images. Il est connu d’entraîner un réseau de neurones convolutif pour localiser un objet dans une image. Le résultat de l’entraînement donne un modèle aussi appelé réseau de neurone, ou réseau de neurones convolutif. Un objet est, par exemple, un véhicule, un camion, une moto, un cycliste, un piéton, ou tout type de véhicule. Par localisation, on entend la détermination d’un plus petit rectangle entourant ledit objet, ledit réseau de neurones fournissant en sortie des coordonnées, dans le repère de l’image, de au moins deux sommets diamétralement opposés. On entend par coordonnées une abscisse, soit une coordonnée horizontale de l’image, et une ordonnée, soit une coordonnée verticale de l’image, dans le cas d’une image en 2 dimensions. Une fois le modèle entraîné celui-ci est stockable dans une mémoire et embarquable dans un véhicule. Le modèle peut être utilisé pour traiter de nouvelles images, provenant par exemple d’une caméra embarquée, pour identifier et localiser des objets appris (par exemple camion, véhicule, piéton, cycliste, …) en temps quasi réel. Le traitement consiste à fournir une image et à récupérer en sortie la liste des objets détectés et leurs les coordonnées. D’autres informations sont également accessibles en sortie du réseau de neurones, ou modèle, comme le type d’objet, généralement dit la classe, (voiture, camion, piéton, …), la largeur d’un objet, la hauteur de l’objet, …
Pour que des systèmes ADAS, de type de freinage d’urgence, de régulation de vitesse adaptative ou de changement de voie, fonctionnent, il est nécessaire que les capteurs aptes à mesurer une distance soient opérationnels. Malheureusement, ces capteurs ne sont pas infaillibles pour, par exemple, des raisons de variation de tension d’alimentation, de saturation de transmission d’information dans un réseau de communications, de pollution ou de salissures des capteurs, pour des raisons environnementales, … Dans ces cas, le systèmes ADAS n’est plus fonctionnel.
Un objet de la présente invention est de remédier au problème précité, en particulier rendre possible une mesure de distance critique entre l’avant dudit véhicule autonome et un autre véhicule précédant ledit véhicule autonome. Ainsi, il est possible de déclencher, ou sécuriser par redondance d’informations en cas de doutes des mesures de distance, un système ADAS comme le freinage d’urgence, la régulation de vitesse adaptative, le changement de voie, l’alerte au conducteur, etc.
A cet effet, un premier aspect de l’invention concerne un procédé de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome, ledit véhicule comportant une caméra monoculaire embarquée apte à acquérir des images de l’environnement avant dudit véhicule, ledit procédé étant mis en œuvre par un dispositif de détection comprenant un réseau de neurones convolutif entrainé pour localiser un objet dans une image, un objet étant par exemple un véhicule, un camion, une moto, un cycliste, …, ladite localisation comprenant la détermination d’un plus petit rectangle entourant ledit objet, ledit réseau de neurones fournissant en sortie des coordonnées, dans le repère de l’image, de deux sommets diamétralement opposés dudit rectangle, ledit procédé comportant des étapes de :
  • Réception d’une image de l’environnement avant dudit véhicule ;
  • Localisation, à partir dudit réseau de neurone et de ladite image, d’objets dans ladite image ;
  • Pour chaque objet localisé, à partir des coordonnées dudit objet localisé, détermination si ledit objet localisé est dans ladite voie de circulation ;
  • Puis, si un objet localisé est dans la voie de circulation, détermination, à partir des coordonnées dudit objet localisé, d’une largeur de l’objet ;
  • Puis, si le rapport entre ladite largeur de l’objet et une largeur de l’image est supérieur à un premier seuil, dit seuil proche, création et transmission d’un signal vers un dispositif d’aide à la conduite.
Ainsi, une fois l’apprentissage du réseau de neurone convolutif effectué, il est facile et rapide d’embarquer dans un véhicule au sein d’un calculateur le modèle de réseau de neurone. Ainsi, à partir d’une capture d’une image d’un environnement avant du véhicule, on peut déterminer si un objet est proche du véhicule et s’il est nécessaire de mettre en œuvre une aide à la conduite comme le freinage d’urgence. Il n’est pas nécessaire d’avoir un LIDAR ou RADAR fonctionnel pour déterminer si un objet est proche du véhicule.
Ce système est simple de mise en œuvre. Il est possible d’utiliser une caméra dite 2D, monoculaire fournissant une image en 2 dimensions. On évite également des traitements complexes en utilisant qu’une seule image à la fois. Il n’est pas nécessaire de faire un traitement complexe de plusieurs images successives pour localiser les objets. On évite alors un traitement plus lourd en charge de temps de calcul, de transfert d’informations, …, et ainsi plus consommatrice d’énergie.
Ce système permet soit de redonder les informations acquises par un système ADAS embarqué afin de sécuriser et de fiabiliser le système ADAS, soit de permettre une fonction similaire dudit système ADAS en cas de pannes ou de défaillance d’un dispositif de mesure de distance d’un autre véhicule précédant ledit véhicule autonome.
Avantageusement ladite détermination si ledit objet localisé est dans ladite voie de circulation est obtenue par un calcul d’une moyenne de deux abscisses des coordonnées d’un objet localisé, puis par la comparaison de ladite moyenne avec un deuxième seuil, dit seuil bas, et avec un troisième seuil, dit seuil haut.
Avantageusement, si ladite moyenne est comprise entre le seuil bas et le seul haut, alors ledit objet localisé est dans ladite voie de circulation.
Avantageusement, la détermination de ladite largeur de l’objet est obtenue par un calcul de la valeur absolue de la différence entre les deux abscisses des coordonnées de l’objet.
Avantageusement, les coordonnées de l‘objet sont exprimés en nombre de pixels.
Avantageusement, une origine de ladite image est un point inférieur gauche de l’image.
Avantageusement, ledit signal est utilisé pour piloter un système ADAS comme un freinage d’urgence, une régulation de vitesse adaptative, un changement de voie, et/ou une alerte vers un occupant du véhicule.
Un deuxième aspect de l’invention concerne un dispositif comprenant une mémoire associée à au moins un processeur configuré pour mettre en œuvre le procédé selon le premier aspect de l’invention.
L’invention concerne aussi un véhicule comportant le dispositif.
L’invention concerne aussi un programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par le dispositif selon le deuxième aspect de l’invention, conduisent celui-ci à mettre en œuvre le procédé selon le premier aspect de l’invention.
D’autres caractéristiques et avantages de l’invention ressortiront de la description des modes de réalisation non limitatifs de l’invention ci-après, en référence aux figures annexées, sur lesquelles :
illustre schématiquement un dispositif, selon un exemple particulier de réalisation de la présente invention.
illustre schématiquement un procédé de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome, selon un exemple particulier de réalisation de la présente invention.
L’invention est décrite ci-après dans son application, non limitative, au cas d’un véhicule automobile autonome circulant sur une route ou sur une voie de circulation. D’autres applications telles qu’un robot dans un entrepôt de stockage ou encore une motocyclette sur une route de campagne sont également envisageables.
La représente un exemple de dispositif 101 compris dans le véhicule, dans un réseau (« cloud ») ou dans un serveur. Ce dispositif 101 peut être utilisé en tant que dispositif centralisé en charge d’au moins certaines étapes du procédé décrit ci-après en référence à la . Dans un mode de réalisation, il correspond à un calculateur de conduite autonome.
Dans la présente invention, le dispositif 101 est compris dans le véhicule.
Ce dispositif 101 peut prendre la forme d’un boitier comprenant des circuits imprimés, de tout type d’ordinateur ou encore d’un téléphone mobile (« smartphone »).
Le dispositif 101 comprend une mémoire vive 102 pour stocker des instructions pour la mise en œuvre par un processeur 103 d’au moins une étape du procédé tel que décrit ci-avant. Le dispositif comporte aussi une mémoire de masse 104 pour le stockage de données destinées à être conservées après la mise en œuvre du procédé. Par exemple, la mémoire de masse 104 peut contenir un modèle de réseau de neurones convolutif entrainé pour localiser un objet dans une image, un objet étant par exemple un véhicule, un camion, une moto, un cycliste, …, ladite localisation comprenant la détermination d’un plus petit rectangle entourant ledit objet, ledit réseau de neurones fournissant en sortie des coordonnées, dans le repère de l’image, de deux sommets diamétralement opposés dudit rectangle.
Le dispositif 101 peut en outre comporter un processeur de signal numérique (DSP) 105. Ce DSP 105 reçoit des données pour mettre en forme, démoduler et amplifier, de façon connue en soi ces données.
Le dispositif 101 comporte également une interface d’entrée 106 pour la réception des données mises en œuvre par le procédé selon l’invention et une interface de sortie 107 pour la transmission des données mises en œuvre par le procédé selon l’invention.
Par exemple, l’interface d’entrée 106 peut réceptionner les données suivantes : position ou localisation géographique du véhicule, vitesse et/ou accélération du véhicule, positions/vitesses/accélérations consignes ou prédéterminées, régime moteur, position et/ou course de la pédale d‘embrayage, de frein et/ou d’accélération, détection d’autres véhicules ou objets, position ou localisation géographique des autres véhicules ou objets détectés, vitesse et/ou accélération des autres véhicules ou objets détectés, images, états de fonctionnement de capteurs, indice de confiance de données issues ou traitées par des capteurs et/ou dispositifs similaires au dispositif 101. Par exemple, les capteurs aptes à fournir des données sont : GPS associé ou non à une cartographie, tachymètres, accéléromètres, RADAR, LIDAR, lasers, ultra-sons, caméra …
Avantageusement, ledit véhicule comporte une caméra monoculaire embarquée apte à acquérir des images de l’environnement avant dudit véhicule.
Avantageusement, le dispositif 101 comporte un dispositif de détection comprenant un réseau de neurones convolutif entrainé pour localiser un objet dans une image, un objet étant par exemple un véhicule, un camion, une moto, un cycliste, …, ladite localisation comprenant la détermination d’un plus petit rectangle entourant ledit objet, ledit réseau de neurones fournissant en sortie des coordonnées, dans le repère de l’image, de deux sommets diamétralement opposés dudit rectangle.
La illustre schématiquement un procédé de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome, selon un exemple particulier de réalisation de la présente invention.
L’étape 201, RxImg, est une étape de réception d’une image de l’environnement avant dudit véhicule. Par exemple, l’image a été capturée par une caméra monoculaire embarquée dans le véhicule. De manière préférée, la caméra est en haut et milieu de parebrise, cependant d’autres positions sont possibles. L’image est une image numérique en pixels. Un exemple d’une résolution de l’image est de 2048 pixels de large selon l’axe horizontal et de 1280 pixels de hauteur selon l’axe vertical. D’autres résolutions sont possibles.
Une image peut être représentée par un rectangle comportant un axe horizontal et un axe vertical. On peut associer un repère cartésien à l’image. L’axe horizontal est nommé axe des abscisses. L’axe vertical est nommé axe des ordonnées.
Avantageusement, une origine de ladite image est un point inférieur gauche de l’image. Ainsi, un pixel de l’image peut être représenté par des coordonnées (x, y). On entend par coordonnées un couple de valeur comprenant une abscisse, soit une coordonnée horizontale de l’image mesurant une distance horizontale par rapport à l’origine, et une ordonnée, soit une coordonnée verticale de l’image mesurant une distance verticale par rapport à l’origine. Par valeur ou distance on entend un nombre, ce nombre pouvant être un nombre de pixels, un pourcentage par rapport à la résolution horizontale ou verticale, … Par exemple, la coordonnée (0, 0) représente l’origine de l’image, et la coordonnée (2047, 1279) représente le pixel en haut à droite d’une image de résolution 2028x1280 par exemple.
L’étape 202, RxLoc, est une étape de localisation, à partir dudit réseau de neurone et de ladite image, d’objets dans ladite image. Le réseau de neurone alimenté par l’image fournie est apte à localiser un objet dans une image. Un objet est, par exemple, un véhicule, un camion, une moto, un cycliste, un piéton, ou tout type de véhicule. Par localisation, on entend la détermination d’un plus petit rectangle entourant ledit objet, ledit réseau de neurones fournissant en sortie des coordonnées, dans le repère de l’image, de au moins deux sommets diamétralement opposés.
Par exemple, la localisation d’un objet indicéifournie les coordonnées (xi1, yi1) et (xi2, yi2). xi1et xi2sont les abscisses. yi1et yi2sont les ordonnées. Par exemple, les coordonnées (xi1, yi1), respectivement les coordonnées (xi2, yi2), représentent les coordonnées du sommet haut gauche, respectivement bas droit, du plus petit rectangle entourant l’objeti.
Avantageusement, le modèle ou réseau de neurones fourni également en sortie une classe (type d’objet : véhicule, camion, moto, cycliste, piéton, …), une largeur et/ou une hauteur d’un objet localisé.
L’étape 203, IsVoie, est une étape où pour chaque objet localisé, à partir des coordonnées dudit objet localisé, on détermine si ledit objet localisé est dans ladite voie de circulation, c’est-à-dire dans la voie sur laquelle ledit véhicule autonome circule. Plusieurs méthodes différentes peuvent être utilisées pour déterminer à partir des coordonnées d’un objet localisé si cet objet est dans la voie sur laquelle circule ledit véhicule autonome. Par exemple, un objetiest dit dans la voie si l’abscisse du point haut gauche xi1est inférieure à l’abscisse du milieu de l’image, et si l’abscisse du point bas droit est supérieure à l’abscisse du milieu de l’image.
Avantageusement, la détermination si ledit objet localisé est dans ladite voie de circulation est obtenue par un calcul d’une moyenne de deux abscisses des coordonnées d’un objet localisé, puis par la comparaison de ladite moyenne avec un deuxième seuil, dit seuil bas, et avec un troisième seuil, dit seuil haut. Par exemple ladite moyenne est calculée par la formule , où xi1 est ‘abscisse d’un sommet du rectangle de la localisation et xi2 est le sommet diamétralement opposé dudit rectangle.
Avantageusement, si ladite moyenne est comprise entre le seuil bas et le seul haut, alors ledit objet localisé est dans ladite voie de circulation. Le seuil bas et le seuil haut sont déterminées en fonction de la position de la caméra, de l’angle de vision de la caméra. Dans un mode opératoire, si la caméra est placée au milieu en haut du parebrise et que l’image est parfaite centrée, si l’abscisse du milieu de l’image a pour valeur 1023 ou 1024 pixels, un seuil bas, respectivement un seuil haut, peut être 30 %, respectivement 70%, de cette valeur. Bien entendu, tout autre pourcentage est possible, aussi bien pour le seuil bas que pour le seuil haut.
Avantageusement, les coordonnées de localisation sont des valeurs en pourcentage de la largeur et de la hauteur de l’image.
Avantageusement, le pourcentage de nombre de pixel du seuil bas n’est pas symétrique par rapport au milieu de l’image du pourcentage de nombre de pixel du seuil haut. Ainsi, on pourra prendre en compte un décalage horizontal de l’image par rapport au centre de la voie lorsque le véhicule eu centre de la voie.
Si l’objet n’est localisé dans la voire de circulation sur laquelle circule ledit véhicule autonome, alors le procédé revient à l’étape 201.
L’étape 204, Lar, est une étape dans laquelle un objet est localisé dans la voie de circulation. Dans cette étape, on détermine, à partir des coordonnées dudit objet localisé, d’une largeur de l’objet. Puis, on teste si le rapport entre ladite largeur de l’objet et une largeur de l’image est supérieur à un premier seuil, dit seuil proche.
Avantageusement, la détermination de ladite largeur de l’objet est obtenue par un calcul de la valeur absolue de la différence entre les deux abscisses des coordonnées de l’objet. Par exemple, ladite largeur est donnée par la formule : en nombre de pixel si les coordonnées sont données en nombre de pixels. Dans un autre mode de réalisation, le réseau de neurones fourni en sortie la largeur de l’objet ou le rapport entre la largeur de l’objet par rapport à la largeur de l’image. Si on ne reçoit pas ce dit rapport, on détermine ce dit rapport en divisant ladite largeur calculée en nombre de pixel par le nombre de pixel de la résolution horizontale de l’image. Ce rapport est un nombre entre une valeur supérieure à 0 et 1, soit entre 0% et 100%.
Ce rapport est alors comparé par rapport un seuil proche. Plus l’autre véhicule est proche dudit véhicule autonome, plus le rapport est grand. Le seuil proche est donc un nombre entre 0 et 1 si le rapport est un nombre entre 0 et 1. De manière préférée, le seuil proche est un nombre compris entre 0,2 et 0,3. Il peut prendre d’autres valeurs, car ce seuil est dépendant des caractéristiques de la caméra (angle de vision, ou autre) et de l’emplacement de la caméra sur le véhicule. Classiquement, ce paramètre est réglé après quelques essais.
Si le rapport entre ladite largeur de l’objet et une largeur de l’image est supérieur au seul proche, alors on passe à l’étape 205, sinon on revient à l’étape 201. Un rapport supérieur au seuil proche indique qu’un objet, un véhicule par exemple, est trop proche dudit véhicule autonome.
L’étape 205, Sig, est une étape de création et de transmission d’un signal vers un dispositif d’aide à la conduite. Arrivé dans cette étape, nous avons détecté qu’un autre véhicule précède ledit véhicule autonome et que cet autre véhicule est trop proche du dit véhicule autonome. C’est une situation critique. Dans cette étape, on crée un signal et on transmet ce signal à une aide à la conduite permettant de piloter l’aide à la conduite. Par pilotage, on entend de modifier le comportement de l’aide à la conduite. Avantageusement, ledit signal est utilisé pour piloter un système ADAS comme un freinage d’urgence, une régulation de vitesse adaptative, un changement de voie, et/ou une alerte vers un occupant du véhicule. Par exemple, si l’aide à la conduite est un freinage d’urgence ou une régulation de vitesse adaptative, l’aide va alors freiner et/ou ralentir ledit véhicule autonome. Si l’aide à la conduite est un changement de voie automatique, l’aide va, si toutes les conditions nécessaires le permettent, faire changer e voie ledit véhicule autonome. Dans un autre exemple, le signal peut être utilisé par une interface homme machine pour avertir un passage dudit véhicule de la situation critique.
La présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d’exemples ; elle s’étend à d’autres variantes.
Ces méthodes peuvent dépendre de la position de la caméra (en milieu et haut de parebrise, dans l’axe du conducteur, sur le côté du véhicule, …). Ces méthodes dépendent aussi de l’axe de la caméra et de l’image capturée. Si le plan de l’image capturée n’est pas vertical et perpendiculaire au plan vertical passant par l’axe longitudinal qui passe par le centre dudit véhicule autonome, on pourra, par exemple, recentrer et/ou corriger l’image. Dans un autre exemple, les premiers, deuxième et troisièmes paramètres pourront prendre d’autres valeurs.
Également, les seuils et réglages peuvent être fonction de la classe de l’objet détecté. Par exemple, si l’objet détecté est un camion, le seuil proche est plus petit que le seuil proche si la classe de l’objet détection est un cycliste.
Des équations et calculs ont en outre été détaillés. L’invention n’est pas limitée à la forme de ces équations et calcul, et s’étend à tout type d’autre forme mathématiquement équivalente.

Claims (10)

  1. Procédé de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome, ledit véhicule comportant une caméra monoculaire embarquée apte à acquérir des images de l’environnement avant dudit véhicule, ledit procédé étant mis en œuvre par un dispositif de détection comprenant un réseau de neurones convolutif entrainé pour localiser un objet dans une image, un objet étant par exemple un véhicule, un camion, une moto, un cycliste, …, ladite localisation comprenant la détermination d’un plus petit rectangle entourant ledit objet, ledit réseau de neurones fournissant en sortie des coordonnées, dans le repère de l’image, de deux sommets diamétralement opposés dudit rectangle, ledit procédé comportant des étapes de :
    • Réception (201) d’une image de l’environnement avant dudit véhicule ;
    • Localisation (202), à partir dudit réseau de neurone et de ladite image, d’objets dans ladite image ;
    • Pour chaque objet localisé, à partir des coordonnées dudit objet localisé, détermination (203) si ledit objet localisé est dans ladite voie de circulation ;
    • Puis (204), si un objet localisé est dans la voie de circulation, détermination, à partir des coordonnées dudit objet localisé, d’une largeur de l’objet ;
    • Puis, si le rapport entre ladite largeur de l’objet et une largeur de l’image est supérieur à un premier seuil, dit seuil proche, création (205) et transmission d’un signal vers un dispositif d’aide à la conduite.
  2. Procédé selon la revendication 1, dans lequel ladite détermination si ledit objet localisé est dans ladite voie de circulation est obtenue par un calcul d’une moyenne de deux abscisses des coordonnées d’un objet localisé, puis par la comparaison de ladite moyenne avec un deuxième seuil, dit seuil bas, et avec un troisième seuil, dit seuil haut.
  3. Procédé selon la revendication 2, dans lequel si ladite moyenne est comprise entre le seuil bas et le seul haut, alors ledit objet localisé est dans ladite voie de circulation.
  4. Procédé selon l’une des revendications précédentes, dans lequel la détermination de ladite largeur de l’objet est obtenue par un calcul de la valeur absolue de la différence entre les deux abscisses des coordonnées de l’objet.
  5. Procédé selon l’une des revendications précédentes, dans lequel les coordonnées de l‘objet sont exprimés en nombre de pixels.
  6. Procédé selon l’une des revendications précédentes, dans lequel une origine de ladite image est un point inférieur gauche de l’image.
  7. Procédé selon l’un des revendications précédentes, dans lequel ledit signal est utilisé pour piloter un système ADAS comme un freinage d’urgence, une régulation de vitesse adaptative, un changement de voie, et/ou une alerte vers un occupant du véhicule.
  8. Dispositif (101) comprenant une mémoire (102) associée à au moins un processeur (103) configuré pour mettre en œuvre le procédé selon l’une des revendications précédentes.
  9. Véhicule comportant le dispositif selon la revendication précédente.
  10. Programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par le dispositif (101), conduisent celui-ci à mettre en œuvre le procédé selon l’une des revendication 1 à 7.
FR2208554A 2022-08-26 2022-08-26 Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome. Pending FR3139227A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2208554A FR3139227A1 (fr) 2022-08-26 2022-08-26 Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2208554 2022-08-26
FR2208554A FR3139227A1 (fr) 2022-08-26 2022-08-26 Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome.

Publications (1)

Publication Number Publication Date
FR3139227A1 true FR3139227A1 (fr) 2024-03-01

Family

ID=84331237

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2208554A Pending FR3139227A1 (fr) 2022-08-26 2022-08-26 Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome.

Country Status (1)

Country Link
FR (1) FR3139227A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019177562A1 (fr) * 2018-03-15 2019-09-19 Harman International Industries, Incorporated Système de véhicule et procédé de détection d'objets et de distance d'objets

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019177562A1 (fr) * 2018-03-15 2019-09-19 Harman International Industries, Incorporated Système de véhicule et procédé de détection d'objets et de distance d'objets

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BAO DONGSHENG ET AL: "Vehicle distance detection based on monocular vision", 2016 INTERNATIONAL CONFERENCE ON PROGRESS IN INFORMATICS AND COMPUTING (PIC), IEEE, 23 December 2016 (2016-12-23), pages 187 - 191, XP033258042, DOI: 10.1109/PIC.2016.7949492 *

Similar Documents

Publication Publication Date Title
EP3419877B1 (fr) Dispositif et procédé d'aide à la conduite d'un véhicule automobile
EP3931056B1 (fr) Régulation de la vitesse d'un véhicule lors d'un dépassement en virage
FR3139227A1 (fr) Procédé et dispositif de détection d’un objet proche pour piloter une aide à la conduite d’un véhicule autonome.
FR3119817A1 (fr) Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR2936895A1 (fr) Systeme passif autonome utilisant la saisie d'images pour detecter le depassement par un vehicule de la vitesse limite
FR3092545A1 (fr) Assistance à la conduite d’un véhicule, par détermination de la voie de circulation dans laquelle est situé un objet
EP3931741A1 (fr) Assistance à la conduite d'un véhicule, par détermination fiable d'objets dans des images déformées
FR3139512A1 (fr) Procédé et dispositif de détection fiabilisée d’ouverture d’un capot d’un véhicule
FR3143512A1 (fr) Procédé et dispositif de de contrôle d’un système de régulation de vitesse adaptatif d’un véhicule autonome
EP4090565B1 (fr) Procédé et dispositif de contrôle d'un vehicule
US20240223915A1 (en) Systems and methods for downsampling images
FR3107024A1 (fr) Procédé et dispositif de contrôle d’un véhicule
FR3117078A1 (fr) Procédé et dispositif de changement de consigne d’accélération longitudinale d’un dispositif de changement de voie autonome d’un véhicule autonome.
FR3116501A1 (fr) Procédé et dispositif de détermination d’une ligne virtuelle de délimitation entre deux voies de circulation.
FR3133043A1 (fr) Procédé et dispositif de contrôle de sélection d’un véhicule cible d’un système de régulation adaptative de vitesse d’un véhicule
FR3114788A1 (fr) Procédé et dispositif de détermination d’un indicateur de comportement latéral dangereux d’un véhicule autonome circulant sur une voie de circulation
FR3034555A1 (fr) Procede de determination du sens du mouvement d'un vehicule automobile
FR3135814A1 (fr) Procédé et dispositif de contrôle d’un système de régulation de vitesse d’un véhicule en approche d’un élément de signalisation routière
FR3121255A1 (fr) Procédé et dispositif de signalement d’une manœuvre de marche arrière d’un véhicule autonome.
EP4308880A1 (fr) Procédé et dispositif de détermination d'une fiabilité d'une cartographie base définition
FR3036498A1 (fr) Procede et systeme de localisation en ligne d'un vehicule automobile
EP4277821A1 (fr) Procédé et dispositif de contrôle d'accélération d'un véhicule
EP4308881A1 (fr) Procede et dispositif de determination d'une fiabilite d'une cartographie basse definition
WO2024145460A1 (fr) Systèmes et procédés de sous-échantillonnage d'images
FR3118746A1 (fr) Procédé et dispositif d’aide à la conduite d’un véhicule circulant sur une chaussée comprenant plusieurs voies de circulation

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240301