FR3129511A1 - Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant - Google Patents

Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant Download PDF

Info

Publication number
FR3129511A1
FR3129511A1 FR2112363A FR2112363A FR3129511A1 FR 3129511 A1 FR3129511 A1 FR 3129511A1 FR 2112363 A FR2112363 A FR 2112363A FR 2112363 A FR2112363 A FR 2112363A FR 3129511 A1 FR3129511 A1 FR 3129511A1
Authority
FR
France
Prior art keywords
mobile platform
deployment
obstacle
vehicle
instantaneous image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2112363A
Other languages
English (en)
Inventor
Zouheir HAMDOUN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Multitec Innovation
Original Assignee
Multitec Innovation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Multitec Innovation filed Critical Multitec Innovation
Priority to FR2112363A priority Critical patent/FR3129511A1/fr
Publication of FR3129511A1 publication Critical patent/FR3129511A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

L’invention concerne un système d’assistance au stationnement d’un véhicule (1) équipé d’une plateforme mobile (11) comprenant au moins un dispositif de prise de vues (13) orienté vers la zone de déploiement (12) de la plateforme mobile (11) et des moyens de traitement d’images instantanées acquises successivement par ledit au moins un dispositif de prise de vues (13) en phase de stationnement du véhicule (1), lesdits moyens de traitement comprenant : - des moyens de génération d’au moins une information de profondeur pour une partie au moins de chaque image instantanée acquise, et/ou - des moyens de segmentation d’une partie au moins de chaque image instantanée acquise en plusieurs régions, lesdits moyens de traitement comprenant en outre des moyens de détermination de la présence ou de l’absence d’un obstacle dans la zone de déploiement (12) de la plateforme mobile (11) à partir d’une analyse de ladite au moins une information de profondeur et/ou d’une analyse de chacune des régions issues de la segmentation d’une partie au moins de chaque image instantanée. Figure pour l’abrégé : Fig. 1

Description

Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant
L'invention concerne les véhicules de transport, tels les véhicules utilitaires ou camions, comprenant une plateforme mobile (hayon élévateur arrière ou latéral, rampe d’accès pour véhicule PMR), et plus précisément l'assistance à l'utilisation de tels véhicules, et en particulier l'assistance au stationnement et au déploiement de la plateforme une fois le véhicule stationné.
Art antérieur
La croissance de l’e-commerce et de la livraison à domicile a fragmenté le flux logistique en ville. Les véhicules utilitaires légers (VUL) jouent un rôle croissant et constituent un maillon incontournable de l’acheminement final des marchandises au cœur des villes. Ainsi, au cours des dix dernières années, le parc des VUL a enregistré une croissance très importante. Le hayon-élévateur est largement utilisé dans les VUL destinés à la livraison des marchandises pour effectuer le chargement et le déchargement de ces marchandises.
Or, les conditions de déchargement des marchandises en ville sont peu favorables. Il existe par conséquent un besoin d’assister les livreurs à stationner correctement, dès la première fois, les VUL munis d’un hayon-élévateur, ce qui leur permettrait de gagner du temps tout en confortant les conditions de sécurite d’usage du hayon-élévateur. Cela permettrait également d’optimiser l’occupation de l’espace publique en réduisant le temps de manœuvre des véhicules encombrants dans des villes de plus en plus denses.
De nombreuses solutions de surveillance de l’environnement d’un véhicule, et notamment de sa partie arrière, ont été proposées mais elles ne donnent pas entièrement satisfaction.
Il est ainsi connu une solution consistant à projeter une lumière dans la zone de déploiement d’un hayon d’un véhicule. Certaines conditions d'éclairage rendent cette solution peu efficace. En outre, dans cette solution, il revient à l'usager d'interpréter la scène. Or, le rythmes des tournées logistiques peut fausser ce type d'interprétation.
Il est également connu des solutions intégrant un radar de recul qui prennent en compte les dimensions extérieures du véhicule sans tenir compte des dimensions d'une plateforme mobile (hayon ou rampe d'accès par exemple) équipant le véhicule.
Une autre solution met en œuvre des capteurs de choc ce qui n’est pas satisfaisant dans la mesure où il serait préférable de détecter un obstacle avant qu’un choc survienne.
En résumé, dans les solutions actuelles, l’interprétation de la scène et la détection d’obstacle sont assurés par l’utilisateur.
L'invention répond à ce besoin en proposant un système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile comprenant au moins un dispositif de prise de vues orienté vers la zone de déploiement de la plateforme mobile et des moyens de traitement d’images instantanées acquises successivement par ledit au moins un dispositif de prise de vues en phase de stationnement du véhicule, lesdits moyens de traitement comprenant :
- des moyens de génération d’au moins une information de profondeur pour une partie au moins de chaque image instantanée acquise, et/ou
- des moyens de segmentation d’une partie au moins de chaque image instantanée acquise en plusieurs régions,
lesdits moyens de traitement comprenant en outre des moyens de détermination de la présence ou de l’absence d’un obstacle dans la zone de déploiement de la plateforme mobile à partir d’une analyse de ladite au moins une information de profondeur et/ou d’une analyse de chacune des régions issues de la segmentation d’une partie au moins de chaque image instantanée.
Il est ainsi proposé un dispositif d’assistance permettant la détection automatique d’obstacles dans la zone de déploiement d’une plateforme mobile d’un véhicule, telle un hayon-élévateur situé a l’arrière d’un véhicule utilitaire ou d’un camion, de sorte a faciliter le stationnement d’un tel véhicule.
Le traitement de chaque image instantanée acquise par un appareil de prise de vues (une caméra par exemple) permet de déterminer en temps réel si un obstacle est présent dans la zone de déploiement de la plateforme mobile.
La solution de l’invention assiste l’usager (livreur, traiteur, ...) pour stationner correctement le véhicule dès la première fois afin de manipuler la plateforme mobile (hayon-élévateur arrière par exemple) sans risque d’impact avec des objets présents dans l’environnement de ce dernier.
Sur des tournées logistiques de plus en plus contraignantes, la solution de l’invention permet aux professionnels de la livraison de gagner du temps tout en confortant les conditions d’usage en sécurite de la plateforme mobile. Cette solution vise en outre à éviter le double stationnement.
Il est à noter que le traitement de chaque image instantanée peut s’effectuer sur une partie (ou zone) de chaque image plutôt que sur l’image entière, cette partie qui est délimitée par l’installateur (en usine par exemple) correspondant de préférence à la zone du déploiement de la plateforme mobile. Le fait de limiter le traitement à une partie de l’image, et non pas à l’image entière acquise par les moyens de prise de vue, permet de réaliser le traitement en temps réel sans nécessiter des moyens de calcul conséquent.
L’appareil de vues est, par exemple, une caméra qui filme en continu et fournit une information visuelle à une fréquence d’au moins une fois par seconde.
Lors de la phase de stationnement, le système utilise ainsi une image en entrée, et sur la base d’un modèle délivre une information visuelle à l’utilisateur, tel un voyant rouge ou vert sur un afficheur, indiquant la présence ou non d’un obstacle et la possibilité ou non de déployer la plateforme mobile du véhicule.
La solution de l’invention assure une interprétation automatique des images avant qu’il n’y ait un choc de la plateforme mobile avec un obstacle et ne nécessite donc pas que l’utilisateur interprète la scène. En d’autres termes, l’interprétation de la scène et la détection d’obstacle sont ici automatiques.
Pour ce faire, les moyens de traitement (microprocesseur ou calculateur) mettent en œuvre une des approches suivantes ou les deux approches combinées, à savoir :
a) la génération d’au moins une information de profondeur pour chaque image instantanée acquise sur des zones d’intérêt ou choisies qui peuvent être plus petites que le champ de vision de la caméra et qui correspondent par exemple à la zone de déploiement de la plateforme mobile. Cette approche consiste, par exemple, à identifier dans l’image acquise, ou une partie de celle-ci, plusieurs lignes de points et à déterminer une profondeur pour chaque point de ces lignes. Le traitement permet ainsi de prédire la profondeur selon des lignes de points ou quadrillage sur tout ou partie de l’image acquise. Le nombre de lignes et leurs dispositions dans l’image acquise dépendent du cas d’usage et du choix du développement (paramètre de conception de la solution), et/ou
b) la segmentation d’une partie au moins de chaque image instantanée, c’est-à-dire de chaque image acquise ou d’une partie de celle-ci dont le contour est déterminé selon chaque type de véhicule/hayon (cette partie peut ainsi correspondre à la zone de déploiement du hayon).
Selon un aspect particulier de l’invention, les moyens de génération d’au moins une information de profondeur comprennent des moyens de définition d’au moins un secteur dans chaque image instantanée acquise correspondant à la zone de déploiement de la plateforme mobile, et des moyens de détermination d’une information de profondeur pour plusieurs points dudit au moins un secteur.
Selon un aspect particulier de l’invention, les moyens de génération d’au moins une information de profondeur comprennent des moyens de définition d’au moins une ligne de points dans chaque image instantanée acquise ou secteur défini dans chaque image instantanée acquise, et des moyens de détermination d’une information de profondeur pour chaque point de ladite au moins une ligne de points.
Selon un aspect particulier de l’invention, les moyens de génération d’au moins une information de profondeur comprennent des moyens de définition de plusieurs lignes horizontales et plusieurs lignes verticales formant un quadrillage dans chaque image instantanée acquise ou secteur défini dans chaque image instantanée acquise.
Selon un aspect particulier de l’invention, les moyens de détermination de la présence ou de l’absence d’un obstacle mettent en œuvre des moyens de calcul d’une valeur de la profondeur de chaque point de ladite au moins une ligne de points à partir de l’information de profondeur générée, des moyens de comparaison de la valeur déterminée de la profondeur de chaque point de ladite au moins une ligne de points avec une valeur prédéterminée, et des moyens de détermination de la présence ou de l’absence d’un obstacle si la valeur de la profondeur d’au moins un point est inférieure ou supérieure respectivement à ladite valeur prédéterminée.
Le système de l’invention peut donc ne pas traiter la scène dans son intégralité. Il est adapté pour calculer plutôt des profondeurs sur quelques lignes (trois lignes horizontales et trois lignes verticales par exemple, de sorte à former un quadrillage). Si la profondeur d’un point d’une des lignes est inférieure à une valeur prédéterminée, une alerte destinée à l’utilisateur est émise.
Selon un aspect particulier de l’invention, le système comprend en outre des moyens d’émission d’un signal sonore et/ou visuel à l'intention de conducteur du véhicule pour indiquer la présence ou l’absence d’un obstacle.
Selon un aspect particulier de l’invention, le système comprend en outre des moyens de blocage total ou partiel du déploiement de la plateforme mobile en cas de détection d’un obstacle.
Selon un aspect particulier de l’invention, les moyens de détermination de la présence ou de l’absence d’un obstacle mettent en œuvre des moyens de comparaison de chacune des régions issues de la segmentation de chaque image instantanée acquise avec des premières images de référence correspondant à la présence d’un obstacle dans la zone de déploiement de la plateforme mobile et des deuxièmes images de référence correspondant à l‘absence d’un obstacle dans la zone de déploiement de la plateforme mobile.
Selon un aspect particulier de l’invention, les moyens de segmentation comprennent des moyens de sélection d’une partie de l’image instantanée acquise correspondant à la zone du déploiement de la plateforme mobile.
Selon un aspect particulier de l’invention, le système comprend en outre des moyens d’auto-calibration comprenant des moyens de détermination de la position de mires disposées en différentes positions de la plateforme mobile dans au moins une image instantanée acquise par ledit au moins un dispositif de prise de vues lors du déploiement de la plateforme mobile, des moyens de délimitation de la zone du déploiement de la plateforme mobile dans ladite au moins une image instantanée acquise en fonction de la détermination de la position des mires, et des moyens de stockage de la zone du déploiement de la plateforme mobile dans le champ de vision dudit au moins un dispositif de prise de vues de sorte à ce que seule une partie de chaque image instantanée acquise par ledit au moins un dispositif de prise de vues correspondant à la zone du déploiement de la plateforme mobile soit traitée par les moyens de traitement pour déterminer la présence ou l’absence d’un obstacle.
Selon un aspect particulier de l’invention, les moyens de traitement sont disposés dans un dispositif électronique installé dans le véhicule ou porté par un utilisateur.
Selon un aspect particulier de l’invention, le système comprend un afficheur d’images d’aide au stationnement affichant chaque image instantanée acquise par ledit au moins un dispositif de prise de vues ou une image en réalité augmentée obtenue à partir de chaque image instantanée acquise.
L’invention concerne par ailleurs un véhicule équipé d’une plateforme mobile comprenant un système d’assistance au stationnement tel que décrit précédemment.
Selon un aspect particulier de l’invention, la plateforme mobile est un hayon élévateur arrière, un hayon élévateur latéral, ou une rampe d’accès pour véhicule PMR.
L’invention concerne également un procédé d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile comprenant au moins un dispositif de prise de vues orienté vers la zone de déploiement de la plateforme mobile et des moyens de traitement d’images instantanées acquises successivement par ledit au moins un dispositif de prise de vues en phase de stationnement du véhicule, ledit procédé de traitement comprenant les étapes :
- de génération d’au moins une information de profondeur pour une partie au moins de chaque image instantanée acquise, et/ou
- de segmentation d’une partie au moins de chaque image instantanée acquise en plusieurs régions,
lesdits procédé de traitement comprenant en outre une étape de détermination de la présence ou de l’absence d’un obstacle dans la zone de déploiement de la plateforme mobile à partir d’une étape d’analyse de ladite au moins une information de profondeur et/ou d’une étape d’analyse de chacune des régions issues de la segmentation d’une partie au moins de chaque image instantanée.
L’invention concerne également un programme d’ordinateur comprenant un code programme pour la mise en œuvre du procédé tel que décrit précédemment lorsque le programme est appliqué par un ordinateur.
Présentation des figures
D'autres buts, caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante, donnée à titre de simple exemple illustratif, et non limitatif, en relation avec les figures, parmi lesquelles :
est une représentation schématique d’un véhicule à hayon arrière dans lequel est mis en œuvre le système d’assistance au stationnement de l’invention ;
est une représentation schématique illustrant partiellement une première possibilité de mise en œuvre du système d’assistance au stationnement de l’invention ;
est une représentation schématique illustrant partiellement une deuxième possibilité de mise en œuvre du système d’assistance au stationnement de l’invention ;
est une représentation schématique illustrant partiellement une troisième possibilité de mise en œuvre du système d’assistance au stationnement de l’invention ;
est une représentation schématique illustrant une mise en œuvre particulière de prédiction de profondeur par le système d’assistance au stationnement de l’invention.
Description détaillée d ‘un mode de réalisation de l'invention
La représente schématiquement un système d’aide ou d’assistance au stationnement mis en œuvre dans un véhicule automobile 1, qui est un véhicule utilitaire léger (VUL) dans cet exemple, comportant un volume utile accessible par un hayon arrière 11, un tel système permettant la détection automatique d'obstacle(s) dans la zone de fonctionnement ou de déploiement 12 du hayon arrière 11 en phase de stationnement du véhicule automobile 1. Le hayon arrière 11 est ici un hayon élévateur repliable dont le plateau ou plate-forme mobile est apte à être déplacé(e) par des moyens de levage entre une position rabattue d’escamotage et de stockage où il s’étend verticalement par rapport au sol et une position déployée d’utilisation où il s’étend horizontalement par rapport au sol, à une distance prédéterminée au-dessus du sol ou au contact de ce dernier (les différentes positions du hayon sont représentées en traits pointillés et la zone de déploiement en ombré).
Dans le mode de réalisation décrit, le mouvement de hayon élévateur arrière 11 se décompose en deux phases, à savoir une première phase de rotation où le hayon pivote pour passer de la position fermée (en verticale) jusqu’à une position horizontale. Dans la deuxième phase, le hayon élévateur arrière 11 se déplace parallèlement au sol entre une position haute et une position basse qui peut l’amener jusqu’au contact avec le sol. Le mouvement de translation vertical (vers le bas) s’accompagne souvent d’un mouvement longitudinal du hayon élévateur arrière 11 (vers l’arrière).
L’invention envisagée a comme objectif de vérifier l’absence d’obstacle dans le volume formé par ces deux mouvements successifs du hayon élévateur arrière 11, c’est-à-dire dans la zone de déploiement du hayon.
L’invention est adaptée à d’autres types de hayons qui ont des mécanismes de déploiement différents, tels les hayons qui se rétractent sous le véhicule et qui comprennent plusieurs plateaux (deux classiquement) repliables les uns sur les autres. La calibration de la solution qui sera décrite en détails par la suite permet de prendre en compte les différents schémas de déploiement. L’invention est également adaptée aux hayons élévateurs latéraux et aux rampes d’accès de véhicules pour personnes à mobilité réduite (PMR).
Le système de l’invention se présente sous la forme d’un kit/ensemble destiné à être monté sur le véhicule automobile 1 et d’un outil logiciel (application) destiné à être installé et mis en œuvre par au moins un calculateur dans un terminal embarqué du véhicule automobile 1, dans un boîtier électronique rapporté dans le véhicule automobile 1 ou dans un smartphone porté par le conducteur du véhicule automobile 1. Le (ou les) calculateur(s) est (sont) configuré(s) pour traiter les images acquises et déterminer la présence ou l’absence d’un obstacle dans la zone de déploiement du hayon arrière 11.
L‘installation du système d’assistance au stationnement est donc relativement aisée.
Le kit/ensemble comprend au moins un dispositif de prise de vues numérique 13, tel une caméra, permettant la prise de vues d’images numériques fixes ou animées. L’appareil de prise de vues 13 est, dans l’exemple décrit, disposé sur la partie haute du véhicule automobile 1, à l’arrière de ce dernier et au-dessus du hayon arrière 11. Cet appareil de prise de vues 13 filme la zone située à l’arrière du véhicule et est orienté vers la zone de déploiement du hayon arrière 11. Il pourrait dans une variante de réalisation être disposé dans la partie basse d’un véhicule automobile. En phase de stationnement du véhicule automobile 1, l’appareil de prise de vues 13 acquiert un flux d’images ou une séquence d’images instantanées 131 qui sont transmises vers le calculateur susmentionné qui est apte à mettre en œuvre un procédé de traitement des images instantanées (outil logiciel) qui sera décrit par la suite. La transmission de la séquence d’images instantanées 131 acquise par le dispositif de prise de vues 13 vers le calculateur de traitement d’images est mise en œuvre par une liaison sans fil. Cette transmission peut dans une variante de réalisation être assurée par une liaison filaire. Les moyens de traitement (calculateur) de la séquence d’images instantanées acquises successivement par le dispositif de prise de vues 11 en phase de stationnement du véhicule 1 sont aptes à déterminer si un obstacle est présent dans la zone de déploiement 12 du hayon élévateur arrière 11, et comprennent :
- des moyens de génération d’au moins une information de profondeur pour au moins une partie de chaque image instantanée acquise (cette partie de l’image peut correspondre à la zone du déploiement du hayon), et/ou des moyens de segmentation d’une partie au moins de chaque image instantanée acquise en plusieurs régions (cette segmentation peut être effectuée sur une zone de l'image que l'installateur précise en fonction des dimensions du hayon et du véhicule).
- des moyens de détermination de la présence ou de l’absence d’un obstacle dans la zone de déploiement du hayon élévateur arrière à partir d’une analyse de ladite au moins une information de profondeur et/ou d’une analyse de chacune des régions issues de la segmentation d’une partie au moins de chaque image instantanée acquise (cette partie de l’image peut correspondre à la zone du déploiement du hayon dont la délimitation est renseignée par l’installateur ou définie lors d’une phase d’auto-calibration détaillée ci-après).
L’outil logiciel du calculateur analyse en temps réel la séquence d’images instantanées 131 acquises par le dispositif de prise de vues 13 afin de détecter la présence (ou non) d’obstacle(s) dans la zone attendue du déploiement du hayon arrière 11 en phase de stationnement du véhicule 1. Il est donc déterminé dans le flux d’images instantanées reçu et traité si un obstacle est présent dans la zone de déploiement 12 du hayon arrière 11 et, dans l’affirmative, il est généré une alerte afin d’avertir le conducteur du véhicule pour qu’il puisse stationner le véhicule 1 correctement dès la première tentative. On évite ainsi l’endommagement du hayon arrière 11 avant qu’il ne soit déployé.
Lorsque le véhicule automobile 1 se déplace pour être garé dans un emplacement, avant que le hayon arrière 11 ne soit ouvert ou déployé, le conducteur peut déclencher la mise en œuvre du système d’assistance de l’invention par le biais d’un organe de commande (bouton, manette ou menu sur un écran de visualisation) ou bien ce dispositif d’assistance se déclenche automatiquement lorsque la marche arrière du véhicule automobile 1 est enclenchée. Au fur et à mesure du déplacement du véhicule automobile 1, le dispositif de prise de vues 13 acquiert des images instantanées 131 qui sont traitées une par une, totalement ou en partie, par les moyens de traitement (calculateur(s)).
Ce flux d’images instantanées 131 acquis par l’appareil de prise de vues 13 peut être affiché sur au moins un écran de visualisation embarqué dans le véhicule automobile 1 et qui est positionné, par exemple, sur le tableau de bord. L’écran de visualisation peut être celui d’un smartphone 14, d’un terminal embarqué 15 du véhicule ou d’une tablette électronique. Un menu et/ou des messages peuvent en outre être affichés sur cet écran de visualisation. L’utilisateur reçoit, sur l’écran du terminal 15 et/ou du smartphone 14, une information indicative et continue sa manœuvre jusqu’au moment où le système d’assistance évalue un champ du déploiement 12 du hayon arrière 11 libre de tout obstacle.
Cette information indicative délivrée à l’utilisateur peut consister en un signal sonore ou en une représentation graphique sur l’écran de visualisation (une icône ou pictogramme rouge ou vert(e), par exemple, selon qu’un obstacle est détecté ou non respectivement), par exemple.
De façon générale, la solution d’intelligence embarquée de l’invention traite en temps réel les données issues de capteurs de perception de l’environnement (une caméra dans l’exemple décrit ici). Le système d’assistance de l’invention assiste l’usager (livreur, traiteur, ...) pour stationner le véhicule correctement dès la première tentative afin de manipuler le hayon élévateur sans risque d’impact avec des objets présents dans l’environnement de ce dernier.
Le système d’assistance met en œuvre des algorithmes de vision par ordinateur («computer vision based» en anglais) permettant en temps réel de fournir à l’utilisateur une information fiable. L’intelligence embarquée permet de garantir la robustesse de la détection d’obstacle en prenant en comptes des images issues d’une ou de plusieurs caméras conventionnelles relativement peu coûteuses.
La détection d’obstacle se base sur la combinaison de deux algorithmes ou bien sur la mise en œuvre d’un seul de ces deux algorithmes, à savoir :
  • un algorithme de prédiction de profondeur.
  • un algorithme de segmentation de l’image
Les deux algorithmes utilisent des données d’apprentissage issues d’une phase d’apprentissage décrite ci-après et se basent sur une image instantanée acquise, de préférence sur une partie d’une image correspondant à la zone de déploiement du hayon déterminée lors de la phase d’auto-calibration (qui est mise en œuvre après la phase d'apprentissage et avant la phase d'exploitation).
La montre un exemple de mise en œuvre de l’algorithme de prédiction de profondeur sur une image acquise par la caméra 13. Les trois lignes apparentes dans l'image correspondent aux lignes retenues pour la prédiction de profondeur (ceci est un exemple de quadrillage). La disposition de ces lignes est un choix de concepteur. Dans cet exemple, les lignes s'étalent sur la largeur de l'image acquise. Chaque ligne est constituée d'un nombre limité de points. Le nombre de points dans la ligne est inférieur ou égal au nombre de pixels dans la largeur de l'image. Il est calculé une valeur de la profondeur de chaque point des trois lignes de points, puis la valeur déterminée de la profondeur de chaque point est comparée avec une valeur prédéterminée, et il est déterminé la présence ou de l’absence d’un obstacle si la valeur de la profondeur d’au moins un point est inférieure ou supérieure respectivement à la valeur prédéterminée.
Le modèle de prédiction de profondeur est donc constitué de plusieurs étapes de traitement. L'identification des paramètres de ce modèle est issue d'une phase d'apprentissage (décrite ci-dessous) qui consiste à fournir un nombre important d'images (appelé échantillons). Simultanément, avec l'enregistrement d'une image, une cartographie 3D (appelée « label ») est également acquise par un dispositif adéquat (Lidar ou caméra 3D). Le nombre d'échantillons/labels est proportionnel aux nombres de paramètres du modèle.
Phase d’a pprentissage
La phase d'apprentissage fait partie du processus du développement de l’outil logiciel. Cet outil logiciel est dans la suite embarqué dans les moyens de calcul pour détecter la présence d'obstacle à une fréquence supérieure ou égale à 1 Hz.
L'apprentissage du modèle de prédiction de profondeur est différent de l'apprentissage du modèle de segmentation.
En effet, comme souligné auparavant, la prédiction de profondeur nécessite des images prises simultanément avec cartographie 3D venant par exemple d'un lidar ou d’une caméra 3D. Les images sont appelées échantillons, la cartographie étant appelée « Label ».
La segmentation nécessite uniquement des images avec une labélisation manuelle par un expert.
A titre d’exemple, il peut être prévu de renseigner dans la phase d’apprentissage 1000 à 2000 images de parking et de zones de manœuvre. Le nombre d'images nécessaires est un paramètre de développement. Plus le nombre est important, plus la détection d'obstacle est robuste et fiable.
Phase d’exploitation
Suite à la phase d’apprentissage, les opérations de traitement de chaque image instantanée acquise se déroulent comme suit. L’algorithme de prédiction de profondeur peut être assimilé à une fonction de transfert où l’entrée est une unique image instantanée et la sortie est un vecteur de profondeur pour chaque ligne retenue de l’image. On assigne donc une profondeur à chaque point constituant les lignes de points (ou pixels) retenues dans l’image acquise ou dans une partie de l’image acquise, appelée secteur et correspondant à la zone de déploiement du hayon. Le nombre de lignes et la disposition de ces lignes dans l’image sont définis en fonction du cas d’usage. Limiter le traitement à un groupement de points assure un fonctionnement en temps réel et la possibilité d’installation sur le microprocesseur d’un smartphone ou d’un autre terminal électronique fixe ou portable.
L’algorithme de segmentation de l’image permet d’extraire des motifs ou des zones d’occupation similaires. L’entrée est une image instantanée et la sortie est une répartition multi-régions ou multi-zones. L’analyse se limite de préférence à une région correspondante à la zone du déploiement du hayon. Chaque zone ou région représente des caractéristiques similaires par objet dans la scène et plus particulièrement dans l’espace du déploiement du hayon. L’apprentissage de l’outil logiciel basée sur ce modèle de segmentation permet d’associer les caractéristiques d’une région ou zone délimitée (supposée correspondre à la zone du déploiement du hayon) à une présence d’obstacle ou non. La pertinence de cette prédiction est basée sur le dimensionnement de la base de données d’apprentissage.
Comme souligné précédemment, chaque algorithme peut être utilisé indépendamment pour détecter la présence d’obstacle dans la zone de déploiement du hayon arrière. La combinaison des deux algorithmes permet de rendre la prédiction/détection plus fiable et robuste. Les deux algorithmes peuvent être utilisées pendant la phase d’apprentissage mais pas forcément pendant la phase d’exploitation, l’un ou l’autre pouvant être mis en œuvre seul.
Ces deux algorithmes permettent d’analyser l'environnement 3D d’une plateforme mobile, telle un hayon arrière, à partir d'une image instantanée, sans nécessiter une succession d'images, ce qui permet un traitement rapide en temps réel et la détection rapide d’obstacles dans la zone de déploiement d’une plateforme mobile.
Il est détecté la présence d’un obstacle :
  • lorsque l’algorithme de prédiction de profondeur fournit une profondeur (distance entre la caméra et l’objet) pour au moins un des points d’au moins une ligne qui est inférieure à une valeur limite prédéterminée, et/ou
  • lorsque l’algorithme de segmentation de l’image fournit un secteur non homogène dans la zone de déploiement du hayon.
La dimension du hayon et/ou la taille du véhicule peuvent être prises en compte pour déterminer si le déploiement du hayon est possible ou pas en fonction de l’obstacle détecté.
L’information délivrée à l’utilisateur sur un écran d’affichage peut être binaire (« indiquant si le déploiement du hayon est possible ou pas »). Une image peut éventuellement être délivrée à l’utilisateur. Il peut être prévu des moyens d’émission d’une alerte (signal sonore et/ou visuel à l'intention de conducteur du véhicule et des moyens de blocage du déploiement du hayon en cas de détection d’obstacle dans le champ de détection de l’appareil de prise de vues.
Protocole d’auto-calibration
Par ailleurs, un protocole d’auto-calibration est mis en œuvre après la phase d'apprentissage et avant la phase d'exploitation, ce qui permet de réduire le temps d’intégration du système de l’invention et de compenser les erreurs de montage sans nécessiter des compétences (ressources) spécifiques.
L’objectif du protocole d’auto-calibration est de prendre en compte les paramètres géométriques de l’ensemble véhicule-hayon dans le logiciel de traitement et les caractéristiques de la caméra. Les paramètres géométriques de l’ensemble véhicule-hayon comprennent les dimensions du véhicule (largeur et hauteur du cadre arrière principalement), la dimension du hayon (largeur et hauteur), la position relative du hayon par rapport au cadre arrière du véhicule, ainsi que la position de la caméra par rapport au cadre et par rapport au hayon. Les caractéristiques de la caméra prises en compte comprennent sa résolution, la dimension de son capteur et son champ de vision.
La procédure d’auto-calibration est une procédure pre-programmée dans l’outil logiciel qui est exécutée lors de la première mise en route du système de l’invention par l’installateur. Elle se déroule comme suit. Deux mires (cibles) d’une forme caractéristique sont placées dans les deux extrémités supérieure et extérieure du hayon. Le hayon est alors déployé (mouvement de la position fermée vers une position horizontale puis une position basse). Le logiciel, dans sa fonction pre-programmée d’auto-calibration, est apte à reconnaitre les formes caractéristiques des deux mires (les deux cibles) dans au moins une image instantanée acquise.
Lors du déploiement du hayon, l’outil logiciel enregistre les positions de ces deux mires dans le champ de vision de la caméra. Les tracés de ces deux lignes permettent de délimiter la zone du déploiement du hayon. Dès lors, la délimitation de cette zone de déploiement prend en compte automatiquement les dimensions du hayon, de même que la position relative du hayon par rapport a la porte arrière et la caméra. Par la suite, seule une partie de chaque image instantanée acquise par la caméra correspondant à la zone du déploiement de la plateforme mobile est traitée par les moyens de traitement pour déterminer la présence ou l’absence d’un obstacle.
Le procéde d’auto-calibration facilite l’intégration de la solution de l’invention sans avoir besoin de compétences de programmation. Le procéde d’auto-calibration prend en compte également les légères incertitudes de montage.
De manière classique, les moyens de traitement comprennent un ou plusieurs calculateurs, c’est-à-dire une unite centrale de traitement (microprocesseur) qui peut être celle d’un terminal embarqué du véhicule automobile, celle d’un boîtier électronique rapporté dans le véhicule automobile ou celle d’un téléphone portable (smartphone) porté par le conducteur du véhicule automobile, et qui est reliée par un bus de données à une mémoire de données de type ROM, dans laquelle des instructions de code de programme d’ordinateur peuvent être mémorisées, et à une mémoire de données de type RAM. À l’initialisation, les instructions de code du programme d’ordinateur assurant notamment la mise en œuvre du procéde de traitement de l’invention sont par exemple chargées dans la mémoire RAM avant d’être exécutées par le microprocesseur qui met en œuvre le procéde de traitement de l’invention selon les instructions du programme d’ordinateur.
La solution de l’invention peut être montée sur différents types de véhicules et est particulièrement destinée aux usagers professionnels des véhicules utilitaires légers (VUL) qui sont typiquement destinés à la livraison de marchandises secs ou froids, en milieu urbain.
Différents exemples de mise en œuvre de l’invention sont décrits ci-après.
Dans une première possibilité de mise en œuvre illustrée schématiquement sur la , la solution de l’invention se présente sous la forme d’un kit composé d’une caméra et d’un outil logiciel. La caméra 13 qui est du type sans fil (WiFi) est prête à monter et l’outil logiciel est destiné à être installé sur un smartphone 14. Un QR code à disposition de l’usager (présent dans le véhicule) permet de télécharger l’application et de récupérer les informations de la caméra (identifiant wifi) et les informations du véhicule (dimension du hayon, disposition du hayon par rapport au véhicule, ...). L’intégration de la caméra peut être effectuée par un carrossier industriel.
Dans une deuxième possibilité de mise en œuvre illustrée schématiquement sur la , la solution de l’invention comprend une caméra 13 du type filaire ou sans fil (WiFi) qui est déjà montée sur le véhicule et l’outil logiciel qui est destiné à être installé sur un terminal électronique 15 programmable présent dans le véhicule. Le terminal électronique programmable peut être fabriqué et intégre par un constructeur automobile ou être ajouté par un carrossier industriel dans le cadre de la transformation du véhicule.
Dans une troisième possibilité de mise en œuvre illustrée schématiquement sur la , la solution de l’invention comprend un boitier intermédiaire 16 contenant un processeur, une caméra 13 du type filaire qui est déjà montée sur le véhicule et l’outil logiciel qui est destiné à être installé dans le boitier intermédiaire 16. Les données en sortie de l’outil logiciel du boitier intermédiaire 16 sont envoyées sur un terminal électronique 15 pre-existant dans le véhicule (en filaire) et/ou vers un smartphone 14 (liaison non filaire du type WiFi).
La solution de l’invention est particulièrement destinée aux carrossiers et constructeurs de hayons ou de plateformes mobiles pour aider les livreurs, artisans et personnes à mobilité réduite (PMR) à stationner correctement dès la première tentative, à déployer le hayon ou plateforme en sécurité et au plus près du chargement.

Claims (10)

  1. Système d’assistance au stationnement d’un véhicule (1) équipé d’une plateforme mobile (11) comprenant au moins un dispositif de prise de vues (13) orienté vers la zone de déploiement (12) de la plateforme mobile (11) et des moyens de traitement d’images instantanées acquises successivement par ledit au moins un dispositif de prise de vues (13) en phase de stationnement du véhicule (1), lesdits moyens de traitement comprenant :
    - des moyens de génération d’au moins une information de profondeur pour une partie au moins de chaque image instantanée acquise, et/ou
    - des moyens de segmentation d’une partie au moins de chaque image instantanée acquise en plusieurs régions,
    lesdits moyens de traitement comprenant en outre des moyens de détermination de la présence ou de l’absence d’un obstacle dans la zone de déploiement (12) de la plateforme mobile (11) à partir d’une analyse de ladite au moins une information de profondeur et/ou d’une analyse de chacune des régions issues de la segmentation d’une partie au moins de chaque image instantanée.
  2. Système d’assistance selon la revendication 1, dans lequel les moyens de génération d’au moins une information de profondeur comprennent des moyens de définition d’au moins un secteur dans chaque image instantanée acquise correspondant à la zone du déploiement de la plateforme mobile et des moyens de détermination d’une information de profondeur pour plusieurs points dudit au moins un secteur.
  3. Système d’assistance selon la revendication 2, dans lequel les moyens de génération d’au moins une information de profondeur comprennent des moyens de définition d’au moins une ligne de points dans chaque image instantanée acquise ou secteur défini dans chaque image instantanée acquise, et des moyens de détermination d’une information de profondeur pour chaque point de ladite au moins une ligne de points.
  4. Système d’assistance selon la revendication 3, dans lequel les moyens de génération d’au moins une information de profondeur comprennent des moyens de définition de plusieurs lignes horizontales et plusieurs lignes verticales formant un quadrillage dans chaque image instantanée acquise ou secteur défini dans chaque image instantanée acquise.
  5. Système d’assistance selon la revendication 3 ou 4, dans lequel les moyens de détermination de la présence ou de l’absence d’un obstacle mettent en œuvre des moyens de calcul d’une valeur de la profondeur de chaque point de ladite au moins une ligne de points à partir de l’information de profondeur générée, des moyens de comparaison de la valeur déterminée de la profondeur de chaque point de ladite au moins une ligne de points avec une valeur prédéterminée, et des moyens de détermination de la présence ou de l’absence d’un obstacle si la valeur de la profondeur d’au moins un point est inférieure ou supérieure respectivement à ladite valeur prédéterminée.
  6. Système d’assistance selon l’une des revendications 1 à 5, dans lequel les moyens de détermination de la présence ou de l’absence d’un obstacle mettent en œuvre des moyens de comparaison, de chacune des régions issues de la segmentation de chaque image instantanée acquise avec des premières images de référence correspondant à la présence d’un obstacle dans la zone de déploiement de la plateforme mobile et des deuxièmes images de référence correspondant à l‘absence d’un obstacle dans la zone de déploiement de la plateforme mobile.
  7. Système d’assistance selon l’une des revendications 1 à 6, dans lequel les moyens de segmentation comprennent des moyens de sélection d’une partie de l’image instantanée acquise correspondant à la zone du déploiement de la plateforme mobile.
  8. Système d’assistance selon la revendication 7, comprenant en outre des moyens d’auto-calibration comprenant des moyens de détermination de la position de mires disposées en différentes positions de la plateforme mobile en position déployée de cette dernière dans une image instantanée acquise par ledit au moins un dispositif de prise de vues, et des moyens de délimitation de la zone du déploiement de la plateforme mobile dans ladite image instantanée acquise en fonction de la détermination de la position des mires, de sorte à ce que seule une partie de chaque image instantanée acquise par ledit au moins un dispositif de prise de vues correspondant à la zone du déploiement de la plateforme mobile soit traitée par les moyens de traitement pour déterminer la présence ou l’absence d’un obstacle.
  9. Véhicule équipé d’une plateforme mobile comprenant un système d’assistance au stationnement selon l’une des revendications 1 à 8, dans lequel la plateforme mobile est un hayon élévateur arrière, un hayon élévateur latéral, ou une rampe d’accès pour véhicule PMR.
  10. Procédé d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile comprenant au moins un dispositif de prise de vues orienté vers la zone de déploiement de la plateforme mobile et des moyens de traitement d’images instantanées acquises successivement par ledit au moins un dispositif de prise de vues en phase de stationnement du véhicule, ledit procédé de traitement comprenant les étapes :
    - de génération d’au moins une information de profondeur pour une partie au moins de chaque image instantanée acquise, et/ou
    - de segmentation d’une partie au moins de chaque image instantanée acquise en plusieurs régions,
    ledit procédé de traitement comprenant en outre une étape de détermination de la présence ou de l’absence d’un obstacle dans la zone de déploiement de la plateforme mobile à partir d’une étape d’analyse de ladite au moins une information de profondeur et/ou d’une étape d’analyse de chacune des régions issues de la segmentation d’une partie au moins de chaque image instantanée.
FR2112363A 2021-11-23 2021-11-23 Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant Pending FR3129511A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2112363A FR3129511A1 (fr) 2021-11-23 2021-11-23 Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2112363 2021-11-23
FR2112363A FR3129511A1 (fr) 2021-11-23 2021-11-23 Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant

Publications (1)

Publication Number Publication Date
FR3129511A1 true FR3129511A1 (fr) 2023-05-26

Family

ID=79270343

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2112363A Pending FR3129511A1 (fr) 2021-11-23 2021-11-23 Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant

Country Status (1)

Country Link
FR (1) FR3129511A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170084038A1 (en) * 2015-09-18 2017-03-23 Qualcomm Incorporated Systems and methods for non-obstacle area detection
US20190297314A1 (en) * 2018-03-22 2019-09-26 Conti Temic Microelectronic Gmbh Method and Apparatus for the Autocalibration of a Vehicle Camera System
US20200357138A1 (en) * 2018-06-05 2020-11-12 Shanghai Sensetime Intelligent Technology Co., Ltd. Vehicle-Mounted Camera Self-Calibration Method and Apparatus, and Storage Medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170084038A1 (en) * 2015-09-18 2017-03-23 Qualcomm Incorporated Systems and methods for non-obstacle area detection
US20190297314A1 (en) * 2018-03-22 2019-09-26 Conti Temic Microelectronic Gmbh Method and Apparatus for the Autocalibration of a Vehicle Camera System
US20200357138A1 (en) * 2018-06-05 2020-11-12 Shanghai Sensetime Intelligent Technology Co., Ltd. Vehicle-Mounted Camera Self-Calibration Method and Apparatus, and Storage Medium

Similar Documents

Publication Publication Date Title
EP2880409B1 (fr) Procede d'estimation de la masse d'un vehicule
FR2871772A1 (fr) Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images
EP2275971A1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
WO1993021596A1 (fr) Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles
EP3332352B1 (fr) Dispositif et procede de detection de place de stationnement libre pour un vehicule automobile
EP2275970A1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
WO2016128654A1 (fr) Dispositif et procede de stationnement automatique d'un vehicule automobile
CN114067295A (zh) 一种车辆装载率的确定方法、装置及车辆管理系统
FR2932595A1 (fr) Procede d'affichage d'aide au parking.
FR3129511A1 (fr) Système d’assistance au stationnement d’un véhicule équipé d’une plateforme mobile, telle un hayon élévateur arrière ou latéral, et procédé correspondant
FR2963600A1 (fr) Procede et dispositif d'assistance de manoeuvre de stationnement d'un vehicule
FR3027432A1 (fr) Estimation de distance d'un pieton par un systeme d'imagerie embarque sur un vehicule automobile
EP0588815B1 (fr) Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles
CN109409184A (zh) 检测车辆中的物体
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
FR3076521A1 (fr) Procede d'aide a la conduite d'un vehicule et dispositifs associes
FR3048110A1 (fr) Procede et dispositif de detection d'un objet oublie dans l'habitacle d'un vehicule
CN113830076B (zh) 泊车方法、装置、设备及存储介质
WO2008037473A1 (fr) Système d'aide au stationnement qui indique visuellement les objets dangereux
EP3931741A1 (fr) Assistance à la conduite d'un véhicule, par détermination fiable d'objets dans des images déformées
EP0810496A2 (fr) Procédé et dispositif d'identification et de localisation d'objets fixes le long d'un trajet
FR3092545A1 (fr) Assistance à la conduite d’un véhicule, par détermination de la voie de circulation dans laquelle est situé un objet
FR3039918A1 (fr) Dispositif et procede d'aide au stationnement pour un vehicule automobile.
FR3086250A1 (fr) Procede d’assistance de l’utilisation d’un vehicule automobile a hayon arriere venant d’etre gare
FR2976091A1 (fr) "procede et dispositif de deconnexion automatique des systemes d'aide a la conduite d'un vehicule en approche d'une barriere de peage"

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230526

PLFP Fee payment

Year of fee payment: 4