FR3040818A1 - Procede de detection d'objets sur une surface de stationnement - Google Patents

Procede de detection d'objets sur une surface de stationnement Download PDF

Info

Publication number
FR3040818A1
FR3040818A1 FR1658033A FR1658033A FR3040818A1 FR 3040818 A1 FR3040818 A1 FR 3040818A1 FR 1658033 A FR1658033 A FR 1658033A FR 1658033 A FR1658033 A FR 1658033A FR 3040818 A1 FR3040818 A1 FR 3040818A1
Authority
FR
France
Prior art keywords
image
generating
quality
limited
parking surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1658033A
Other languages
English (en)
Other versions
FR3040818B1 (fr
Inventor
Jan Rexilius
Stefan Nordbruch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of FR3040818A1 publication Critical patent/FR3040818A1/fr
Application granted granted Critical
Publication of FR3040818B1 publication Critical patent/FR3040818B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Procédé de détection d'objets sur une face de stationnement de véhicules par traitement d'images de prises de vue d'au moins deux capteurs générateurs d'images, les plages de saisie des deux capteurs générateurs d'images se chevauchant au moins partiellement. Les prises de vue d'un capteur générateur d'images dont la qualité de prise de vue est limitée par les influences de l'environnement pour détecteur des objets sur la surface de stationnement seront pondérées moins fortement par le traitement d'images que les prises de vue d'un capteur générateur d'images dont la qualité de prise de vue n'est pas limitée par les influences de l'environnement.

Description

Domaine de l’invention
La présente invention se rapporte à un procédé de détection d’objets sur une surface de stationnement de véhicules, à une unité de calcul pour la mise en œuvre du procédé, à un programme pour l’application du procédé et à un système global pour appliquer le procédé.
Etat de la technique
Selon le document DE 10 2007 002 198 Al, on connaît un procédé permettant de détecter des véhicules sur une surface de stationnement de véhicules à l’aide d’un procédé de poursuite d’objets fondé sur des images vidéo.
But de l’invention
La présente invention a pour but d’améliorer le procédé de détection d’objets sur une surface de stationnement de véhicules. L’invention a également pour but de développer une unité de calcul et un programme pour exécuter le procédé. L’invention a en outre pour but de développer un système global composé de capteurs générateurs d’images, d’une unité de calcul et d’un programme, ce système global étant destiné à exécuter le procédé.
Exposé et avantages de l’invention A cet effet, l’invention a pour objet un procédé de détection d’objets sur une face de stationnement de véhicules par traitement d’images de prises de vue d’au moins deux capteurs générateurs d’images, les plages de saisie des deux capteurs générateurs d’images se chevauchant au moins partiellement, les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue est limitée par les influences de l’environnement pour détecteur des objets sur la surface de stationnement seront pondérées moins fortement par le traitement d’images que les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement.
En d’autres termes, le procédé de détection d’objets sur une surface de stationnement de véhicules permet de reconnaître des objets par le traitement d’images des prises de vue d’au moins deux capteurs générateurs d’images. Les plages de saisie des capteurs générateurs d’images se chevauchent au moins partiellement et les prises de vue de ces capteurs dont la qualité de prise de vue est limitée par les influences de l’environnement, sera pondérée moins fortement pour reconnaître les objets sur la surface de stationnement par le traitement d’images que les prises de vue fournies par un capteur d’images dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement. En détectant les objets sur une surface de stationnement de véhicules, notamment si la surface de stationnement est à l’extérieur, il peut arriver que les capteurs générateurs d’images servant à détecter les objets soient limités par les influences de l’environnement. A titre d’exemple, le rayonnement solaire, ou la pluie, ou la neige, ou le brouillard, peuvent réduire la qualité des images fournies par un ou plusieurs capteurs générateurs d’images. Pour détecter les objets sur la surface de stationnement, il est intéressant que les capteurs générateurs d’images dont la qualité de prise de vue a été limitée par les influences de l’environnement, soient pondérés moins fortement que ceux dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement. On améliore ainsi la détection des objets sur la surface de stationnement.
La surface de stationnement de véhicules se compose d’emplacements de stationnement ou d’emplacements de rangement et de chemins de circulation associés. La surface de stationnement peut se trouver à l’extérieur ou dans un immeuble. Dans ce dernier cas, il s’agira d’un immeuble de garages.
Selon un mode de réalisation, les plages de saisie de plus de deux capteurs générateurs d’images se chevauchent au moins partiellement et les prises de vue de plus de deux capteurs générateurs d’images seront utilisées pour détecter par traitement d’images des objets sur les surfaces de stationnement. Plus le nombre de capteurs générateurs d’images est grand et meilleur sera le procédé pour détecter des objets sur les surfaces de stationnement.
Selon un développement, on détecte la moindre qualité de prise de vue d’un capteur générateur d’images par le traitement d’images. Les influences de l’environnement qui détériorent la qualité de prise de vue du capteur générateur d’images modifient les prises de vue du capteur générateur d’images de façon à pouvoir reconnaître ces modifications par traitement d’images. Si par exemple, le rayonnement solaire devait détériorer la qualité de prise de vue d’un capteur générateur d’images, cela peut se détecter par le traitement d’images et constater que les prises de vue de ce générateur d’images sont beaucoup plus fortement éclairées que d’autres prises de vue d’autres capteurs générateurs d’images qui n’ont pas reçu le rayonnement solaire. Si l’on détecte que les prises de vue d’un capteur générateur d’images ont eu un éclairage plus important, on pourra pondérer moins fortement ces prises de vue pour la détection des objets.
Selon un développement, on reconnaît la moindre qualité de prise de vue d’un capteur générateur d’images en comparant la prise de vue de ce capteur à une image de référence prise à un autre instant par le capteur générateur d’images. Cela peut se faire, par exemple, si le brouillard, la neige, la pluie, ont atténué les contours des structures par exemple les lignes de la surface de stationnement que dans l’image de référence qui a été enregistrée sans de telles influences de l’environnement. Cela permet d’identifier les prises de vue de capteurs générateurs d’images dont la qualité de prise de vue a été limitée par l’influence de l’environnement et alors pondérer moins fortement ces prises de vue pour la détection d’objets.
Selon un développement, on calcule les instants auxquels un capteur générateur d’images a une qualité de prise de vue limitée, en utilisant l’emplacement géographique du capteur générateur d’images et/ou son orientation et/ou la date et/ou l’heure. Cette solution est notamment avantageuse pour calculer les instants auxquels la qualité de prise de vue d’un capteur générateur d’images est limitée par le rayonnement solaire. Avec la position et l’orientation du capteur générateur d’images, la date et l’heure, on peut calculer tous les instants de la position du soleil avec incidence directe de la lumière solaire dans le capteur d’images correspondant. S’il y a incidence directe du rayonnement solaire dans le capteur générateur d’images, la qualité de prise de vue de ce capteur est limitée. En calculant les instants auxquels la qualité de prise de vue est limitée, on peut également déterminer, sans traitement d’images, quand un capteur générateur d’images aura une moindre qualité à cause du rayonnement solaire.
Selon un développement, on transmet l’information concernant un objet détecté sur la surface de stationnement, notamment la position et les dimensions de l’objet détecté à l’aide d’un émetteur vers un récepteur dans un véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite. En transmettant la position et les dimensions de l’objet détecté sur la surface de stationnement vers un véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite, ce véhicule sera en mesure de tenir compte de l’objet détecté dans le choix de son trajet. Et il sera plus simple pour le véhicule, de déterminer un trajet vers un emplacement de stationnement, trajet que le véhicule pourra utiliser pour effectuer automatiquement sa fonction de conduite.
Selon un développement, à l’aide d’objets détectés sur la surface de stationnement, on pourra calculer la trajectoire d’un véhicule. Cette trajectoire sera transmise par l’émetteur vers le récepteur équipant le véhicule avec un dispositif pour exécuter automatiquement au moins une fonction de conduite. Cela permet un fonctionnement totalement automatique de la surface de stationnement en ce qu’on utilise les objets détectés sur la surface de stationnement pour calculer les trajectoires des véhicules sur la surface de stationnement et informer le véhicule de cette trajectoire. Le véhicule pourra alors suivre la trajectoire vers un emplacement de stationnement libre.
Une unité de calcul comporte des bornes pour au moins deux capteurs générateurs d’images et elle est conçue pour exécuter le procédé tel que défini ci-dessus. Les bornes sont des bornes de transmission de données pour traiter les images ou les prises de vue des capteurs générateurs d’images dans l’unité de calcul. Le traitement d’images avec lequel on reconnaît les objets sur la surface de stationnement se fait dans cette unité de calcul.
Selon un développement, l’unité de calcul ou tout simplement le calculateur comporte un émetteur pour transmettre les objets reconnus ou les trajectoires vers les véhicules. Cette unité de calcul convient pour le fonctionnement automatique du parking ou de la surface de stationnement. Un programme qui comporte le code programme pour la mise en œuvre du procédé lorsque le programme est exécuté par une unité de calcul permet le fonctionnement d’une surface de stationnement automatique de véhicules.
Un système global composé d’au moins deux capteurs générateurs d’images et d’une unité de calcul est relié au capteur générateur d’images, et qui comporte l’un des émetteurs, permet d’exécuter le procédé.
Selon un développement, on a deux capteurs générateurs d’images qui ne sont pas simultanément exposés aux inconvénients de l’état de la technique, notamment au rayonnement solaire qui limiterait leur qualité de prise de vue.
Dessins
La présente invention sera décrite, ci-après, de manière plus détaillée à l’aide d’exemples de procédé de détection d’objets sur des surfaces de stationnement, représentés dans les dessins annexés dans lesquels : - la figure 1 montre un ordinogramme du procédé, - la figure 2 montre l’ordinogramme du procédé avec d’autres étapes de procédé en option, - la figure 3 montre un exemple d’unité de calcul, - la figure 4 montre un autre exemple d’unité de calcul, - la figure 5 est une vue schématique de l’ensemble du système et, - la figure 6 montre l’ensemble du système dont la qualité de prise de vue de la caméra est limitée par l’influence de l’environnement.
Description de mode de réalisation de l’invention
La figure 1 montre un ordinogramme 100 d’un procédé de détection d’objets se trouvant sur une surface de stationnement de véhicules. Dans un première étape 101 du procédé, on prend une vue avec au moins deux caméras dont les plages de saisie se chevauchent au moins partiellement. Dans une seconde étape 102 du procédé, on détermine la qualité de prise de vue. La qualité de prise de vue des caméras peut, par exemple, être limitée par les influences de l’environnement. Si la qualité de prise de vue est limitée par les influences de l’environnement, cela est pris en compte pour déterminer la qualité de prise de vue.
Dans une troisième étape 103 du procédé, on pondère les prises de vue d’au moins deux caméras selon que la qualité de prise de vue a ou non été influencée par l’environnement. Ainsi, la pondération des prises de vue d’une caméra dont la qualité de prise de vue a été limitée par les influences de l’environnement, sera par exemple, égale à 0 % ; la pondération des prises de vue d’une caméra dont la qualité de prise de vue n’aura pas été limitée par l’influence de l’environnement, sera de 100 %.
De même, selon une autre pondération des prises de vue d’une caméra dont la qualité de prise de vue est limitée par les influences de l’environnement, il est possible, par exemple, de ne retenir que 50 %. Si la qualité d’une prise de vue d’une caméra est limitée par les influences de l’environnement, pour la caméra dont la qualité de prise de vue sera moindre, on pondère plus fortement les prises de vue de la qualité dans la troisième étape 103 du procédé, que les prises de vue d’une caméra dont la qualité de prise n’aura pas été influencée par l’environnement.
Selon une quatrième étape 104 du procédé, par traitement d’images des objets des prises de vue, on détecte la surface de stationnement et la pondération tient compte des prises de vue provenant de la troisième étape 103. La reconnaissance d’objets sur la surface de stationnement se fait entre autre, en ce que l’on détecte l’emplacement d’un objet sur la surface de stationnement, c’est-à-dire que l’on détermine la position de l’objet. De plus, on peut déterminer une dimension de l’objet de façon à constater la surface occupée par l’objet.
Selon un exemple de réalisation, dans une première étape 101 du procédé, on réalise plus de deux prises de vue avec plus de deux caméras qui passent ensuite par les autres étapes 102/104 du procédé.
Selon un exemple de réalisation, dans la seconde étape 102 du procédé, on déterminé par traitement d’images qu’une caméra a une qualité de prise de vue limitée. Si l’on veut, par exemple, installer une caméra pour permettre au rayonnement solaire d’arriver directement sur la caméra, la qualité de la prise de vue de la caméra sera limitée pendant ce temps. Par traitement d’images, on peut par exemple déterminer que la prise de vue d’une caméra est beaucoup plus fortement éclairée que celle d’une seconde caméra ou d’une référence. On peut en déduire qu’au moment de la prise de vue, le rayonnement solaire arrive directement sur la caméra, ce qui produit un fort éclairage. En surveillant les niveaux d’éclairage, on peut déterminer si la qualité de prise de vue d’une caméra est limitée.
De même, on peut envisager de déterminer une limitation de la qualité de prise de vue à cause de la neige, du brouillard ou de la pluie, en ce que des lignes ou des objets de la surface de stationnement perdent de contour et qu’ainsi les contours seront moins nets que sans les influences perturbatrices de l’environnement. On peut également ainsi déterminer des prises de vue de caméras dont la qualité a été limitée par l’influence de l’environnement.
Selon un exemple de réalisation, dans la seconde étape 102 du procédé, on applique une qualité de prise de vue limitée d’une caméra par la comparaison de la prise de vue à celle d’une image de référence, prise à un autre instant.
Selon un exemple de réalisation, dans la seconde étape 102 du procédé, on détermine la qualité de la prise de vue en ce que l’on calcule les instants auxquels une caméra a une qualité de prise de vue limitée, en utilisant l’emplacement géographique et/ou l’orientation de la caméra et/ou la date et/ou l’heure. En particulier, des qualités de prise de vue limitée, peuvent se prévoir par calcul à partir du rayonnement solaire incident en utilisant la position et l’orientation de la caméra, de la date et de l’heure. On peut ainsi déterminer les instants prévisibles auxquels le soleil arrive directement sur une caméra et pondérer moins les prises de vue à cet instant si l’on utilise la reconnaissance des objets sur la surface de stationnement.
La figure 2 montre un autre ordinogramme 100 dont les étapes de procédé 101 - 104 correspondent à celles de la figure 1. Une cinquième étape de procédé 105 consiste à transmettre un objet reconnu sur la surface de stationnement, notamment la position et les diminutions d’un objet en transmettant ces informations par un émetteur vers un récepteur dans un véhicule équipé d’un dispositif exécutant automatiquement au moins une fonction de conduite. Le véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite pourra planifier sa trajectoire sur la surface de stationnement par la transmission de la position et de la dimension de l’objet.
Selon un exemple de réalisation, dans une cinquième étape 105 du procédé, on ne transmet ni la position, ni les dimensions de l’objet mais à l’aide des objets détectés, on détermine une trajectoire du véhicule sur la surface de stationnement et on transmet cette trajectoire par un émetteur vers le véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite. Le dispositif pour exécuter automatiquement au moins une fonction de conduite d’un véhicule, pourra conduire le véhicule le long de la trajectoire prédéfinie vers la surface de rangement, c’est-à-dire l’emplacement de stationnement ou inversement pour conduire le véhicule de l’emplacement de stationnement vers la sortie de la surface de rangement.
Le procédé peut également se faire à l’aide d’autres capteurs générateur d’images à la place de caméra. Ainsi, on peut envisager dans une plage de saisie le combiné une caméra à un autre capteur générateur d’images. Ces autres capteurs générateurs d’images peuvent être des dispositifs de balayage par laser, des dispositifs de balayage par radar ou des dispositifs de balayage par lidar. Ces autres capteurs générateurs d’images fournissent également des prises de vue de la surface de stationnement dont la qualité de réception est limitée à cause des influences de l’environnement ; celles-ci continuent également d’être traitées dans le procédé comme des prises de vue de caméras.
La figure 3 montre un calculateur 200 avec deux branchements 201 pour chaque fois une caméra. Ce calculateur 200 est conçu pour exécuter le procédé de la figure 1.
La figure 4 montre un calculateur 200 pour exécuter le procédé de la figure 2. Le calculateur 200 comporte également deux bornes 201 de la caméra. Le calculateur 200 comporte également deux branchements 201 pour la caméra et de plus le calculateur 200 comporte un émetteur 202 pour transmettre les données au véhicule. Les branchements 201 des figures 3 et 4 sont conçus pour n’avoir qu’un branchement sur l’unité de calcul 200 ou peuvent être raccordés par plusieurs caméras. Ainsi, à titre d’exemple, on peut utiliser un système de bus pour les caméras ou coder les prises de vue des caméras et les transmettre par le branchement 201 vers l’unité de calcul. De la même manière, on peut prévoir des branchements pour les capteurs générateurs d’images, connus.
La figure 5 montre un système global pour détecteur des objets sur une surface de stationnement 230. La surface de stationnement 230 se compose d’emplacements de stationnement et d’emplacements de rangement ainsi que les véhicules correspondants. La surface de rangement peut se trouver à l’extérieur ou dans un immeuble. La surface de rangement 230 est occupée par un objet, ici un véhicule 220. L’objet peut également être un piéton ou un autre objet. Une première caméra 210 et une seconde caméra 211 sont dirigées vers la surface de stationnement 230 de sorte que leurs plages de saisie se chevauchent. La première caméra 210 et la seconde caméra 211 sont reliées chacune par une ligne de transmission de données 212 aux bornes de données 201 de caméras de l’unité de calcul 200. L’unité de calcul 200 comporte un émetteur 202 de sorte que l’unité de calcul 200 correspond à l’unité de calcul 200 de la figure 4. Le véhicule 220 est dans la plage de saisie de la première caméra 210 et la seconde caméra 211 ; il peut être détecté par traitement d’images à partir des deux caméras 210, 211.
La figure 6 montre, elle-aussi, une surface de stationnement 230 occupée par un véhicule 220 ainsi que les autres composants de la figure 5. La figure montre également le soleil 240 et les différents rayons 241. Un faisceau de rayons 242 arrive sur l’objectif 213 de la première caméra 210. L’objectif 213 de la seconde caméra 211 ne reçoit pas les rayons du soleil car la seconde caméra 211 comporte un diaphragme qui protège l’objectif 213 de la seconde caméra. Le faisceau de rayons de soleil 242 qui arrive sur l’objectif 213 de la première caméra 210 éclaire d’une manière intense la prise de vue de la première caméra 210 par opposition au cas où il n’y aurait pas de rayons du soleil arrivant sur l’objectif 213 de la première caméra 210. Ce fort éclairage de la prise de vue pourra être déterminé dans la seconde étape 102 du procédé selon les figures 1 et 2 par une moindre qualité de prise de vue de la première caméra 210 à cause de l’influence de l’environnement. Les prises de vue de la première caméra 210 peuvent dans ce cas être pondérées à un niveau moindre à la détection d’objets, ici, le véhicule 220 sur la surface de stationnement 230 qui seront moins pondérées que les prises de vue de la seconde caméra 211.
Il est également possible de déterminer la moindre qualité de prise de vue de la première caméra 210 à la figure 6 en calculant la date et l’heure de la position du soleil 240 et la position et l’orientation de la première caméra 210, durée pendant laquelle un faisceau de rayons 242 arrive sur la première caméra 210. Pendant ce temps, les prises de vue de la première caméra 210 sont pondérées moins fortement à cause des objets reconnus, ici le véhicule 220 de la surface de rangement 230 que les prises de vue de la seconde caméra 211 dont le fonctionnement n’est pas limité à ce temps, par le soleil 240.
La première caméra 210 et la seconde caméra 211 sont positionnées pour que leur qualité de prise de vue ne soit pas limitée simultanément par le rayonnement solaire 241.
Les caméras 210, 211 peuvent, de même que d’autres capteurs générateurs d’images, être prévues à la place ou en plus des caméras fixes ou mobiles.
NOMENCLATURE DES PRINCIPAUX ELEMENTS 100 Ordinogramme du procédé 101-104 Etape du procédé 100 101-105 Autre étape du procédé 100 200 Unité de calcul 201 Borne 202 Emetteur 210 Première caméra 211 Seconde caméra 212 Ligne de transmission de données 220 Véhicule 230 Surface cde stationnement 240 Soleil 241 Rayons du soleil 242 Faisceau de rayons

Claims (12)

  1. REVENDICATIONS 1°) Procédé de détection d’objets sur une face de stationnement de véhicules par le traitement des images de prises de vue d’au moins deux capteurs générateurs d’images, dont les plages de saisie se chevauchant au moins partiellement, - les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue est limitée par les influences de l’environnement pour détecteur des objets sur la surface de stationnement seront pondérées moins fortement par le traitement d’images que les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement.
  2. 2°) Procédé selon la revendication 1, caractérisé en ce que les capteurs générateurs d’images sont : - des caméras, des dispositifs de balayage à laser, des dispositifs de balayage à radar et/ou des dispositifs de balayage lidar.
  3. 3°) Procédé selon l’une des revendications 1 et 2, caractérisé en ce que par traitement d’images des prises de vue de plus de deux capteurs générateurs d’images, on reconnaît des objets sur la surface de stationnement et les plages de saisie de plus de deux capteurs générateurs d’images se chevauchant au moins partiellement.
  4. 4°) Procédé selon l’une des revendications 1 à 3, caractérisé en ce qu’ on reconnaît la qualité de prise de vue, limitée d’un capteur générateur d’images par le traitement d’images.
  5. 5°) Procédé selon la revendication 4, caractérisé en ce qu’ on détecte la qualité de prise de vue limitée d’un capteur générateur d’images en comparant la prise de vue du capteur générateur d’images à celle d’une image de référence prise à un autre instant par le capteur générateur d’images.
  6. 6°) Procédé selon l’une des revendications 1 à 5, caractérisé en ce qu’ on calcule les durées au cours desquelles un capteur générateur d’images présente une qualité de prise de vue limitée, en utilisant l’emplacement géographique du capteur générateur d’images et/ou son orientation et/ou la date et/ou l’heure.
  7. 7°) Procédé selon l’une des revendications 1 à 6, caractérisé en ce qu’ on transmet une information d’un objet reconnu sur une surface de stationnement, notamment une position et une dimension de l’objet détecté à l’aide d’un émetteur vers un récepteur dans un véhicule équipé d’un dispositif pour effectuer automatiquement au moins une fonction de conduite.
  8. 8°) Procédé selon l’une des revendications 1 à 7, caractérisé en ce qu’ à l’aide des objets détectés sur la surface de stationnement, on calcule une trajectoire pour un véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite et on transmet la trajectoire par l’émetteur vers le récepteur du véhicule.
  9. 9°) Unité de calcul (200) comportant des bornes (201) pour relier au moins deux capteurs générateurs d’images (210, 211) et conçues pour appliquer le procédé selon les revendications 1 à 8.
  10. 10°) Unité de calcul (200) selon la revendication 9, caractérisée en ce qu’ elle comporte un émetteur (202).
  11. 11°) Programme comportant un code programment pour la mise en oeuvre du procédé selon l’une des revendications 1 à 8, lorsque le programme est appliqué par une unité de calcul (200).
  12. 12°) Système global composé d’au moins deux capteurs générateurs d’images (210, 211) et d’un calculateur (200) reliés aux capteurs générateurs d’images (210, 211) et comportant un émetteur (200), le système global exécutant le procédé selon l’une des revendications 1 à 8.
FR1658033A 2015-09-03 2016-08-30 Procede de detection d'objets sur une surface de stationnement Active FR3040818B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015216908.1 2015-09-03
DE102015216908.1A DE102015216908A1 (de) 2015-09-03 2015-09-03 Verfahren zum Erkennen von Objekten auf einer Abstellfläche

Publications (2)

Publication Number Publication Date
FR3040818A1 true FR3040818A1 (fr) 2017-03-10
FR3040818B1 FR3040818B1 (fr) 2019-07-12

Family

ID=58054951

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1658033A Active FR3040818B1 (fr) 2015-09-03 2016-08-30 Procede de detection d'objets sur une surface de stationnement

Country Status (4)

Country Link
US (1) US10007268B2 (fr)
CN (1) CN106504561B (fr)
DE (1) DE102015216908A1 (fr)
FR (1) FR3040818B1 (fr)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200794A1 (de) * 2016-01-21 2017-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Lokalisieren eines Kraftfahrzeugs
DE102016223171A1 (de) 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102016223118A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
US10479376B2 (en) * 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
DE102017212379A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
CN108765973B (zh) * 2018-06-01 2022-04-19 智慧互通科技股份有限公司 一种基于对侧视角互补的路侧停车管理系统
CN111028535B (zh) * 2018-10-09 2021-04-27 杭州海康威视数字技术股份有限公司 车位检测装置及方法、车位管理系统
CN109493634A (zh) * 2018-12-21 2019-03-19 深圳信路通智能技术有限公司 一种基于多设备协同工作的停车管理系统及方法
US11474244B2 (en) * 2019-04-16 2022-10-18 GM Global Technology Operations LLC System and method of controlling operation of a device having an optical sensor
CN110329259B (zh) * 2019-07-03 2020-10-16 国唐汽车有限公司 一种基于多传感器融合的车辆自动跟随系统及其方法
DE102021102426A1 (de) 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben eines fahrzeugs, computerprogrammprodukt, system und fahrzeug

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004244613A (ja) * 2003-01-23 2004-09-02 Sumitomo Metal Mining Co Ltd 日射遮蔽体と日射遮蔽体形成用分散液
DE10328814B3 (de) * 2003-06-20 2004-12-09 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung
US20050083212A1 (en) * 2003-09-03 2005-04-21 Stratech Systems Limited Apparatus and method for locating, identifying and tracking vehicles in a parking area
CN101309363A (zh) * 2003-10-15 2008-11-19 富士通天株式会社 图像处理装置、驾驶支援装置和驾驶支援系统
DE102005006290A1 (de) * 2005-02-11 2006-08-24 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs durch Fusion eines Infrarot- und eines Visuell-Abbilds
WO2006087002A1 (fr) * 2005-02-18 2006-08-24 Bayerische Motoren Werke Aktiengesellschaft Dispositif permettant d'amener un vehicule en un emplacement cible
US8077995B1 (en) * 2005-02-23 2011-12-13 Flir Systems, Inc. Infrared camera systems and methods using environmental information
DE102007002198A1 (de) 2007-01-16 2008-07-31 Siemens Ag Standortermittlung eines Kraftfahrzeugs in einer Parkanlage
CN100527165C (zh) * 2007-09-04 2009-08-12 杭州镭星科技有限公司 一种以动态投影为背景的实时目标识别方法
CN101304488B (zh) * 2008-06-20 2010-12-15 北京中星微电子有限公司 一种图象采集的方法和装置
DE102008044160A1 (de) * 2008-11-28 2010-06-02 Robert Bosch Gmbh Verfahren zum Unterstützen und/oder zumindest teilweise automatischen Durchführen eines Einparkvorgangs eines Kraftfahrzeugs sowie Einparkassistenzvorrichtung
DE102008060770A1 (de) * 2008-12-05 2009-09-17 Daimler Ag Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges
CN101650176B (zh) * 2009-08-28 2011-12-21 浙江工业大学 基于主动立体全方位视觉的交通事故现场测绘仪
CN101719987A (zh) * 2009-12-10 2010-06-02 浙江大华技术股份有限公司 一种智能化快速设置自动曝光的方法
CN102542552B (zh) * 2010-12-21 2015-06-03 北京汉王智通科技有限公司 视频图像的顺逆光判断和拍摄时间检测方法
DE102011014855A1 (de) * 2011-03-24 2012-09-27 Thales Defence & Security Systems GmbH Verfahren und Vorrichtung zum Erfassen und Klassifizieren von fahrenden Fahrzeugen
KR101340738B1 (ko) * 2011-11-08 2013-12-12 엘지이노텍 주식회사 주차 보조 시스템
US8582819B2 (en) * 2011-11-18 2013-11-12 Xerox Corporation Methods and systems for improving yield in wanted vehicle searches
CN102694981B (zh) * 2012-05-11 2014-10-29 中国科学院西安光学精密机械研究所 基于自适应阈值分割的直方图均衡化的自动曝光方法
CN103473950B (zh) * 2012-06-06 2017-04-12 刘鉵 一种停车场车位监控方法
US9008389B2 (en) * 2012-09-28 2015-04-14 Robert D. Williams System and method for determining the amount of vitamin D generated by a user
CN103021177B (zh) * 2012-11-05 2014-05-07 北京理工大学 一种雾天交通监控视频图像的处理方法和系统
CN104236539A (zh) * 2013-06-21 2014-12-24 北京四维图新科技股份有限公司 导航方法、导航终端以及导航系统
CN104345523B (zh) * 2013-08-05 2017-07-28 杭州海康威视数字技术股份有限公司 智能交通摄像机局部进光量自动控制的方法及其装置
EP2865575B1 (fr) * 2013-10-22 2022-08-24 Honda Research Institute Europe GmbH Estimation de confiance pour systèmes d'assistance de conducteur prédictifs sur la base de règles de plausibilité
CN204190866U (zh) * 2014-09-24 2015-03-04 深圳市傲天智能系统有限公司 一种自我感知型智能交通监控的抓拍系统
CN104253979A (zh) * 2014-09-24 2014-12-31 深圳市傲天智能系统有限公司 一种自我感知型的智能摄像机
CN104539921B (zh) * 2014-11-26 2016-09-07 北京理工大学 一种基于多投影系统的光照补偿方法
US10008115B2 (en) * 2016-02-29 2018-06-26 Analog Devices Global Visual vehicle parking occupancy sensor
US9852631B2 (en) * 2016-03-04 2017-12-26 Conduent Business Services, Llc Mobile on-street parking occupancy detection

Also Published As

Publication number Publication date
FR3040818B1 (fr) 2019-07-12
DE102015216908A1 (de) 2017-03-09
US20170069093A1 (en) 2017-03-09
CN106504561A (zh) 2017-03-15
US10007268B2 (en) 2018-06-26
CN106504561B (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
FR3040818B1 (fr) Procede de detection d'objets sur une surface de stationnement
CN111508260A (zh) 车辆停车位检测方法、装置和系统
EP3008677A1 (fr) Procede et systeme d'identification d'un degat cause a un vehicule
GB2601689A (en) Determining the state of infrastructure in a region of interest
EP3241035A1 (fr) Procédé de suivi optique assisté par radar et système de mission pour la mise en oeuvre de ce procédé
Dong et al. Automatic image capturing and processing for petrolwatch
FR3085024A1 (fr) Procédé pour tester une fonction de conduite au moins partiellement automatisée d’un véhicule
CN111596090A (zh) 车辆行驶速度的测量方法、装置、车辆和介质
CN106991415A (zh) 用于车载鱼眼相机的图像处理方法和装置
US11206303B2 (en) Image sharing assistance device, image sharing system, and image sharing assistance method
US10101560B2 (en) Systems and methods for focusing on objects to capture images thereof
FR3059133B1 (fr) Procede et systeme de detection d'un objet en relief dans un parking
CN207115438U (zh) 用于车载鱼眼相机的图像处理装置
EP2332131B1 (fr) Systeme passif et autonome de detection du depassement par un vehicule d'une vitesse limitee
FR3064073A1 (fr) Procede et dispositif de determination d'une position
EP2423899A1 (fr) Procédé d'identification d'objets réfléchissants soumis à des conditions d'éclairage variable et système pour mener à bien ledit procédé
FR3103305A1 (fr) Procédé et dispositif de prédiction d’au moins une caractéristique dynamique d’un véhicule en un point d’un segment routier.
JP2008199525A (ja) 車両用撮影装置
US11924527B2 (en) Optical sensor activation and fusion
CN113726983B (zh) 一种基于时间,定位,镜头角度,入射光强和色温的太阳光眩光抑制的方法和装置
FR3061687A1 (fr) Procede et dispositif de surveillance d'un vehicule stationne
EP3394795B1 (fr) Procédé de détection d'un timon d'attelage et produit programme d'ordinateur associé
KR101511567B1 (ko) 영상 감시 시스템 및 그의 동작 방법
O'Byrne et al. Damage Assessment of the Built Infrastructure using Smartphones
EP3938949A1 (fr) Entrainement d'un reseau de neurones, pour l'assistance a la conduite d'un vehicule par determination de delimitations de voie difficilement observables

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLSC Publication of the preliminary search report

Effective date: 20181116

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8