FR3040818B1 - Procede de detection d'objets sur une surface de stationnement - Google Patents
Procede de detection d'objets sur une surface de stationnement Download PDFInfo
- Publication number
- FR3040818B1 FR3040818B1 FR1658033A FR1658033A FR3040818B1 FR 3040818 B1 FR3040818 B1 FR 3040818B1 FR 1658033 A FR1658033 A FR 1658033A FR 1658033 A FR1658033 A FR 1658033A FR 3040818 B1 FR3040818 B1 FR 3040818B1
- Authority
- FR
- France
- Prior art keywords
- image
- generating
- limited
- quality
- parking surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000007613 environmental effect Effects 0.000 claims abstract description 8
- 230000005855 radiation Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/123—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/048—Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/141—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
- G08G1/143—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Procédé de détection d'objets sur une face de stationnement de véhicules par traitement d'images de prises de vue d'au moins deux capteurs générateurs d'images, les plages de saisie des deux capteurs générateurs d'images se chevauchant au moins partiellement. Les prises de vue d'un capteur générateur d'images dont la qualité de prise de vue est limitée par les influences de l'environnement pour détecteur des objets sur la surface de stationnement seront pondérées moins fortement par le traitement d'images que les prises de vue d'un capteur générateur d'images dont la qualité de prise de vue n'est pas limitée par les influences de l'environnement.
Description
Domaine de l’invention
La présente invention se rapporte à un procédé de détection d’objets sur une surface de stationnement de véhicules, à une unité de calcul pour la mise en œuvre du procédé, à un programme pour l’application du procédé et à un système global pour appliquer le procédé.
Etat de la technique
Selon le document DE 10 2007 002 198 Al, on connaît un procédé permettant de détecter des véhicules sur une surface de stationnement de véhicules à l’aide d’un procédé de poursuite d’objets fondé sur des images vidéo.
But de l’invention
La présente invention a pour but d’améliorer le procédé de détection d’objets sur une surface de stationnement de véhicules. L’invention a également pour but de développer une unité de calcul et un programme pour exécuter le procédé. L’invention a en outre pour but de développer un système global composé de capteurs générateurs d’images, d’une unité de calcul et d’un programme, ce système global étant destiné à exécuter le procédé.
Exposé et avantages de l’invention A cet effet, l’invention a pour objet un procédé de détection d’objets sur une face de stationnement de véhicules par traitement d’images de prises de vue d’au moins deux capteurs générateurs d’images, les plages de saisie des deux capteurs générateurs d’images se chevauchant au moins partiellement, les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue est limitée par les influences de l’environnement pour détecteur des objets sur la surface de stationnement seront pondérées moins fortement par le traitement d’images que les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement.
En d’autres termes, le procédé de détection d’objets sur une surface de stationnement de véhicules permet de reconnaître des objets par le traitement d’images des prises de vue d’au moins deux capteurs générateurs d’images. Les plages de saisie des capteurs géné rateurs d’images se chevauchent au moins partiellement et les prises de vue de ces capteurs dont la qualité de prise de vue est limitée par les influences de l’environnement, sera pondérée moins fortement pour reconnaître les objets sur la surface de stationnement par le traitement d’images que les prises de vue fournies par un capteur d’images dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement. En détectant les objets sur une surface de stationnement de véhicules, notamment si la surface de stationnement est à l’extérieur, il peut arriver que les capteurs générateurs d’images servant à détecter les objets soient limités par les influences de l’environnement. A titre d’exemple, le rayonnement solaire, ou la pluie, ou la neige, ou le brouillard, peuvent réduire la qualité des images fournies par un ou plusieurs capteurs générateurs d’images. Pour détecter les objets sur la surface de stationnement, il est intéressant que les capteurs générateurs d’images dont la qualité de prise de vue a été limitée par les influences de l’environnement, soient pondérés moins fortement que ceux dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement. On améliore ainsi la détection des objets sur la surface de stationnement.
La surface de stationnement de véhicules se compose d’emplacements de stationnement ou d’emplacements de rangement et de chemins de circulation associés. La surface de stationnement peut se trouver à l’extérieur ou dans un immeuble. Dans ce dernier cas, il s’agira d’un immeuble de garages.
Selon un mode de réalisation, les plages de saisie de plus de deux capteurs générateurs d’images se chevauchent au moins partiellement et les prises de vue de plus de deux capteurs générateurs d’images seront utilisées pour détecter par traitement d’images des objets sur les surfaces de stationnement. Plus le nombre de capteurs générateurs d’images est grand et meilleur sera le procédé pour détecter des objets sur les surfaces de stationnement.
Selon un développement, on détecte la moindre qualité de prise de vue d’un capteur générateur d’images par le traitement d’images. Les influences de l’environnement qui détériorent la qualité de prise de vue du capteur générateur d’images modifient les prises de vue du capteur générateur d’images de façon à pouvoir reconnaître ces modifications par traitement d’images. Si par exemple, le rayonnement solaire devait détériorer la qualité de prise de vue d’un capteur générateur d’images, cela peut se détecter par le traitement d’images et constater que les prises de vue de ce générateur d’images sont beaucoup plus fortement éclairées que d’autres prises de vue d’autres capteurs générateurs d’images qui n’ont pas reçu le rayonnement solaire. Si l’on détecte que les prises de vue d’un capteur générateur d’images ont eu un éclairage plus important, on pourra pondérer moins fortement ces prises de vue pour la détection des objets.
Selon un développement, on reconnaît la moindre qualité de prise de vue d’un capteur générateur d’images en comparant la prise de vue de ce capteur à une image de référence prise à un autre instant par le capteur générateur d’images. Cela peut se faire, par exemple, si le brouillard, la neige, la pluie, ont atténué les contours des structures par exemple les lignes de la surface de stationnement que dans l’image de référence qui a été enregistrée sans de telles influences de l’environnement. Cela permet d’identifier les prises de vue de capteurs générateurs d’images dont la qualité de prise de vue a été limitée par l’influence de l’environnement et alors pondérer moins fortement ces prises de vue pour la détection d’objets.
Selon un développement, on calcule les instants auxquels un capteur générateur d’images a une qualité de prise de vue limitée, en utilisant l’emplacement géographique du capteur générateur d’images et/ou son orientation et/ou la date et/ou l’heure. Cette solution est notamment avantageuse pour calculer les instants auxquels la qualité de prise de vue d’un capteur générateur d’images est limitée par le rayonnement solaire. Avec la position et l’orientation du capteur générateur d’images, la date et l’heure, on peut calculer tous les instants de la position du soleil avec incidence directe de la lumière solaire dans le capteur d’images correspondant. S’il y a incidence directe du rayonnement solaire dans le capteur générateur d’images, la qualité de prise de vue de ce capteur est limitée. En calculant les instants auxquels la qualité de prise de vue est limitée, on peut également déterminer, sans traite ment d’images, quand un capteur générateur d’images aura une moindre qualité à cause du rayonnement solaire.
Selon un développement, on transmet l’information concernant un objet détecté sur la surface de stationnement, notamment la position et les dimensions de l’objet détecté à l’aide d’un émetteur vers un récepteur dans un véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite. En transmettant la position et les dimensions de l’objet détecté sur la surface de stationnement vers un véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite, ce véhicule sera en mesure de tenir compte de l’objet détecté dans le choix de son trajet. Et il sera plus simple pour le véhicule, de déterminer un trajet vers un emplacement de stationnement, trajet que le véhicule pourra utiliser pour effectuer automatiquement sa fonction de conduite.
Selon un développement, à l’aide d’objets détectés sur la surface de stationnement, on pourra calculer la trajectoire d’un véhicule. Cette trajectoire sera transmise par l’émetteur vers le récepteur équipant le véhicule avec un dispositif pour exécuter automatiquement au moins une fonction de conduite. Cela permet un fonctionnement totalement automatique de la surface de stationnement en ce qu’on utilise les objets détectés sur la surface de stationnement pour calculer les trajectoires des véhicules sur la surface de stationnement et informer le véhicule de cette trajectoire. Le véhicule pourra alors suivre la trajectoire vers un emplacement de stationnement libre.
Une unité de calcul comporte des bornes pour au moins deux capteurs générateurs d’images et elle est conçue pour exécuter le procédé tel que défini ci-dessus. Les bornes sont des bornes de transmission de données pour traiter les images ou les prises de vue des capteurs générateurs d’images dans l’unité de calcul. Le traitement d’images avec lequel on reconnaît les objets sur la surface de stationnement se fait dans cette unité de calcul.
Selon un développement, l’unité de calcul ou tout simplement le calculateur comporte un émetteur pour transmettre les objets reconnus ou les trajectoires vers les véhicules. Cette unité de calcul convient pour le fonctionnement automatique du parking ou de la sur face de stationnement. Un programme qui comporte le code programme pour la mise en œuvre du procédé lorsque le programme est exécuté par une unité de calcul permet le fonctionnement d’une surface de stationnement automatique de véhicules.
Un système global composé d’au moins deux capteurs générateurs d’images et d’une unité de calcul est relié au capteur générateur d’images, et qui comporte l’un des émetteurs, permet d’exécuter le procédé.
Selon un développement, on a deux capteurs générateurs d’images qui ne sont pas simultanément exposés aux inconvénients de l’état de la technique, notamment au rayonnement solaire qui limiterait leur qualité de prise de vue.
Dessins
La présente invention sera décrite, ci-après, de manière plus détaillée à l’aide d’exemples de procédé de détection d’objets sur des surfaces de stationnement, représentés dans les dessins annexés dans lesquels : - la figure 1 montre un ordinogramme du procédé, - la figure 2 montre l’ordinogramme du procédé avec d’autres étapes de procédé en option, - la figure 3 montre un exemple d’unité de calcul, - la figure 4 montre un autre exemple d’unité de calcul, - la figure 5 est une vue schématique de l’ensemble du système et, - la figure 6 montre l’ensemble du système dont la qualité de prise de vue de la caméra est limitée par l’influence de l’environnement.
Description de mode de réalisation de l’invention
La figure 1 montre un ordinogramme 100 d’un procédé de détection d’objets se trouvant sur une surface de stationnement de véhicules. Dans un première étape 101 du procédé, on prend une vue avec au moins deux caméras dont les plages de saisie se chevauchent au moins partiellement. Dans une seconde étape 102 du procédé, on détermine la qualité de prise de vue. La qualité de prise de vue des caméras peut, par exemple, être limitée par les influences de l’environnement. Si la qualité de prise de vue est limitée par les in fluences de l’environnement, cela est pris en compte pour déterminer la qualité de prise de vue.
Dans une troisième étape 103 du procédé, on pondère les prises de vue d’au moins deux caméras selon que la qualité de prise de vue a ou non été influencée par l’environnement. Ainsi, la pondération des prises de vue d’une caméra dont la qualité de prise de vue a été limitée par les influences de l’environnement, sera par exemple, égale à 0 % ; la pondération des prises de vue d’une caméra dont la qualité de prise de vue n’aura pas été limitée par l’influence de l’environnement, sera de 100 %.
De même, selon une autre pondération des prises de vue d’une caméra dont la qualité de prise de vue est limitée par les influences de l’environnement, il est possible, par exemple, de ne retenir que 50 %. Si la qualité d’une prise de vue d’une caméra est limitée par les influences de l’environnement, pour la caméra dont la qualité de prise de vue sera moindre, on pondère plus fortement les prises de vue de la qualité dans la troisième étape 103 du procédé, que les prises de vue d’une caméra dont la qualité de prise n’aura pas été influencée par l’environnement.
Selon une quatrième étape 104 du procédé, par traitement d’images des objets des prises de vue, on détecte la surface de stationnement et la pondération tient compte des prises de vue provenant de la troisième étape 103. La reconnaissance d’objets sur la surface de stationnement se fait entre autre, en ce que l’on détecte l’emplacement d’un objet sur la surface de stationnement, c’est-à-dire que l’on détermine la position de l’objet. De plus, on peut déterminer une dimension de l’objet de façon à constater la surface occupée par l’objet.
Selon un exemple de réalisation, dans une première étape 101 du procédé, on réalise plus de deux prises de vue avec plus de deux caméras qui passent ensuite par les autres étapes 102/104 du procédé.
Selon un exemple de réalisation, dans la seconde étape 102 du procédé, on déterminé par traitement d’images qu’une caméra a une qualité de prise de vue limitée. Si l’on veut, par exemple, installer une caméra pour permettre au rayonnement solaire d’arriver directement sur la caméra, la qualité de la prise de vue de la caméra sera limi tée pendant ce temps. Par traitement d’images, on peut par exemple déterminer que la prise de vue d’une caméra est beaucoup plus fortement éclairée que celle d’une seconde caméra ou d’une référence. On peut en déduire qu’au moment de la prise de vue, le rayonnement solaire arrive directement sur la caméra, ce qui produit un fort éclairage. En surveillant les niveaux d’éclairage, on peut déterminer si la qualité de prise de vue d’une caméra est limitée.
De même, on peut envisager de déterminer une limitation de la qualité de prise de vue à cause de la neige, du brouillard ou de la pluie, en ce que des lignes ou des objets de la surface de stationnement perdent de contour et qu’ainsi les contours seront moins nets que sans les influences perturbatrices de l’environnement. On peut également ainsi déterminer des prises de vue de caméras dont la qualité a été limitée par l’influence de l’environnement.
Selon un exemple de réalisation, dans la seconde étape 102 du procédé, on applique une qualité de prise de vue limitée d’une caméra par la comparaison de la prise de vue à celle d’une image de référence, prise à un autre instant.
Selon un exemple de réalisation, dans la seconde étape 102 du procédé, on détermine la qualité de la prise de vue en ce que l’on calcule les instants auxquels une caméra a une qualité de prise de vue limitée, en utilisant l’emplacement géographique et/ou l’orientation de la caméra et/ou la date et/ou l’heure. En particulier, des qualités de prise de vue limitée, peuvent se prévoir par calcul à partir du rayonnement solaire incident en utilisant la position et l’orientation de la caméra, de la date et de l’heure. On peut ainsi déterminer les instants prévisibles auxquels le soleil arrive directement sur une caméra et pondérer moins les prises de vue à cet instant si l’on utilise la reconnaissance des objets sur la surface de stationnement.
La figure 2 montre un autre ordinogramme 100 dont les étapes de procédé 101 - 104 correspondent à celles de la figure 1. Une cinquième étape de procédé 105 consiste à transmettre un objet reconnu sur la surface de stationnement, notamment la position et les diminutions d’un objet en transmettant ces informations par un émetteur vers un récepteur dans un véhicule équipé d’un dispositif exécutant au tomatiquement au moins une fonction de conduite. Le véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite pourra planifier sa trajectoire sur la surface de stationnement par la transmission de la position et de la dimension de l’objet.
Selon un exemple de réalisation, dans une cinquième étape 105 du procédé, on ne transmet ni la position, ni les dimensions de l’objet mais à l’aide des objets détectés, on détermine une trajectoire du véhicule sur la surface de stationnement et on transmet cette trajectoire par un émetteur vers le véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite. Le dispositif pour exécuter automatiquement au moins une fonction de conduite d’un véhicule, pourra conduire le véhicule le long de la trajectoire prédéfinie vers la surface de rangement, c’est-à-dire l’emplacement de stationnement ou inversement pour conduire le véhicule de l’emplacement de stationnement vers la sortie de la surface de rangement.
Le procédé peut également se faire à l’aide d’autres capteurs générateur d’images à la place de caméra. Ainsi, on peut envisager dans une plage de saisie le combiné une caméra à un autre capteur générateur d’images. Ces autres capteurs générateurs d’images peuvent être des dispositifs de balayage par laser, des dispositifs de balayage par radar ou des dispositifs de balayage par lidar. Ces autres capteurs générateurs d’images fournissent également des prises de vue de la surface de stationnement dont la qualité de réception est limitée à cause des influences de l’environnement ; celles-ci continuent également d’être traitées dans le procédé comme des prises de vue de caméras.
La figure 3 montre un calculateur 200 avec deux branchements 201 pour chaque fois une caméra. Ce calculateur 200 est conçu pour exécuter le procédé de la figure 1.
La figure 4 montre un calculateur 200 pour exécuter le procédé de la figure 2. Le calculateur 200 comporte également deux bornes 201 de la caméra. Le calculateur 200 comporte également deux branchements 201 pour la caméra et de plus le calculateur 200 comporte un émetteur 202 pour transmettre les données au véhicule. Les branchements 201 des figures 3 et 4 sont conçus pour n’avoir qu’un branchement sur l’unité de calcul 200 ou peuvent être raccordés par plusieurs caméras. Ainsi, à titre d’exemple, on peut utiliser un système de bus pour les caméras ou coder les prises de vue des caméras et les transmettre par le branchement 201 vers l’unité de calcul. De la même manière, on peut prévoir des branchements pour les capteurs générateurs d’images, connus.
La figure 5 montre un système global pour détecteur des objets sur une surface de stationnement 230. La surface de stationnement 230 se compose d’emplacements de stationnement et d’emplacements de rangement ainsi que les véhicules correspondants. La surface de rangement peut se trouver à l’extérieur ou dans un immeuble. La surface de rangement 230 est occupée par un objet, ici un véhicule 220. L’objet peut également être un piéton ou un autre objet. Une première caméra 210 et une seconde caméra 211 sont dirigées vers la surface de stationnement 230 de sorte que leurs plages de saisie se chevauchent. La première caméra 210 et la seconde caméra 211 sont reliées chacune par une ligne de transmission de données 212 aux bornes de données 201 de caméras de l’unité de calcul 200. L’unité de calcul 200 comporte un émetteur 202 de sorte que l’unité de calcul 200 correspond à l’unité de calcul 200 de la figure 4. Le véhicule 220 est dans la plage de saisie de la première caméra 210 et la seconde caméra 211 ; il peut être détecté par traitement d’images à partir des deux caméras 210, 211.
La figure 6 montre, elle-aussi, une surface de stationnement 230 occupée par un véhicule 220 ainsi que les autres composants de la figure 5. La figure montre également le soleil 240 et les différents rayons 241. Un faisceau de rayons 242 arrive sur l’objectif 213 de la première caméra 210. L’objectif 213 de la seconde caméra 211 ne reçoit pas les rayons du soleil car la seconde caméra 211 comporte un diaphragme qui protège l’objectif 213 de la seconde caméra. Le faisceau de rayons de soleil 242 qui arrive sur l’objectif 213 de la première caméra 210 éclaire d’une manière intense la prise de vue de la première caméra 210 par opposition au cas où il n’y aurait pas de rayons du soleil arrivant sur l’objectif 213 de la première caméra 210. Ce fort éclairage de la prise de vue pourra être déterminé dans la seconde étape 102 du procédé selon les figures 1 et 2 par une moindre qualité de prise de vue de la première caméra 210 à cause de l’influence de l’environnement. Les prises de vue de la première caméra 210 peuvent dans ce cas être pondérées à un niveau moindre à la détection d’objets, ici, le véhicule 220 sur la surface de stationnement 230 qui seront moins pondérées que les prises de vue de la seconde caméra 211.
Il est également possible de déterminer la moindre qualité de prise de vue de la première caméra 210 à la figure 6 en calculant la date et l’heure de la position du soleil 240 et la position et l’orientation de la première caméra 210, durée pendant laquelle un faisceau de rayons 242 arrive sur la première caméra 210. Pendant ce temps, les prises de vue de la première caméra 210 sont pondérées moins fortement à cause des objets reconnus, ici le véhicule 220 de la surface de rangement 230 que les prises de vue de la seconde caméra 211 dont le fonctionnement n’est pas limité à ce temps, par le soleil 240.
La première caméra 210 et la seconde caméra 211 sont positionnées pour que leur qualité de prise de vue ne soit pas limitée simultanément par le rayonnement solaire 241.
Les caméras 210, 211 peuvent, de même que d’autres capteurs générateurs d’images, être prévues à la place ou en plus des caméras fixes ou mobiles.
NOMENCLATURE DES PRINCIPAUX ELEMENTS 100 Ordinogramme du procédé 101-104 Etape du procédé 100 101-105 Autre étape du procédé 100 200 Unité de calcul 201 Borne 202 Emetteur 210 Première caméra 211 Seconde caméra 212 Ligne de transmission de données 220 Véhicule 230 Surface cde stationnement 240 Soleil 241 Rayons du soleil 242 Faisceau de rayons
Claims (5)
- RE VEND! CAT I Q NS 1°) Procédé de détection d’objets sur une surface de stationnement de véhicules par le traitement des images de prises de vue d’au moins deux capteurs générateurs d’images, dont les plages de saisie se chevauchant au moins partiellement, - les durées au cours desquelles un capteur générateur d’images pré sente une qualité de prise de vue limitée, étant calculées en utilisant l’emplacement géographique du capteur générateur d’images et/ou son orientation et/ou la date et/ou l’heure, et - les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue est limitée par les influences de l’environnement pour détecteur des objets sur la surface de stationnement étant pondérées moins fortement par le traitement, d’images que les prises de vue d’un capteur générateur d’images dont la qualité de prise de vue n’est pas limitée par les influences de l’environnement.
- 2°) Procédé selon la revendication 1, caractérisé en ce que les capteurs générateurs d’images sont : - des caméras, des dispositifs de balayage à laser, des dispositifs de balayage à radar et/ou des dispositifs de balayage lidar.
- 3“) Procédé selon l’une des revendications 1 et 2, caractérisé en ce que par traitement d’images des prises de vue de plus de deux capteurs générateurs d’images, on reconnaît des objets sur la surface de stationnement et les plages de saisie de plus de deux capteurs générateurs d’images se chevauchant au moins partiellement.
- 4°) Procédé selon l’une des revendications 1 à 3, caractérisé en ce qu’ on reconnaît la qualité de prise de vue, limitée d’un capteur générateur d’images par le traitement d’images.
- 5°) Procédé selon la revendication 4, caractérisé en ce qu’ on détecte la qualité de prise de vue limitée d’un capteur générateur d’images en comparant la prise de vue du capteur générateur d’images à celle d’une image de référence prise à un autre instant par le capteur générateur d’images, 6°) Procédé selon l’une des revendications 1 à 5, caractérisé en ce qu’ on transmet une information d’un objet reconnu sur une surface de stationnement, notamment une position et une dimension de l’objet détecté à l’aide d’un émetteur vers un récepteur dans un véhicule équipé d’un dispositif pour effectuer automatiquement au moins une fonction de conduite. 7°) Procédé selon l’une des revendications 1 à 6, caractérisé en ce qu’ à l’aide des objets détectés sur la surface de stationnement, on calcule une trajectoire pour un véhicule équipé d’un dispositif pour exécuter automatiquement au moins une fonction de conduite et on transmet la trajectoire par l’émetteur vers le récepteur du véhicule, 8°) Unité de calcul {200} comportant des bornes (201) pour relier au moins deux capteurs générateurs d’images (210, 211} et conçues pour appliquer le procédé selon les revendications 1 à 7, 9°} Unité de calcul (200) selon la revendication 8, caractérisée en ce qu’ elle comporte un émetteur {202}, 10°) Programme comportant un code programment pour la mise en œuvre du procédé selon l’une des revendications 1 à 7, lorsque le programme est applique par une unité de calcul (200}. 11°) Système global composé d’au moins deux capteurs générateurs d’images (210, 211) et d’un calculateur (200) reliés aux capteurs génê- rateurs d'images (210, 211) et comportant un émetteur (200), le système global exécutant le procédé selon Fune des revendications 1 à 7.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015216908.1A DE102015216908A1 (de) | 2015-09-03 | 2015-09-03 | Verfahren zum Erkennen von Objekten auf einer Abstellfläche |
DE102015216908.1 | 2015-09-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3040818A1 FR3040818A1 (fr) | 2017-03-10 |
FR3040818B1 true FR3040818B1 (fr) | 2019-07-12 |
Family
ID=58054951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1658033A Active FR3040818B1 (fr) | 2015-09-03 | 2016-08-30 | Procede de detection d'objets sur une surface de stationnement |
Country Status (4)
Country | Link |
---|---|
US (1) | US10007268B2 (fr) |
CN (1) | CN106504561B (fr) |
DE (1) | DE102015216908A1 (fr) |
FR (1) | FR3040818B1 (fr) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016200794A1 (de) * | 2016-01-21 | 2017-07-27 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Lokalisieren eines Kraftfahrzeugs |
DE102016223171A1 (de) | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
DE102016223118A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
US10479376B2 (en) * | 2017-03-23 | 2019-11-19 | Uatc, Llc | Dynamic sensor selection for self-driving vehicles |
DE102017212379A1 (de) * | 2017-07-19 | 2019-01-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes |
CN108765973B (zh) * | 2018-06-01 | 2022-04-19 | 智慧互通科技股份有限公司 | 一种基于对侧视角互补的路侧停车管理系统 |
CN111028535B (zh) * | 2018-10-09 | 2021-04-27 | 杭州海康威视数字技术股份有限公司 | 车位检测装置及方法、车位管理系统 |
CN109493634A (zh) * | 2018-12-21 | 2019-03-19 | 深圳信路通智能技术有限公司 | 一种基于多设备协同工作的停车管理系统及方法 |
US11474244B2 (en) * | 2019-04-16 | 2022-10-18 | GM Global Technology Operations LLC | System and method of controlling operation of a device having an optical sensor |
CN110329259B (zh) * | 2019-07-03 | 2020-10-16 | 国唐汽车有限公司 | 一种基于多传感器融合的车辆自动跟随系统及其方法 |
DE102021102426A1 (de) | 2021-02-03 | 2022-08-04 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum betreiben eines fahrzeugs, computerprogrammprodukt, system und fahrzeug |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004244613A (ja) * | 2003-01-23 | 2004-09-02 | Sumitomo Metal Mining Co Ltd | 日射遮蔽体と日射遮蔽体形成用分散液 |
DE10328814B3 (de) * | 2003-06-20 | 2004-12-09 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung |
MY147105A (en) * | 2003-09-03 | 2012-10-31 | Stratech Systems Ltd | Apparatus and method for locating, identifying and tracking vehicles in a parking area |
CN101309363A (zh) * | 2003-10-15 | 2008-11-19 | 富士通天株式会社 | 图像处理装置、驾驶支援装置和驾驶支援系统 |
DE102005006290A1 (de) * | 2005-02-11 | 2006-08-24 | Bayerische Motoren Werke Ag | Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs durch Fusion eines Infrarot- und eines Visuell-Abbilds |
WO2006087002A1 (fr) * | 2005-02-18 | 2006-08-24 | Bayerische Motoren Werke Aktiengesellschaft | Dispositif permettant d'amener un vehicule en un emplacement cible |
US8077995B1 (en) * | 2005-02-23 | 2011-12-13 | Flir Systems, Inc. | Infrared camera systems and methods using environmental information |
DE102007002198A1 (de) | 2007-01-16 | 2008-07-31 | Siemens Ag | Standortermittlung eines Kraftfahrzeugs in einer Parkanlage |
CN100527165C (zh) * | 2007-09-04 | 2009-08-12 | 杭州镭星科技有限公司 | 一种以动态投影为背景的实时目标识别方法 |
CN101304488B (zh) * | 2008-06-20 | 2010-12-15 | 北京中星微电子有限公司 | 一种图象采集的方法和装置 |
DE102008044160A1 (de) * | 2008-11-28 | 2010-06-02 | Robert Bosch Gmbh | Verfahren zum Unterstützen und/oder zumindest teilweise automatischen Durchführen eines Einparkvorgangs eines Kraftfahrzeugs sowie Einparkassistenzvorrichtung |
DE102008060770A1 (de) * | 2008-12-05 | 2009-09-17 | Daimler Ag | Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges |
CN101650176B (zh) * | 2009-08-28 | 2011-12-21 | 浙江工业大学 | 基于主动立体全方位视觉的交通事故现场测绘仪 |
CN101719987A (zh) * | 2009-12-10 | 2010-06-02 | 浙江大华技术股份有限公司 | 一种智能化快速设置自动曝光的方法 |
CN102542552B (zh) * | 2010-12-21 | 2015-06-03 | 北京汉王智通科技有限公司 | 视频图像的顺逆光判断和拍摄时间检测方法 |
DE102011014855A1 (de) * | 2011-03-24 | 2012-09-27 | Thales Defence & Security Systems GmbH | Verfahren und Vorrichtung zum Erfassen und Klassifizieren von fahrenden Fahrzeugen |
KR101340738B1 (ko) * | 2011-11-08 | 2013-12-12 | 엘지이노텍 주식회사 | 주차 보조 시스템 |
US8582819B2 (en) * | 2011-11-18 | 2013-11-12 | Xerox Corporation | Methods and systems for improving yield in wanted vehicle searches |
CN102694981B (zh) * | 2012-05-11 | 2014-10-29 | 中国科学院西安光学精密机械研究所 | 基于自适应阈值分割的直方图均衡化的自动曝光方法 |
CN103473950B (zh) * | 2012-06-06 | 2017-04-12 | 刘鉵 | 一种停车场车位监控方法 |
US9008389B2 (en) * | 2012-09-28 | 2015-04-14 | Robert D. Williams | System and method for determining the amount of vitamin D generated by a user |
CN103021177B (zh) * | 2012-11-05 | 2014-05-07 | 北京理工大学 | 一种雾天交通监控视频图像的处理方法和系统 |
CN104236539A (zh) * | 2013-06-21 | 2014-12-24 | 北京四维图新科技股份有限公司 | 导航方法、导航终端以及导航系统 |
CN104345523B (zh) * | 2013-08-05 | 2017-07-28 | 杭州海康威视数字技术股份有限公司 | 智能交通摄像机局部进光量自动控制的方法及其装置 |
EP2865575B1 (fr) * | 2013-10-22 | 2022-08-24 | Honda Research Institute Europe GmbH | Estimation de confiance pour systèmes d'assistance de conducteur prédictifs sur la base de règles de plausibilité |
CN204190866U (zh) * | 2014-09-24 | 2015-03-04 | 深圳市傲天智能系统有限公司 | 一种自我感知型智能交通监控的抓拍系统 |
CN104253979A (zh) * | 2014-09-24 | 2014-12-31 | 深圳市傲天智能系统有限公司 | 一种自我感知型的智能摄像机 |
CN104539921B (zh) * | 2014-11-26 | 2016-09-07 | 北京理工大学 | 一种基于多投影系统的光照补偿方法 |
US10008115B2 (en) * | 2016-02-29 | 2018-06-26 | Analog Devices Global | Visual vehicle parking occupancy sensor |
US9852631B2 (en) * | 2016-03-04 | 2017-12-26 | Conduent Business Services, Llc | Mobile on-street parking occupancy detection |
-
2015
- 2015-09-03 DE DE102015216908.1A patent/DE102015216908A1/de active Pending
-
2016
- 2016-08-25 US US15/247,278 patent/US10007268B2/en active Active
- 2016-08-30 FR FR1658033A patent/FR3040818B1/fr active Active
- 2016-08-30 CN CN201610766312.2A patent/CN106504561B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
FR3040818A1 (fr) | 2017-03-10 |
US10007268B2 (en) | 2018-06-26 |
US20170069093A1 (en) | 2017-03-09 |
DE102015216908A1 (de) | 2017-03-09 |
CN106504561A (zh) | 2017-03-15 |
CN106504561B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3040818B1 (fr) | Procede de detection d'objets sur une surface de stationnement | |
FR2718874A1 (fr) | Procédé de surveillance de trafic pour la détection automatique d'incident de véhicules. | |
EP3241035A1 (fr) | Procédé de suivi optique assisté par radar et système de mission pour la mise en oeuvre de ce procédé | |
US20150117705A1 (en) | Hybrid Parking Detection | |
FR2906632A1 (fr) | Procede de localisation d'un vehicule. | |
AU2019303737A1 (en) | Infringement detection method, device and system | |
CN116413725A (zh) | 一种基于摄像头与毫米波雷达数据融合的障碍物检测方法 | |
CN118351405A (zh) | 多模态图像的融合方法、检测方法、设备、介质和车辆 | |
FR3085024A1 (fr) | Procédé pour tester une fonction de conduite au moins partiellement automatisée d’un véhicule | |
EP3239656B1 (fr) | Procédé d'optimisation de la détection de cibles marines et radar aéroporté mettant en oeuvre un tel procédé | |
US11206303B2 (en) | Image sharing assistance device, image sharing system, and image sharing assistance method | |
EP2332131B1 (fr) | Systeme passif et autonome de detection du depassement par un vehicule d'une vitesse limitee | |
CN207115438U (zh) | 用于车载鱼眼相机的图像处理装置 | |
CN115294722A (zh) | 火焰检测装置及其方法 | |
EP1843233B1 (fr) | Système de localisation et positionnement pour le guidage d'une entité mobile par rapport à un ou plusieurs autres objets | |
CN116208721A (zh) | 一种低光照环境下车辆抓拍方法、装置、介质及电子设备 | |
WO2020183081A1 (fr) | Entrainement d'un reseau de neurones, pour l'assistance a la conduite d'un vehicule par determination de delimitations de voie difficilement observables | |
FR3103305A1 (fr) | Procédé et dispositif de prédiction d’au moins une caractéristique dynamique d’un véhicule en un point d’un segment routier. | |
WO2021115764A1 (fr) | Consolidation d'une information de géolocalisation d'un véhicule | |
US20120098962A1 (en) | Method for identifying reflecting objects subjected to variable lighting conditions and system for performing said method | |
US11924527B2 (en) | Optical sensor activation and fusion | |
EP1528409B1 (fr) | Procédé et dispositif de mesure de la vitesse d'un véhicule en déplacement sur une trajectoire courbe déterminée | |
FR3061687A1 (fr) | Procede et dispositif de surveillance d'un vehicule stationne | |
CN113726983B (zh) | 一种基于时间,定位,镜头角度,入射光强和色温的太阳光眩光抑制的方法和装置 | |
EP3394795A1 (fr) | Procédé de détection d'un timon d'attelage et produit programme d'ordinateur associé |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20181116 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |