FR2922029A1 - Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone - Google Patents

Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone Download PDF

Info

Publication number
FR2922029A1
FR2922029A1 FR0707039A FR0707039A FR2922029A1 FR 2922029 A1 FR2922029 A1 FR 2922029A1 FR 0707039 A FR0707039 A FR 0707039A FR 0707039 A FR0707039 A FR 0707039A FR 2922029 A1 FR2922029 A1 FR 2922029A1
Authority
FR
France
Prior art keywords
detected
data
detector
location
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0707039A
Other languages
French (fr)
Inventor
Sylvain Bougnoux
Christophe Vestri
Sebastien Wybo
Frederic Abad
Remy Bendahan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMRA Europe SAS
Original Assignee
IMRA Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMRA Europe SAS filed Critical IMRA Europe SAS
Priority to FR0707039A priority Critical patent/FR2922029A1/en
Publication of FR2922029A1 publication Critical patent/FR2922029A1/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • G01S2015/933Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past
    • G01S2015/935Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past for measuring the contour, e.g. a trajectory of measurement points, representing the boundary of the parking space

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)

Abstract

The detector has a controller for delimiting a bounded region (14) in a spatial reference from determined positions of geometric points, where the points correspond to a contour belonging to an object detected in an observation zone. The controller delimits a transition region in the spatial reference at an edge of the bounded region. The controller detects a geographic end point and determines a position of the end point in the reference from transition zone images transmitted by an image acquisition unit. The point is associated to an end contour of the object at the transition zone. An independent claim is also included for a method for detecting an object using a detector.

Description

Dispositif et méthode de détection d'objet Device and method of object detection

DESCRIPTION DOMAINE TECHNIQUE Le domaine technique de l'invention est celui des dispositifs et méthodes de détection d'objets dans un environnement, notamment pour des applications de robotique, d'assistance au parcage d'un véhicule, de détection et de prévention de collisions ou encore d'aide au contrôle d'un véhicule. Ces dispositifs et méthodes peuvent aussi être utilises pour la reconstruction virtuelle en trois dimensions et la visualisation d'environnements. ÉTAT DE LA TECHNIQUE ANTÉRIEURE Des détecteurs d'objets qui mettent en oeuvre des mesures de distance par émission d'ondes et réception d'ondes réfléchies sur un objet sont connus, en particulier dans le domaine de la robotique ou des dispositifs de sécurité, par exemple les dispositifs anticollision. De tels détecteurs sont aussi utilisés dans le domaine de l'automobile notamment pour l'assistance au parcage. Les ondes utilisées peuvent être des ondes électromagnétiques, telles que les ondes RF (radiofréquences) de radars ou de lasers, ou des ondes acoustiques telles que celles utilisées par les capteurs sonar. Les ondes réfléchies sur un objet peuvent présenter une atténuation due aux propriétés spécifiques des matériaux réfléchissants (plus ou moins absorbants) et/ou à la forme de l'objet (du fait de la réflexion à un angle important par rapport au vecteur d'onde initial ou de l'incidence plus ou moins rasante de l'onde initiale sur une surface de réflexion de l'objet, ou encore de multiples réflexions). En particulier, les positions des bords d'un objet sont généralement plus difficiles à déterminer avec précision que des positions de parties de l'objet exposées aux ondes incidentes sous un angle d'incidence pas trop important (par rapport à la normale à la portion de surface réfléchissante de chaque partie de l'objet concernée), n'absorbant pas trop les ondes reçues, et qui correspondent donc à des contours apparents de l'objet. Par exemple, les coins d'objets sont très mal résolus à partir des ondes réfléchies. Les écarts temporels entre des ondes émises et des ondes réfléchies sur l'objet relatives à des contours apparents permettent une évaluation précise de la distance entre l'émetteur et les éléments de contour à partir desquels la réflexion des ondes s'est produite. Pour les régions de bord de l'objet, il existe une zone de transition entre les parties présentant un bonne réflexion des ondes et des parties pour lesquelles les ondes réfléchies reçues par le détecteur sont atténuées ou inexistantes. Pour un taux donné d'émission d'ondes, la densité des points de mesure obtenus par le détecteur diminue fortement dans une région de transition du fait de la forte diminution d'intensité des ondes réfléchies reçues par le détecteur (ce gradient de densité de points de mesure sur un enregistrement permet de détecter la présence de cette région de transition). Il en résulte un certain flou dans la position des contours de bord de l'objet détecté. Par contre, pour un contour apparent, la densité des points de mesure sur un enregistrement est relativement uniforme. Ce flou correspondant à la région de transition est illustré sur la Figure 1 jointe en annexe qui correspond à une image d'un véhicule (15) en stationnement obtenue par un capteur sonar (22) monté sur un véhicule support (20) en mouvement et dont le faisceau visait un côté du véhicule (15) et qui a balayé longitudinalement le véhicule (15) de l'arrière vers l'avant. On voit sur l'enregistrement sonar (1), correspondant à un balayage longitudinal du véhicule (15) à hauteur du capteur sonar (22), que la densité de points sonar est élevée pour les éléments de contour apparent correspondant aux portières et aux ailes du véhicule (sensiblement selon une face longitudinale du véhicule), alors que la densité de points chute dans une zone de transition (4) correspondant à l'arrière du véhicule. Il n'est pas possible de déterminer avec précision où se situe l'extrémité correspondant à l'arrière du véhicule à partir des mesures effectuées car la zone de transition correspond à un flou dans l'image sonar. La demande de brevet Européen EP 1 679 526 Al divulgue un dispositif d'assistance au parcage d'un véhicule dans lequel les obstacles (véhicules en stationnement) détectés par un capteur sonar monté sur un véhicule mobile sont représentés par des séquences de points d'un enregistrement sonar correspondant uniquement à un balayage sonar d'un côté longitudinal des véhicules en stationnement. Ces séquences de points sont ensuite approximées par des courbes ou des droites pour représenter des éléments de contour des faces longitudinales des véhicules en stationnement. Ce dispositif ne permet toutefois pas de définir avec précision les positions des extrémités des véhicules en stationnement à cause du flou mentionné plus haut associé à chaque région de transition à l'avant et à l'arrière de chaque véhicule en stationnement. Un tel manque de précision oblige à prendre des marges de sécurité importantes lors de la détermination d'un emplacement apte au parcage du véhicule mobile. Il est alors possible q'un emplacement entre deux véhicules en stationnement qui en réalité convient au parcage ne soit pas pris en compte par le dispositif d'assistance seulement parce qu'il na pas les dimensions suffisantes lorsque les marges de sécurité importantes sont prises en compte. Ce dispositif ne permet donc pas de déterminer la forme d'un objet détecté avec précision et par conséquent, ne peut pas servir à évaluer précisément un risque de collision avec un objet détecté. TECHNICAL FIELD The technical field of the invention is that of devices and methods for detecting objects in an environment, in particular for robotic applications, vehicle parking assistance, detection and prevention of collisions or still help to control a vehicle. These devices and methods can also be used for three-dimensional virtual reconstruction and visualization of environments. STATE OF THE PRIOR ART Object detectors which implement distance measurements by wave emission and reception of reflected waves on an object are known, in particular in the field of robotics or safety devices, by example anti-collision devices. Such detectors are also used in the automotive field, particularly for parking assistance. The waves used may be electromagnetic waves, such as RF (radio frequency) waves of radars or lasers, or acoustic waves such as those used by sonar sensors. The waves reflected on an object may exhibit attenuation due to the specific properties of the reflective materials (more or less absorbent) and / or the shape of the object (due to the reflection at a large angle relative to the wave vector initial or more or less grazing incidence of the initial wave on a reflection surface of the object, or multiple reflections). In particular, the positions of the edges of an object are generally more difficult to accurately determine than positions of parts of the object exposed to the incident waves at a not too important angle of incidence (relative to the normal to the portion reflective surface of each part of the object concerned), not absorbing too much the waves received, and which therefore correspond to apparent outlines of the object. For example, the corners of objects are very badly resolved from the reflected waves. The time differences between transmitted waves and reflected waves on the object relative to apparent contours allow an accurate evaluation of the distance between the emitter and the contour elements from which the reflection of the waves has occurred. For the edge regions of the object, there is a transition zone between the parts having a good reflection of the waves and parts for which the reflected waves received by the detector are attenuated or non-existent. For a given rate of wave emission, the density of the measurement points obtained by the detector decreases sharply in a transition region due to the sharp decrease in intensity of the reflected waves received by the detector (this gradient of measurement points on a record can detect the presence of this transition region). This results in a certain blur in the position of the edge contours of the detected object. On the other hand, for an apparent contour, the density of the measurement points on a recording is relatively uniform. This blur corresponding to the transition region is illustrated in FIG. 1 appended to an image of a parked vehicle (15) obtained by a sonar sensor (22) mounted on a moving vehicle carrier (20). whose beam was aimed at one side of the vehicle (15) and which swept longitudinally the vehicle (15) from the rear to the front. The sonar record (1), corresponding to a longitudinal scan of the vehicle (15) at the height of the sonar sensor (22), shows that the sonar point density is high for the apparent contour elements corresponding to the doors and the wings. of the vehicle (substantially along a longitudinal face of the vehicle), while the density of points falls in a transition zone (4) corresponding to the rear of the vehicle. It is not possible to precisely determine where the end corresponding to the rear of the vehicle is from the measurements made because the transition zone corresponds to a blur in the sonar image. European Patent Application EP 1 679 526 A1 discloses a parking assistance device for a vehicle in which the obstacles (parked vehicles) detected by a sonar sensor mounted on a moving vehicle are represented by sequences of points. a sonar record corresponding only to a sonar scan on a longitudinal side of the parked vehicles. These sequences of points are then approximated by curves or lines to represent contour elements of the longitudinal faces of the parked vehicles. This device, however, does not allow to accurately define the positions of the ends of parked vehicles because of the blur mentioned above associated with each transition region at the front and rear of each parked vehicle. Such a lack of precision requires to take significant safety margins when determining a location suitable for parking the mobile vehicle. It is then possible that a parking space between two parked vehicles that is in fact suitable for parking is not taken into account by the assistance device only because it does not have sufficient dimensions when significant safety margins are taken into account. account. This device therefore does not determine the shape of a precisely detected object and therefore can not be used to accurately assess a risk of collision with a detected object.

D'autres dispositifs connus, par exemple celui récemment présenté dans l'article de P.Mordohai et al.: "Real-Time Video-Based Reconstruction of Urban Environments", Proceedings of the 2nd ISPRS International Workshop 3D-ARCH 2007: "3D Virtual Reconstuction and Visualization of Complex Architectures", ETH Zurich, Switzerland, 12-13 July 2007 (International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVI-5/W47, ISBN:1682-1777), utilisent des capteurs radar à ondes millimétriques pour modéliser des obstacles situés de part et d'autre d'un emplacement de parcage et en déduire s'il est possible d'y parquer un véhicule donné. Ces dispositifs sont limités par l'aptitude à la détection des capteurs radar à ondes millimétriques qui offrent une bonne détection des surfaces métalliques et mauvaise détection des surfaces non métalliques (par exemple en plastique, comme un pare- choc de véhicule). De plus, quelle que soit la gamme de longueurs d'ondes choisie pour le capteur radar, le problème du flou associé à la zone de transition au bord des objets demeure. Il s'ensuit que de tels dispositifs ne permettent généralement pas de délimiter avec précision les bords d'un objet détecté. Il est bien sûr possible d'augmenter le nombre de capteurs radar pour améliorer la précision des enregistrements. Cependant, le coût du détecteur en est augmenté ainsi que sa complexité car l'interprétation des enregistrements est plus compliquée. De plus, les parties d'un objet qui occasionnent une mauvaise réflexion des ondes correspondront toujours à un flou pour leur position dans l'espace. D'autres dispositifs utilisent la fusion de données issues de capteurs sonar avec des données d'image de l'environnement. Dans ces dispositifs hybrides, c'est-à-dire mettant en œuvre à la fois un capteur sonar et un dipositif de prise de vue, la combinaison des données sonar et des données image sert à mieux détecter la présence ou l'absence d'objet dans l'environnement et/ou améliorer la localisation du support mobile (par exemple un robot) sur lequel est fixé le détecteur d'objet au sein de l'environnement. Par exemple, dans l'article de S.Thompson et S.Kagami: "Incorporating Stereo Vision and Sonar Data into 2.5 Dimensional Maps", dans "Proceedings of the 8th Conference on Intelligent Autonomous Systems", March 2004, p.971-979, IOS Press, ISBN:978-1-58603-414-6, un détecteur d'objet monté sur un robot mobile dans un environnement clos comporte seize capteurs sonar et un dispositif de stéréovision (placé au sommet du robot et visant le sol alentour) pour enregistrer des images calibrées de l'environnement à l'aide d'une paire de caméras. Les données sonar servent à fabriquer une première carte bidimensionnelle (2D) de probabilité d'occupation pour modéliser l'environnement du robot. Les données de stéréovision servent à fabriquer une seconde carte de probabilité d'occupation obtenue à partir d'une carte de profondeur (basée sur la stéréovision) qui est projeté sur un système de coordonnées 2D lié au sol. Les deux cartes obtenues sont alors fusionnées en une nouvelle carte 2D de probabilité d'occupation et, pour résoudre des conflits d'affectation de probabilité relatifs à certaines cellules de la gille formant la nouvelle carte 2D, une estimation de hauteur d'objet (basée sur les données de stéréovision) est ajoutée pour chaque cellule: il en résulte une carte 2,5D de probabilité d'occupation. Ce détecteur d'objet présente toutefois l'inconvénient de ne pas pouvoir délimiter les contours dans l'espace tridimensionnel (3D) d'un objet, il sert seulement à mieux détecter la présence ou l'absence d'objet autour du robot. Other known devices, for example the one recently presented in the article by P.Mordohai et al .: "Real-Time Video-Based Reconstruction of Urban Environments", Proceedings of the 2nd International ISPRS Workshop 3D-ARCH 2007: "3D Virtual Reconstruction and Visualization of Complex Architectures ", ETH Zurich, Switzerland, 12-13 July 2007 (International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol XXXVI-5 / W47, ISBN: 1682-1777), use sensors millimeter-wave radar to model obstacles on either side of a parking space and deduce if it is possible to park a given vehicle. These devices are limited by the ability to detect millimeter wave radar sensors that provide good metal surface detection and poor detection of non-metallic surfaces (eg plastic, such as a vehicle bumper). Moreover, whatever the wavelength range chosen for the radar sensor, the problem of the blur associated with the transition zone at the edge of the objects remains. It follows that such devices generally do not allow to delimit the edges of a detected object accurately. It is of course possible to increase the number of radar sensors to improve the accuracy of the recordings. However, the cost of the detector is increased as well as its complexity because the interpretation of the recordings is more complicated. Moreover, the parts of an object that cause a bad reflection of the waves will always correspond to a blur for their position in the space. Other devices use data fusion from sonar sensors with image data from the environment. In these hybrid devices, that is to say implementing both a sonar sensor and a shooting device, the combination of sonar data and image data is used to better detect the presence or absence of object in the environment and / or improve the location of the mobile support (for example a robot) on which is fixed the object detector within the environment. For example, in the article by S. Thomson and S. Kagami: "Incorporating Stereo Vision and Sonar Data into 2.5 Dimensional Maps", in "Proceedings of the 8th Conference on Intelligent Autonomous Systems," March 2004, p.971-979 , IOS Press, ISBN: 978-1-58603-414-6, an object detector mounted on a mobile robot in a closed environment has sixteen sonar sensors and a stereovision device (placed at the top of the robot and aimed at the surrounding ground ) to record calibrated images of the environment using a pair of cameras. The sonar data is used to make a first two-dimensional (2D) occupancy probability map to model the robot environment. Stereovision data is used to construct a second occupancy probability map obtained from a depth map (based on stereovision) that is projected onto a 2D ground-based coordinate system. The two maps obtained are then merged into a new occupancy probability 2D map and, to resolve probability assignment conflicts relating to certain cells of the gille forming the new 2D map, an object height estimate (based on on stereovision data) is added for each cell: this results in a 2.5D occupancy probability map. This object detector, however, has the disadvantage of not being able to delimit the contours in the three-dimensional (3D) space of an object, it only serves to better detect the presence or absence of objects around the robot.

Un autre exemple de détecteur hybride est donné dans l'article de J.M.Leiva, P.Martinez, E.J.Perez, C.Urdiales et F.Sandoval: "3D Reconstruction of a static indoor environnment by fusion of sonar and video data", dans "SIRS'2001:Proceedings of the 9th international Symposium on Intelligent Robotic Systems", p.179-188, Ed. LAAS-CNRS, Toulouse, France, ISBN 2-907801-01-5. Cet article divulgue un système de détection d'objet monté sur un robot mobile sur un sol à l'intérieur d'une pièce et qui comporte seize capteurs sonar et une caméra monoculaire pour enregistrer des images calibrées de l'environnement. Ce système permet aussi de fabriquer un modèle 3D de l'environnement à partir des données sonar de la façon suivante: les données sonar issues des capteurs sont accumulées de façon classique dans une carte 2D de probabilité d'occupation qui sert ensuite à fabriquer une carte 2D de l'environnement au niveau du sol par extraction (au moyen d'un logiciel spécifique) des principaux éléments de contour 2D de la carte d'occupation; enfin, un modèle 3D de l'environnement est construit à partir de la carte 2D du sol de l'environnement en extrudant verticalement par rapport au sol les éléments de contour 2D détectés (jusqu'à une certaine hauteur par rapport au sol), ce qui fait apparaître des formes 3D. Le système utilise alors les données d'image fournies par la caméra pour localiser le robot dans le modèle 3D de l'environnement. Accessoirement, les données d'image peuvent aussi servir à améliorer le rendu du modèle 3D à partir de données de texture des murs de la pièce qui sont extraite des données d'image au moyen d'un logiciel classique de traitement de telles données pour former une carte 2D de texture des murs. Un tel système ne permet toutefois pas de délimiter avec précision les contours dans l'espace tridimensionnel (3D) d'un objet détecté, car le modèle 3D de l'environnent est essentiellement formé à partir des données sonar et les données d'image sont utilisées pour préciser la position du robot dans l'environnement 3D virtuel. Ce système peut donc difficilement être utilisé pour l'évaluation de risque de collision du robot avec les objets détectés car la représentation 3D de l'environnent (en tout cas au niveau des objets) n'est pas assez précise pour les raisons indiquées plus haut concernant les limitations intrinsèques des mesures par analyse de l'écho d'un signal. EXPOSÉ DE L'INVENTION L'invention a pour objectif de remédier aux difficultés rencontrées par les dispositifs et méthodes de la technique antérieure. En particulier un but de l'invention est de proposer un détecteur d'objet qui soit simple et apte à être monté sur un support mobile dans un environnement (par exemple un robot ou une automobile), c'est-à-dire qui ne nécessite pas l'emploi d'un grand nombre de capteurs pour la mesure de distance par émission de signaux et réception de leurs échos, ni l'emploi d'appareils d'acquisition d'image complexes. L'invention vise aussi à permettre à un détecteur d'objet de déterminer avec précision les contours d'un objet détecté à partir de l'écho de signaux émis par ce détecteur, même si les signaux ne sont émis que par un seul capteur. Un autre but de l'invention est de proposer un détecteur d'objet apte à évaluer avec précision un risque de collision entre un support du détecteur et des objets détectés dans l'environnement. L'invention vise aussi à proposer un dispositif d'assistance au parcage pour un véhicule qui soit capable de détecter avec précision la présence d'objets ainsi que l'existence d'un emplacement de parcage pour ce véhicule. Ces objectifs, ainsi que d'autres, sont atteints grâce à un détecteur d'objet apte à être monté sur un support mobile dans un environnement, comprenant: (a) une unité de localisation apte à déterminer des données de localisation instantanée du détecteur par rapport à l'environnement, et à délivrer des données de localisation déterminées; (b) une unité de mesure de distance apte à déterminer une valeur instantanée de distance entre le détecteur et un objet dans une zone d'observation de l'environnement à partir de l'écho d'un signal envoyé vers la zone d'observation, et à délivrer une donnée d'évaluation de distance correspondante; (c) une unité d'acquisition d'image apte à enregistrer une image calibrée instantanée de la zone d'observation et à délivrer des données d'image de l'image enregistrée; et (d) une unité de commande apte à contrôler un fonctionnement synchronisé des unités de localisation, de mesure de distance et d'acquisition d'image du détecteur d'objet monté sur le support mobile lors d'un déplacement de ce dernier, et à recevoir des données de localisation, d'évaluation de distance et d'image transmises par les unités de localisation, de mesure de distance et d'acquisition d'image, ladite unité de commande comprenant un calculateur apte à effectuer un traitement de données reçues par l'unité de commande; le calculateur étant apte, à partir d'un traitement de données de localisation et d'évaluation de distance, à détecter la présence d'un objet dans la zone d'observation et à déterminer des positions dans un référentiel spatial d'une pluralité de points géométriques associés aux données d'évaluation de distance et correspondant à un contour apparent d'un objet détecté, le détecteur d'objet étant caractérisé en ce que le calculateur est en outre apte à: Another example of a hybrid detector is given in the article by JMLeiva, P.Martinez, EJPerez, C.Urdiales and F.Sandoval: "3D Reconstruction of a static indoor environment by fusion of sonar and video data", in " SIRS'2001: Proceedings of the 9th International Symposium on Intelligent Robotic Systems ", p.179-188, Ed. LAAS-CNRS, Toulouse, France, ISBN 2-907801-01-5. This article discloses an object detection system mounted on a mobile robot on a floor within a room and which has sixteen sonar sensors and a monocular camera for recording calibrated images of the environment. This system also makes it possible to manufacture a 3D model of the environment from the sonar data in the following way: the sonar data coming from the sensors are accumulated in a conventional way in a 2D map of probability of occupation which is then used to manufacture a map 2D of the ground level environment by extracting (using specific software) the main 2D contour elements of the occupancy map; finally, a 3D model of the environment is constructed from the 2D soil map of the environment by extruding vertically from the ground the detected 2D contour elements (up to a certain height from the ground), which brings up 3D shapes. The system then uses the image data provided by the camera to locate the robot in the 3D model of the environment. Incidentally, the image data can also be used to improve the rendering of the 3D model from texture data of the walls of the part that is extracted from the image data by means of conventional software for processing such data to form a 2D texture map of the walls. Such a system, however, does not allow precise delineation of the contours in the three-dimensional space (3D) of a detected object, because the 3D model of the environment is essentially formed from the sonar data and the image data is used to specify the position of the robot in the virtual 3D environment. This system can therefore hardly be used for the evaluation of the collision risk of the robot with the detected objects because the 3D representation of the environment (at least at the object level) is not precise enough for the reasons indicated above. concerning the intrinsic limitations of measurements by echo analysis of a signal. DISCLOSURE OF THE INVENTION The object of the invention is to remedy the difficulties encountered by the devices and methods of the prior art. In particular, an object of the invention is to propose an object detector which is simple and able to be mounted on a mobile support in an environment (for example a robot or an automobile), that is to say which does not does not require the use of a large number of sensors for distance measurement by signal transmission and reception of their echoes, nor the use of complex image acquisition apparatus. The invention also aims at enabling an object detector to accurately determine the contours of an object detected from the echo of signals emitted by this detector, even if the signals are only transmitted by a single sensor. Another object of the invention is to propose an object detector able to accurately evaluate a risk of collision between a detector support and objects detected in the environment. The invention also aims at providing a parking assistance device for a vehicle that is capable of accurately detecting the presence of objects as well as the existence of a parking space for this vehicle. These objectives, as well as others, are achieved by means of an object detector adapted to be mounted on a mobile medium in an environment, comprising: (a) a location unit able to determine instantaneous location data of the detector by relative to the environment, and to deliver determined location data; (b) a distance measuring unit capable of determining an instantaneous distance value between the detector and an object in an environment observation zone from the echo of a signal sent to the observation zone , and delivering a corresponding distance evaluation data item; (c) an image acquisition unit capable of recording an instantaneous calibrated image of the viewing area and outputting image data of the recorded image; and (d) a control unit adapted to control a synchronized operation of the location, distance measuring and image acquisition units of the object detector mounted on the movable support during a displacement thereof, and receiving location, distance evaluation and image data transmitted by the location, distance measuring and image acquisition units, said control unit comprising a computer capable of performing a data processing received by the control unit; the calculator being able, from a location data processing and distance evaluation processing, to detect the presence of an object in the observation area and to determine positions in a spatial repository of a plurality of geometric points associated with the distance evaluation data and corresponding to an apparent contour of a detected object, the object detector being characterized in that the computer is furthermore capable of:

(i) délimiter dans le référentiel spatial une région bornée à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté dans la zone d'observation; (ii) délimiter dans le référentiel spatial une zone de transition au niveau d'un bord de la région bornée; et (iii) à partir d'un traitement d'au moins deux images de la zone de transition enregistrées et transmises par l'unité d'acquisition d'image, détecter au moins un élément géométrique d'extrémité associé à un contour d'extrémité de l'objet au niveau de la zone de transition, et déterminer une position dans le référentiel spatial de chaque élément géométrique d'extrémité détecté. Un tel détecteur utilise les données de mesure de distance à un objet par réflexion d'ondes et les données de localisation du détecteur, à un instant donné, pour effectuer une première détermination des positions dans l'espace 3D d'éléments de contour d'un objet détecté. Cette première détermination est déjà relativement précise car elle ne porte que sur des éléments de contour apparent (en ce qui concerne les ondes réfléchies), c'est-à-dire pour lesquels il n'y a pas de flou lié à la présence d'un bord et d'une région de transition correspondante. Le détecteur selon l'invention utilise alors les positions de ces éléments de contour apparent pour délimiter une région bornée de l'espace 3D qui contient ces éléments de contour apparent de l'objet, et qui correspond donc à une région de corps de l'objet (par exemple, une partie compacte de l'objet). Cette région bornée de l'espace 3D est donc aussi délimitée avec une bonne précision, de même qu'un bord de cette région. Le détecteur selon l'invention permet donc de définir une région de l'espace à partir des mesures de distance qui présentent un bonne fiabilité. Par conséquent, la zone de transition qui borde la région bornée peut elle aussi être située dans l'espace 3D avec une bonne précision. Ensuite, le détecteur selon l'invention utilise les données d'image là où elles sont les plus pertinentes pour délimiter avec précision les contour d'extrémité de l'objet, c'est-à-dire pour achever de délimiter de façon précise la forme spatiale de l'objet détecté (du moins, pour sa partie détectable par réflexion d'ondes). En effet, le traitement de deux images (au moins) calibrées de la zone de transition (au moyen de procédés classiques de traitement d'image; voir par exemple la demande de brevet FR 2 853 121 Al) permet de situer dans l'espace 3D des éléments de contour d'extrémité de l'objet avec un très bonne précision. La fusion des données issues de l'unité de mesure de distance et des données d'image selon l'invention permet donc de délimiter de manière très précise et fiable les bords d'objet tout en mettant en oeuvre un détecteur de structure simple: par exemple, dans le cas de mesures de distances par capteur sonar, un seul capteur suffit, et aussi une seule caméra suffit aussi pour l'acquisition des données d'image. Toutefois, il est bien sûr possible d'utiliser plusieurs caméras ou bien une paire de caméras d'un dispositif de stéréovision (dans ce dernier cas les deux images de la zone de transition sont prises à un même instant au lieu d'être prises à des instants consécutifs lorsqu'il n'y a qu'une caméra). De même, il est aussi possible d'utiliser plusieurs capteurs pour la mesure des distances afin d'améliorer la précision. L'unité de localisation du détecteur selon l'invention peut, par exemple, être un odomètre, ou un émetteur/récepteur GPS (de l'anglais "Global Positioning System"), ou encore un dispositif qui est en liaison avec des balises de positionnement disposées dans l'environnement. Le détecteur d'objet selon l'invention exploite donc de manière optimale les possibilités de chaque capteur pour la mesure de distances par écho (qui sont faciles à utiliser, peu coûteux et dont l'exploitation des mesures est simple et rapide) et de l'unité d'acquisition d'image, cette dernière n'étant utilisée que là où elle est vraiment nécessaire à la précision, c'est-à-dire pour observer une région limitée à la zone de transition (alors que l'exploitation de données d'image pour tout l'environnement serait beaucoup plus lourde à mettre en œuvre et ne permettrait éventuellement pas un traitement en temps réel). L'unité de mesure de distance selon l'invention peut mettre en oeuvre divers types d'ondes: cette unité peut en effet utiliser des ondes acoustiques (comme par exemple un capteur sonar) ou bien des ondes électromagnétiques (comme par exemple un capteur laser ou encore un capteur de type radar). Dans le détecteur d'objet selon l'invention, la région bornée délimitée par le calculateur peut avoir un certain volume. Cependant, il est avantageux que cette région bornée se réduise à une simple portion de surface bornée (correspondant à une "face apparente" de l'objet détecté, par exemple). Cette portion de surface peut être plane, plane par morceaux ou bien présenter un courbure. (i) delimiting in the spatial reference a bounded region from the determined positions of the geometric points corresponding to the apparent contour of the object detected in the observation zone; (ii) delimiting in the spatial repository a transition zone at an edge of the bounded region; and (iii) from a processing of at least two images of the transition area recorded and transmitted by the image acquisition unit, detecting at least one end geometric element associated with a contour of end of the object at the transition area, and determine a position in the spatial repository of each detected end geometric element. Such a detector uses the distance measurement data to an object by reflection of waves and the location data of the detector, at a given moment, to make a first determination of the positions in the 3D space of contour elements of a detected object. This first determination is already relatively precise because it relates only to elements of apparent contour (as regards the reflected waves), that is to say for which there is no blur related to the presence of an edge and a corresponding transition region. The detector according to the invention then uses the positions of these apparent contour elements to delimit a bounded region of the 3D space which contains these apparent contour elements of the object, and which therefore corresponds to a body region of the object (for example, a compact part of the object). This bounded region of 3D space is thus also delimited with good precision, as well as an edge of this region. The detector according to the invention therefore makes it possible to define a region of the space from distance measurements which have good reliability. Therefore, the transition zone bordering the bounded region can also be located in 3D space with good accuracy. Next, the detector according to the invention uses the image data where it is most relevant to precisely delimit the end contour of the object, that is to say to complete delimit accurately the spatial shape of the detected object (at least for its detectable part by wave reflection). Indeed, the processing of two (at least) calibrated images of the transition zone (using conventional image processing methods, see for example the patent application FR 2 853 121 A1) makes it possible to locate in space 3D end contour elements of the object with very good accuracy. The merging of the data from the distance measurement unit and the image data according to the invention makes it possible to delimit the object edges in a very precise and reliable manner while using a simple structure detector: For example, in the case of sonar sensor distance measurements, a single sensor is sufficient, and also a single camera is also sufficient for the acquisition of the image data. However, it is of course possible to use several cameras or a pair of cameras of a stereovision device (in the latter case the two images of the transition zone are taken at the same time instead of being taken at consecutive moments when there is only one camera). Similarly, it is also possible to use several sensors for measuring distances to improve accuracy. The locating unit of the detector according to the invention may, for example, be an odometer, or a transmitter / receiver GPS (of the English "Global Positioning System"), or a device that is in connection with beacons of positioning arranged in the environment. The object detector according to the invention therefore optimally exploits the possibilities of each sensor for measuring echo distances (which are easy to use, inexpensive and whose operation of measurements is simple and fast) and the image acquisition unit, the latter being used only where it is really necessary for precision, that is to say to observe a region limited to the transition zone (whereas the exploitation of image data for the entire environment would be much heavier to implement and would not possibly allow real-time processing). The distance measuring unit according to the invention can implement various types of waves: this unit can indeed use acoustic waves (as for example a sonar sensor) or electromagnetic waves (such as for example a laser sensor or a radar type sensor). In the object detector according to the invention, the bounded region delimited by the computer can have a certain volume. However, it is advantageous for this bounded region to be reduced to a single bounded surface portion (corresponding to an "apparent face" of the detected object, for example). This surface portion may be flat, flat piecewise or have a curvature.

De même, dans le détecteur d'objet selon l'invention, le calculateur peut délimiter une zone de transition qui a un certain volume (par exemple ayant la forme d'une boîte). Cependant, il est avantageux du point de vue des calculs à effectuer de se limiter ensuite à une portion de surface de transition (qui peut être plane, plane par morceaux ou bien présenter une courbure). Pour cela, le calculateur est apte à déterminer une portion de surface de transition incluse dans la zone de transition à partir de la position déterminée dans le référentiel spatial d'au moins un élément géométrique d'extrémité détecté. La position de cette portion de surface de transition est donc très précise car déterminée à partir d'un traitement d'images (au moins deux images calibrées). Cette portion de surface de transition peut par exemple avantageusement constituer une surface de bord d'un contour non apparent d'un objet détecté. Il est aussi avantageux d'avoir à la fois une région bornée réduite à une portion de surface bornée et une zone de transition dans laquelle est déterminée une portion de surface de transition. En effet, la portion de surface de transition peut avantageusement représenter un bord qui vient couper la surface bornée, délimitant ainsi un contour d'extrémité d'objet détecté avec une grande précision. Similarly, in the object detector according to the invention, the computer can delimit a transition zone that has a certain volume (for example having the shape of a box). However, it is advantageous from the point of view of the calculations to be made to be limited thereafter to a transition surface portion (which may be flat, piecewise flat or have a curvature). For this, the computer is able to determine a transition surface portion included in the transition zone from the position determined in the spatial reference of at least one detected end geometric element. The position of this transition surface portion is therefore very precise because determined from an image processing (at least two calibrated images). This transition surface portion may for example advantageously constitute an edge surface of an unobtrusive contour of a detected object. It is also advantageous to have both a bounded region reduced to a bounded area portion and a transition area in which a transition area portion is determined. Indeed, the transition surface portion may advantageously represent an edge that intersects the bounded surface, thus delimiting a detected object end contour with high accuracy.

Dans une variante avantageuse des modes de réalisation de l'invention décrits plus haut, le calculateur est apte à déterminer une représentation spatiale de la forme de l'objet détecté à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté et de la position déterminée de chaque élément géométrique d'extrémité détecté correspondant. Ainsi, le détecteur selon l'invention peut-il modéliser avec précision des formes d'objets détectés dans l'environnement grâce à la précision sur la position des contours d'objet dans l'espace qui résulte de la combinaison selon l'invention des données de mesure de distance par réflexion d'ondes et des données d'images complémentaires. Le calculateur peut en outre être apte à détecter la présence d'un emplacement libre d'objet à partir de la représentation spatiale de la forme de chaque objet détecté dans la zone d'observation. Le calculateur peut aussi être apte à évaluer les dimensions de l'emplacement libre ainsi détecté. Le détecteur d'objet selon l'invention permet ainsi de tirer parti de la bonne précision de la représentation spatiale des formes des objets détectés pour détecter de façon fiable des emplacements libres d'objets et estimer aussi avec une bonne précision les dimensions de ces emplacements libres. In an advantageous variant of the embodiments of the invention described above, the computer is able to determine a spatial representation of the shape of the object detected from the determined positions of the geometric points corresponding to the apparent contour of the detected object. and the determined position of each corresponding detected end geometric element. Thus, the detector according to the invention can accurately model shapes of objects detected in the environment by virtue of the accuracy of the position of the object contours in the space resulting from the combination according to the invention of the wave reflection distance measurement data and complementary image data. The computer may further be able to detect the presence of an object free location from the spatial representation of the shape of each object detected in the observation area. The computer may also be able to evaluate the dimensions of the free location thus detected. The object detector according to the invention thus makes it possible to take advantage of the good accuracy of the spatial representation of the shapes of the objects detected in order to reliably detect free locations of objects and also to estimate with a good precision the dimensions of these locations. free.

D'ailleurs, dans une autre variante, la précision sur les positions des contours des objets autorisée par l'invention est utilisée par le Moreover, in another variant, the accuracy of the positions of the contours of the objects authorized by the invention is used by the

calculateur d'un détecteur d'objet selon l'une quelconques des variantes précédentes pour évaluer un risque de collision entre le support mobile sur lequel est monté le détecteur et un objet détecté dans la zone d'observation à partir des données de localisation, des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté et de la position déterminée de chaque élément géométrique d'extrémité détecté correspondant. Le risque de collision avec un objet détecté peut, par exemple, être évalué à partir de données de distance calculées dans le référentiel spatial entre des éléments de contour (apparent ou d'extrémité) de cet objet et le support sur lequel est monté le détecteur d'objet, en tenant compte du déplacement du support au moyen des données de localisation fournies par l'unité de localisation. L'invention fournit donc la possibilité d'utiliser le détecteur d'objet dans un dispositif anti-collision fiable. Dans un autre variante des dispositifs précédents, une unité de communication est connectée à l'unité de commande et est apte à recevoir et à traiter des données relatives à un objet détecté dans la zone d'observation et à transmettre les données traitées sous forme de données audio à un moyen de communication audio ou sous forme de données vidéo à un moyen de communication vidéo. De cette façon un opérateur (qui peut se trouver au niveau du détecteur ou bien être distant) peut être informé (par exemple via un haut-parleur ou via un écran de contrôle) de la présence d'objets dans l'environnement ou même visualiser sur un écran des données fiables de contour des objets. an object detector calculator according to any one of the preceding variants for evaluating a risk of collision between the mobile support on which the detector is mounted and an object detected in the observation zone from the location data, determined positions of the geometric points corresponding to the apparent contour of the detected object and the determined position of each corresponding detected end geometric element. The risk of collision with a detected object may, for example, be evaluated from distance data calculated in the spatial reference between contour elements (apparent or end) of this object and the support on which the detector is mounted. of object, taking into account the displacement of the support by means of the location data provided by the locating unit. The invention thus provides the possibility of using the object detector in a reliable anti-collision device. In another variant of the above devices, a communication unit is connected to the control unit and is able to receive and process data relating to a detected object in the observation zone and to transmit the processed data in the form of audio data to an audio communication means or as video data to a video communication means. In this way an operator (who can be at the detector or be remote) can be informed (for example via a speaker or via a control screen) of the presence of objects in the environment or even view on a screen reliable data outline objects.

Selon un autre aspect de l'invention, l'unité de communication selon les deux précédentes variantes du détecteur d'objet est en outre apte à recevoir et à traiter des données relatives à une évaluation de risque de collision avec un objet détecté dans la zone d'observation et à transmettre les données traitées sous forme de données audio au moyen de communication audio ou sous forme de données vidéo au moyen de communication vidéo. Une application importante du détecteur selon l'invention concerne l'assistance au parcage des véhicules. Dans ce cas, le support mobile est un véhicule apte à se déplacer par rapport à un sol de l'environnement, les données de localisation, d'évaluation de distance et d'image étant déterminées au cours d'un déplacement du véhicule par rapport au sol. Lorsque le détecteur d'objet correspond en outre à une variante selon laquelle la région bornée déterminée par le calculateur est une portion de surface bornée et la zone de transition déterminée par le calculateur est une portion de surface de transition, il est alors avantageux que la portion de surface bornée soit sensiblement verticale par rapport au sol, que la portion de surface de transition coupe la portion de surface bornée au niveau d'un bord sensiblement vertical par rapport au sol de celle-ci, et soit sensiblement verticale par rapport au sol et sensiblement transverse à une direction de déplacement du véhicule. De cette façon, un objet détecté, par exemple un autre véhicule en stationnement, pourra être modélisé simplement dans l'espace (par exemple, sensiblement sous la forme d'un boîte posée sur le sol dont des parois correspondent à la surface bornée et à la surface de transition), tout en autorisant par exemple une détermination précise d'un risque de collision avec l'objet ou une évaluation précise des dimensions d'une place de parc (pour savoir si le support mobile peut se parquer sur cet emplacement). Il est d'ailleurs avantageux que la portion de surface bornée s'étende en outre dans une direction longitudinale, sensiblement parallèle à la direction de déplacement du véhicule sur lequel est monté le détecteur d'objet. Le calculateur peut aussi être apte à délivrer une information indiquant si l'emplacement libre détecté est suffisant pour parquer le véhicule sous forme de données audio à un dispositif de communication audio ou sous forme de données vidéo à un dispositif de communication vidéo (ces dispositifs peuvent correspondre aux moyens de communication audio ou vidéo mentionnés plus haut dans certaines variantes). Selon une autre variante de l'invention concernant l'assistance au parcage d'un véhicule, l'unité de commande du détecteur d'objet est en outre apte à transmettre des données traitées par le calculateur à un dispositif de contrôle du mouvement du véhicule. En effet, la précision dans la détection et la modélisation d'objet du détecteur d'objet selon l'invention autorise l'utilisation des données traitées par le calculateur par un dispositif de contrôle du mouvement du véhicule qui peut, par exemple, être activé pour le parcage automatique du véhicule sur un emplacement libre suffisant détecté par le détecteur d'objet. Le dispositif de contrôle du mouvement du véhicule peut aussi être apte à réagir à une information de risque de collision évalué par le détecteur d'objet selon l'invention et transmise par l'unité de commande. According to another aspect of the invention, the communication unit according to the two previous variants of the object detector is further able to receive and process data relating to a risk assessment of collision with an object detected in the zone. observing and transmitting the processed data as audio data by means of audio communication or as video data by means of video communication. An important application of the detector according to the invention relates to vehicle parking assistance. In this case, the mobile support is a vehicle able to move relative to a soil of the environment, the location, distance evaluation and image data being determined during a movement of the vehicle relative to on the ground. When the object detector furthermore corresponds to a variant in which the bounded region determined by the computer is a bounded surface portion and the transition zone determined by the computer is a transition surface portion, it is then advantageous if the portion of bounded surface is substantially vertical with respect to the ground, that the transition surface portion intersects the bounded surface portion at a substantially vertical edge with respect to the ground thereof, and is substantially vertical with respect to the ground and substantially transverse to a direction of travel of the vehicle. In this way, a detected object, for example another parked vehicle, can be modeled simply in space (for example, substantially in the form of a box placed on the ground whose walls correspond to the bounded surface and to the transition surface), while allowing for example a precise determination of a risk of collision with the object or an accurate evaluation of the dimensions of a parking space (to know if the mobile support can park on this site) . It is also advantageous that the bounded surface portion further extends in a longitudinal direction, substantially parallel to the direction of movement of the vehicle on which is mounted the object detector. The computer may also be capable of delivering information indicating whether the detected free location is sufficient to park the vehicle in the form of audio data to an audio communication device or in the form of video data to a video communication device (these devices may correspond to the audio or video communication means mentioned above in certain variants). According to another variant of the invention relating to the parking assistance of a vehicle, the control unit of the object detector is furthermore capable of transmitting data processed by the computer to a device for controlling the movement of the vehicle. . Indeed, the accuracy in object detection and modeling of the object detector according to the invention allows the use of data processed by the computer by a vehicle motion control device which can, for example, be activated. for the automatic parking of the vehicle on a sufficient free location detected by the object detector. The device for controlling the movement of the vehicle may also be able to react to a collision risk information evaluated by the object detector according to the invention and transmitted by the control unit.

Bien sûr l'invention porte aussi sur une méthode de détection d'objet qui correspond à chacune des variantes ci-dessus mentionnées du détecteur d'objet selon l'invention. En particulier, l'invention concerne une méthode de détection d'objet au moyen d'un détecteur d'objet apte à être monté sur un support mobile dans un environnement, le détecteur comprenant: une unité de localisation apte à déterminer des données de localisation instantanée du détecteur par rapport à l'environnement, et à délivrer des données de localisation déterminées; une unité de mesure de distance apte à déterminer une valeur instantanée de distance entre le détecteur et un objet dans une zone d'observation de l'environnement à partir de l'écho d'un signal envoyé vers la zone d'observation, et à délivrer une donnée d'évaluation de distance correspondante; une unité d'acquisition d'image apte à enregistrer une image calibrée instantanée de la zone d'observation et à délivrer des données d'image de l'image enregistrée; et une unité de commande apte à contrôler un fonctionnement synchronisé des unités de localisation, de mesure de distance et d'acquisition d'image du détecteur d'objet monté sur le support mobile lors d'un déplacement de ce dernier, et à recevoir des données de localisation, d'évaluation de distance et d'image transmises par les unités de localisation, de mesure de distance et d'acquisition d'image, ladite unité de commande comprenant un calculateur apte à effectuer un traitement de données reçues par l'unité de commande; le calculateur étant apte, à partir d'un traitement de données de localisation et d'évaluation de distance, à détecter la présence d'un objet dans la zone d'observation et à déterminer des positions dans un référentiel spatial d'une pluralité de points géométriques associés aux données d'évaluation de distance et correspondant à un contour apparent d'un objet détecté, ladite méthode étant caractérisée en ce qu'elle 10 comporte les étapes suivantes consistant, au moyen du calculateur, à: délimiter dans le référentiel spatial une région bornée à partir des positions déterminées des points géométriques correspondant au contour apparent de 15 l'objet détecté dans la zone d'observation; délimiter dans le référentiel spatial une zone de transition au niveau d'un bord de la région bornée; et à partir d'un traitement d'au moins deux images de la zone de transition enregistrées et transmises par 20 l'unité d'acquisition d'image, détecter au moins un élément géométrique d'extrémité associé à un contour d'extrémité de l'objet au niveau de la zone de transition, et déterminer une position dans le référentiel spatial de chaque élément géométrique 25 d'extrémité détecté. En particulier, dans la méthode de détection d'objet selon l'invention la région bornée déterminée par le calculateur peut être une portion de surface bornée. Dans une variante de la méthode telle 30 que décrite plus haut, le calculateur détermine en outre une portion de surface de transition incluse dans la zone de transition à partir de la position déterminée dans le référentiel spatial d'au moins un élément géométrique d'extrémité détecté. Le calculateur peut aussi déterminer une représentation spatiale de la forme de l'objet détecté à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté et de la position déterminée de chaque élément géométrique d'extrémité détecté correspondant. En particulier, le calculateur peut détecter la présence d'un emplacement libre d'objet à partir de la représentation spatiale de la forme de chaque objet détecté dans la zone d'observation. Une fois l'emplacement détecté, le calculateur peut aussi évaluer la dimension de l'emplacement libre détecté. Of course, the invention also relates to an object detection method that corresponds to each of the above-mentioned variants of the object detector according to the invention. In particular, the invention relates to an object detection method by means of an object detector adapted to be mounted on a mobile support in an environment, the detector comprising: a location unit able to determine location data instantaneous detection of the detector relative to the environment, and to deliver determined location data; a distance measuring unit capable of determining an instantaneous distance value between the detector and an object in an environment observation zone from the echo of a signal sent to the observation zone, and delivering a corresponding distance evaluation data; an image acquisition unit adapted to record an instantaneous calibrated image of the viewing area and to output image data of the recorded image; and a control unit adapted to control a synchronized operation of the location, distance measuring and image acquisition units of the object detector mounted on the mobile support during a movement thereof, and to receive location, distance evaluation and image data transmitted by the location, distance measurement and image acquisition units, said control unit comprising a computer able to perform a data processing received by the control unit; the calculator being able, from a location data processing and distance evaluation processing, to detect the presence of an object in the observation area and to determine positions in a spatial repository of a plurality of geometric points associated with the distance evaluation data and corresponding to an apparent contour of a detected object, said method being characterized in that it comprises the following steps consisting, by means of the calculator, in: delimiting in the spatial repository a bounded region from the determined positions of the geometrical points corresponding to the apparent contour of the object detected in the observation zone; delimiting in the spatial repository a transition zone at an edge of the bounded region; and from a processing of at least two images of the transition area recorded and transmitted by the image acquisition unit, detecting at least one end geometric element associated with an end contour of the object at the transition zone, and determining a position in the spatial repository of each detected end geometric element. In particular, in the object detection method according to the invention the bounded region determined by the computer can be a bounded surface portion. In a variant of the method as described above, the computer further determines a transition surface portion included in the transition zone from the position determined in the spatial reference of at least one end geometric element. detected. The computer can also determine a spatial representation of the shape of the detected object from the determined positions of the geometric points corresponding to the apparent contour of the detected object and the determined position of each corresponding detected end geometric element. In particular, the computer can detect the presence of an object free location from the spatial representation of the shape of each object detected in the observation area. Once the location is detected, the computer can also evaluate the size of the detected free location.

Enfin, l'invention concerne également un support apte à se mouvoir dans un environnement (par exemple une automobile), caractérisé en ce qu'il est équipé d'un détecteur d'objet selon l'une quelconque des variantes mentionnées plus haut. En particulier, un tel support mobile est capable de se déplacer dans l'environnement avec un risque de collision très réduit du fait de la bonne précision du détecteur d'objet embarqué. D'autres caractéristiques et avantages de l'invention ressortiront de la description suivante de modes de réalisation particuliers, donnés à titre d'exemples, en référence aux dessins annexés.30 BRÈVE DESCRIPTION DES DESSINS La Figure 1 est un schéma illustrant la détection d'un véhicule à l'arrêt à l'aide d'un capteur sonar classique monté sur un véhicule mobile. Finally, the invention also relates to a support able to move in an environment (for example an automobile), characterized in that it is equipped with an object detector according to any one of the variants mentioned above. In particular, such a mobile support is able to move in the environment with a very low risk of collision due to the good accuracy of the on-board object detector. Other features and advantages of the invention will be apparent from the following description of particular embodiments, given by way of example, with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a diagram illustrating the detection of a stationary vehicle using a conventional sonar sensor mounted on a moving vehicle.

La Figure 2 est une vue de dessus d'une situation où un véhicule support en déplacement croise deux véhicules en stationnement les détecte et évalue un emplacement libre entre les deux véhicules selon un mode de réalisation de l'invention. Figure 2 is a top view of a situation where a moving support vehicle crosses two parked vehicles detects and evaluates a free location between the two vehicles according to one embodiment of the invention.

La Figure 3 est une vue en perspective associée à la situation représentée sur la Figure 2. Figure 3 is a perspective view associated with the situation shown in Figure 2.

La Figure 4 est un schéma illustrant une détermination de zone de transition par le calculateur selon un mode de réalisation de l'invention. EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS Un mode de réalisation particulier du détecteur d'objet selon l'invention est illustré sur la Figure 2, sur un exemple où le détecteur d'objet est monté sur un support qui est un véhicule (20) mobile dans une rue où stationnent un premier véhicule (15) et un second véhicule (17) (qui sont ici des objets à détecter). Le détecteur d'objet embarqué est ici utilisé pour détecter les véhicules en stationnement et la présence d'un emplacement libre (6) entre ces véhicules en stationnement afin d'y parquer le véhicule support (20). L'unité de localisation du détecteur d'objet est ici un odomètre classique du véhicule support (non représenté), tel que par exemple celui décrit dans la demande de brevet FR 2 891 647. Comme mentionné plus haut, le détecteur d'objet comporte une unité de commande avec un calculateur (non représentés). L'unité de mesure de distance du détecteur d'objet est ici un capteur sonar (22) monté à l'avant et sur un côté du véhicule support (20) (au niveau du pare-choc). Lorsque le véhicule support (20) avance dans la rue, le faisceau acoustique du capteur sonar (22) balaye un côté de la rue où se trouvent les véhicules en stationnement, qui correspond à une zone d'observation. Figure 4 is a diagram illustrating a transition zone determination by the computer according to one embodiment of the invention. DETAILED DESCRIPTION OF PARTICULAR EMBODIMENTS A particular embodiment of the object detector according to the invention is illustrated in FIG. 2, in an example where the object detector is mounted on a support which is a mobile vehicle (20). in a street where a first vehicle (15) and a second vehicle (17) are parked (which are objects to be detected here). The onboard object detector is used here to detect parked vehicles and the presence of a free location (6) between these parked vehicles to park the carrier vehicle (20). The locating unit of the object detector is here a conventional vehicle support odometer (not shown), such as for example that described in the patent application FR 2 891 647. As mentioned above, the object detector comprises a control unit with a calculator (not shown). The distance measuring unit of the object detector is here a sonar sensor (22) mounted at the front and on one side of the carrier vehicle (20) (at the bumper). When the carrier vehicle (20) advances in the street, the sound beam sonar sensor (22) scans one side of the street where parked vehicles, which corresponds to an observation area.

L'unité d'acquisition d'image est ici une caméra (21) montée à l'arrière du véhicule support (20) et qui enregistre des images calibrées d'un zone à l'arrière du véhicule support (20) (le calibrage est réalisé de manière classique, par exemple selon le procédé divulgué dans le brevet FR 2 853 121). Au cours du déplacement du véhicule support (20), les images enregistrées par la caméra (21) couvrent (au moins en partie) la zone d'observation balayée par le capteur sonar (22). The image acquisition unit is here a camera (21) mounted at the rear of the carrier vehicle (20) and which records calibrated images of an area at the rear of the carrier vehicle (20) (the calibration is carried out conventionally, for example according to the process disclosed in patent FR 2 853 121). During the movement of the support vehicle (20), the images recorded by the camera (21) cover (at least partially) the observation area scanned by the sonar sensor (22).

L'unité de commande mémorise (dans une mémoire du calculateur) les données de localisation fournies par l'odomètre, et le calculateur utilise ces données notamment pour sélectionner des images relatives à une zone de transition. Classiquement, les données de mesure brutes acquises par le capteur sonar (22) se présentent sous la forme d'un information de temps (instant de la mesure) et d'un information de distance d'un écho sonar. Ces données brutes sont ensuite converties par le calculateur en points sonar dans un référentiel 3D lié au véhicule support (20) en utilisant les données de localisation fournies par l'odomètre (qui permettent de connaître la position et l'orientation du véhicule support (20), et donc du capteur sonar (22), au cours du temps). Le calculateur traite ensuite les données de points sonar pour détecter la présence d'un véhicule en stationnement dans la zone d'observation et pour déterminer des positions dans le référentiel 3D d'une pluralité de points géométriques correspondant à un contour apparent d'un véhicule détecté. Il existe de nombreux logiciels de traitement d'images capables de réaliser cette opération (voir par exemple le brevet US 6,449,215). Dans l'exemple considéré ici, aussi illustré sur la Figure 3, les points sonar sont regroupés de manière itérative, au fur et à mesure que des points sonar sont acquis, en agrégats qui correspondent à trois types de données. Un premier type de données représentant un ensemble de points correspondant à des points sonar (1) relatifs à un contour apparent d'un véhicule en stationnement détecté, par exemple un côté du véhicule (17), au cours du déplacement du véhicule support (20), c'est-à-dire des points sonar correspondant à une portion de face longitudinale du véhicule détecté (la densité de points sur l'enregistrement sonar est donc sensiblement uniforme pour ce contour apparent de l'objet détecté), cette face longitudinale étant approximée par une portion de face plane (14) verticale par rapport au sol dans le référentiel 3D (dans le cas où le véhicule détecté est le véhicule (15), la portion de face longitudinale plane verticale est alors la face (2)). On notera que cette portion de face longitudinale plane (14) correspond à une région bornée délimitée par le calculateur. Pour ce premier ensemble de points, la distance entre deux points sonar acquis successivement ne doit pas dépasser une certaine valeur seuil. Un deuxième type de données représentant un ensemble de points qui correspond à des points sonar relatifs à une région de transition (12) du véhicule (17) détecté: la densité de points sur l'enregistrement sonar présente alors un fort gradient comme indiqué plus haut, la distance entre points sonar successifs s'accroît donc). The control unit stores (in a memory of the computer) the location data provided by the odometer, and the computer uses these data in particular to select images relating to a transition zone. Conventionally, the raw measurement data acquired by the sonar sensor (22) is in the form of a time information (time of measurement) and a distance information of a sonar echo. This raw data is then converted by the computer into sonar points in a 3D reference system linked to the support vehicle (20) using the location data provided by the odometer (which make it possible to know the position and orientation of the support vehicle (20). ), and thus the sonar sensor (22), over time). The computer then processes the sonar point data to detect the presence of a parked vehicle in the observation area and to determine positions in the 3D reference frame of a plurality of geometric points corresponding to an apparent contour of a vehicle detected. There are many image processing software capable of performing this operation (see for example US Patent 6,449,215). In the example considered here, also illustrated in FIG. 3, the sonar points are grouped iteratively, as sonar points are acquired, into aggregates that correspond to three types of data. A first type of data representing a set of points corresponding to sonar points (1) relating to an apparent contour of a detected parked vehicle, for example a side of the vehicle (17), during the movement of the carrier vehicle (20). ), that is to say sonar points corresponding to a longitudinal face portion of the detected vehicle (the density of points on the sonar record is therefore substantially uniform for this apparent contour of the detected object), this longitudinal face being approximated by a plane face portion (14) vertical to the ground in the 3D reference frame (in the case where the vehicle detected is the vehicle (15), the vertical plane longitudinal face portion is then the face (2)) . Note that this flat longitudinal face portion (14) corresponds to a bounded region delimited by the calculator. For this first set of points, the distance between two successively acquired sonar points must not exceed a certain threshold value. A second type of data representing a set of points corresponding to sonar points relative to a transition region (12) of the detected vehicle (17): the density of points on the sonar recording then has a strong gradient as indicated above , the distance between successive sonar points increases therefore).

Cette région de transition (12) est située dans une région (19) de l'espace correspondant ici à l'avant du véhicule (17) détecté. Il y a donc deux zones de transitions distinctes associées à chaque véhicule détecté et correspondant aux parties d'extrémité avant et arrière de chaque véhicule. Enfin, un troisième type de données qui correspond à une région de la zone d'observation dans laquelle aucun point sonar n'a été enregistré par le capteur sonar, ce qui indique une absence d'objet réfléchissant les ondes dans cette région ou bien que l'objet est situé au-delà de la portée maximale du capteur sonar. Ce troisième type de données correspond donc à une région de l'espace libre d'objet, au moins sur une certaine profondeur (correspondant à la portée du capteur sonar) jusqu'à une portion de surface limite qui peut être représentée par un plan limite (8) vertical par rapport au sol dans le référentiel 3D. Un espace situé entre le véhicule support (20) et le plan limite (8) correspond alors à un emplacement libre d'objet. Au cours de l'avancée du véhicule support dans l'environnement (ici, la rue), les points sonar acquis sont donc associés par le calculateur à des ensembles de points consécutifs qui correspondent soit à une face longitudinale (contour apparent, ensemble du premier type), soit à une région de transition à l'avant (19) ou à l'arrière (18) d'un véhicule croisé (ensemble du deuxième type), soit à une région libre d'objet (données du troisième type). Dans le présent mode de réalisation particulier de l'invention, le calculateur délimite une zone de transition en bordure d'une face longitudinale plane (14), par exemple à l'avant du véhicule (17), sous la forme d'une boîte de filtrage (12) de forme parallélépipédique. Dans ce cas, cette boîte de filtrage (12) sert de région frontière entre l'ensemble de points du premier type correspondant à la face longitudinale plane verticale (14) associée au véhicule (17) et l'ensemble de points du troisième type correspondant à un emplacement libre d'objet. La boîte de filtrage (12) a une extension transversale par rapport à la face longitudinale (14) jusqu'à une certaine profondeur correspondant à la surface limite (8). La largeur de la boîte de filtrage (12) (dans le sens longitudinal) est calculée à partir de la valeur du gradient de densité de points sur l'enregistrement sonar correspondant. De manière similaire, une boîte de filtrage peut être définie pour l'arrière du véhicule (15), en bordure de la face longitudinale (2). This transition region (12) is located in a region (19) of the space corresponding here to the front of the vehicle (17) detected. There are therefore two distinct transition zones associated with each detected vehicle and corresponding to the front and rear end portions of each vehicle. Finally, a third type of data that corresponds to a region of the observation area in which no sonar point was recorded by the sonar sensor, indicating an absence of reflective object waves in this region or that the object is located beyond the maximum range of the sonar sensor. This third type of data therefore corresponds to a region of the object free space, at least over a certain depth (corresponding to the range of the sonar sensor) to a portion of the boundary surface that can be represented by a limit plane (8) vertical relative to the ground in the 3D repository. A space between the support vehicle (20) and the limit plane (8) then corresponds to an object free location. During the advance of the carrier vehicle in the environment (here, the street), the acquired sonar points are therefore associated by the computer to sets of consecutive points that correspond to either a longitudinal face (apparent contour, set of the first type), either at a transition region at the front (19) or at the rear (18) of a crossover vehicle (all of the second type), or at a free object region (data of the third type) . In the present particular embodiment of the invention, the computer defines a transition zone bordering a plane longitudinal face (14), for example at the front of the vehicle (17), in the form of a box. filtering device (12) of parallelepiped shape. In this case, this filtering box (12) serves as a border region between the set of points of the first type corresponding to the vertical plane longitudinal face (14) associated with the vehicle (17) and the set of points of the corresponding third type. at a free object location. The filter box (12) has a transverse extension with respect to the longitudinal face (14) to a certain depth corresponding to the boundary surface (8). The width of the filter box (12) (in the longitudinal direction) is calculated from the value of the dot density gradient on the corresponding sonar record. Similarly, a filter box can be defined for the rear of the vehicle (15), bordering the longitudinal face (2).

Lorsqu'une zone de transition est détectée et calculée (par exemple sous forme de boîte de filtrage) à partir des données sonar par le calculateur, celui-ci sélectionne dans les images calibrées enregistrées par la caméra (21) au moins deux images consécutives parmi celles qui correspondent à une vue de la boîte de filtrage associée à cette zone de transition. Le calculateur effectue alors un traitement conventionnel de ces images sélectionnées pour en extraire au moins un élément géométrique d'extrémité associé à un contour d'extrémité de l'objet au niveau de la zone de transition, et déterminer une position dans le référentiel 3D de chaque élément géométrique d'extrémité détecté. Les contours d'extrémité sont par exemple associés à la partie avant (19) du véhicule (17) (ils correspondent par exemple au pare-choc avant, à la calandre du véhicule). Les éléments géométriques de contour d'extrémité peuvent être des points, des segments, des lignes ou encore des morceaux de surface de la partie avant du véhicule (17) et sont situés dans la boîte de filtrage (12). Sur les Figures 3 et 4A sont représentés des points d'extrémité (11) qui sont ici les éléments géométriques de contour d'extrémité déterminés par le calculateur lors du traitement des images de la boîte de filtrage (12). Le calculateur détermine alors une portion de surface de transition incluse dans la zone de transition à partir de la position déterminée dans le référentiel 3D d'au moins un élément géométrique d'extrémité détecté. Ici, la portion de surface de transition est une face transverse plane (10) verticale par rapport au sol et orthogonale à la face longitudinale (14). Le calcul de la position de cette face transverse plane (10) se fait à partir d'un profil extrait des points d'extrémité (11) au moyen d'un histogramme (30) représenté sur la Figure 4B: l'axe horizontal (OX) de l'histogramme (30) indique des positions selon la largeur de la boîte de filtrage (12) et l'axe vertical correspond à un nombre de points d'extrémité (11) par unité de largeur de boîte de filtrage. Par exemple, une approximation par pondération linéaire permet au calculateur, à partir de l'histogramme (30), de déterminer avec précision une position dans l'espace 3D d'une portion de la face transverse plane (10) incluse dans la boîte de filtrage (12). Une autre méthode est d'utiliser le mode principal de l'histogramme (30) pour déterminer la position de la face transverse plane (10). De façon similaire, pour le véhicule (15), une portion de surface de transition est déterminée sous la forme d'une face transverse plane (3) verticale par rapport au sol et orthogonale à la face longitudinale (2). Il est clair que de cette façon le calculateur fournit une représentation dans le référentiel 3D de la forme des objets (véhicules) ou des espaces libres qui est très simple (blocs parallélépipédiques), peu coûteuse en temps de calcul, et néanmoins qui permet de déterminer avec précision l'emplacement occupé par chaque objet détecté. De plus, la largeur de la boîte de filtrage peut être corrigée à partir de la dispersion des points d'extrémité (11) de part et d'autre de la face transverse plane (10) pour gagner en précision sur l'évaluation de la largeur de la zone de transition. When a transition zone is detected and calculated (for example in the form of a filter box) from the sonar data by the computer, the latter selects in the calibrated images recorded by the camera (21) at least two consecutive images among those that correspond to a view of the filter box associated with this transition zone. The computer then performs a conventional processing of these selected images to extract at least one end geometric element associated with an end contour of the object at the transition zone, and determine a position in the 3D reference frame of each end geometric element detected. The end contours are for example associated with the front part (19) of the vehicle (17) (they correspond, for example, to the front bumper, to the vehicle grille). The end contour geometric elements may be dots, segments, lines or even surface pieces of the front part of the vehicle (17) and are located in the filter box (12). FIGS. 3 and 4A show end points (11) which are here the end contour geometrical elements determined by the computer during the image processing of the filter box (12). The computer then determines a transition surface portion included in the transition zone from the position determined in the 3D reference frame of at least one detected end geometric element. Here, the transition surface portion is a plane transverse face (10) vertical to the ground and orthogonal to the longitudinal face (14). The calculation of the position of this plane transverse face (10) is made from a profile extracted from the end points (11) by means of a histogram (30) represented in FIG. 4B: the horizontal axis ( OX) of the histogram (30) indicates positions according to the width of the filter box (12) and the vertical axis corresponds to a number of endpoints (11) per unit of filter box width. For example, a linear weighting approximation allows the computer, from the histogram (30), to accurately determine a position in the 3D space of a portion of the plane transverse face (10) included in the box. filtering (12). Another method is to use the main mode of the histogram (30) to determine the position of the planar transverse face (10). Similarly, for the vehicle (15), a transition surface portion is determined in the form of a plane transverse face (3) vertical to the ground and orthogonal to the longitudinal face (2). It is clear that in this way the calculator provides a representation in the 3D reference of the shape of the objects (vehicles) or free spaces which is very simple (parallelepiped blocks), inexpensive in computing time, and nevertheless which makes it possible to determine accurately the location occupied by each detected object. In addition, the width of the filter box can be corrected from the dispersion of the end points (11) on either side of the plane transverse face (10) to gain more precision on the evaluation of the width of the transition zone.

Ainsi, avec cette représentation simple par faces planes verticales de la forme des véhicules détectés, le calculateur peut facilement déterminer la position d'un coin (13) du véhicule (17) à l'intersection des faces longitudinales (14) et transverse (10). De cette façon, le véhicule détecté est mieux délimité dans l'espace et le risque d'accrochage au niveau d'un coin du véhicule lors d'une manœuvre de parcage s'en trouve diminué. Thus, with this simple representation by plane vertical faces of the shape of the detected vehicles, the computer can easily determine the position of a corner (13) of the vehicle (17) at the intersection of the longitudinal (14) and transverse (10) faces. ). In this way, the detected vehicle is better defined in the space and the risk of snagging at a corner of the vehicle during a parking maneuver is reduced.

Le calculateur peut aussi facilement déterminer de façon précise les dimensions de l'emplacement libre d'objet détecté entre les véhicules (17) et (15): il suffit de calculer la distance (16) entre les faces transverses correspondantes (10) et (3), et de tenir compte de la distance à laquelle se trouve le plan limite (8). Ce calcul peut d'ailleurs être affiné en tenant compte des largeurs (éventuellement corrigées comme indiqué plus haut) des boîtes de filtrage correspondant aux faces transverses. The calculator can also easily determine in a precise manner the dimensions of the object free location detected between the vehicles (17) and (15): it suffices to calculate the distance (16) between the corresponding transverse faces (10) and ( 3), and take into account the distance to which the limit plane (8) lies. This calculation can also be refined taking into account the widths (possibly corrected as indicated above) of the filter boxes corresponding to the transverse faces.

Le calculateur peut donc déterminer si un emplacement cible (6), dont les dimensions correspondent à celles du véhicule support (20), est effectivement disponible entre les véhicules détectés (17) et (15). Dans une variante du mode de réalisation de l'invention décrit ci-dessus, la représentation 3D de la forme des objets détectés peut aussi être transmise par l'unité de commande un écran vidéo à l'intérieur du véhicule support (20) pour permettre au conducteur de directement, et de façon intuitive, visualiser ces formes et décider des manœuvres à accomplir pour le parcage. The computer can therefore determine if a target location (6), whose dimensions correspond to those of the carrier vehicle (20), is actually available between the detected vehicles (17) and (15). In a variant of the embodiment of the invention described above, the 3D representation of the shape of the detected objects can also be transmitted by the control unit a video screen inside the carrier vehicle (20) to enable to the driver from directly, and intuitively, visualize these forms and decide the maneuvers to be done for the parking.

Il est aussi possible au calculateur de calculer un risque de collision entre le véhicule support (20) et les véhicules détectés (17) et (15) directement à partir de la représentation 3D de ces objets et des données de trajectoire du véhicule support (20) déduites des données de localisation instantanée fournies par l'odomètre. Une alarme correspondant à ce risque de collision peut aussi être transmise au conducteur du véhicule support via un moyen audio ou vidéo. Bien sûr, il est possible d'utiliser d'autres formes que les faces planes pour les faces longitudinales et transversales des véhicules détectés (des surfaces courbes, des primitives prédéfinies de formes d'objets etc....) , nécessitant toutefois des calculs plus sophistiqués. Pour gagner en précision, plusieurs capteurs sonar ou plusieurs caméras peuvent aussi être disposées sur le véhicule support, par exemple des caméras peuvent être montées à l'avant et à l'arrière du véhicule ou encore sur les côtés du véhicule. Dans le cas d'une application de l'invention dans le domaine de la robotique, il est possible d'utiliser une variante du détecteur selon l'invention qui est monté sur un robot, même lorsque ledit robot est fixe par rapport à l'environnent. Dans cette variante, la caméra est remplacée par un dispositif de stéréovision calibré. Il est alors possible au robot fixe de déterminer des contours d'objets mobiles détectés dans une zone d'observation de l'environnement car la stéréovision calibrée permet au calculateur du détecteur d'objet d'extraire des données 3D à partir de S deux prises de vues correspondant aux deux caméras du dispositif de stéréovision (de la même façon que dans le cas du véhicule considéré plus haut). 10 It is also possible for the calculator to calculate a collision risk between the support vehicle (20) and the detected vehicles (17) and (15) directly from the 3D representation of these objects and the trajectory data of the support vehicle (20). ) derived from the instantaneous location data provided by the odometer. An alarm corresponding to this risk of collision can also be transmitted to the driver of the support vehicle via audio or video means. Of course, it is possible to use other shapes than the flat faces for the longitudinal and transverse faces of the detected vehicles (curved surfaces, predefined primitives of object shapes, etc.), which nevertheless require calculations. more sophisticated. To gain precision, several sonar sensors or several cameras can also be arranged on the support vehicle, for example cameras can be mounted at the front and rear of the vehicle or on the sides of the vehicle. In the case of an application of the invention in the field of robotics, it is possible to use a variant of the detector according to the invention which is mounted on a robot, even when said robot is fixed relative to the robot. surround. In this variant, the camera is replaced by a calibrated stereovision device. It is then possible for the fixed robot to determine the contours of moving objects detected in an environment observation zone because the calibrated stereovision enables the object detector calculator to extract 3D data from S two taken views corresponding to the two cameras of the stereovision device (in the same way as in the case of the vehicle considered above). 10

Claims (23)

REVENDICATIONS 1. Détecteur d'objet apte à être monté sur un support 5 mobile (20) dans un environnement, comprenant: une unité de localisation apte à déterminer des données de localisation instantanée du détecteur par rapport à l'environnement, et à délivrer des données de localisation déterminées; 10 une unité de mesure de distance (22) apte à déterminer une valeur instantanée de distance entre le détecteur et un objet dans une zone d'observation de l'environnement à partir de l'écho d'un signal envoyé vers la zone d'observation, et à délivrer une donnée 15 d'évaluation de distance correspondante; une unité d'acquisition d'image (21) apte à enregistrer une image calibrée instantanée de la zone d'observation et à délivrer des données d'image de l'image enregistrée; et 20 une unité de commande apte à contrôler un fonctionnement synchronisé des unités de localisation, de mesure de distance et d'acquisition d'image du détecteur d'objet monté sur le support mobile lors d'un déplacement de ce dernier, et à recevoir des données de 25 localisation, d'évaluation de distance et d'image transmises par les unités de localisation, de mesure de distance et d'acquisition d'image, ladite unité de commande comprenant un calculateur apte à effectuer un traitement de données reçues par l'unité de commande; 30 le calculateur étant apte, à partir d'un traitement de données de localisation et d'évaluation de distance,à détecter la présence d'un objet (17) dans la zone d'observation et à déterminer des positions dans un référentiel spatial d'une pluralité de points géométriques (1) associés aux données d'évaluation de distance et correspondant à un contour apparent d'un objet détecté, caractérisé en ce que le calculateur est apte à: délimiter dans le référentiel spatial une région bornée (14) à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté dans la zone d'observation; délimiter dans le référentiel spatial une zone de transition (12) au niveau d'un bord de la région bornée; et à partir d'un traitement d'au moins deux images de la zone de transition (12) enregistrées et transmises par l'unité d'acquisition d'image, détecter au moins un élément géométrique d'extrémité (11) associé à un contour d'extrémité de l'objet au niveau de la zone de transition, et déterminer une position dans le référentiel spatial de chaque élément géométrique d'extrémité détecté. An object detector adapted to be mounted on a mobile medium (20) in an environment, comprising: a location unit adapted to determine instantaneous location data of the detector relative to the environment, and to deliver data determined location; A distance measuring unit (22) adapted to determine an instantaneous distance value between the detector and an object in an environment observation area from the echo of a signal sent to the zone of observation, and to issue a corresponding distance evaluation data; an image acquisition unit (21) adapted to record an instantaneous calibrated image of the viewing area and to output image data of the recorded image; and a control unit adapted to control a synchronized operation of the location, distance measuring and image acquisition units of the object detector mounted on the movable support during a movement thereof, and to receive location, distance evaluation and image data transmitted by the location, distance measuring and image acquisition units, said control unit comprising a computer adapted to perform data processing received by the control unit; The calculator being adapted, from a location data processing and distance evaluation, to detect the presence of an object (17) in the observation area and to determine positions in a spatial reference frame; a plurality of geometrical points (1) associated with the distance evaluation data and corresponding to an apparent contour of a detected object, characterized in that the computer is able to: delimit in the spatial reference a bounded region (14) from the determined positions of the geometrical points corresponding to the apparent contour of the object detected in the observation zone; delimiting in the spatial repository a transition zone (12) at an edge of the bounded region; and from a processing of at least two images of the transition zone (12) recorded and transmitted by the image acquisition unit, detecting at least one end geometric element (11) associated with a end edge of the object at the transition zone, and determine a position in the spatial repository of each detected end geometric element. 2. Détecteur selon la revendication 1, dans lequel le 25 signal utilisé par l'unité de mesure de distance est un signal électromagnétique ou un signal acoustique. The detector of claim 1, wherein the signal used by the distance measuring unit is an electromagnetic signal or an acoustic signal. 3. Détecteur selon la revendication 1 ou 2, dans lequel la région bornée déterminée par le calculateur est une 30 portion de surface bornée. The detector of claim 1 or 2, wherein the bounded region determined by the computer is a bounded area portion. 4. Détecteur selon l'une quelconque des revendications 1 à 3, dans lequel le calculateur est apte à déterminer une portion de surface de transition (10) incluse dans la zone de transition (12) à partir de la position déterminée dans le référentiel spatial d'au moins un élément géométrique d'extrémité détecté. 4. Detector according to any one of claims 1 to 3, wherein the computer is adapted to determine a portion of the transition surface (10) included in the transition zone (12) from the position determined in the spatial reference system. at least one detected end geometric element. 5. Détecteur selon l'une quelconque des revendications 1 à 4, dans lequel le calculateur est apte à déterminer une représentation spatiale de la forme de l'objet détecté à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté et de la position déterminée de chaque élément géométrique d'extrémité détecté correspondant. 5. Detector according to any one of claims 1 to 4, wherein the computer is adapted to determine a spatial representation of the shape of the detected object from the determined positions of the geometric points corresponding to the apparent contour of the detected object. and the determined position of each corresponding detected end geometric element. 6. Détecteur selon la revendication 5, dans lequel le calculateur est apte à détecter la présence d'un emplacement libre d'objet à partir de la représentation spatiale de la forme de chaque objet détecté dans la zone d'observation. 6. Detector according to claim 5, wherein the computer is adapted to detect the presence of an object free location from the spatial representation of the shape of each object detected in the observation area. 7. Détecteur selon la revendication 6, dans lequel le calculateur est apte à évaluer une dimension de l'emplacement libre détecté. 7. Detector according to claim 6, wherein the computer is able to evaluate a dimension of the detected free location. 8. Détecteur selon l'une quelconque des revendications 1 à 7, dans lequel le calculateur est apte à évaluer un risque de collision entre le support mobile sur lequel est monté le détecteur et un objet détecté dans la zone d'observation à partir des données de localisation, des positions déterminées des points géométriquescorrespondant au contour apparent de l'objet détecté et de la position déterminée de chaque élément géométrique d'extrémité détecté correspondant. 8. Detector according to any one of claims 1 to 7, wherein the computer is adapted to assess a risk of collision between the mobile support on which is mounted the detector and an object detected in the observation area from the data. location, determined positions of the geometric points corresponding to the apparent contour of the detected object and the determined position of each corresponding detected end geometric element. 9. Détecteur selon l'une quelconque des revendications 1 à 8, comprenant en outre une unité de communication connectée à l'unité de commande et apte à recevoir et à traiter des données relatives à un objet détecté dans la zone d'observation et à transmettre les données traitées sous forme de données audio à un moyen de communication audio ou sous forme de données vidéo à un moyen de communication vidéo. 9. Detector according to any one of claims 1 to 8, further comprising a communication unit connected to the control unit and adapted to receive and process data relating to a detected object in the observation area and to transmitting the processed data as audio data to an audio communication means or as video data to a video communication means. 10. Détecteur selon les revendication 8 et 9, dans lequel l'unité de communication est en outre apte à recevoir et à traiter des données relatives à une évaluation de risque de collision avec un objet détecté dans la zone d'observation et à transmettre les données traitées sous forme de données audio au moyen de communication audio ou sous forme de données vidéo au moyen de communication vidéo. The detector according to claims 8 and 9, wherein the communication unit is further adapted to receive and process data relating to a risk assessment of collision with a detected object in the observation area and to transmit the data processed as audio data by means of audio communication or as video data by means of video communication. 11. Détecteur selon l'une quelconque des revendications 1 à 10, dans lequel le support mobile est un véhicule apte à se déplacer par rapport à un sol de l'environnement, les données de localisation, d'évaluation de distance et d'image étant déterminées au cours d'un déplacement du véhicule par rapport au sol.30 11. Detector according to any one of claims 1 to 10, wherein the movable support is a vehicle capable of moving relative to a soil environment, location data, distance evaluation and image being determined during a movement of the vehicle from the ground. 12. Détecteur selon les revendications 3, 4 et 11, dans lequel: la portion de surface bornée est sensiblement verticale par rapport au sol; la portion de surface de transition coupe la portion de surface bornée au niveau d'un bord sensiblement vertical par rapport au sol de celle-ci, et est sensiblement verticale par rapport au sol et sensiblement transverse à une direction de déplacement du véhicule. 12. Detector according to claims 3, 4 and 11, wherein: the bounded surface portion is substantially vertical with respect to the ground; the transition surface portion intersects the bounded surface portion at a substantially vertical edge with respect to the ground thereof, and is substantially vertical to the ground and substantially transverse to a direction of travel of the vehicle. 13. Détecteur selon la revendication 12, dans lequel: la portion de surface bornée s'étend dans une direction longitudinale, sensiblement parallèle à la direction de déplacement du véhicule. The detector of claim 12, wherein: the bounded surface portion extends in a longitudinal direction substantially parallel to the direction of travel of the vehicle. 14. Détecteur selon la revendication 7 et l'une quelconque des revendications 11 à 13, dans lequel le calculateur est apte à déterminer si l'emplacement libre détecté est suffisant pour parquer le véhicule. 14. Detector according to claim 7 and any one of claims 11 to 13, wherein the computer is able to determine if the free location detected is sufficient to park the vehicle. 15. Détecteur selon la revendication 14, dans lequel le calculateur est apte à délivrer une information indiquant si l'emplacement libre détecté est suffisant pour parquer le véhicule sous forme de données audio à un dispositif de communication audio ou sous forme de données vidéo à un dispositif de communication vidéo. 15. Detector according to claim 14, wherein the computer is able to provide information indicating whether the detected free location is sufficient to park the vehicle as audio data to an audio communication device or as video data to a device. video communication device. 16. Détecteur selon l'une quelconque des 30 revendications 11 à 15, dans lequel l'unité de commande est en outre apte à transmettre des données traitéespar le calculateur à un dispositif de contrôle du mouvement du véhicule. 16. Detector according to any one of claims 11 to 15, wherein the control unit is furthermore able to transmit data processed by the computer to a device for controlling the movement of the vehicle. 17. Méthode de détection d'objet au moyen d'un détecteur d'objet apte à être monté sur un support mobile dans un environnement, le détecteur comprenant: une unité de localisation apte à déterminer des données de localisation instantanée du détecteur par rapport à l'environnement, et à délivrer des données de localisation déterminées; une unité de mesure de distance apte à déterminer une valeur instantanée de distance entre le détecteur et un objet dans une zone d'observation de l'environnement à partir de l'écho d'un signal envoyé vers la zone d'observation, et à délivrer une donnée d'évaluation de distance correspondante; une unité d'acquisition d'image apte à enregistrer une image calibrée instantanée de la zone d'observation et à délivrer des données d'image de l'image enregistrée; et une unité de commande apte à contrôler un fonctionnement synchronisé des unités de localisation, de mesure de distance et d'acquisition d'image du détecteur d'objet monté sur le support mobile lors d'un déplacement de ce dernier, et à recevoir des données de localisation, d'évaluation de distance et d'image transmises par les unités de localisation, de mesure de distance et d'acquisition d'image, ladite unité de commande comprenant un calculateur apte à effectuer un traitement de données reçues par l'unité de commande;le calculateur étant apte, à partir d'un traitement de données de localisation et d'évaluation de distance, à détecter la présence d'un objet dans la zone d'observation et à déterminer des positions dans un référentiel spatial d'une pluralité de points géométriques associés aux données d'évaluation de distance et correspondant à un contour apparent d'un objet détecté, caractérisée en ce qu'elle comporte les étapes suivantes consistant, au moyen du calculateur, à: délimiter dans le référentiel spatial une région bornée à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté dans la zone d'observation; délimiter dans le référentiel spatial une zone de transition au niveau d'un bord de la région bornée; et à partir d'un traitement d'au moins deux images de la zone de transition enregistrées et transmises par l'unité d'acquisition d'image, détecter au moins un élément géométrique d'extrémité associé à un contour d'extrémité de l'objet au niveau de la zone de transition, et déterminer une position dans le référentiel spatial de chaque élément géométrique d'extrémité détecté. 17. Method of object detection by means of an object detector adapted to be mounted on a mobile support in an environment, the detector comprising: a location unit able to determine instantaneous location data of the detector with respect to the environment, and to deliver specific location data; a distance measuring unit capable of determining an instantaneous distance value between the detector and an object in an environment observation zone from the echo of a signal sent to the observation zone, and delivering a corresponding distance evaluation data; an image acquisition unit adapted to record an instantaneous calibrated image of the viewing area and to output image data of the recorded image; and a control unit adapted to control a synchronized operation of the location, distance measuring and image acquisition units of the object detector mounted on the mobile support during a movement thereof, and to receive location, distance evaluation and image data transmitted by the location, distance measurement and image acquisition units, said control unit comprising a computer able to perform a data processing received by the control unit, the computer being able, from a location data processing and distance evaluation, to detect the presence of an object in the observation zone and to determine positions in a spatial reference system. a plurality of geometrical points associated with the distance evaluation data and corresponding to an apparent contour of a detected object, characterized in that it comprises the following steps; stant, by means of the computer, to: delimit in the spatial reference a bounded region from the determined positions of the geometric points corresponding to the apparent contour of the object detected in the observation zone; delimiting in the spatial repository a transition zone at an edge of the bounded region; and from a processing of at least two images of the transition zone recorded and transmitted by the image acquisition unit, detecting at least one end geometric element associated with an end contour of the image acquisition unit. object at the transition area, and determine a position in the spatial repository of each detected end geometric element. 18. Méthode selon la revendication 17, dans laquelle la région bornée déterminée par le calculateur est une portion de surface bornée. 18. The method of claim 17, wherein the bounded region determined by the computer is a bounded surface portion. 19. Méthode selon la revendication 17 ou 18, dans laquelle le calculateur détermine une portion desurface de transition incluse dans la zone de transition à partir de la position déterminée dans le référentiel spatial d'au moins un élément géométrique d'extrémité détecté. 19. The method of claim 17 or 18, wherein the computer determines a portion of the transition surface included in the transition zone from the determined position in the spatial reference of at least one detected end geometric element. 20. Méthode selon l'une quelconque des revendications 17 à 19, dans laquelle le calculateur détermine une représentation spatiale de la forme de l'objet détecté à partir des positions déterminées des points géométriques correspondant au contour apparent de l'objet détecté et de la position déterminée de chaque élément géométrique d'extrémité détecté correspondant. 20. Method according to any one of claims 17 to 19, wherein the computer determines a spatial representation of the shape of the detected object from the determined positions of the geometric points corresponding to the apparent contour of the detected object and the determined position of each corresponding detected end geometric element. 21. Méthode selon la revendication 20, dans laquelle le calculateur détecte la présence d'un emplacement libre d'objet à partir de la représentation spatiale de la forme de chaque objet détecté dans la zone d'observation. 21. The method of claim 20, wherein the computer detects the presence of an object free location from the spatial representation of the shape of each object detected in the observation area. 22. Méthode selon la revendication 21, dans laquelle le calculateur évalue une dimension de l'emplacement libre détecté. 22. The method of claim 21, wherein the computer evaluates a dimension of the detected free location. 23. Support apte à se mouvoir dans un environnement, caractérisé en ce qu'il est équipé d'un détecteur d'objet selon l'une quelconque des revendications 1 à 16.30 23. Support able to move in an environment, characterized in that it is equipped with an object detector according to any one of claims 1 to 16.30.
FR0707039A 2007-10-08 2007-10-08 Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone Pending FR2922029A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0707039A FR2922029A1 (en) 2007-10-08 2007-10-08 Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0707039A FR2922029A1 (en) 2007-10-08 2007-10-08 Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone

Publications (1)

Publication Number Publication Date
FR2922029A1 true FR2922029A1 (en) 2009-04-10

Family

ID=39494991

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0707039A Pending FR2922029A1 (en) 2007-10-08 2007-10-08 Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone

Country Status (1)

Country Link
FR (1) FR2922029A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011060759A1 (en) * 2009-11-18 2011-05-26 Conti Temic Microelectronic Gmbh Method for supporting a driver in parking a vehicle
WO2012010313A1 (en) * 2010-07-22 2012-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for determining the fill level of a rail- or track-bound logistics installation
EP2436577A3 (en) * 2010-09-30 2012-10-10 Valeo Schalter und Sensoren GmbH Device and method for detecting free parking spots
FR2977550A1 (en) * 2011-07-08 2013-01-11 Peugeot Citroen Automobiles Sa ASSISTING DEVICE FOR PROVIDING AN ADVANCED CONDUCTOR WITH A SYNTHETIC IMAGE REPRESENTING A SELECTED AREA SURROUNDING ITS VEHICLE
DE102013202915A1 (en) * 2013-02-22 2014-08-28 Robert Bosch Gmbh Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges
CN107450560A (en) * 2017-09-13 2017-12-08 昂华(上海)自动化工程股份有限公司 A kind of robot CAS
WO2019121035A1 (en) * 2017-12-19 2019-06-27 Valeo Schalter Und Sensoren Gmbh Method for classifying parking spaces in a surrounding area of a vehicle having a neural network
CN111880166A (en) * 2018-05-03 2020-11-03 联发科技股份有限公司 Object detection method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044048A1 (en) * 2000-10-12 2002-04-18 Nissan Motor Co., Tld. Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle
FR2853121A1 (en) * 2003-03-25 2004-10-01 Imra Europe Sa DEVICE FOR MONITORING THE SURROUNDINGS OF A VEHICLE
EP1679526A1 (en) * 2005-01-07 2006-07-12 Toyota Jidosha Kabushiki Kaisha Parking support device for motor vehicles using neighboring object information acquisition device
WO2007000868A1 (en) * 2005-06-27 2007-01-04 Aisin Seiki Kabushiki Kaisha Obstacle detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044048A1 (en) * 2000-10-12 2002-04-18 Nissan Motor Co., Tld. Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle
FR2853121A1 (en) * 2003-03-25 2004-10-01 Imra Europe Sa DEVICE FOR MONITORING THE SURROUNDINGS OF A VEHICLE
EP1679526A1 (en) * 2005-01-07 2006-07-12 Toyota Jidosha Kabushiki Kaisha Parking support device for motor vehicles using neighboring object information acquisition device
WO2007000868A1 (en) * 2005-06-27 2007-01-04 Aisin Seiki Kabushiki Kaisha Obstacle detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FINTZEL K ET AL: "3D vision system for vehicles", PROCEEDINGS OF THE INTELLIGENT VEHICLES SYMPOSIUM, XX, XX, 9 June 2003 (2003-06-09), pages 174 - 179, XP002285561 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011060759A1 (en) * 2009-11-18 2011-05-26 Conti Temic Microelectronic Gmbh Method for supporting a driver in parking a vehicle
WO2012010313A1 (en) * 2010-07-22 2012-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for determining the fill level of a rail- or track-bound logistics installation
EP2436577A3 (en) * 2010-09-30 2012-10-10 Valeo Schalter und Sensoren GmbH Device and method for detecting free parking spots
FR2977550A1 (en) * 2011-07-08 2013-01-11 Peugeot Citroen Automobiles Sa ASSISTING DEVICE FOR PROVIDING AN ADVANCED CONDUCTOR WITH A SYNTHETIC IMAGE REPRESENTING A SELECTED AREA SURROUNDING ITS VEHICLE
WO2013007915A1 (en) * 2011-07-08 2013-01-17 Peugeot Citroen Automobiles Sa Driver aid device for making available to a driver, in anticipation, a synthetic image representative of a chosen zone around his vehicle
DE102013202915A1 (en) * 2013-02-22 2014-08-28 Robert Bosch Gmbh Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges
CN107450560A (en) * 2017-09-13 2017-12-08 昂华(上海)自动化工程股份有限公司 A kind of robot CAS
WO2019121035A1 (en) * 2017-12-19 2019-06-27 Valeo Schalter Und Sensoren Gmbh Method for classifying parking spaces in a surrounding area of a vehicle having a neural network
US11455808B2 (en) 2017-12-19 2022-09-27 Valeo Schalter Und Sensoren Gmbh Method for the classification of parking spaces in a surrounding region of a vehicle with a neural network
CN111880166A (en) * 2018-05-03 2020-11-03 联发科技股份有限公司 Object detection method and device

Similar Documents

Publication Publication Date Title
CN108028023B (en) Information processing apparatus, information processing method, and computer-readable storage medium
FR2922029A1 (en) Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone
US9285230B1 (en) Methods and systems for detecting road curbs
US9607226B2 (en) Methods and systems for object detection using multiple sensors
EP2656104B1 (en) Method and device for monitoring variations in terrain
NL2004996C2 (en) A METHOD FOR MANUFACTURING A DIGITAL PHOTO, AT LEAST PART OF THE IMAGE ELEMENTS INCLUDING POSITION INFORMATION AND SUCH DIGITAL PHOTO.
FR2953313A1 (en) OPTRONIC SYSTEM AND METHOD FOR PREPARING THREE-DIMENSIONAL IMAGES FOR IDENTIFICATION
FR2905765A1 (en) DEVICE AND METHOD FOR ESTIMATING THE DIMENSIONS OF A PARKING PLACE, MOTOR VEHICLE COMPRISING SUCH A DEVICE.
EP3364213A1 (en) Method and system for contextualised perception of material bodies
US11592820B2 (en) Obstacle detection and vehicle navigation using resolution-adaptive fusion of point clouds
WO2015079152A1 (en) Method for simulating wave propagation; simulator, computer program and recording medium for implementing the method
EP2043044B1 (en) Method and device for automobile parking assistance
EP2974431B1 (en) Method for predicting the level of radio field and/or the duration of propagation of cellular telephone networks using high-resolution terrain databases
FR2899363A1 (en) Movable/static object`s e.g. vehicle, movement detecting method for assisting parking of vehicle, involves carrying out inverse mapping transformation on each image of set of images of scene stored on charge coupled device recording camera
FR3056531B1 (en) OBSTACLE DETECTION FOR MOTOR VEHICLE
EP2748625B1 (en) Method for locating an object using a reference grid
WO2018020045A1 (en) Merging of data for detecting and monitoring objects for a motor vehicle
FR3056530A1 (en) OBSTRUCTION DETECTION BY FUSION OF OBJECTS FOR MOTOR VEHICLE
FR3070768A1 (en) METHOD FOR AUTOMATIC CLASSIFICATION OF A TARGET VESSEL AND RADAR SYSTEM THEREOF
FR3078667A1 (en) STRUCTURED LIGHT ACTIVE VISION PARKING ASSISTANCE METHOD AND SYSTEM
FR3120711A1 (en) METHOD AND DEVICE FOR CALIBRATION OF AN ENVIRONMENTAL DEPTH SENSOR
EP4254008A1 (en) Method for detecting buried longitudinal structures using ground penetrating radar
EP3677928A1 (en) Electronic device and method for monitoring of a scene around a motor vehicle, associated motor vehicle, transport system and computer program
FR3080922A1 (en) ELECTRONIC DEVICE AND METHOD OF DETECTING AN OBJECT THROUGH A SCAN LIDAR, AUTONOMOUS MOTOR VEHICLE AND COMPUTER PROGRAM
WO2022033902A1 (en) Method for aligning at least two images formed by three-dimensional points