FR2899363A1 - Procede et dispositif de detection de mouvement d'objets sur des images d'une scene - Google Patents

Procede et dispositif de detection de mouvement d'objets sur des images d'une scene Download PDF

Info

Publication number
FR2899363A1
FR2899363A1 FR0602808A FR0602808A FR2899363A1 FR 2899363 A1 FR2899363 A1 FR 2899363A1 FR 0602808 A FR0602808 A FR 0602808A FR 0602808 A FR0602808 A FR 0602808A FR 2899363 A1 FR2899363 A1 FR 2899363A1
Authority
FR
France
Prior art keywords
motion
pixel
map
probability
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0602808A
Other languages
English (en)
Other versions
FR2899363B1 (fr
Inventor
Sebastien Wybo
Remy Bendahan
Sylvain Bougnoux
Christophe Vestri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMRA Europe SAS
Original Assignee
IMRA Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMRA Europe SAS filed Critical IMRA Europe SAS
Priority to FR0602808A priority Critical patent/FR2899363B1/fr
Priority to JP2007091836A priority patent/JP4967758B2/ja
Publication of FR2899363A1 publication Critical patent/FR2899363A1/fr
Application granted granted Critical
Publication of FR2899363B1 publication Critical patent/FR2899363B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Procédé de détection de mouvement d'un objet d'une scène par transformation de perspective inverse d'une pluralité d'images d'une scène enregistrées par une caméra, à partir de laquelle une carte de mouvement est créée sur la base d'informations données sur des objets statiques de la scène et de variations d'intensité de couleur entre des pixels correspondants d'images transformées, ladite carte permettant de localiser des objets en mouvement.

Description

2899363 PROCEDE ET DISPOSITIF DE DETECTION DE MOUVEMENT D'OBJETS SUR DES
IMAGES D'UNE SCENE DESCRIPTION DOMAINE TECHNIQUE Le domaine technique de l'invention est celui des dispositifs et procédés de détection de mouvement d'objets et de localisation de ces objets à partir d'images d'une scène enregistrées par un dispositif d'acquisition d'images. ÉTAT DE LA TECHNIQUE ANTÉRIEURE La détection et la localisation d'objets mobiles d'une scène (région d'un espace tridimensionnel), notamment en temps réel, à partir du traitement d'images enregistrées de cette scène est en plein essor, particulièrement dans le cas où le dispositif d'acquisition d'images est: mobile par rapport à la scène (ce dispositif pouvant travailler dans le domaine du rayonnement visible, ou non-visible tel que l':Lnfrarouge par exemple), et concerne des domaines d'application très variés tels que, par exemple, le contrôle du mouvement de pièces et l'évitement d'obstacles dans le domaine de la robotique, __a vidéo surveillance de zones sensibles (notamment pour des raisons de sécurité, par exemple pour détecter une intrusion), ou encore, dans le domaine de la sécurité automobile avec les systèmes de prise en compte des risques de collis_'_on (avec des objets connus ou inconnus) ou les dispositifs d'assistance à la conduite de véhicule, notamment l'assistance au parcage. 2 2899363 Le domaine de la sécurité automobile est tout à fait représentatif des exigences croissantes qui concerne l'enregistrement et le traitement d'images, et sera principalement considéré par la suite bien que 5 l'invention ne soit nullement limitée à ce domaine mais concerne aussi d'autres domaines d'application, notamment ceux cités plus haut. La société IMRA-Europe a déjà développé un système d'assistance au parcage d'un véhicule ou PAS ( Parking 10 Assistance System ; voir la référence : K.Finzel, R.Bendahan, C.Vestri, S.Bougnoux and T.Kakinami, 3D Parking Assistant System , ilth World Congress on Intelligent Transport Systems, Nagoya, Japan, 2004). Ce système permet de recréer une représentation 3D d'une 15 scène au voisinage d'un véhicule à partir d'une pluralité d'images enregistrées par une caméra CCD montée sur le véhicule, pour différentes positions du véhicule par rapport à la scène. Mais ce système nécessite le mouvement du véhicule et aussi d'avoir des 20 objets de la scène qui soient statiques, le mouvement des objets par rapport à la scène pouvant générer des perturbations. _mea détection d'objets en mouvement depuis un dispositif d'acquisition d'image mobile est un 25 domaine très actif de la recherche. La principale difficulté étant de distinguer entre des mouvements du monde réel et des mouvements dus au mouvement relatif du dispositif d'acquisition d'images par rapport à la scène observée. 30 Parmi les méthodes connues de détection du mouvement d'un objet d'une scène on trouve un premier 3 2899363 groupe de méthodes basées sur la détection de zones de la scène en mouvement, puis le regroupement des zones en mouvement afin d'éliminer le bruit. Deux approches ont été développées pour réaliser cet objectif. 5 Un première approche, notamment utilisée dans des applications de video-surveillance à partir d'une caméra statique, utilise une différenciation d'images d'une scène prises par une caméra staticue, soit entre une image courante et une image précéder..te, soit entre 10 une image courante et une image de fond (obtenue le plus souvent par accumulation d'images au cours du temps). Cependant, cette approche ne permet pas de traiter correctement le cas d'une caméra en mouvement par rapport à la scène lorsque la caméra est très 15 proche de la scène, alors que cette situation est courante dans de nombreuses applications. Une autre approche utilise des méthodes de type à regroupement de flot optique ( Optical Flow Clustering ) développées pour répondre à l'objectif de 20 distinguer entre des mouvements réels d'objets de la scène et des mouvements seulement dus au mouvement relatif de la caméra par rapport à la scène (voir, par exemple, la référence : G.Lefaix, E.Marchand, P.Bouthemy, Motion-based Obstacle Detection and 25 Tracking for Car Driving Assistance , Proceedings of IAPR International Conference on Pattern Recognition, ICPR 2002, vol.4, p. 74-77, Québec, Canada, August 2002). Ces méthodes permettent donc de traiter le cas d'une caméra en mouvement, le mouvement d'un objet par 30 rapport à la scène étant obtenu par différence à partir du flot optique dû au mouvement apparent des objets du 4 2899363 seul fait du mouvement de la caméra, les objets statiques par rapport à 1a scène (par rapport au sol, par exemple) ayant un flot optique pointant dans une direction bien déterminée liée au déplacement de la 5 caméra par rapport à la scène, et les objets en mouvement par rapport à la scène ayant chacun un flot optique pointant dans une direction différente. Ces méthodes de regroupement de flot optique présentent toutefois l'inconvénient d'être très coûteuses en temps 10 de calcul du fait qu'elles requièrent une concordance entre de nombreux points d'une image. Un second groupe de méthodes de détection du mouvement d'un objet d'une scène est basé sur la détection du mouvement d'objets spécifiques (par 15 exemple, une automobile, un piéton...). Ces méthodes sont basées sur la reconnaissance de forme et servent à suivre un objet donné dans son mouvement dans une scène (voir, par exemple, A.Boggi et al., Shape-based pedestrian detection , Proceedings of IEEE Intelligent 20 Vehicle Symposium, p.215-220, Deadborn, USA, 2000 ; voir aussi la demande de brevet WO 2005/098739 Al). Une nouvelle tendance dans la reconnaissance d'objet est apparue avec l'introduction de méthodes qui se focalisent sur la recherche de caractéristiques 25 spécifiques d'un objet donné, telles que l'identification de la démarche d'un humain (voir: R.Cuter, L.S.Davis, Robust real-time periodic motion detection, analysis and applications , IEEE Transactions on Pattern Analysis and Machine 30 Intelligence, vol.22, n 8, p.781-796, 2000 ; ou la demande de brevet WO 2005/050565 Al), de bords verticaux et de symétries (A.Broggi et al., A Multi-Resolution Aproach for Infrared Vision-Based Pedestrian Detection , IEEE Intelligent Vehicle Symposium, p.7-12, 2004), d'une diversité de textures ou encore de caractéristiques évoluées à partir d'algorithmes
génétiques (Y.Abramson, B.Steux, Hardware-friendly
pedestrian detection and impact prediction , Proceedings of IEEE Intelligent Vehicle Symposium, June 2004). Les caractéristiques des résultats ainsi obtenus peuvent alors être fusionnées en utilisant des réseaux de neurones ou des ordinateurs vectoriels (SVM) par exemple.
Ces méthodes sont cependant mal adaptées lorsque le type de l'objet en mouvement (ou sa forme) n'est pas connu à l'avance ou lorsque la forme de l'objet apparaît très déformée comme c'est le cas lorsqu'une caméra à grand angle enregistre une image d'un objet très proche de son objectif. Certaines des méthodes de détection de mouvement connues utilisent la transformation de perspective inverse (ou IPM, pour Inverse Mapping Transform , voir par exemple: W.M.Newman, R.F.Sproul, Principles of Interactive Computer Graphics , McGraw-Hill, Tokyo, 1981), pour d'abord transformer les images de la scène de façon à éliminer les effets de perspective, combinée à une méthode de regroupement de flot optique pour analyser les images ainsi transformées et détecter le mouvement. Ces méthodes présentent toutefois les inconvénients déjà mentionnés plus haut à l'égard du regroupement de flot optique. C'est le cas, par exemple, de la méthode présentée dans 6 2899363 l'article: H.A.Mallot, H.H.Büthoff, J.J.Little, S.Bohrer: Inverse perspective mapping simplifies optical flow computation and obstacle detection , Biological Cybernetics 64, p.177-185, 1991. .5 C'est aussi le cas de la méthode présentée dans le brevet EP 0360880, qui a en outre l'inconvénient de nécessiter deux caméras (deux points de vue différents pour une même scène au même instant) pour déterminer le mouvement d'un objet. 10 EXPOSÉ DE L'INVENTION La présente invention a donc pour but de remédier aux inconvénients mentionnés ci-dessus, et vise notamment à permettre, à partir d'un seul 15 dispositif d'acquisition d'images d'une scène, pouvant être mobile par rapport à la scène observée, de détecter le mouvements d'objets de la scène par un traitement d'images de la scène qui ne nécessite ni connaissance préalable du type des objets (forme ou 20 autre caractéristiques), ni apprentissage sur les objets, ni temps de calcul prohibitifs ou moyens de calcul importants. Ces objectifs sont atteints grâce à un procédé de détection de mouvement d'un objet d'une 25 scène comprenant une portion d'une surface de référence, à partir du traitement par une unité de calcul d'une pluralité d'images ce la scène enregistrées par une caméra calibrée apte à se mouvoir par rapport à la surface de référence, dans lequel: 30 des données de surface de référence, relatives à la forme et à la position de la portion de surface de 7 2899363 référence, sont stockées dans une mémoire de l'unité de calcul; des valeurs des paramètres de pose et de calibrage de la caméra étant données pour chaque image de la 5 scène enregistrée par la caméra et transmise à l'unité de calcul, ces valeurs sont stockées dans la mémoire de l'unité de calcul; et l'unité de calcul est apte à recevoir des données d'objet statique relatives à des objets statiques par 10 rapport à la portion de surface de référence détectés dans la scène et à stocker ces données dans la mémoire, et à transmettre des données mémorisées, ledit procédé comportant les étapes suivantes consistant au moyen de l'unité de calcul: 15 (a) effectuer une transformation de perspective inverse sur chaque image d'une pluralité d'images successives de la scène enregistrées par la caméra et transmises à l'unité de calcul, par rapport à la portion de surface de référence, à partir des données 20 de surface de référence et des paramètres correspondants de pose et de calibrage de la caméra stockés en mémoire, pour obtenir une pluralité d'images transformées correspondantes; (a') déterminer pour chaque objet statique détecté 25 une zone d'image transformée correspondante qui est masquée pour la caméra par cet objet à partir des données d'objet statique et des paramètres correspondants de pose de la caméra en mémoire et effectuer une opération de masquage de cette zone, et, 30 en tenant compte de chaque zone masquée déterminée, calculer une carte de mouvement formée de pixels dont 8 2899363 chacun est associé à une présence de mouvement d'objet par rapport à la portion de surface de référence à partir du calcul de variation d'intensité de couleur entre des pixels correspondants d'images transformées 5 obtenue à l'étape (a). En effet, le procédé de détection de mouvement selon l'invention permet de considérablement simplifier les opérations de détection en exploitant une propriété fondamentale de la transformation de perspective 10 inverse (IPM) d'une image de la scène enregistrée dans le plan image de la caméra, et correspondant à la projection de chaque point du plan image sur la surface de référence selon une droite passant par le centre optique de la caméra, qui est de compenser 15 automatiquement le mouvement de la caméra relativement à la surface de référence de la scène (voir, à propos de cette propriété fondamentale, le paragraphe 3.3, pages 180-181, de l'article de H.A. Mallot et al. cité plus haut). Selon l'invention, l'analyse des variations 20 d'intensité de couleur entre pixels correspondants de plusieurs images transformées de la scène, opération qui peut être exécutée facilement par un processeur de traitement d'image, permet alors d'exploiter avantageusement la propriété fondamentale résultant de 25 la transformation IPM pour détecter la présence de mouvement. L'analyse des variations d'intensité de couleur est bien connue, cependant cette méthode de détection de mouvement est classiquement appliquée directement sur des images enregistrées en non sur des 30 images transformées. 9 2899363 De plus, l'apération de masquage de zone, en se plaçant du point de vue de la caméra (selon son champ de vision centré sur son axe optique), permet d'exploiter des résultats de détection d'objets statiques par rapport à 5 la surface de référence (issus d'un détecteur d'objet statique tel que, par exemple, celui développé par la société IMRA Europe et faisant l'objet du brevet FR 2853121, ou à l'aide d'un scanner à laser, ou encore obtenus à partir d'une cartographie pré-établie des 10 obstacles présents dans l'environnement), ce qui élimine la prise en compte des pixels d'image correspondant à des zones masquées, simplifie les calculs et rend plus fiable la carte de mouvement calculée. L'invention peut donc ainsi, dans le cas où 15 elle est appliquée dans des dispositifs de parcage de véhicule (par exemple muni d'une caméra montée à l'arrière du véhicule pour contrôler le recul du véhicule), être mise en ouvre sur un simple calculateur embarqué dans le véhicule, comme il en existe de 20 nombreux de nos jours. Dans une variante du procédé de détection de mouvement selon l'invention, l'étape (a') mentionnée plus haut comprend les étapes consistant à établir une 25 carte de probabilité de mouvement en associant une valeur de probabilité de présence de mouvement à chaque pixel dont des pixels correspondants d'images transformées sélectionnées parmi celles obtenues à l'étape (a) ont des valeurs d'intensité de couleur qui 30 varient peu d'une image à l'autre, en tenant compte de chaque zone masquée pour la caméra, la probabilité de 10 2899363 mouvement associée à un pixel étant d'autant plus forte que la valeur d'intensité de couleur du pixel correspondant de la dernière image transformée obtenue à l'étape (a) diffère davantage de celles des pixels 5 correspondants des images transformées sélectionnées, et former la carte de mouvement dont chaque pixel correspond à un pixel de la carte de probabilité de mouvement pour lequel il est décidé qu'il est associé à un mouvement. en fonction de la probabilité de mouvement 10 qui lui est associée. Ce traitement probabiliste des données permet d'affiner les résultats, tout en pouvant être mis en oeuvre simplement sur des calculateurs existant peu puissants.
15 Dans une autre variante du procédé de détection de mouvement selon l'invention, qui dépend de l'un quelconque des modes de réalisation précédents, et qui permet à.'améliorer encore la précision de la carte de mouvement tant par une prise en compte améliorée des 20 variations d'intensité de couleur que par un filtrage de la carte de probabilité, l'étape (a') comprend les étapes consistant à, au moyen de l'unité de calcul: (b) déterminer une carte de fond en calculant une différence d'intensité de couleur entre chacun des 25 pixels correspondants d'au moins deux images transformées sélectionnées parmi la pluralité d'images transformées obtenues en (a), et, chaque fois que la différence d'intensité de couleur entre des pixels correspondants des images transformées sélectionnées 30 est suffisamment faible, en attribuant au pixel de la carte de fond leur correspondant une valeur effective 11 2899363 d'intensité de couleur proche de la valeur moyenne des intensités de couleur desdits pixels correspondants, chaque pixel de la carte de fond auquel a été attribuée une valeur effective d'intensité de couleur constituant 5 un pixel coloré; (c) effectuer l'opération de masquage de zone sur la dernière image transformée de la pluralité d'images transformées successives obtenue à l'étape (a), et stocker les données de masquage de zone obtenues en 10 mémoire; (d) établir à partir de la dernière image transformée parmi la pluralité des images transformées obtenues en (a), de la carte de fond obtenue en (b) et des données de masquage de zone correspondantes 15 obtenues en (c), la carte de probabilité de mouvement correspondante qui associe une valeur de probabilité de présence de mouvement à chaque pixel correspondant à un pixel coloré de la carte de fond, en attribuant une forte probabilité de mouvement à chaque pixel pour 20 lequel le pixel coloré correspondant de la carte de fond et le pixel correspondant de ladite dernière image ont des valeurs d'intensité de couleur qui diffèrent fortement, en attribuant une faible probabilité de mouvement à chaque pixel pour lequel le pixel coloré 25 correspondant de la carte de fond et le pixel correspondant de ladite dernière image ont des valeurs d'intensité de couleur qui diffèrent peu, et en réduisant la probabilité de mouvement ainsi attribuée à un pixel lorsque ce pixel se trouve dans une zone 30 masquée, et stocker la carte de probabilité de mouvement obtenue en mémoire; 12 2899363 (e) effectuer un filtrage de la carte de probabilité de mouvement obtenue en (d), en déterminant sur cette carte des régions connexes dans lesquelles chaque pixel est associé à une probabilité de présence 5 de mouvement suffisamment élevée, et stocker en mémoire la carte de probabilité de mouvement filtrée obtenue; (f) décider, pour chaque région connexe de la carte de probabilité de mouvement filtrée déterminée à l'étape précédente, si cette région connexe correspond 10 à la présence d'un mouvement d'objet, sur la base d'un critère de détection de mouvement donné, de façon à obtenir la carte de mouvement.
L'invention vise aussi à permettre de 15 localiser avec précision un objet dont le mouvement a été détecté. Ainsi, le procédé de détection de mouvement selon l'invention, qui dépend de la variante précédente, comprend en outre une étape (g) consistant à localiser au moyen de l'unité de calcul un objet en 20 mouvement au niveau de la surface de référence sur la carte de mouvement obtenue à l'étape (f), à partir du calcul de la localisation de la projection du centre optique de la caméra sur la surface de référence, en déterminant pour chaque région connexe ce la carte de 25 mouvement obtenue à l'étape (e) le point le plus proche de cette projection du centre optique, chaque point ainsi déterminé correspondant à un point de contact d'un objet en mouvement sur la surface de référence. Dans une variante dépendant de la variante 30 précédente, le procédé de détection de mouvement selon l'invention, comprend en outre une étape (h) consistant 13 2899363 à, à partir d'une pluralité de cartes de mouvement consécutives dans le temps obtenues selon l'étape (g), effectuer au moyen de l'unité de calcul un suivi des positions consécutives de points représentatifs 5 correspondant de ladite pluralité de cartes de mouvement, chacun de ces points représentatifs correspondant à un point de contact d'un objet en mouvement sur la surface de référence, de façon à déterminer des positions futures de ces points 10 représentatifs. Ces positions futures des points représentatifs peuvent en effet être directement déduits des trajectoires mémorisées de ces points (à partir du temps écoulé entre des positions successives et des vitesses, voire des accélérations, calculées). 15 Pour calculer ces positions futures il est possible, par exemple, d'utiliser un filtre de Kalman. Cette variante de l'invention présente l'avantage de rendre plus robuste la détection de mouvement car elle permet de filtrer des mouvements parasites tels que, par 20 exemple, des mouvements dus à une erreur de détection, à un changement brusque des conditions d'illumination de la scène, au déplacement d'une ombre sur la surface de référence, à un reflet etc Une autre variante du procédé de détection 25 de mouvement selon l'invention, qui permet d'améliorer la fiabilité de la carte de probabilité de mouvement des variantes précédentes en tenant compte du fait que les points de la surface de référence sont fixes, comprend en outre les étapes consistant à, au moyen de 30 l'unité de calcul: détecter sur la dernière image de la pluralité d'images transformées obtenues à l'étape (a) des pixels qui correspondent à la portion de surface de référence, à partir des données de surface de référence en mémoire; et attribuer à chaque pixel de la carte de probabilité de mouvement qui correspond à un pixel détecté comme correspondant à la surface de référence une probabilité de mouvement: nulle.
Selon l'invention, il est possible d'encore améliorer la fiabilité de la carte de probabilité de mouvement si l'on tient compte des différences de probabilité de mouvement associées à un pixel entre la dernière image transformée et une image transformée précédente. Ainsi, une variante de l'invention dépendant de la variante précédente, comprend en outre les étapes consistant à, au moyen de l'unité de calcul: détecter sur une image transformée précédant ladite dernière image transformée des pixels qui correspondent à la portion de surface de référence; et attribuer à chaque pixel de la carte de probabilité de mouvement ayant une probabilité de mouvement non nulle et ayant été détecté dans l'imaore transformée précédente comme appartenant à la surface de référence, une probabilité de mouvement plus forte.
L'invention concerne aussi un dispositif de 30 détection de mouvement d'un objet, apte à mettre en oeuvre le procédé de détection de mouvement selon l'invention décrite ci-dessus. Ainsi, l'invention se rapporte notamment à un dispositif de détection de mouvement d'un objet d'une scène comprenant une portion d'une surface de référence, comportant: un support apte à se mouvoir par rapport à la surface de référence, et muni d'un capteur de position apte à transmettre des données de position du support dans un référentiel spatial de base lié à la surface de référence; une caméra montée sur le support, apte à enregistrer des images de la scène et à transmettre les images enregistrées, et dont les paramètres de pose relativement au support et les paramètres internes de calibrage sont donnés; une unité de calcul apte à recevoir des données de surface de référence relatives à la forme et à la position de la portion de surface de référence, des données de position du support transmises par le capteur de position, des données d'image transmises par la caméra, des données de paramètres de pose de la caméra relativement au support et de paramètres internes de calibrage de la caméra, et des données d'objet statique détectés dans la l'unité de calcul relatives à des objets statiques scène transmises depuis l'extérieur, étant apte à calculer des paramètres de pose de la caméra relativement au référentiel de base, à effectuer un traitement des données d'image reçues et comportant une mémoire apte à stocker les données reçues et calculées, l'unité de calcul étant aussi apte à transmettre des données mémorisées; ledit dispositif étant apte à réaliser les opérations consistant à:
(a) effectuer une transformation de perspective inverse sur chaque image d'une pluralité d'images successives de la scène reçues la caméra, par rapport à la portion de surface de référence, à partir des données de surface de référence et des paramètres correspondants de pose et de calibrage de la caméra stockés en mémoire, pour obtenir une pluralité d'images transformées correspondantes; et (a') déterminer pour chaque objet statique détecté une zone d'image transformée correspondante qui est masquée pour la caméra par cet objet à partir des données d'objet statique et des paramètres correspondants de pose de la caméra en mémoire et effectuer ur.e opération de masquage de cette zone, et, en tenant compte de chaque zone masquée déterminée, calculer une carte de mouvement formée de pixels dont chacun est associé à une présence de mouvement d'objet par rapport à la portion de surface de référence à partir du calcul de variation d'intensité de couleur entre des pixels correspondants d'images transformées obtenue en (a), et stocker en mémoire la carte de mouvement.
L'unité de calcul du dispositif de détection de mouvement décrit ci-dessus peut en outre être apte à réaliser l'opération consistant à établir une carte de probabilité de mouvement en associant une valeur de probabilité de présence de mouvement à chaque pixel dont des pixels correspondants d'images transformées sélectionnées parmi celles obtenues en (a) 17 2899363 ont des valeurs d'intensité de couleur gui varient peu d'une image à l'autre, en tenant compte de chaque zone masquée pour la caméra, la probabilité de mouvement associée à un pixel étant d'autant plus forte que la 5 valeur d'intensité de couleur du pixel correspondant de la dernière image transformée obtenue en (a) diffère davantage de celles des pixels correspondants des images transformées sélectionnées, et former la carte de mouvement dont chaque pixel correspond à un pixel de 10 la carte de probabilité de mouvement pour lequel il est décidé qu'il est associé à un mouvement en fonction de la probabilité de mouvement qui lui est associée.
Des variantes du dispositif de détection de 15 mouvement selon l'invention sont décrites plus loin, notamment des variantes permettant de localiser des objets dont le mouvement a été détecté. Selon l'invention, il est aussi possible d'incorporer au dispositif de détection de mouvement un 20 dispositif de détection d'objet statique apte à détecter un objet statique dans la scène et à transmettre les données relatives à un objet statique détecté à l'unité de calcul. Le dispositif de détection de mouvement peut aussi être 25 apte à transmettre des données de la carte de mouvement à un opérateur, ce qui permet par exemple à l'opérateur de réagir aux données reçues, particulièrement en cas de risque de collision entre le support de la caméra avec un obstacle. Le dispositif de détection de 30 mouvement peut aussi incorporer un dispositif d'alerte anti-collision, l'unité de calcul étant en outre apte à évaluer des données de risque de collision avec un objet de la scène à partir des données de carte de mouvement et à transmettre ces données de risque de collision au dispositif d'alerte anti-collision, ce qui permet d'avoir une détection automatique des collisions. Le dispositif d'alerte anti-collision peut aussi être apte à transmettre des informations relatives à un risque de collision avec un objet de la scène à un opérateur. Dans une variante, l'unité de calcul est apte à évaluer des données de risque de collision avec un objet de la scène à partir des données déterminées de position future de points représentatifs (voir ci-dessus) et à transmettre ces données de risque de collision au dispositif d'alerte anti-collision de façon à anticiper un risque de collision. Le risque de collision peut aussi être évalué à la fois à partir des données de carte de mouvement et des données déterminées de position future de points représentatifs.
Le dispositif de détection de mouvement selon l'un quelconque des modes de réalisation, peut aussi être connecté à un dispositif de correction apte à modifier le mouvement du support relativement à la surface de référence sur la base de données transmises par le dispositif de détection de mouvement. Dans ce cas, des manœuvres d'évitement d'obstacle ou de pilotage du support peuvent être mises en oeuvre automatiquement ou avec le concours d'un opérateur. Un tel dispositif est donc particulièrement utile dans le domaine de la sécurité automobile (le support étant 19 2899363 dans ce cas un véhicule) ou dans le domaine de la robotique (le support est alors un robot ou une partie mobile d'un robot). 5 Enfin l'invention concerne aussi un véhicule apte à se déplacer sur un
sol caractérisé en ce qu'il est équipé du dispositif de détection de mouvement selon l'un quelconque de ses modes de réalisation, le véhicule constituant le support de la 10 caméra et le sol environnant le véhicule constituant la surface de référence.
D'autres caractéristiques et avantages de l'invention ressortiront de la description suivante de 15 modes de réalisation particuliers, dcnnés à titre d'exemples, en référence aux dessins annexés. BRÈVE DESCRIPTION DES DESSINS La Figure 1 est une représentation 20 simplifiée, correspondant à une vue de dessus, d'un dispositif de détection de mouvement selon l'invention, comprenant une caméra montée sur un véhicule. La Figure 2 est une vue de profil d'une représentation simplifiée relative à une transformation 25 de perspective inverse. Les Figures 3A et 3B illustrent la transformation d'une image en une image transformée par une transformation de perspective inverse. Les Figures 4A et 4B illustrent la 30 transformation d'une image en une image transformée par 20 2899363 une transformation de perspective inverse avec masquage de zones correspondant à des objets statiques. La Figure 5 est une illustration à l'aide d'images de différentes étapes du traitement de 5 détection du sol effectué dans un mode particulier de réalisation du dispositif de détection de mouvement selon l'invention. La Figure 6 est une illustration à l'aide d'images de différentes étapes du traitement de 10 détection de mouvement effectué dans un mode particulier de réalisation du dispositif de détection de mouvement selon l'invention. EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS 15 Un mode particulier de réalisation de l'invention, décrit en référence aux figures 1 à 6, concerne un dispositif de détection de mouvement monté sur un véhicule (2) et utilisable pour l'assistance au parcage de ce véhicule. 20 Une caméra (1) à enregistrement CCD est montée à l'arrière du véhicule en un emplacement donné et permet d'enregistrer des images d'une scène (6), ou zone d'observation tridimensionnelle, comprenant une portion de sol à l'arrière du véhicule. Le sol 25 constitue une surface de référence S sur laquelle le véhicule est apte à se déplacer. Le véhicule (2) est ici équipé de capteurs de position (4) au niveau de ses roues (capteurs ABS) et d'un ordinateur de bord (5) (avec unité de calcul et mémoire). Les capteurs (4) 30 sont reliés à l'ordinateur de bord (5) et sont aptes déterminer la position du véhicule par rapport au sol à 21 2899363 transmettre les données de position acquises à l'ordinateur (5). D'autres moyens connus de mesure de la position du véhicule peuvent bien sûr être utilisés, parmi lesquels des dispositifs de positionnement de 5 type GPS ( Global Positioning System ), La caméra (1) est apte à transmettre à l'unité de calcul de l'ordinateur de bord (5) les images enregistrées, et l'unité de calcul de l'ordinateur est apte à effectuer des opérations de tra=_tement d'image 10 sur des images reçues. Les paramètres caractérisant la caméra sont les paramètres de pose et les paramètres de calibrage. Les paramètres de pose désignent par exemple les coordonnées du centre optique C dans un référentiel spatial R (d'axes x, y, z) lié au sol, et permettent de 15 connaître la trajectoire de la caméra au cours du déplacement du véhicule, la connaissance de la position de la caméra (plus précisément, du point C) par rapport à la surface de référence pour chaque image enregistrée étant nécessaire au calcul de la transformation de 20 perspective inverse. Souvent, les paramètres de pose sont inclus dans les paramètres de calibrage extrinsèques de la caméra. Il est clair que les paramètres de pose de la caméra (1) peuvent, par exemple, être déduits des données de position du 25 véhicule dans le référentiel R à partir de la position connue de la caméra (par exemple celle de son centre optique) dans un système de coordonnées centré sur le véhicule par un simple changement de référentiel. L'unité de calcul de l'ordinateur (5) est apte à 30 traiter les données de position reçues des capteurs (4) et à en déduire les paramètres de pose de la caméra 22 2899363 (1), de façon à faire correspondre à une image reçue de la caméra une pose correspondante de celle-ci. La caméra (1) est ici une caméra à enregistrement CCD qui est modélisée par une caméra du 5 type à sténopé (voir par exemple F.Duvernay et O.Faugeras, Machine Vision and Applications (13), 14-24 (2001)) après suppression de la distorsion. Rappelons que dans un tel modèle à sténopé l'enregistrement dans le plan image de la caméra de toute ligne droite de 10 l'espace est une ligne droite. Les paramètres de calibrage et de pose de la caméra (1), autres que ceux de distorsion, sont alors au nombre de dix, à savoir: - quatre paramètres intrinsèques 15 a : distance focale horizontale de la caméra, b : distance focale verticale de la caméra, c : coordonnée horizontale du centre optique, d : coordonnée verticale du centre optique. a représente le produit de la longueur du pixel par la 20 distance focale f de la caméra ; b représente le produit de la largeur du pixel par la distance focale f de la caméra. Les coordonnées c et d dans le repère R' (d'axes u, v) du plan image (plan d'enregistrement de la caméra, à la 25 distance f du centre optique) représentent la projection du centre optique C le long de l'axe optique dans le plan image. Classiquement, ces quatre paramètres constituent les a 0 c 0 élément d'une matrice n (3x4) : FI = 0 b d 0 0 0 1 0 23 2899363 - trois paramètres extrinsèques qui constituent le vecteur t représentant la position du centre optique de la caméra dans le repère R (paramètres de pose).
- trois paramètres extrinsèques qui constituent la
5 matrice de rotation r (matrice 3x3) représentant les
trois rotations liées respectivement à l'angle d'inclinaison sur l'axe optique, à l'angle de rotation autour de l'axe optique et l'angle de lacet (r est un produit de trois rotations indépendantes).
10 Dans la modélisation conventionnelle, les quatre paramètres intrinsèques (autres que ceux de distorsion) sont regroupés dans la matrice n, et les six paramètres extrinsèques sont regroupés dans une r t matrice K (4x4) avec K 0 1
15 Si les coordonnées d'un point quelconque Pi de la scène (6) sont mesurées dans R et sont données sous la forme de coordonnées homogènes : Pi = [pix, .Piy, p,z, 1]T , et si on désigne par Ci le point correspondant sur
20 l'image enregistrée, alors ce point Ci, une fois corrigés de l'effet de distorsion (selon l'une des nombreuses méthodes connues, voir par exemple l'article de F.Devernay et O.Faugeras mentionné plus haut), donne un point Di: on a en effet Di = F(Ci) , où F désigne une
25 fonction de distorsion formée avec les paramètres de distorsion. Dans le cas où l'on ne se limite pas à une caméra à sténopé, il existe d'autres modèles de distorsion et de calibration de ces paramètres de distorsion qae ceux mentionnés ci-dessus, par exemple
30 ceux indiqués dans l'article de J.Weng, P.Cohen, M.Herniou : Camera calibration with distorsion models and accuracy evaluation , IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(10), p.965-980, October 1992.
Les coordonnées homogènes d'un point C, dans R' sont généralement: notées [u, v, 1]T (l'exposant T désignant une transposition) et les coordonnées d'un point corrigé D1 sont sous la forme kl. [u1, vl, 1]T, où k1 désigne la profondeur sur l'axe optique entre les points donnés correspondants P1 et D1 (k1. u1 et k1. v1 désignant les coordonnées corrigées de la distorsion). Alors l'équation qui résulte de la correspondance biunivoque entre des points donnés de la scène et les points de l'image corrigés des effets de distorsion peut s'écrire sous la forme : D1 = II. K. P1 , l'inversion de cette relation permettant de passer d'un point donné P1 à un point: donné correspondant D1. L'unité de calcul de l'ordinateur (5) est bien sûr apte à corriger des effets de distorsion les images reçues de la caméra. L'unité de calcul est aussi apte à effectuer une transformation de perspective inverse sur les points, corrigés des effets de distorsion, d'une image reçue de la caméra. La transformation de perspective inverse est bien connue dans le domaine du traitement d'image, il est simplement rappelé qu'elle consiste à associer à un point (ou pixel) D du plan image P de la caméra un point D' sur la surface de référence, ici le sol, ce point D' désignant l'intersection avec la surface de référence de la droite (ou rayon optique) joignant le centre optique C 25 2899363 de la caméra au point (ou pixel) D du plan image, le centre optique C étant à la distance f du plan image P (le long de l'axe optique) comme indiqué sur la figure 2. La position dans l'espace du plan image est connue à 5 partir des données mémorisées de pose et de calibrage de la caméra, et la position dans l'espace de la surface de référence est connue à partir des données mémorisées de surface de référence relatives à sa forme et à sa position. Ainsi, à une image enregistrée par la 10 caméra on fait correspondre une image transformée obtenue par projection sur la surface de référence selon les rayons optiques (passant par le centre optique). Le résultat de la transformation de perspective inverse est de former des taches de pixels 15 colorés sur l'image du sol, qui constituent une image transformée. Il est possible d'effectuer en outre une opération d'interpolation de manière à remplir des espaces qui apparaîtraient entre les taches et aussi de mélanger des taches qui se recouvrent. 20 Le plus souvent, le sol est considéré comme plan de façon à simplifier les calculs (ainsi que représenté sur la figure 2). Cependant, le cas non plan peut tout à fait être traité : il suffit d'effectuer le calcul de l'intersection du rayon optique provenant du plan image 25 avec la surface de référence (surface du sol) dont les paramètres de position et de forme sont donnés (et stockés en mémoire), on texture ainsi la surface de référence avec l'image reçue de la caméra. Par la suite, on peut effectuer la détection du mouvement à 30 partir des variations d'intensité de couleur des pixels de l'image obtenue par projection sur la surface non plane. On peut aussi d'abord projeter la surface non plane sur un plan de référence qui est ainsi texturé, puis effectuer une transformation de perspective inverse d'une image par projection sur ce plan de référence texturé selon les rayons optiques (comme dans le cas plan ordinaire).
La transformation de perspective inverse compense naturellement le mouvement de la caméra par rapport au sol. Elle a aussi la propriété de ne pas déformer des objets ou des marques au niveau du sol, et de fortement déformer les parties d'objets se trouvant au dessus du sol, comme cela est visible sur la figure 3. L'image de la scène (6) prise par la caméra (1) est représenté sur la figure 3A, on y voit un objet de petite taille posé sur le sol (7), une marque au niveau du sol (8) et un piéton en mouvement (9). La figure 3B
représente l'image transformée obtenue par une transformation de perspective inverse: l'objet (7) et la marque (8) ne sont pas déformés alors que le corps du piéton (9) est fortement déformé.
Lors de l'exécution de l'étape (a) du procédé de détection de mouvement selon l'invention, l'unité de calcul de l'ordinateur de bord (5) calcule une série d'images transformées par perspective inverse à partir d'une série correspondante d'images successives de la scène (6) reçues de la caméra (1). A partir de cette pluralité d'images transformées, l'unité de calcul détermine ensuite une carte de fond en calculant une différence d'intensité de couleur entre chacun des pixels correspondants d'au moins deux images transformées sélectionnées parmi la pluralité d'images 27 2899363 transformées obtenues, et, chaque fois que la différence d'intensité de couleur entre des pixels correspondants des images transformées sélectionnées est suffisamment faible, en attribuant au pixel de la 5 carte de fond leur correspondant une valeur effective d'intensité de couleur proche de la valeur moyenne des intensités de couleur desdits pixels correspondants. Chaque pixel de la carte de fond auquel a été ainsi attribuée une valeur effective d'intensité de couleur 10 constitue un pixel coloré. Il s'agit là d'opérations classiques d'accumulation pour créer une image de fond et de différentiation pour détecter des variations d'intensité de couleur. Toutefois, ces opérations sont ici effectuées sur les images transformées au lieu des 15 images directement reçues de la caméra (1). Ensuite, l'unité de calcul effectue une opération de masquage de zone sur la dernière image transformée de la pluralité d'images transformées successives, et stocke les données de masquage de zone obtenues en 20 mémoire. Pour réaliser cette étape, l'unité de calcul de l'ordinateur de bord (5) prend en compte des données d'objet statique reçues, et mémorisées, relatives à des objets de la scène détectés comme étant statiques par un dispositif de détection d'objet statique. Ces 25 données représentent des formes 2D (bidimensionnelles) ou 3D (tridimensionnelles) délimitant les limites perçues des objets statiques. L'unité de calcul utilise ces données pour calculer quelles sont les zones de l'image transformée de la scène qui sont masquées par 30 un objet statique détecté. L'unité de calcul effectue une projection sur le sol des données de formes 3D reçues et utilise l'enveloppe convexe entourant la projection de chaque forme comme forme 2D au niveau du sol. Les zones de l'image transformée se trouvant derrière les formes 2D par rapport à la position de la
caméra (1) sont alors masquées. Ce masquage peut être assimilé à la création d'un mur opaque vertical
reposant sur les contours des fermes 2D, et l'utilisation de la projection de ce mur dans la transformation de perspective inverse pour effectuer le
masquage de zones. Eventuellement, il est possible de limiter ce masquage à la hauteur détectée des objets (comme si on limitait la hauteur du mur), à condition que le détecteur d'objet statique soit un détecteur 3D. Cette étape est illustrée sur les figures 4A et 4B. La
figure 4A représente une image enregistrée par la caméra (1) sur laquelle apparaît un objet statique, à savoir un véhicule (10) parqué sur la gauche d'une rue. La figure 4B représente une image transformée par perspective inverse obtenue à partir de l'image de la
figure 4A : on y voit l'empreinte au sol (11) du véhicule (10) et la zone (12) de l'image transformée occultée (pour la caméra) par ce véhicule.
A partir de la dernière image transformée parmi la pluralité des images transformées calculées,
de la carte de fond et des données de masquage de zone correspondantes, l'unité de calcul établit une carte de probabilité de mouvement correspondante qui associe une valeur de probabilité de présence de mouvement à chaque pixel correspondant à un pixel coloré de la carte de fond. Pour cela, l'unité de calcul attribue une forte probabilité de mouvement à chaque pixel pour lequel le pixel coloré correspondant de la carte de fond et le pixel correspondant de la dernière image ont des valeurs d'intensité de couleur qui diffèrent fortement, et attribue une faible probabilité de mouvement à
chaque pixel pour lequel le pixel coloré correspondant de la carte de fond et le pixel correspondant de la dernière image ont des valeurs d'intensité de couleur qui diffèrent peu. De plus, l'unité de calcul réduit la probabilité de mouvement ainsi attribuée à un pixel
lorsque ce pixel se trouve dans une zone masquée. La carte de probabilité de mouvement ainsi obtenue est alors stockée en mémoire. Au cours du processus de
différentiation d'images, pour éviter d'effectuer plusieurs fois un calcul sur un même pixel, il est
possible, par exemple, de marquer les pixels de la carte de fond avec des attributs (tels qu'appartenir à un obstacle 3D ou appartenir à un objet en mouvement), de façon à accélérer le traitement. Le calcul ce probabilité de mouvement peut dépendre
d'un ou plusieurs critères tels que, par exemple, l'historique de chaque pixel coloré (pour détecter si son intensité de couleur change ou pas sur plusieurs images), l'historique du statut du pixel (pour détecter s'il a été déjà marqué comme appartenant à un obstacle)
ou sur le statut courant du pixel, ou encore en fonction de son statut passé d'appartenance à un mouvement. Ensuite, l'unité de calcul effectue un filtrage de la carte de probabilité de mouvement
obtenue, en déterminant sur cette carte des régions connexes dans lesquelles chaque pixel est associé à une probabilité de présence de mouvement suffisamment élevée, et stocke en mémoire la carte de probabilité de mouvement filtrée obtenue. Cette détermination de région connexes peut être réalisée selon diverses techniques de segmentation d'images bien connues dont quelques unes sont décrites en détail dans les références suivantes: Morel J.M., Solimini S., Variatione:l Methods in Image Segmentation , PNDLE, vol.14, Birkhanser, Basel (1994) ; Harlick R.M., Shapiro L.G., Image segmentation techniques , Computer Vision, Graphics and Image Processing, vol.29, p.100-132, jan. 1985. Dans l'exemple décrit ici, l'unité de calcul met en œuvre une méthode connue de type d'agrégats ( blobs ), qui est décrite en détail dans l'article de R.Kauth, A.Pentland, G.Thomas, Blob: an unsupervised clustering approach to spatial preprocessing of mss imagery , Proceedings of the llth International Symposium on Remote Sensing of the Environment, Ann Harbor MI, p.1309-1317, 1977. Ainsi, une liste de régions connexes est crée, et pour chacune d'entre elles des calculs statistiques sont effectués pour obtenir une bonne et fiable caractérisation de leur forme. Il est aussi possible de rendre flous les résultats statistiques obtenus (pour utiliser ensuite des algorithmes de logique floue) et de les fusionner pour calculer la probabilité qu'une région connexe appartienne à un obstacle de type donné (par exemple, on peut détecter un mouvement d'un humain en cherchant une région connexe allongée dans la direction de la caméra, ou un véhicule en cherchant une région connexe plus compacte et de taille suffisante).
Ensuite, l'unité de calcul décide, pour chaque région connexe de la carte de probabilité de mouvement filtrée qui a été déterminée, si cette région connexe correspond à la présence d'un mouvement d'objet, sur la base d'un critère de détection de mouvement donné, de façon à obtenir la carte de mouvement, puis stocke la carte de mouvement en mémoire. Le critère de détection de mouvement sur chaque région connexe peut, par exemple, être basé sur la surface de la région connexe (pour éliminer les bruits parasites de l'image), ou sur la forme de la région connexe, ou sur l'orientation des objets concernés (ici, les objets verticaux sont orientés vers la caméra dans la transformation de perspective inverse), ou sur le suivi de la région connexe à plusieurs instants (par filtrage de Kalman sur le déplacement de la région connexe), ou encore sur la position de la région connexe (ce critère est utile si l'on sait que certaines parties de la carte ne peuvent pas contenir un objet en mouvement). Bien sûr il est aussi possible de combiner plusieurs de ces critères pour former un critère multiple de détection.
Dans une variante du dispositif de détection de mouvement selon l'invention, l'unité de calcul est en outre apte à effectuer une opération de localisation d'un objet en mouvement au niveau de la surface de référence sur la carte de mouvement obtenue précédemment, à partir du calcul de la localisation de la projection du centre optique de la caméra sur la surface de référence, en déterminant pour chaque région 32 2899363 connexe de la carte de mouvement le point le plus proche de cette projection du centre optique, chaque point ainsi déterminé correspondant à un point de contact d'un objet en mouvement sur la surface de 5 référence. ='ses données de localisation d'objet obtenues sont alors mémorisées.
Dans une autre variante du dispositif de détection de mouvement selon l'invention, l'unité de 10 calcul est en outre apte à détecter sur la dernière image de la pluralité d'images transformées des pixels qui correspondent à la portion de surface de référence, à partir des données de surface de référence en mémoire, et attribuer à chaque pixel de la carte de 15 probabilité de mouvement qui correspond à un pixel détecté comme correspondant à la surface de référence une probabilité de mouvement nulle. La carte de mouvement ainsi modifiée étant stockée en mémoire. L'unité de calcul de l'ordinateur de bord (5) est donc 20 capable de détecter le sol pour mieux mettre en relief les obstacles détectés (statiques ou en mouvement). Une telle détection du sol peut se faire, par exemple, à l'aide d'une méthode connue de croissance de région par niveaux de gris. Dans cette méthode, des germes de 25 croissance de région sont choisis sur une image transformée de façon à être aussi proches que possible du véhicule (2) si aucun mouvement n'a été détecté dans le voisinage. Cette méthode utilise des seuils de niveau de gris qui sont mis à jour au cours de la 30 croissance (par ajout de pixels) de façon à prendre en compte des changements de conditions d'illumination de la scène ou des changement de couleur du sol. Cette méthode est illustrée sur la figure 5, par des images correspondant à des itérations de cette croissance de région par niveaux de gris : des nouveaux pixels (initialisés sous forme de germe), candidats potentiels à représenter le sol, sont testés et ajoutés (s'ils
n'appartien:Tlent pas à un objet statique ou en mouvement) aux pixels déjà détectés du sol à chaque itération. A la fin du processus, une carte binaire de pixels du sol dans l'image transformée est obtenue. D'autres méthodes connues de détection du sol peuvent être utilisées dans des variantes de l'invention, par exemple la méthode de segmentation à base de texture des images pour déterminer des zones de texture semblables (voir l'article de J.Zhang, H.Nagel,
Texture-based segmentation of road images , Proceedings of IEEE Intelligent Vehicies Symposium, p.260-265, 1994), ou bien la méthode de détection de route par groupement des zones d'orientation commune (voir l'article de Rasmussen C., Texture-Based Vanishing Point Voting for Road Shape Estimation , Proceedings of British Machine Vision Conference, 2004).
Dans une autre variante du dispositif de détection de mouvement selon l'invention, l'unité de calcul est en outre apte à détecter sur une image transformée précédant ladite dernière image transformée des pixels qui correspondent à la portion de surface de référence, et: attribuer à chaque pixel de la carte de probabilité de mouvement ayant une probabilité de mouvement nor nulle et ayant été détecté dans l'image transformée précédente comme appartenant à la surface de référence, une probabilité de mouvement plus forte, et stocker en mémoire la carte de probabilité de mouvement ainsi modifiée.
La figure 6 est une illustration à l'aide d'images des diverses étapes de détection de mouvement selon une variante de l'invention. Sur la figure 6 sont représentées: une image courante (20) enregistrée par la caméra (1), c'est-à-dire la dernière image d'une pluralité d'images successives (21) enregistrées par la caméra, une image (22) représentant le résultat de la transformation de perspective inverse sur l'image courante (20), sur l'image (23) un traitement de détection du sol a été effectué, puis en (24) une opération de masquage d'objet statique a eu lieu. En (25) une carte de fond est obtenue, et en (26) une carte de mouvement est obtenue. Un filtrage par logique floue est effectué sur la carte de mouvement (26) pour détecter une région connexe correspondant à un piéton, représenté sur l'image (27). Enfin (2E) désigne une carte de mouvement sur laquelle sont identifiés en (29) un obstacle masqué, en (30) un mouvement détecté, en (31) le sol détecté, et en (32) un mouvement apparent filtré.
De tels résultats de détection de mouvement peuvent aussi être affichés sur un écran disposé dans le véhicule, pour permettre au conducteur du véhicule (2) d'apprécier des risques de collision et de piloter le véhicule en conséquence.
Les résultats de détection de mouvement délivrés par le dispositif de détection de mouvement 2899363 peuvent aussi être transmis à un dispositif d'alerte anti-collision. L'unité de calcul peut en effet évaluer un risque de collision du véhicule (2) avec un objet statique ou un objet dont le mouvement a été détecté, 5 puis transmettre les résultats de cette évaluation au dispositif d'alerte anti-collision pour prévenir d'une telle collision. Le conducteur peut alors, par exemple, apprécier le risque de collision avec un objet à partir de données de visualisation de risque calculées et 10 transmises oar l'unité de calcul au dispositif anticollision pour les afficher à l'écran. Ces données de visualisation de risque de collision peuvent consister en une zone colorée qui permet au conducteur d'apprécier le risque. Par exemple, la couleur ou 15 l'intensité de couleur de cette zone affichée à l'écran peuvent permettre une appréciation intuitive du risque (par exemple, une couleur verte indiquera un risque faible, une couleur rouge, voire clignotante, indiquera un risque élevé). 20 Une image de la scène peut aussi être transmise par l'unité de calcul de l'ordinateur de bord (5) pour être affichée à l'écran, la zone colorée d'indication de risque de collision étant incrustée sur l'image de la scène. De plus, la forme de la zone colorée pour 25 apprécier le risque de collision avec un objet peut correspondre à une empreinte au niveau du sol de cet objet. Cette dernière configuration permet au conducteur non seulement d'apprécier intuitivement le niveau de risque de collision mais aussi de manœuvrer 30 pour éviter l'objet. 36 2899363 Les modes de réalisation décrits du dispositif de détection de mouvement selon l'invention, ainsi que d'autres modes de réalisation résultent, à l'évidence, de la mise en œuvre par ce dispositif des 5 diverses variantes du procédé de détection de mouvement selon l'invention décrit plus haut, et correspondent aux revendications annexées.
10 15

Claims (22)

REVENDICATIONS
1. Procédé de détection de mouvement d'un objet d'une scène (6) comprenant une portion d'une surface de référence, à partir du traitement par une unité de calcul d'une pluralité d'images de la scène enregistrées par une caméra (1) calibrée apte à se mouvoir par_ rapport à la surface de référence, dans lequel: des données de surface de référence, relatives à la forme et à la position de la portion de surface de référence, sont stockées dans une mémoire de l'unité de calcul; des valeurs des paramètres de pose et de calibrage de la caméra étant données pour chaque image de la scène enregistrée par la caméra et transmise à l'unité de calcul, ces valeurs sont stockées dans la mémoire de l'unité de calcul; et l'unité de calcul est apte à recevoir des données d'objet statique relatives à des objets statiques par rapport à la portion de surface de référence détectés dans la scène et à stocker ces données dans la mémoire, et à transmettre des données mémorisées, caractérisé en ce qu'il comporte les étapes suivantes consistant à, au moyen de l'unité de calcul: (a) effectuer une transformation de perspective inverse sur chaque image d'une pluralité d'images successives 21) de la scène enregistrées par la caméra et transmises à l'unité de calcul, par rapport à la portion de surface de référence, à partir des données 38 2899363 de surface de référence et des paramètres correspondants de pose et de calibrage de la caméra stockés en mémoire, pour obtenir une pluralité d'images transformées correspondantes; 5 (a') déterminer pour chaque objet statique (10) détecté une zone (12) d'image transformée correspondante qui est masquée pour la caméra par cet objet à partir des données d'objet statique et des paramètres correspondants de pose de la caméra en 10 mémoire et effectuer une opération de masquage de cette zone, et, en tenant compte de chaque zone masquée déterminée, calculer une carte de mouvement (26) formée de pixels dont chacun est associé à une présence de mouvement d'objet par rapport à la portion de surface 15 de référence à partir du calcul de variation d'intensité de couleur entre des pixels correspondants d'images transformées obtenue à l'étape (a).
2. Procédé de détection de mouvement selon la 20 revendication 1, dont l'étape (a') comprend les étapes consistant à: établir une carte de probabilité de mouvement en associant une valeur de probabilité de présence de mouvement à chaque pixel dont des pixels correspondants 25 d'images transformées sélectionnées parmi celles obtenues à L'étape (a) ont des valeurs d'intensité de couleur qui varient peu d'une image à l'autre, en tenant compte de chaque zone masquée pour la caméra, la probabilité de mouvement associée à un pixel étant 30 d'autant plus forte que la valeur d'intensité de couleur du pixel correspondant de la dernière image 39 2899363 transformée obtenue à l'étape (a) diffère davantage de celles des pixels correspondants des images transformées sélectionnées, et former la carte de mouvement dont chaque pixel correspond à un pixel de la 5 carte de probabilité de mouvement pour lequel il est décidé qu'il est associé à un mouvement en fonction de la probabilité de mouvement qui lui est associée.
3. Procédé de détection de mouvement selon la 10 revendication 1 ou 2, dont l'étape (a') comprend les étapes consistant à, au moyen de l'unité de calcul: (b) déterminer une carte de fond (25) en calculant une différence d'intensité de couleur entre chacun des pixels correspondants d'au moins deux images 15 transformées sélectionnées parmi la pluralité d'images transformées obtenues en (a), et, chaque fois que la différence d'intensité de couleur entre des pixels correspondants des images transformées sélectionnées est suffisamment faible, en attribuant au pixel de la 20 carte de fond leur correspondant une valeur effective d'intensité de couleur proche de la valeur moyenne des intensités de couleur desdits pixels correspondants, chaque pixel de la carte de fond auquel été attribuée une valeur effective d'intensité de couleur constituant 25 un pixel coloré; (c) effectuer l'opération de masquage de zone sur la dernière image transformée (22) de la pluralité d'images transformées successives obtenue à l'étape (a), et stocker les données de masquage de zone 30 obtenues en mémoire; 40 2899363 (d) établir à partir de la dernière image transformée parmi la pluralité des images transformées obtenues en (a), de la carte de fond obtenue en (b) et des données de masquage de zone correspondantes 5 obtenues en (c), la carte de probabilité de mouvement correspondante qui associe une valeur de probabilité de présence de mouvement à chaque pixel correspondant à un pixel coloré de la carte de fond, en attribuant une forte probabilité de mouvement à chaque pixel pour 10 lequel le pixel coloré correspondant de la carte de fond et le pixel correspondant de ladite dernière image ont des valeurs d'intensité de couleur qui diffèrent fortement, en attribuant une faible probabilité de mouvement à chaque pixel pour lequel le pixel coloré 15 correspondant de la carte de fond et le pixel correspondant de ladite dernière image ont des valeurs d'intensité de couleur qui diffèrent peu, et en réduisant la probabilité de mouvement ainsi attribuée à un pixel lorsque ce pixel se trouve dans une zone 20 masquée, et: stocker la carte de probabilité de mouvement obtenue en mémoire; (e) effectuer un filtrage de la carte de probabilité de mouvement obtenue en (d), en déterminant sur cette carte des régions connexes dans lesquelles 25 chaque pixel est associé à une probabilité de présence de mouvement suffisamment élevée, et stocker en mémoire la carte de probabilité de mouvement filtrée obtenue; (f) décider, pour chaque région connexe de la carte de probabilité de mouvement filtrée déterminée à 30 l'étape précédente, si cette région connexe correspond à la présence d'un mouvement d'objet, sur la base d'un 41 2899363 critère de détection de mouvement don-lé, de façon à obtenir la carte de mouvement.
4. Procédé de détection de mouvement selon la 5 revendication 3, comprenant en outre une étape consistant à: (g) localiser au moyen de l'unité de calcul un objet en mouvement au niveau de la surface de référence sur la carte de mouvement obtenue à l'étape (f), à 10 partir du calcul de la localisation de la projection du centre optique (C) de la caméra sur la surface de référence, en déterminant pour chaque région connexe de la carte de mouvement obtenue à l'étape (e) le point le plus proche de cette projection du centre optique, 15 chaque point ainsi déterminé correspondant à un point de contact d'un objet en mouvement sur la surface de référence.
5. Procédé de détection de mouvement selon la 20 revendication 4, comprenant en outre une étape consistant à: (h) à partir d'une pluralité de cartes de mouvement consécutives dans le temps obtenues selon l'étape (g), effectuer au moyen de l'unité de calcul un suivi des 25 positions consécutives de points représentatifs correspondant de ladite pluralité de cartes de mouvement, chacun de ces points représentatifs correspondant à un point de contact d'un objet en mouvement sur la surface de référence, de façon à 30 déterminer des positions futures de ces points représentatifs. 42 2899363
6. Procédé de détection de mouvement selon l'une quelconque des revendications 2 à 5, comprenant en 5 outre les étapes consistant à, au moyen de l'unité de calcul: détecter sur la dernière image de la pluralité d'images transformées obtenues à l'étape (a) des pixels qui correspondent à la portion de surface de référence, 10 à partir des données de surface de référence en mémoire; et attribuer à chaque pixel de la carte de probabilité de mouvement qui correspond à un pixel détecté comme correspondant à la surface de référence une probabilité 15 de mouvement nulle.
7. Procédé de détection de mouvement selon la revendication 6, comprenant en outre les étapes consistant à, au moyen de l'unité de calcul: 20 détecter sur une image transformée précédant ladite dernière image transformée des pixels qu__ correspondent à la portion de surface de référence; et attribuer à chaque pixel de la carte de probabilité de mouvement ayant une probabilité de mouvement non 25 nulle et ayant été détecté dans l'image transformée précédente comme appartenant à la surface de référence, une probabilité de mouvement plus forte.
8. Dispositif de détection de mouvement d'un objet 30 d'une scène (6) comprenant une portion d'une surface de référence, comportant: 43 2899363 un support (2) apte à se mouvoir par rapport à la surface de référence, et muni d'un capteur de position (4) apte transmettre des données de position du support dans un référentiel spatial de base lié à la 5 surface de référence; une caméra (1) montée sur le support (2), apte à enregistrer des images de la scène (6) et à transmettre les images enregistrées, et dont les paramètres de pose relativement au support et les paramètres internes de 10 calibrage sont donnés; une unité de calcul (5) apte à recevoir des données de surface de référence relatives à la forme et à la position de la portion de surface de référence, des données de position du support transmises par le 15 capteur de position (4), des données d'image transmises par la caméra (1), des données de paramètres de pose de la caméra relativement au support et de paramètres internes de calibrage de la caméra, et des données d'objet statique relatives à des objets statiques 20 détectés dans la scène transmises depuis l'extérieur, l'unité de calcul étant apte à calculer des paramètres de pose de la caméra relativement au référentiel de base, à effectuer un traitement des données d'image reçues et comportant une mémoire apte à stocker les 25 données reçues et calculées, l'unité de calcul étant aussi apte à transmettre des données mémorisées; caractérisé en ce que l'unité de calcul est apte à réaliser les opérations consistant à: (a) effectuer une transformation de perspective 30 inverse sur chaque image d'une pluralité d'images successives (21) de la scène (6) reçues la caméra (1), 44 2899363 par rapport à la portion de surface de référence, à partir des données de surface de référence et des paramètres correspondants de pose et de calibrage de la caméra stockés en mémoire, pour obtenir une pluralité 5 d'images transformées correspondantes; et (a') déterminer pour chaque objet statique (10) détecté une zone d'image transformée (12) correspondante qui est masquée pour la caméra par cet objet à partir des données d'objet statique et des 10 paramètres correspondants de pose de la caméra en mémoire et effectuer une opération de masquage de cette zone, et, en tenant compte de chaque zone masquée déterminée, calculer une carte de mouvement (26) formée de pixels dont chacun est associé à une présence de 15 mouvement d'objet par rapport à la portion de surface de référence à partir du calcul de variation d'intensité de couleur entre des pixels correspondants d'images transformées obtenue en (a), et stocker en mémoire la carte de mouvement. 20
9. Dispositif de détection de mouvement selon la revendication 8, dans lequel l'unité de calcul est en outre apte à réaliser l'opération consistant à: établir une carte de probabilité da mouvement en 25 associant une valeur de probabilité de présence de mouvement à chaque pixel dont des pixels correspondants d'images transformées sélectionnées parmi celles obtenues en (a) ont des valeurs d'intensité de couleur qui varient peu d'une image à l'autre, en tenant compte 30 de chaque zone masquée pour la caméra, la probabilité de mouvement associée à un pixel étant d'autant plus 45 2899363 forte que la valeur d'intensité de couleur du pixel correspondant de la dernière image transformée obtenue en (a) diffère davantage de celles des pixels correspondants des images transformées sélectionnées, 5 et former la carte de mouvement dont chaque pixel correspond à un pixel de la carte de probabilité de mouvement pour lequel il est décidé qu'il est associé à un mouvement en fonction de la probabilité de mouvement qui lui est associée. 10
10. Dispositif de détection de mouvement selon la revendication 8 ou 9, dans lequel l'unité de calcul est en outre apte à réaliser l'opération consistant à: (b) déterminer une carte de fond (25) en calculant 15 une différence d'intensité de couleur entre chacun des pixels correspondants d'au moins deux images transformées sélectionnées parmi la pluralité d'images transformées obtenues en (a), et, chaque fois que la différence d'intensité de couleur entre des pixels 20 correspondants des images transformées sélectionnées est suffisamment faible, en attribuant au pixel de la carte de fond leur correspondant une valeur effective d'intensité de couleur proche de la valeur moyenne des intensités de couleur desdits pixels correspondants, 25 chaque pixel de la carte de fond auquel a été attribuée une valeur effective d'intensité de couleur constituant un pixel coloré; (c) effectuer l'opération de masquage de zone sur la dernière image transformée (22) de la pluralité 30 d'images transformées successives obtenue en (a), et 46 2899363 stocker les données de masquage de zone obtenues en mémoire; (d) établir à partir de la dernière image transformée parmi la pluralité des images transformées 5 obtenues en (a), de la carte de fond obtenue en (b) et des données de masquage de zone correspondantes obtenues en (c), la carte de probabilité de mouvement correspondante qui associe une valeur de probabilité de présence de mouvement à chaque pixel correspondant à un 10 pixel coloré de la carte de fond, en attribuant une forte probabilité de mouvement à chaque pixel pour lequel le pixel coloré correspondant de la carte de fond et le pixel correspondant de ladite dernière image ont des valeurs d'intensité de couleur qui diffèrent 15 fortement, en attribuant une faible probabilité de mouvement à chaque pixel pour lequel le pixel coloré correspondant de la carte de fond et le pixel correspondant de ladite dernière image ont des valeurs d'intensité de couleur qui diffèrent. peu, et en 20 réduisant la probabilité de mouvement ainsi attribuée à un pixel lorsque ce pixel se trouve dans une zone masquée, et stocker la carte de probabilité de mouvement obtenue en mémoire; (e) effectuer un filtrage de la carte de 25 probabilité de mouvement obtenue en (d), en déterminant sur cette carte des régions connexes dans lesquelles chaque pixel est associé à une probabilité de présence de mouvement suffisamment élevée, et stocker en mémoire la carte de probabilité de mouvement filtrée obtenue; 30 (f) décider, pour chaque région connexe de la carte de probabilité de mouvement filtrée déterminée à 47 2899363 l'étape précédente, si cette région connexe correspond à la présence d'un mouvement d'objet, sur la base d'un critère de détection de mouvement donné, de façon à obtenir la carte de mouvement. 5
11. Dispositif de détection de mouvement selon la revendication 10, dans lequel l'unité de calcul est en outre apte à réaliser l'opération consistant à: (g) localiser un objet en mouvement au niveau de la 10 surface de référence sur la carte de mouvement obtenue en (f), à partir du calcul de la localisation de la projection du centre optique (C) de la caméra sur la surface de référence, en déterminant pour chaque région connexe de la carte de mouvement obtenue en (e) le 15 point le plus proche de cette projection du centre optique, chaque point ainsi déterminé correspondant à un point de contact d'un objet en mouvement sur la surface de référence, et mémoriser les données de localisation d'objet. 20
12. Dispositif de détection de mouvement selon la revendication 11, dans lequel l'unité de calcul est en outre apte à réaliser l'opération consistant à: (h) à partir d'une pluralité de cartes de mouvement 25 consécutives dans le temps obtenues en (g), effectuer un suivi des positions consécutives de points représentatifs correspondant de ladite pluralité de cartes de mouvement, chacun de ces points représentatifs correspondant à un point de contact d'un 30 objet en mouvement sur la surface de référence, de 48 2899363 façon à déterminer des positions futures de ces points représentatifs.
13. Dispositif de détection de mouvement selon l'une 5 quelconque des revendications 9 à 12, dans lequel l'unité de calcul est en outre apte à réaliser l'opération consistant à: détecter sur la dernière image de la pluralité d'images transformées obtenues à l'étape (a) des pixels 10 qui correspondent à la portion de surface de référence, à partir des données de surface de référence en mémoire; et attribuer à chaque pixel de la carte de probabilité de mouvement qui correspond à un pixel détecté comme 15 correspondant à la surface de référence une probabilité de mouvement nulle, et stocker en mémoire la carte de mouvement ainsi modifiée.
14. Dispositif de détection de mouvement selon la 20 revendication 13, dans lequel l'unité de calcul est en outre apte à réaliser l'opération consistant à: détecter sur une image transformée précédant ladite dernière image transformée des pixels qui correspondent à la portion de surface de référence; et 25 attribuer à chaque pixel de la carte de probabilité de mouvement ayant une probabilité de mouvement non nulle et ayant été détecté dans l'image transformée précédente comme appartenant à la surface de référence, une probabilité de mouvement plus forte, et stocker en 30 mémoire la carte de probabilité de mouvement ainsi modifiée. 49 2899363
15. Dispositif de détection de mouvement selon l'une quelconque des revendications 8 à 14, incorporant un dispositif de détection d'objet statique apte à 5 détecter un objet statique dans la scène et à transmettre les données relatives à un objet statique détecté à l'unité de calcul.
16. Dispositif de détection de mouvement selon l'une 10 quelconque des revendications 8 à 15, apte à transmettre des données de la carte de mouvement à un opérateur.
17. Dispositif de détection de mouvement selon l'une 15 quelconque des revendications 8 à 16, incorporant un dispositif d'alerte anti-collision, dans lequel l'unité de calcul est en outre apte à évaluer des données de risque de collision avec un objet de la scène à partir des données de carte de mouvement et à transmettre ces 20 données de risque de collision au dispositif d'alerte anti-collision.
18. Dispositif de détection de mouvement selon la revendication 12 et l'une quelconque des revendications 25 8 à 16, incorporant un dispositif d'alerte anticollision, dans lequel l'unité de calcul est en outre apte à évaluer des données de risque de collision avec un objet de la scène à partir des données déterminées de position future de points représentatifs et à 30 transmettre ces données de risque de collision au 50 2899363 dispositif d'alerte anti-collision de façon à anticiper un risque de collision.
19. Dispositif de détection de mouvement selon l'une 5 quelconque des revendications 17 ou 18, dans lequel le dispositif d'alerte anti-collision est apte à transmettre des informations relatives à un risque de collision avec un objet de la scène à un opérateur. 10
20. Dispositif de détection de mouvement selon la revendication 19, dans lequel l'unité de calcul est apte à transmettre une image de la scène à un écran apte à afficher l'image reçue, l'unité de calcul est apte à calculer des données de visualisation de risque 15 de collision avec l'objet de la scène à partir de l'évaluation du risque de collision avec l'objet et à transmettre ces données de visualisation de risque à l'écran, l'écran affichant lesdites données de visualisation en incrustation sur l'image de la scène. 20
21. Dispositif de détection de mouvement selon l'une quelconque des revendications 8 à 20, connecté à un dispositif de correction apte à modifier le mouvement du support relativement à la surface de référence sur 25 la base de données transmises par le dispositif de détection de mouvement.
22. Véhicule (2) apte à se déplacer sur un sol caractérisé en ce qu'il est équipé du dispositif de 30 détection de mouvement selon l'une quelconque des revendications 8 à 21, le véhicule constituant le 51 2899363 support de la caméra (1) et le sol environnant le véhicule constituant la surface de référence.
FR0602808A 2006-03-31 2006-03-31 Procede et dispositif de detection de mouvement d'objets sur des images d'une scene Expired - Fee Related FR2899363B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0602808A FR2899363B1 (fr) 2006-03-31 2006-03-31 Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
JP2007091836A JP4967758B2 (ja) 2006-03-31 2007-03-30 物体移動の検出方法及び検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0602808A FR2899363B1 (fr) 2006-03-31 2006-03-31 Procede et dispositif de detection de mouvement d'objets sur des images d'une scene

Publications (2)

Publication Number Publication Date
FR2899363A1 true FR2899363A1 (fr) 2007-10-05
FR2899363B1 FR2899363B1 (fr) 2009-05-29

Family

ID=38508738

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0602808A Expired - Fee Related FR2899363B1 (fr) 2006-03-31 2006-03-31 Procede et dispositif de detection de mouvement d'objets sur des images d'une scene

Country Status (2)

Country Link
JP (1) JP4967758B2 (fr)
FR (1) FR2899363B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103448652A (zh) * 2012-06-04 2013-12-18 宏达国际电子股份有限公司 行车警示方法及其电子装置
CN111301328A (zh) * 2020-02-24 2020-06-19 南京理工大学 基于3d视觉技术的货车全景倒车影像系统及使用方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015108759A1 (de) * 2015-06-03 2016-12-08 Valeo Schalter Und Sensoren Gmbh Verfahren zum Klassifizieren eines länglich ausgedehnten stationären Objektes in einem seitlichen Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US11915451B2 (en) * 2019-02-01 2024-02-27 Siemens Aktiengesellschaft Dense 6-DoF pose object detector
CN111144388B (zh) * 2020-04-03 2020-07-14 速度时空信息科技股份有限公司 一种基于单目影像的道路标志标线的更新方法
US11885638B2 (en) 2020-12-28 2024-01-30 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for generating a map for a robot
CN113436273A (zh) * 2021-06-28 2021-09-24 南京冲浪智行科技有限公司 一种3d场景定标方法、定标装置及其定标应用

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991439A (ja) * 1995-09-26 1997-04-04 Fuji Electric Co Ltd 物体監視装置
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
WO2005038710A1 (fr) * 2003-10-17 2005-04-28 Matsushita Electric Industrial Co., Ltd. Procede de determination de mouvement d'unite mobile, dispositif et systeme de navigation

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ANANDAN P: "A COMPUTATIONAL FRAMEWORK AND AN ALGORITHM FOR THE MEASUREMENT OF VISUAL MOTION", INTERNATIONAL JOURNAL OF COMPUTER VISION, KLUWER ACADEMIC PUBLISHERS, NORWELL, US, vol. 2, no. 3, January 1989 (1989-01-01), pages 283 - 310, XP008055537, ISSN: 0920-5691 *
BROGGI A: "A massively parallel approach to real-time vision-based road markings detection", INTELLIGENT VEHICLES '95 SYMPOSIUM., PROCEEDINGS OF THE DETROIT, MI, USA 25-26 SEPT. 1995, NEW YORK, NY, USA,IEEE, US, 25 September 1995 (1995-09-25), pages 84 - 89, XP010194098, ISBN: 0-7803-2983-X *
NIEMANN H ET AL: "INTEGRATED MOTION AND GEOMETRY BASED OBSTACLE DETECTION IN IMAGE SEQUENCES OF TRAFFIC SCENES", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 2736, 8 April 1996 (1996-04-08), pages 228 - 239, XP008052435, ISSN: 0277-786X *
VESTRI C ET AL: "Evaluation of a vision-based parking assistance system", INTELLIGENT TRANSPORTATION SYSTEMS, 2005. PROCEEDINGS. 2005 IEEE VIENNA, AUSTRIA 13-16 SEPT. 2005, PISCATAWAY, NJ, USA,IEEE, 13 September 2005 (2005-09-13), pages 56 - 60, XP010842998, ISBN: 0-7803-9215-9 *
WYBO S ET AL: "Improving backing-up manoeuvre safety with vision-based movement detection", IET INTELL. TRANSP. SYST., vol. 1, no. 2, 11 June 2007 (2007-06-11), pages 150 - 158, XP006028769 *
WYBO S ET AL: "Movement Detection for Safer Backward Maneuvers", INTELLIGENT VEHICLES SYMPOSIUM, 2006 IEEE MEGURO-KU, JAPAN 13-15 JUNE 2006, PISCATAWAY, NJ, USA,IEEE, 13 June 2006 (2006-06-13), pages 453 - 459, XP010937055, ISBN: 4-901122-86-X *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103448652A (zh) * 2012-06-04 2013-12-18 宏达国际电子股份有限公司 行车警示方法及其电子装置
CN111301328A (zh) * 2020-02-24 2020-06-19 南京理工大学 基于3d视觉技术的货车全景倒车影像系统及使用方法

Also Published As

Publication number Publication date
JP4967758B2 (ja) 2012-07-04
FR2899363B1 (fr) 2009-05-29
JP2007280387A (ja) 2007-10-25

Similar Documents

Publication Publication Date Title
JP6799169B2 (ja) マルチモーダル融合による3dオブジェクト検出と配向推定の結合
KR102109941B1 (ko) 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치
EP2275971B1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
JP6942712B2 (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
US10970871B2 (en) Estimating two-dimensional object bounding box information based on bird's-eye view point cloud
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
CA2958832C (fr) Procede et dispositif de comptage sans contact d'essieux d'un vehicule et systeme de comptage d'essieux pour trafic routier
CN118115557A (zh) 关联lidar数据和图像数据
JP5867273B2 (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
CN112313095A (zh) 用于确定拖车牵引联接器的中心的设备和方法
US20050270286A1 (en) Method and apparatus for classifying an object
JP6743171B2 (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
WO2021096629A1 (fr) Segmentation d'instance sensible à la géométrie dans des processus de capture d'image stéréoscopique
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
US20210287022A1 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
US11910092B2 (en) Panoramic look-around view generation method, in-vehicle device and in-vehicle system
WO2020127151A1 (fr) Procédé de détection améliorée d'objets
JP4344860B2 (ja) ステレオ画像を用いた道路平面領域並びに障害物検出方法
Ho et al. Localization on freeways using the horizon line signature
WO2006123438A1 (fr) Procédé de détection de zone de chaussée plane et d’obstruction à l’aide d’une image stéréoscopique
FR2938227A1 (fr) Procede de detection d'obstacles depuis un vehicule automobile
CN116985783A (zh) 车辆控制方法、装置、设备及可读存储介质
CN117576199A (zh) 一种驾驶场景视觉重建方法、装置、设备及介质
FR3080702A1 (fr) Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 11

ST Notification of lapse

Effective date: 20171130