FR2958774A1 - Procede et systeme de detection de pietons adaptee au contexte industriel - Google Patents

Procede et systeme de detection de pietons adaptee au contexte industriel Download PDF

Info

Publication number
FR2958774A1
FR2958774A1 FR1052667A FR1052667A FR2958774A1 FR 2958774 A1 FR2958774 A1 FR 2958774A1 FR 1052667 A FR1052667 A FR 1052667A FR 1052667 A FR1052667 A FR 1052667A FR 2958774 A1 FR2958774 A1 FR 2958774A1
Authority
FR
France
Prior art keywords
images
stereoscopic
vehicle
classification
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1052667A
Other languages
English (en)
Inventor
Patrick Mansuy
Franck Gayraud
Richard Buchmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ARCURE SA
Original Assignee
ARCURE SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ARCURE SA filed Critical ARCURE SA
Priority to FR1052667A priority Critical patent/FR2958774A1/fr
Publication of FR2958774A1 publication Critical patent/FR2958774A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

L'invention concerne un procédé pour détecter au moins un objet autour d'un véhicule à partir d'au moins une caméra stéréoscopique, ce procédé comprenant les étapes suivantes : - acquisition de deux images 2D stéréoscopiques, - correction de distorsions sur ces images 2D stéréoscopiques - élaboration d'une carte de disparités 3D à partir des images stéréoscopiques - détection d'au moins un objet dans la carte de disparités 3D, - classification de l'objet à partir d'une seule des deux images 2D stéréoscopiques, et - positionnement de l'objet dans un espace autour du véhicule par projection de l'objet dans le plan focal de la caméra.

Description

1 " Procédé et système de détection de piétons adaptée au contexte industriel."
La présente invention se rapporte à un procédé et un système pour détecter un obstacle, piéton ou autre, autour d'un véhicule. Elle trouve une application particulièrement intéressante dans un chantier industriel où se croisent de nombreux piétons et une multitude de véhicules de chantier. Ces véhicules sont généralement très encombrants et la visibilité du conducteur io reste très limitée. Certaines zones de ces chantiers sont particulièrement dangereuses. On connaît des systèmes de transport intelligent ayant pour objet d'assister le conducteur dans sa maîtrise du véhicule. Dans de tels systèmes, un capteur infrarouge peut être disposé au devant du véhicule de façon à 15 proposer une image infrarouge sur un écran d'affichage à l'intérieur du véhicule. Le conducteur peut ainsi distinguer pendant la nuit notamment des obstacles difficilement visibles à l'oeil nu. On connaît également des systèmes pour détecter des objets sur des images obtenues à partir de caméras stéréoscopiques. Le document US 20 2009/0304263 décrit notamment un algorithme de classification pour identifier un objet sur un siège à l'intérieur d'un véhicule. Des formes et distances prédéfinies dans des modèles tridimensionnels sont comparées à des objets détectés sur les deux images stéréoscopiques de la caméra. Il s'agit d'un système lié à la perception proprioceptive, c'est-à-dire une analyse 25 dédiée à l'état interne du véhicule. Dans ce cas, les caméras sont fixes par rapport à l'environnement qu'elles scrutent. Dans ce document US 2009/0304263, on utilise la forme 3D et les gradients de niveaux de gris. La quantité de données nécessaires pour constituer une base fiable de reconnaissance est certainement élevée et les temps de calcul sont 30 certainement pénalisants.
La présente invention concerne plutôt des systèmes liés à la perception extéroceptive, c'est-à-dire une analyse dédiée à l'environnement externe au véhicule immobile ou en mouvement. 2 Un objectif de l'invention est de proposer un procédé pour détecter des piétons et des obstacles dans une zone dangereuse de façon efficace et en temps réel. Un autre objectif de l'invention est de proposer une détection de piéton avec un haut niveau de certitude.
On atteint au moins l'un des objectifs précités avec un procédé pour détecter au moins un objet autour d'un véhicule à partir d'au moins une caméra stéréoscopique, ce procédé comprenant les étapes suivantes : io - acquisition de deux images 2D stéréoscopiques, - correction de distorsions sur ces images 2D stéréoscopiques, - élaboration d'une carte de disparités 3D à partir des images stéréoscopiques, - détection d'au moins un objet dans la carte de disparités 3D, 15 Le procédé selon l'invention comprend en outre les étapes suivantes : - classification de l'objet à partir d'une seule des deux images 2D stéréoscopiques, et - positionnement de l'objet dans un espace autour du véhicule par projection de l'objet dans le plan focal de la caméra. 20 Avec le procédé selon l'invention, on met en oeuvre le principe d'acquisition stéréoscopique jusqu'à la détermination d'une carte de disparités 3D ou carte de profondeur par triangulation, puis on utilise avantageusement une seule image 2D pour comparer la représentation 25 bidimensionnelle de l'objet détecté en 3D à un modèle prédéfini. Le fait de comparer sur une seule image simplifie considérablement les calculs tout en apportant une précision suffisante. Dans le document US 2009/0304263 de l'art antérieur, la quantité de données nécessaires pour constituer une base en 3D fiable de reconnaissance 30 est beaucoup plus importante qu'en 2D. L'utilisation directe de la 3D n'est pas compatible avec un temps réel fort ni avec des contraintes de taille/accès mémoire embarquée. L'application de l'art antérieur est d'ailleurs limitée à la détection de personnes sur un siège dans une voiture, ce qui signifie que la variabilité des objets à reconnaître est probablement plus limitée qu'une 35 détection selon la présente invention. De même, la caméra est fixe par rapport à l'environnement scruté et il n'y a pas d'impératif de vitesse de traitement : 1 image par seconde est suffisante, alors que le procédé selon la présente invention est compatible avec des traitements bien au-delà de 10 images/s.
Selon une caractéristique avantageuse de l'invention, l'étape de détection comprend : - une projection de la carte de disparités 3D sur un plan vertical, - un calcul du plan local du sol sur lequel le véhicule circule, - une recherche de tout objet qui se détache du plan du sol de façon à io détecter ledit objet. Avantageusement, pour la classification : - on détermine plusieurs descripteurs de région autour de l'objet dans une seule des deux images stéréoscopiques, - on détermine ensuite des descripteurs d'objet caractérisant l'objet à 15 partir de ces descripteurs de région et d'un parcours de recherche prédéterminé, et - on compare les descripteurs d'objet avec des modèles préenregistrés de façon à identifier l'objet. La classification permet d'identifier précisément l'objet qui peut 20 notamment être un piéton ou un obstacle quelconque. Dans la mesure où l'objet a été détecté sur la carte de disparités 3D, on se focalise uniquement sur une zone de l'image 2D correspondant à un volume restreint sur la carte de disparités 3D englobant ledit objet.
25 Selon un mode de réalisation avantageux, après l'étape de classification, si c'est nécessaire, on réalise une étape supplémentaire de classification sur la base de la seconde image du couple d'images stéréoscopiques, c'est-à-dire l'image stéréoscopique non utilisée lors de la précédente classification. Ceci permet d'exploiter la différence de parallaxe 30 sur la caméra stéréoscopique de façon à améliorer le niveau de certitude associé au résultat de la première classification.
Une autre façon d'améliorer la première classification est d'utiliser une caméra stéréoscopique en mode couleur. Les piétons qui évoluent autour des 35 engins industriels doivent obligatoirement porter un gilet haute visibilité dont la couleur est normalisée (jaune ou orange) et dont le spectre de fréquence 4 dans le visible est très étroit. Ainsi, avant d'effectuer la classification, on identifie les zones dans l'image dont la couleur est proche de la couleur normalisée des gilets haute visibilité. Associée à des descripteurs d'objet prenant en compte cette couleur particulière, la classification est effectuée.
On peut également utiliser un éclairage flash au moyen de diodes électroluminescentes lors de l'acquisition des images par la caméra stéréoscopique. L'utilisation en mode couleur ou l'éclairage flash permettent io notamment de mettre en évidence certains éléments colorés ou fluorescents. Ainsi, lorsqu'un piéton porte un gilet fluorescent ou lorsque des bandes fluorescentes sont disposées sur des parois dangereuses, la détection et la classification d'objet sont plus efficaces dans la mesure où l'objet fluorescent se détache clairement du fond. De même, l'éclairage fait ressortir du fond les 15 objets proches, même s'ils ne sont pas équipés de d'éléments fluorescents.
Selon un mode de réalisation préféré, le procédé selon l'invention comprend en outre une étape de suivi en temps réel sur des images successives du déplacement relatif de l'objet classifié par rapport au véhicule, 20 et une étape d'acquisition de la vitesse de déplacement du véhicule et d'émission d'un signal d'alarme en cas de prédiction d'une collision entre le véhicule et l'objet. En particulier, de façon non limitative, le suivi, ou « tracking » en langue anglaise, est utilisé lorsque l'objet détecté a été classifié comme étant 25 un piéton (ou un autre type d'objet caractéristique comme un cycliste, une voiture, etc.). Il permet d'en déduire la vitesse relative du piéton par rapport à l'engin. De cette façon, on peut estimer la trajectoire relative du véhicule par rapport au piéton en utilisant un filtre de Kalman ou un filtre particulaire, de façon à déclencher un signal d'alarme vers le conducteur ou vers le piéton 30 lorsqu'une collision est possible ou probable. Selon l'invention, l'étape du suivi en temps réel du déplacement relatif de l'objet peut comprendre les étapes suivantes : - élaboration de plusieurs hypothèses sur le déplacement de l'objet en tenant compte d'un modèle comportemental associé à l'objet classifié, 2958774 - 5- - évaluation de la pertinence de chaque hypothèse pour des images successives, puis pondération de certaines hypothèses et suppression d'hypothèses non-conformes.
5 Avantageusement, pour prédire une collision, on considère les résultats du suivi en temps réel et les caractéristiques cinématiques du véhicule. Les résultats du suivi peuvent comprendre le type d'objet suivi (lorsqu'on se rend compte que l'objet est mobile, cela permet de certifier qu'il s'agit bien d'un piéton et non d'un obstacle immobile), la position de cet objet, les hypothèses io de déplacement,... Dans les caractéristiques cinématiques du véhicule on distingue notamment la distance de freinage, la manoeuvrabilité en fonction de la vitesse,...
Selon un autre aspect de l'invention, il est prévu un système pour 15 détecter au moins un objet autour d'un véhicule, ce système comprenant : - au moins une caméra stéréoscopique disposée sur le véhicule pour acquérir des images 2D stéréoscopiques, - une unité de traitement au sein du véhicule et configurée pour réaliser les étapes suivantes : 20 - correction de distorsions sur les images 2D stéréoscopiques, - élaboration d'une carte de disparités 3D à partir des images stéréoscopiques, - détection d'au moins un objet dans la carte de disparités 3D, - classification de l'objet à partir d'une seule des deux images ou 25 des deux images 2D stéréoscopiques, et - positionnement de l'objet dans un espace autour du véhicule par projection de l'objet dans le plan focal de la caméra, et - une interface homme-machine pour générer un signal en fonction de l'objet détecté. 30 Bien entendu, les différentes caractéristiques, formes et variantes de réalisation de l'invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres. 35 D'autres avantages et caractéristiques de l'invention apparaîtront à l'examen de la description détaillée d'un mode de mise en oeuvre nullement limitatif, et des dessins annexés, sur lesquels : La figure 1 est une vue générale d'un véhicule de chantier portant le système selon l'invention ; La figure 2 est un exemple d'un organigramme illustrant différentes étapes du procédé selon l'invention ; La figure 3 est un exemple d'un organigramme illustrant différentes étapes de correction d'images stéréoscopiques selon l'invention ; io La figure 4 est un exemple d'un organigramme illustrant différentes étapes de détection d'objet selon l'invention ; La figure 5 est un exemple d'un organigramme illustrant différentes étapes de classification d'objet selon l'invention ; et La figure 6 est un exemple d'un organigramme illustrant différentes 15 étapes de suivi d'un objet selon l'invention.
Sur la figure 1 on voit un exemple de mise en oeuvre du procédé selon l'invention lors d'un chantier où l'on distingue un camion 1 évoluant dans un environnement dangereux en présence de personnels de chantier en tant que 20 piétons et de différents obstacles matériels. Le camion 1 comporte un système selon l'invention. Ce système comprend quatre caméras stéréoscopiques 2-5 comme illustrée sur la figure 2 en vue de dessus. Les quatre caméras sont par exemple disposées deux par deux, une paire à l'avant et une paire à l'arrière, les deux caméras d'une 25 paire étant distancées d'une dizaine de centimètres. Chaque caméra est reliée de façon filaire ou non à une unité de traitement 6 installée dans le cockpit du camion. Cette unité de traitement comprend des éléments matériels et logiciels adaptés pour réaliser du traitement d'images, échanger des informations avec différents capteurs et générer des signaux de 30 commande notamment via une interface homme-machine 7 comme représentée très schématiquement sur la figure 2. L'interface homme-machine peut être un écran pour par exemple afficher l'emplacement d'un objet détecté, afficher des signaux d'alarme, et/ou des éléments de diffusion sonore pour avertir le conducteur le cas échéant ou le piéton en danger le cas 35 échéant.
Les caméras stéréoscopiques 2-5 filment l'espace environnant de façon permanente ou après consigne du conducteur. Les images acquises sont envoyées en temps réel vers l'unité de traitement pour analyse et détection d'obstacles. On peut aussi envisager le fait que les caméras ne s'activent que lorsque le camion pénètre une zone dangereuse. Des capteurs ou émetteurs peuvent être placés aux entrées et sorties de cette zone de façon à communiquer avec l'unité de traitement qui déclenche ensuite le fonctionnement des caméras. De la même manière, lorsque le camion sort de cette zone, l'unité de traitement déclenche l'arrêt des caméras. io Sur les figures 1 et 2 est représenté un piéton 8 à proximité du camion 1. L'unité de traitement selon l'invention doit être capable de détecter cet élément 8, identifier qu'il s'agit bien d'un piéton, le localiser, déclencher un suivi afin d'estimer la probabilité de collision. Un exemple de mise en oeuvre du principe générale du procédé selon 15 l'invention peut être décrit de la manière suivante. Une caméra stéréoscopique envoie deux images vers l'unité de traitement. Cette dernière exécute globalement quatre grandes étapes de traitement vidéo en temps réel. Tout d'abord, elle effectue un pré-traitement sur les images pour corriger les distorsions dues à l'optique mais aussi dues au positionnement 20 des caméras sur le camion. L'unité de traitement exploite ensuite les images stéréoscopiques pour détecter et positionner les obstacles dans l'espace. Puis, classe les obstacles détectés selon le type : piéton ou autres. L'obstacle 8 est identifié comme un piéton. Enfin, elle suit les obstacles dans l'espace pour traiter le cas des 25 occultations complètes ou partielles, mais aussi pour anticiper les situations à risque en estimant la trajectoire relative du piéton par rapport à l'engin. Au cours de l'étape de suivi, l'unité de traitement tient compte de la vitesse du camion. Pour ce faire, un capteur ou système GPS (non représentés) mesure la vitesse du camion par rapport au sol. On peut aussi se connecter au 30 capteur de mesure de vitesse du camion (odomètre). Le calcul de la vitesse peut également être fait par traitement des images fournies par les têtes stéréoscopiques. S'il existe une situation à risque, l'unité de traitement évalue ce risque et déclenche une alarme adaptée à la situation : risque humain ou matériel, 35 faible risque ou risques importants, ... On peut alerter sélectivement le conducteur du camion et/ou le piéton en danger, suivant la configuration du risque. Sur la figure 3, on voit les principales étapes d'un exemple de mise en oeuvre du procédé de détection de piétons et d'obstacles selon l'invention.
Une caméra stéréoscopique filme en 9 une zone potentiellement à risque et transmet en temps réel les images à l'unité de traitement. Le positionnement des caméras est assez flexible pour pouvoir équiper n'importe quel type de véhicule. En 10, on réalise la correction d'images. Les objets ou obstacles sont détectés en 11. L'étape 12 de classification des objets utilise io une seule image 2D issue de l'étape 10 ainsi que les objets détectés à l'étape 11. Une fois le piéton détecté puis localisé, on réalise un suivi 13, qui est une étape itérative sur plusieurs images successives en temps réel. On calcule à l'étape 14 la probabilité d'une collision entre ce piéton et le camion. Si cette probabilité est supérieure à un seuil prédéterminé, on déclenche à l'étape 15 15 un signal d'alarme vers le conducteur ou le piéton. Ce signal d'alarme peut être de type sonore ou visuel via une interface homme-machine : le klaxon du camion, l'écran d'affichage de l'ordinateur de bord du camion, des enceintes et/ou un écran d'affichage de l'unité de traitement. A l'étape 15, on peut également envisager d'agir directement sur les organes de commande 20 du camion (freins). Par ailleurs, dès l'étape 12 de classification, on peut envisager une étape 16 en parallèle ou en remplacement des étapes 13 à 15, où le résultat de classification alimente une interface homme machine.
De manière plus détaillée, la figure 4 illustre différentes étapes mises 25 en oeuvre lors du prétraitement d'image. Il s'agit de corriger les distorsions présentes sur les images obtenues par l'acquisition vidéo. Ces distorsions sont dues à l'optique de chaque caméra et au positionnement des caméras. Or les étapes suivantes de traitement vidéo nécessitent des images sans distorsions. De façon parallèle, on corrige la distorsion de chaque image 30 d'une même caméra en 17 et 18. On réalise ensuite une projection 19 et 20 sur un même plan de la caméra. On calcule le niveau de gris moyen en 21 et 22. Puis on détermine une image de niveau de gris normalisé 23 et 24 en considérant pour chaque image, la contribution de l'autre image de façon à compenser les différences de luminosité entre les deux images. 35 La figure 5 concerne la détection stéréoscopique. L'unité de traitement construit à l'étape 25 une carte de disparité (carte de profondeur) par triangulation, à l'aide des images pré-traitées et filtre à l'étape 26 les erreurs potentielles (points aberrants). On réalise ensuite à l'étape 27 une projection sur un plan vertical et on détermine à l'étape 28 un plan du sol. La carte de disparité est parcourue à l'étape 29 à la recherche d'un obstacle, c'est à dire un bloc qui se détache du plan du sol et dont la taille est suffisamment importante pour être un obstacle du type recherché (piéton debout, assis, accroupi, couché). io Les obstacles sont ensuite positionnés dans l'espace autour du camion par une projection à l'étape 30 dans le plan focal de la caméra. La détection permet donc d'établir une liste d'obstacles positionnés qu'il reste à classifier. Selon une caractéristique avantageuse de l'invention, pour la classification, l'unité de traitement effectue un traitement vidéo sur une seule 15 des deux images acquises. La classification est détaillée sur la figure 6 où l'on construit à l'étape 31 des descripteurs dans une région de l'image pré-traitée, autour de l'obstacle détecté. L'unité de traitement détermine des parcours de recherche à l'étape 32 puis parcourt ensuite les régions de l'image où des obstacles 3D ont été détectés lors de l'étape 29 pour construire à l'étape 33 20 des descripteurs caractérisant l'obstacle à partir des descripteurs de région. Dans l'art antérieur, des descripteurs que l'on peut utiliser sont notamment décrits dans le document « Real Time Humans Detection in Urban Scenes. », J. Bégard, N. Allezard et P. Sayd ; 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. 25 L'unité de traitement vérifie un ensemble de contraintes sur les descripteurs d'obstacle. Cette vérification est effectuée en plusieurs étapes successives. A chaque étape, elle vérifie un sous ensemble des contraintes. Si un obstacle vérifie toutes les contraintes de classification, alors cet obstacle 30 est considéré comme un piéton. Un niveau de certitude est associé au résultat de la classification. Cette étape 34 de comparaison peut être mise en oeuvre conformément à l'algorithme dit AdaBoost.
Lorsqu'une classification pour un piéton obtient un niveau de certitude 35 insuffisant, on prévoit d'utiliser quatre techniques prises isolément ou en combinaison de façon à consolider la classification. La première technique est le suivi d'obstacle de façon à vérifier que le comportement de l'objet suivi est proche d'un modèle de piéton. La seconde technique est une seconde classification avec la deuxième image de la paire stéréoscopique de façon à exploiter la différence de parallaxe. La troisième technique est l'utilisation de la couleur pour détecter par exemple la présence d'un gilet haute visibilité. On utilise ainsi la couleur comme critère de détection supplémentaire de façon à identifier un élément précis. La quatrième technique est un éclairage flash par des diodes électroluminescentes pour faire ressortir les motifs réfléchissants des gilets hautes visibilité par exemple ou les contours de l'objet. Ces techniques peuvent être utilisées en continue ou en cas d'incertitude, ensemble ou séparément. Si elles sont utilisées ensemble, une combinaison pondérée de leurs sorties permet d'obtenir un statut final de l'objet détecté (piéton / non piéton).
Concernant le suivi d'obstacle, l'unité de traitement suit le déplacement des obstacles dans les images au cours du temps. Pour cela, elle travaille en trois étapes comme mentionnées sur la figure 7. Dans la première étape 35, on pose des hypothèses sur les déplacements de chaque obstacle suivi, en tenant compte du modèle comportemental associé à la classe de l'obstacle (piéton ou non piéton). La deuxième étape 36 évalue la pertinence de chaque hypothèse. Enfin, les hypothèses sont pondérées et les mauvaises sont supprimées à l'étape 37.
La nouvelle position de l'obstacle est évaluée en fonction des hypothèses restantes et de leurs pondérations. Lorsqu'un piéton est détecté et suivi, l'unité de traitement examine les résultats du suivi d'obstacle (types, positions, hypothèses de déplacement etc.) et les caractéristiques du camion (caractéristiques cinématiques comme la distance de freinage, la manoeuvrabilité fonction de la vitesse, etc.) pour évaluer les risques de collision. On calcule ainsi en temps réel la probabilité d'une collision entre le piéton et le camion. En fonction des risques de collision, l'unité de traitement génère des alarmes ponctuelles et/ou continues pour orienter et maintenir la vigilance du conducteur et des piétons qui sont autour de l'engin. Il s'agit d'une mesure de sécurité qui permet d'éviter d'éventuelles collisions ou alors limiter considérablement les dommages dus à une collision qui n'a pu être évitée. Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention. Le procédé selon l'invention peut s'appliquer à la détection de piéton à partir d'un véhicule mobile ou à l'arrêt, ou à la détection de tout objet présentant des caractéristiques visuelles distinctives. io

Claims (10)

  1. REVENDICATIONS1. Procédé pour détecter au moins un objet autour d'un véhicule à partir d'au moins une caméra stéréoscopique, ce procédé comprenant les étapes suivantes : - acquisition de deux images 2D stéréoscopiques, - correction de distorsions sur ces images 2D stéréoscopiques, - élaboration d'une carte de disparités 3D à partir des images io stéréoscopiques, - détection d'au moins un objet dans la carte de disparités 3D, caractérisé en ce qu'il comprend en outre les étapes suivantes : - classification de l'objet à partir d'une seule des deux images 2D stéréoscopiques, et 15 - positionnement de l'objet dans un espace autour du véhicule par projection de l'objet dans le plan focal de la caméra.
  2. 2. Procédé selon la revendication 1, caractérisé en ce que l'étape de détection comprend : 20 - une projection de la carte de disparités 3D sur un plan vertical, - un calcul du plan local du sol, - une recherche de tout objet qui se détache du plan du sol de façon à détecter ledit objet. 25
  3. 3. Procédé selon la revendication 1 ou 2, caractérisé en ce que pour la classification : - on détermine plusieurs descripteurs de région autour de l'objet dans une seule des deux images stéréoscopiques, - on détermine ensuite des descripteurs d'objet caractérisant l'objet à partir 30 de ces descripteurs de région et d'un parcours de recherche prédéterminé, et - on compare les descripteurs d'objet avec des modèles préenregistrés de façon à identifier l'objet.
  4. 4. Procédé selon l'une quelconque des revendications précédentes, 35 caractérisé en ce qu'après l'étape de classification, on réalise une étapesupplémentaire de classification sur la base de la seconde image du couple d'images stéréoscopiques.
  5. 5. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la caméra stéréoscopique fonctionne en mode couleur et lors de la classification, on prend en compte la couleur de l'objet pour la détermination des descripteurs d'objet.
  6. 6. Procédé selon la revendication 5, caractérisé en ce qu'on utilise un io éclairage flash au moyen de diodes électroluminescentes lors de l'acquisition des images par la caméra stéréoscopique.
  7. 7. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend en outre une étape de suivi en temps réel 15 sur des images successives du déplacement relatif de l'objet classifié par rapport au véhicule, et une étape d'acquisition de la vitesse de déplacement du véhicule et d'émission d'un signal d'alarme en cas de prédiction d'une collision entre le véhicule et l'objet. 20
  8. 8. Procédé selon la revendication 7, caractérisé en ce que l'étape du suivi en temps réel du déplacement relatif de l'objet comprend les étapes suivantes : - élaboration de plusieurs hypothèses sur le déplacement de l'objet en tenant compte d'un modèle comportemental associé à l'objet classifié, - évaluation de la pertinence de chaque hypothèse pour des images 25 successives, puis pondération de certaines hypothèses et suppression d'hypothèses non-conformes.
  9. 9. Procédé selon la revendication 7 o u 8, caractérisé en ce que pour prédire une collision, on considère les résultats du suivi en temps réel et des 30 caractéristiques cinématiques du véhicule.
  10. 10. Système pour détecter au moins un objet autour d'un véhicule, ce système comprenant : - au moins une caméra stéréoscopique disposée sur le véhicule pour acquérir 35 des images 2D stéréoscopiques,- une unité de traitement au sein du véhicule et configurée pour réaliser les étapes suivantes : - correction de distorsions sur les images 2D stéréoscopiques, - élaboration d'une carte de disparités 3D à partir des images 5 stéréoscopiques, - détection d'au moins un objet dans la carte de disparités 3D, - classification de l'objet à partir d'une seule des deux images 2D stéréoscopiques, et - positionnement de l'objet dans un espace autour du véhicule par io projection de l'objet dans le plan focal de la caméra, et - une interface homme-machine pour générer un signal en fonction de l'objet détecté.
FR1052667A 2010-04-08 2010-04-08 Procede et systeme de detection de pietons adaptee au contexte industriel Pending FR2958774A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1052667A FR2958774A1 (fr) 2010-04-08 2010-04-08 Procede et systeme de detection de pietons adaptee au contexte industriel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1052667A FR2958774A1 (fr) 2010-04-08 2010-04-08 Procede et systeme de detection de pietons adaptee au contexte industriel

Publications (1)

Publication Number Publication Date
FR2958774A1 true FR2958774A1 (fr) 2011-10-14

Family

ID=43129853

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1052667A Pending FR2958774A1 (fr) 2010-04-08 2010-04-08 Procede et systeme de detection de pietons adaptee au contexte industriel

Country Status (1)

Country Link
FR (1) FR2958774A1 (fr)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015104125A1 (de) 2014-03-31 2015-10-01 Continental Automotive France Verfahren zur Bestimmung eines Blindheitszustands von mindestens einer, in einem stereoskopischen System eingebauten Kamera
WO2016166666A1 (fr) 2015-04-13 2016-10-20 Latecoere Procédé et système de visualisation externe déportée a l'interieur d'une cabine d'avion
US10099615B2 (en) 2014-09-29 2018-10-16 Ambarella, Inc. All-round view monitoring system for a motor vehicle
EP4283576A1 (fr) 2022-05-26 2023-11-29 Pro-Sight Vision Système de détection d'objet et son procédé d'utilisation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GAVRILA D M ET AL: "Multi-cue Pedestrian Detection and Tracking from a Moving Vehicle", INTERNATIONAL JOURNAL OF COMPUTER VISION, KLUWER ACADEMIC PUBLISHERS, BO, vol. 73, no. 1, 17 July 2006 (2006-07-17), pages 41 - 59, XP019468627, ISSN: 1573-1405 *
GRUBB G ET AL: "3D vision sensing for improved pedestrian safety", INTELLIGENT VEHICLES SYMPOSIUM, 2004 IEEE PARMA, ITALY JUNE 14-17, 2004, PISCATAWAY, NJ, USA,IEEE, 14 June 2004 (2004-06-14), pages 19 - 24, XP010727436, ISBN: 978-0-7803-8310-4, DOI: DOI:10.1109/IVS.2004.1336349 *
HATTORI ET AL: "Stereo-based Pedestrian Detection using Multiple Pattern", BRITISH MACHINE VISION CONFERENCE (BMVC), 7 September 2009 (2009-09-07) - 10 September 2009 (2009-09-10), London, pages 1 - 10, XP002613605 *
MARCUS ROHRBACH ET AL: "High-Level Fusion of Depth and Intensity for Pedestrian Classification", 9 September 2009, PATTERN RECOGNITION : 31ST DAGM SYMPOSIUM, JENA, GERMANY, SEPTEMBER 9-11, 2009 ; PROCEEDINGS; [LECTURE NOTES IN COMPUTER SCIENCE ; 5748], SPRINGER BERLIN HEIDELBERG, BERLIN, HEIDELBERG, PAGE(S) 101 - 110, ISBN: 978-3-642-03797-9, XP019126998 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015104125A1 (de) 2014-03-31 2015-10-01 Continental Automotive France Verfahren zur Bestimmung eines Blindheitszustands von mindestens einer, in einem stereoskopischen System eingebauten Kamera
US9269142B2 (en) 2014-03-31 2016-02-23 Continental Automotive France Method for determining a state of obstruction of at least one camera installed in a stereoscopic system
US10099615B2 (en) 2014-09-29 2018-10-16 Ambarella, Inc. All-round view monitoring system for a motor vehicle
WO2016166666A1 (fr) 2015-04-13 2016-10-20 Latecoere Procédé et système de visualisation externe déportée a l'interieur d'une cabine d'avion
EP4283576A1 (fr) 2022-05-26 2023-11-29 Pro-Sight Vision Système de détection d'objet et son procédé d'utilisation

Similar Documents

Publication Publication Date Title
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
US9424462B2 (en) Object detection device and object detection method
JP6585995B2 (ja) 画像処理システム
KR102099265B1 (ko) 보행자 상태 기반의 보행자와 차량간 충돌 경고 시스템 및 그 방법
EP2965287B1 (fr) Procédé de suivi d'une cible dans une séquence d'images avec prise en compte de la dynamique de la cible
KR101382873B1 (ko) 전방차량 충돌 경고 시스템 및 전방차량 충돌 경고 방법
US10635896B2 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
WO2017175025A2 (fr) Détection d'informations visuelles correspondant à un animal
FR3018940A1 (fr) Systeme de classification automatique de vehicules automobiles
WO2015189847A1 (fr) Affinement de haut en bas dans une navigation à marquage de pistes de circulation
FR2871772A1 (fr) Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images
US10552675B2 (en) Method and apparatus for eye detection from glints
FR2863090A1 (fr) Appareil d'assistance a la conduite d'un vehicule
FR2809360A1 (fr) Systeme de reconnaissance d'etat precedant un crash, base sur l'utilisation d'un appareil de prise de vues
CA3076700A1 (fr) Procede d'acquisition de donnees capturees par un module de capture embarque dans un engin mobile suivant une trajectoire predeterminee, programme d'ordinateur et dispositif correspondants
JP2013088870A (ja) 不審者検知装置、不審者検知方法およびプログラム
JP2009070344A (ja) 画像認識装置、画像認識方法および電子制御装置
CN107273785A (zh) 多尺度融合的道路表面状况检测
FR2958774A1 (fr) Procede et systeme de detection de pietons adaptee au contexte industriel
JP6806920B2 (ja) 駐車場内に存在する隆起した物体を検出するための方法およびシステム
FR3027432A1 (fr) Estimation de distance d'un pieton par un systeme d'imagerie embarque sur un vehicule automobile
FR3004835A1 (fr) Procede de suivi d'objets par imagerie hyperspectrale
FR2985070A1 (fr) Procede et systeme de detection de chutes de personnes
JP2008046947A (ja) 周辺監視システム