FR2908546A1 - Stereo camera intrusion detection system - Google Patents
Stereo camera intrusion detection system Download PDFInfo
- Publication number
- FR2908546A1 FR2908546A1 FR0705802A FR0705802A FR2908546A1 FR 2908546 A1 FR2908546 A1 FR 2908546A1 FR 0705802 A FR0705802 A FR 0705802A FR 0705802 A FR0705802 A FR 0705802A FR 2908546 A1 FR2908546 A1 FR 2908546A1
- Authority
- FR
- France
- Prior art keywords
- images
- image
- filtered
- background image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000001914 filtration Methods 0.000 claims description 17
- 238000000926 separation method Methods 0.000 claims description 16
- 239000003381 stabilizer Substances 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 17
- 238000006243 chemical reaction Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 206010048909 Boredom Diseases 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000000750 progressive effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19604—Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19606—Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/1961—Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19641—Multiple cameras having overlapping views on a single scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Système et procédé pour un système de détection d'intrusion dans lesquels le système de détection d'intrusion (10) comprend une première caméra (14) configurée pour acquérir des premières images visuelles d'une zone surveillée et une seconde caméra (16) configurée pour acquérir des secondes images visuelles de la zone surveillée. Le système de détection d'intrusion (10) comprend également un dispositif de détection configuré pour comparer les premières images avec une image d'arrière-plan (54) de la zone surveillée. Le dispositif de détection peut marquer les différences entre les premières images et l'image d'arrière-plan (54) comme intrus potentiel. Le système de détection d'intrusion (10) comprend en outre un dispositif de poursuite configuré pour évaluer chacune des premières images par rapport à chacune des secondes images afin de déterminer les caractéristiques tridimensionnelles associées à l'intrus potentiel.
Description
1 DOMAINE TECHNIQUE La présente invention concerne d'une manière générale
les systèmes de détection d'intrusion, et plus spécifiquement, un système de détection d'intrusion à caméra stéréoscopique. ARRIÈRE-PLAN Dans la société moderne et au travers des écrits historiques, il y a toujours eu une demande pour des mesures de sécurité. Ces mesures ont été utilisées pour empêcher le vol, l'accès non autorisé à des matières et zones sensibles, et dans une variété d'autres applications. Une telle mesure de sécurité courante comprend les systèmes de détection d'intrusion. Typiquement, les systèmes de détection d'intrusion incorporent une vidéosurveillance qui inclut des signaux d'alimentation vidéo de surveillance acquis par une ou plusieurs caméras vidéo qui sont situées autour d'un périmètre d'une installation que l'on cherche à protéger. La surveillance des signaux d'alimentation vidéo est accomplie typiquement par une personne humaine, comme du personnel de sécurité ou par la police. Cependant, étant donné que les menaces potentielles à la sécurité sont des événements isolés au milieu de longs moments par ailleurs tranquilles, l'ennui peut être un problème significatif, qui résulte ainsi en des défaillances de sécurité.
Pour surmonter le problème de l'ennui, on a développé certains systèmes de détection d'intrusion automatisés. Ces systèmes automatisés peuvent incorporer divers algorithmes de vision artificielle pour assister la surveillance humaine. Typiquement, un algorithme de détection de changement est utilisé pour identifier des régions dans la zone surveillée pouvant mériter un examen plus attentionné par le personnel de surveillance. Cependant, ces systèmes peuvent être fortement enclins à enregistrer des faux positifs, comme ceux résultant d'une variation environne- mentale, par exemple des changements d'arrière-plan distants, des arbustes soufflés par le vent, une vibration 2908546 2 de la caméra, un changement de luminosité dû au passage de nuages et le déplacement de faisceaux lumineux pendant la nuit. Ainsi, le taux élevé résultant de faux positifs peut fatiguer les agents de sécurité même les plus expérimentés. 5 Pour surmonter les conditions de faux positifs, certains systèmes peuvent autoriser un opérateur à établir des zones de silence qui empêchent une activité dans la zone de silence de déclencher l'alarme. Cependant, une telle solution peut offrir une opportunité d'un résultat faux 10 négatif, ce qui aboutit à une défaillance de sécurité. Outre les problèmes associés à l'ennui, les systèmes de détection d'intrusion automatisés typiques peuvent souffrir d'un certain nombre d'inconvénients additionnels. Par exemple, les systèmes de détection d'intrusion basés 15 sur des caméras incluent typiquement une caméra qui est montée à une position très élevée en regardant vers le bas. Ainsi, ils peuvent déterminer une position d'un intrus en se basant seulement sur la position de l'intrus sur le sol dans le champ de vision de la caméra. Toutefois, un tel 20 dispositif peut être difficile à installer et à entretenir et peut être onéreux car il exige un équipement et des accessoires de montage spéciaux. En outre, ces systèmes peuvent avoir un champ de vision limité. Ainsi, un intrus peut être capable de voir ces systèmes avant que l'intrus 25 soit détecté, ce qui permet ainsi à l'intrus d'avoir l'opportunité de profiter des angles morts ou de trouver d'autres contre-mesures pour mettre en échec le système de détection d'intrusion automatisé. RÉSUMÉ 30 Un mode de réalisation de la présente invention comprend un système de détection d'intrusion. Le système de détection d'intrusion comprend une première caméra configurée pour acquérir des premières images d'une zone surveillée et une seconde caméra configurée pour acquérir 35 des secondes images de la zone surveillée. Le système de détection d'intrusion comprend également un dispositif de 2908546 3 détection configuré pour comparer les premières images avec une image d'arrière-plan de la zone surveillée. Le dispositif de détection peut marquer les différences entre les premières images et l'image d'arrière-plan comme intrus 5 potentiel. Le système de détection d'intrusion comprend en outre un dispositif de poursuite configuré pour évaluer chacune des premières images par rapport à chacune des secondes images afin de déterminer les caractéristiques tridimensionnelles associées à l'intrus potentiel. 10 Un autre mode de réalisation de la présente invention comprend un procédé de détection d'intrus dans une zone surveillée. Le procédé comprend les étapes consistant à acquérir des premières images de la zone surveillée à partir d'une première caméra, acquérir des secondes images 15 de la zone surveillée à partir d'une seconde caméra et produire une image d'arrière-plan de la zone surveillée. Le procédé comprend également l'étape consistant à corréler des premiers pixels associés aux premières images avec des seconds pixels associés à l'image d'arrière-plan de la zone 20 surveillée, de sorte que les premiers pixels sont alignés horizontalement et verticalement avec les seconds pixels. Le procédé comprend également l'étape consistant à comparer les premières images et l'image d'arrière-plan de la zone surveillée pour déterminer la présence d'un intrus 25 potentiel. Le procédé comprend en outre les étapes consistant à déterminer les caractéristiques tridimensionnelles de l'intrus potentiel en se basant sur une comparaison relative des premières images et des secondes images, et activer un indicateur lorsque les 30 caractéristiques tridimensionnelles de l'intrus potentiel excèdent au moins un seuil prédéterminé. Un autre mode de réalisation de la présente invention comprend un système de détection d'intrusion. Le système de détection d'intrusion comprend un moyen pour acquérir 35 simultanément des premières images et des secondes images d'une zone surveillée. Le système de détection d'intrusion 2908546 4 comprend aussi un moyen pour produire de manière continue une image d'arrière-plan de la zone surveillée. Le système de détection d'intrusion comprend aussi un moyen pour détecter un intrus potentiel en se basant sur les 5 différences entre les premières images et l'image d'arrière-plan. Le système de détection d'intrusion comprend en outre un moyen pour déterminer les caractéristiques tridimensionnelles de l'intrus potentiel en se basant sur les premières images et les secondes 10 images, et un moyen pour activer un indicateur en se basant sur les caractéristiques tridimensionnelles de l'intrus potentiel. BRÈVE DESCRIPTION DES DESSINS La figure 1 représente un exemple d'un système de 15 détection d'intrusion à caméra stéréoscopique selon un aspect de l'invention ; la figure 2 représente un exemple d'un générateur d'image d'arrière-plan (20 ; 50 ; 166) selon un aspect de l'invention ; 20 la figure 3 représente un exemple d'une image de caméra et d'images filtrées de l'image de caméra selon un aspect de l'invention ; la figure 4 représente un autre exemple d'un système de détection d'intrusion à caméra stéréoscopique selon un 25 aspect de l'invention ; la figure 5 représente un exemple d'un corrélateur d'image selon un aspect de l'invention ; la figure 6 représente un autre exemple d'un système de détection d'intrusion à caméra stéréoscopique selon un 30 aspect de l'invention ; la figure 7 représente un autre exemple d'un système de détection d'intrusion à caméra stéréoscopique selon un aspect de l'invention ; la figure 8 représente un autre exemple d'un système 35 de détection d'intrusion à caméra stéréoscopique selon un aspect de l'invention ; et la figure 9 représente un procédé de détection 2908546 5 d'intrus dans une zone surveillée selon un aspect de l'invention. DESCRIPTION DÉTAILLÉE La présente invention concerne d'une manière générale 5 des systèmes de détection d'intrusion, et plus spécifiquement un système de détection d'intrusion à caméra stéréoscopique. Deux caméras stéréoscopiques acquièrent chacune des images concomitantes de la zone surveillée. Les images acquises à partir d'une ou des deux caméras peuvent 10 être comparées avec une image d'arrière-plan. Ainsi, l'image d'arrière-plan peut être générée à partir d'une des caméras, ou les caméras peuvent être comparées avec des images d'arrière-plan distinctes. L'image d'arrière-plan peut être constamment actualisée sur la base de chacune des 15 images acquises pour prendre en compte lentement les changements subtils dans l'environnement de la zone surveillée. En outre, l'image d'arrière-plan peut être corrélée avec chacune des images acquises, de sorte que les pixels de chacune des images acquises et de l'image 20 d'arrière-plan peuvent être alignés horizontalement et verticalement. Lors de la détection d'une différence dans les images acquises et l'image d'arrière-plan, les pixels qui sont différents peuvent être mis en évidence en tant qu'intrus 25 potentiel. Les images acquises à partir de chacune des caméras peuvent être corrélées pour déterminer une séparation de parallaxe de la position bidimensionnelle de l'intrus potentiel dans l'image acquise depuis une caméra par rapport à l'autre. Lors de la détermination de la 30 séparation de parallaxe, il est possible de déterminer une position tridimensionnelle, la taille et le mouvement de l'intrus potentiel. La position, la taille et/ou le mouvement de l'intrus potentiel peuvent être comparés avec au moins un seuil prédéterminé, et un signal sonore peut 35 retentir au moment où l'intrus potentiel dépasse le seuil prédéterminé. 2908546 6 La figure 1 représente un exemple d'un système de détection d'intrusion à caméra stéréoscopique 10 selon un aspect de l'invention. Le système de détection d'intrusion à caméra stéréoscopique 10 comprend un étage d'acquisition 5 d'image stéréo 12, comprenant une première caméra 14 et une seconde caméra 16. La première caméra 14 et la seconde caméra 16 peuvent être des caméras numériques. En variante, la première caméra 14 et la seconde caméra 16 peuvent fournir des images de caméra analogiques, de sorte que les 10 images acquises à partir de la première caméra 14 et de la seconde caméra 16 peuvent être délivrées en sortie à un convertisseur analogique / numérique (non représenté). La première caméra 14 et la seconde caméra 16 peuvent être configurées pour acquérir de manière concomitante des 15 images de la même zone surveillée. Ainsi, la première caméra 14 et la seconde caméra 16 fonctionnent en stéréo l'une par rapport à l'autre, de sorte qu'elles peuvent être montées l'une à côté de l'autre (par exemple à 1 mètre). Les images acquises peuvent être chacune des trames 20 obtenues séparément collectées à un débit rapide (par exemple, 15 trames par seconde) par la première caméra 14 et la seconde caméra 16 respectives. La première caméra 14 et la seconde caméra 16 peuvent ainsi acquérir des images sensiblement similaires qui diffèrent seulement par rapport 25 au point de vue respectif basé sur leur séparation physique respective. Ainsi, l'étage d'acquisition d'image stéréo 12 peut détecter une position tridimensionnelle d'un intrus potentiel, comme on le décrira plus en détail ci-dessous. La capacité à détecter la position tridimensionnelle 30 d'un intrus potentiel peut garantir un placement optimal de l'étage d'acquisition d'image stéréo 12. Comme le système de détection d'intrusion à caméra stéréoscopique 10 est capable de détecter la position tridimensionnelle de l'intrus potentiel, il n'est pas nécessaire de monter 35 l'étage d'acquisition d'image stéréo 12 à une position élevée. Au lieu de cela, l'étage d'acquisition d'image 2908546 7 stéréo 12 pourrait être monté approximativement au niveau du sol et parallèlement au sol. Une telle configuration de montage peut être significativement moins onéreuse qu'à une position élevée et est bien moins visible qu'un emplacement 5 élevé. Ainsi, il se peut que les intrus potentiels ne soient pas capables de détecter l'étage d'acquisition d'image stéréo 12, et ils pourraient être ainsi privés de l'opportunité de se cacher ou d'exécuter des contre-mesures de mise en échec. 10 Les images acquises sont délivrées en sortie de l'étage d'acquisition d'image stéréo 12 à un détecteur de jeton 18. Le détecteur de jeton 18 est configuré pour comparer les images acquises à partir de la première caméra 14 et/ou de la seconde caméra 16 avec une image d'arrière- 15 plan. Comme on le décrira ci-dessous plus en détail, le détecteur de jeton 18 peut déterminer la présence d'un intrus potentiel en se basant sur les différences entre les pixels associés à chacune des images acquises en provenance de la première caméra 14 et/ou de la seconde caméra 16 et 20 les pixels associés à l'image d'arrière-plan. En outre ou en variante, comme on le décrira aussi plus en détail ci-dessous, le détecteur de jeton 18 peut déterminer la présence d'un intrus potentiel en se basant sur les différences de texture entre les images acquises à partir 25 de la première caméra 14 et/ou de la seconde caméra 16 et l'image d'arrière-plan. L'image d'arrière-plan peut être générée par un générateur d'image d'arrière-plan 20. Le générateur d'image d'arrière-plan 20 est montré dans l'exemple de la figure 1 30 comme recevant une entrée en provenance de l'étage d'acquisition d'image stéréo 12. L'entrée pourrait être une entrée en provenance de la première caméra 14, de la seconde caméra 16, ou à la fois de la première caméra 14 et de la seconde caméra 16. Ainsi, le générateur d'image 35 d'arrièreplan 20 peut générer une image d'arrière-plan sur la base d'une image acquise à partir de la première caméra 2908546 8 14, de la seconde caméra 16 ou peut générer des images d'arrière-plan distinctes, une en provenance de chacune de la première caméra 14 et de la seconde caméra 16. Le générateur d'image d'arrière-plan 20 peut générer 5 l'image d'arrière-plan en continu en actualisant périodiquement l'image d'arrière-plan avec une pluralité de pixels des images acquises à partir de la première caméra 14 et/ou de la seconde caméra 16. Ainsi, les changements environnementaux progressifs dans la zone surveillée, comme 10 des ombres portées par le passage du soleil, peuvent être incorporés dans l'image d'arrière-plan. Le système de détection d'intrusion à caméra stéréoscopique 10 ne peut pas ainsi enregistrer de faux positif en se basant sur les changements environnementaux graduels. En outre, l'image 15 d'arrière-plan générée par le générateur d'image d'arrière-plan 20 peut être stabilisée. L'image d'arrière-plan stabilisée peut être alignée horizontalement et verticalement avec les images acquises à partir de la première caméra 14 et/ou de la seconde caméra 16 pour 20 compenser l'instabilité verticale des caméras, comme on le décrira plus en détail dans l'exemple de la figure 2 ci-dessous. Pour chacune des images acquises à partir de chacune de la première caméra 14 et de la seconde caméra 16, le 25 détecteur de jeton 18 peut générer une image de différence qui montre une valeur absolue de la différence de pixels entre l'image acquise respective et l'image d'arrière-plan. Le détecteur de jeton 18 peut exécuter ensuite un algorithme de remplissage de pixels sur l'image de 30 différence, de sorte que les pixels tels que les pixels de différence qui sont proches les uns des autres sur l'image de différence peuvent être reliés pour montrer un jeton candidat. Le jeton candidat pourrait représenter un intrus potentiel. 35 Dans un autre mode de réalisation, comme celui montré dans l'exemple de la figure 7, le détecteur de jeton 18 2908546 9 peut inclure un algorithme de filtrage d'image, de sorte que les images acquises à partir de la première caméra 14, de la seconde caméra 16 et l'image d'arrière-plan peuvent être toutes filtrées. Les images filtrées en provenance de 5 la première caméra 14 et de la seconde caméra 16 peuvent être comparées à l'image d'arrière-plan filtrée par le détecteur de jeton 18 pour déterminer des modifications de texture entre les images acquises à partir de la première caméra 14 et de la seconde caméra 16, respectivement, avec 10 l'image d'arrière-plan. De cette manière, les différences de luminosité et de contraste entre les images acquises et l'image d'arrière-plan peuvent être ignorées par le système de détection d'intrusion à caméra stéréoscopique 10. Les différences de texture entre les images filtrées en 15 provenance de la première caméra 14 et de la seconde caméra 16 et l'image d'arrière-plan filtrée peuvent être le jeton candidat, qui pourrait représenter l'intrus potentiel. Cependant, le détecteur de jeton 18 pourrait évaluer en outre le jeton candidat en utilisant une différence de 20 pixels en valeur absolue comme moyen pour déterminer de manière redondante la présence de l'intrus potentiel. Le système de détection d'intrusion à caméra stéréoscopique 10 comprend également un dispositif de poursuite d'image 22. Le dispositif de poursuite d'image 22 25 comprend un moteur d'acquisition de position 24, un calculateur de mouvement tridimensionnel 26 et un comparateur de seuil 28. Le détecteur de jeton 18 communique la position du jeton candidat au moteur d'acquisition de position 24. En outre, l'étage 30 d'acquisition d'image stéréo 12 peut transmettre les images obtenues par l'une ou les deux de la première caméra 14 et de la seconde caméra 16 au moteur d'acquisition de position 24. Le moteur d'acquisition de position 24 est configuré pour déterminer une position et une taille 35 tridimensionnelles associées à l'intrus potentiel. Par exemple, le moteur d'acquisition de position 24 peut 2908546 10 combiner les images obtenues à partir de la première caméra 14 avec les images obtenues à partir de la seconde caméra 16. Le moteur d'acquisition de position 24 peut ensuite appliquer un algorithme de corrélation aux images 5 respectives obtenues à partir des première et seconde caméras 14 et 16 pour déterminer une position bidimensionnelle relative du jeton candidat dans les images obtenues par la première caméra 14 par rapport aux images obtenues par la seconde caméra 16. Ainsi, le moteur 10 d'acquisition de position 24 peut déterminer la position et la taille tridimensionnelles de l'intrus potentiel en se basant sur une séparation de parallaxe de l'intrus potentiel dans les images obtenues par la première caméra 14 par rapport à la seconde caméra 16. 15 Dans la détermination de la séparation de parallaxe de l'intrus potentiel, le moteur d'acquisition de position 24 peut appliquer un algorithme de filtrage d'image à chacune des images obtenues par la première caméra 14 et la seconde caméra 16 afin d'obtenir respectivement des premières 20 images filtrées et des secondes images filtrées. L'algorithme de filtrage pourrait être, par exemple, un algorithme de filtrage à Signe du Laplacien de Gaussienne (SLOG). En outre, le moteur d'acquisition de position 24 pourrait appliquer de multiples algorithmes de filtrage à 25 chaque image en provenance de la première caméra 14 et de la seconde caméra 16, de sorte que chaque image filtrée pourrait avoir une résolution différente. Le moteur d'acquisition de position 24 pourrait ensuite superposer les premières images filtrées aux secondes images filtrées 30 et appliquer l'algorithme de corrélation. La superposition pourrait comprendre la superposition du jeton candidat dans les premières images filtrées sur une position approximative de l'intrus potentiel dans les secondes images filtrées, communiquées à partir du détecteur de 35 jeton 18. Dans l'exemple d'un système de détection d'intrusion à caméra stéréoscopique 10 déterminant un jeton 2908546 11 candidat sur les images obtenues à la fois par la première caméra 14 et la seconde caméra 16, le moteur d'acquisition de position 24 ne peut pas appliquer l'algorithme de filtrage d'image, mais peut simplement superposer l'image 5 de différence en provenance de la première caméra 14 sur l'image de différence en provenance de la seconde caméra 16 avant d'appliquer l'algorithme de corrélation. Comme exemple, l'algorithme de corrélation pourrait comprendre un algorithme de décalage de pixels itératif qui 10 décale la première image filtrée par rapport à la seconde image filtrée d'au moins un pixel par décalage et compare les premières images filtrées aux secondes images filtrées respectives à chaque décalage respectif. La comparaison pourrait comprendre la détermination d'une note de 15 corrélation pour chaque décalage. Lorsqu'il détermine un décalage ayant une note de corrélation la plus élevée, le moteur d'acquisition de position 24 peut déterminer la séparation de parallaxe de l'intrus potentiel en se basant sur un nombre de pixels de décalage entre les premières 20 images et les secondes images. Le moteur d'acquisition de position 24 pourrait ensuite convertir le nombre de pixels de décalage en une unité de mesure dans l'espace tridimensionnel pour déterminer une position et une taille tridimensionnelles de l'intrus potentiel. 25 On doit comprendre que pendant la détermination d'une position et d'une taille tridimensionnelles d'un intrus potentiel, le moteur d'acquisition de position 24 évalue une image donnée en provenance de la première caméra 14 par rapport à une image respective en provenance de la seconde 30 caméra 16 qui est acquise pratiquement au même moment. Ainsi, le moteur d'acquisition de position 24 délivre en sortie les informations de taille et de position tridimensionnelles associées à chaque trame des images acquises en provenance de la première caméra 14 et de la 35 seconde caméra 16 vers le calculateur de mouvement tridimensionnel 26. Le calculateur de mouvement 2908546 12 tridimensionnel 26 peut suivre les modifications de position et de taille tridimensionnelles de l'intrus potentiel à travers de multiples images et ainsi de multiples trames de la première caméra 14 et de la seconde 5 caméra 16. Les modifications de position et de taille tridimensionnelles de l'intrus potentiel à travers les images de la première caméra 14 et de la seconde caméra 16 peuvent déterminer le mouvement tridimensionnel associé à l'intrus potentiel, comme la direction et la vitesse du 10 mouvement. Les informations de position, de taille et de mouvement associées à l'intrus potentiel peuvent être délivrées en sortie au comparateur de seuil 28, qui est couplé à un indicateur 30. L'indicateur 30 peut être, par 15 exemple, une alarme sonore, un indicateur visuel, ou l'un quelconque d'une variété d'autres dispositifs d'indication. En outre, l'indicateur 30 peut être couplé à un réseau, de sorte que l'indicateur 30 peut être situé au niveau d'une installation qui est distante de la zone surveillée, comme 20 un commissariat de police. Le comparateur de seuil 28 peut être programmé avec l'une quelconque d'une variété de conditions de seuil prédéterminées suffisantes pour signaler l'indicateur 30 à un opérateur (par exemple, un agent de sécurité et/ou un policier) du système de 25 détection d'intrusion à caméra stéréoscopique 10. Par exemple, lorsqu'il est déterminé qu'un intrus potentiel a une taille supérieure, par exemple, à la taille d'un petit chien, le comparateur de seuil 28 peut signaler l'indicateur 30. Le seuil de taille pourrait être 30 spécifique à la hauteur et non uniquement à la taille totale. De cette manière, le comparateur de seuil 28 peut garantir que les conditions de faux positifs ne résultent pas d'intrus potentiels, qui ne justifient pas de l'attention des opérateurs donnés du système de détection 35 d'intrusion à caméra stéréoscopique 10, comme des oiseaux ou des lapins. 2908546 13 La condition de seuil pourrait être également représentative d'une vitesse donnée de l'intrus potentiel, de sorte que, par exemple, des automobiles se déplaçant à une certaine vitesse ou au-dessus de celle-ci peuvent 5 signaler l'indicateur 30. En outre, un opérateur du système de détection d'intrusion à caméra stéréoscopique 10 peut désigner des parties tridimensionnelles de la zone surveillée comme zones de seuil ou zones de silence. Ainsi, le comparateur de seuil 28 peut signaler l'indicateur 30 au 10 moment où l'intrus potentiel entre dans une zone de seuil ou s'approche de celle-ci. De manière analogue, le comparateur de seuil 28 pourrait désactiver l'indicateur 30 lorsqu'il détecte un intrus potentiel dans une zone de silence, de sorte que les parties tridimensionnelles de la 15 zone surveillée qui ne sont pas d'un intérêt particulier pour une surveillance de sécurité peuvent être désactivées. Ainsi, les conditions de faux positifs résultant de certains changements environnementaux, comme l'oscillation de branches, peuvent être atténuées. On doit comprendre que 20 le comparateur de seuil 28 peut également être programmé pour appliquer à l'un quelconque d'un certain nombre de seuils, ainsi qu'à des seuils à appliquer en combinaison. Par exemple, le comparateur de seuil 28 peut être programmé pour signaler l'indicateur 30 seulement au moment où un 25 intrus potentiel est à la fois d'une certaine taille prédéterminée et se déplace à une certaine vitesse prédéterminée. On doit comprendre que le système de détection d'intrusion à caméra stéréoscopique 10 n'est pas destiné à 30 être limité à l'exemple montré à la figure 1. Par exemple, le système de détection d'intrusion à caméra stéréoscopique 10 peut comprendre plus qu'uniquement deux caméras stéréoscopiques dans l'étage d'acquisition d'image stéréo 12. En outre, comme on le montrera dans les exemples des 35 figures 4, 6 et 7, il est possible de mettre en oeuvre l'une quelconque d'un nombre de configurations différentes pour 2908546 14 le système de détection d'intrusion à caméra stéréoscopique 10 selon un aspect de l'invention. La figure 2 montre un exemple d'un générateur d'image d'arrière-plan 50 selon un aspect de l'invention. On doit 5 comprendre que le générateur d'image d'arrière-plan 50 peut être sensiblement similaire au générateur d'image d'arrière-plan 20 de l'exemple de la figure 1. Ainsi, on utilisera une référence à la figure 1 et aux références numériques analogues dans l'explication suivante de la 10 figure 2. Le générateur d'image d'arrière-plan 50, tel que celui montré dans l'exemple de la figure 2, reçoit des données d'image en provenance d'une caméra 52, qui pourrait être soit la première camera 14, soit la seconde caméra 16 de l'exemple de la figure 1. Une seule trame de la caméra 15 52 peut être utilisée pour générer une image d'arrière-plan acquise 54. L'image d'arrière-plan acquise 54 pourrait être une image de la zone surveillée prise à un moment prédéterminé. Par exemple, un opérateur du système de détection d'intrusion à caméra stéréoscopique dans lequel 20 le générateur d'image d'arrière-plan 50 est utilisé peut fournir une entrée au générateur d'image d'arrière-plan 50 pour générer l'image d'arrière-plan acquise 54 lorsque l'on détermine qu'il n'y a aucun intrus dans la zone surveillée. En outre, le générateur d'image d'arrière-plan 50 pourrait 25 générer périodiquement l'image d'arrière-plan acquise 54 à des moments prédéterminés, comme, par exemple, une fois par minute, pour prendre en compte les changements progressifs des conditions environnementales, comme le passage de nuages. 30 Le générateur d'image d'arrière-plan 50 comprend également un actualisateur d'image d'arrière-plan 56. L'actualisateur d'image d'arrière-plan 56 reçoit périodiquement des entrées en provenance de la caméra 52 pour actualiser l'image d'arrière-plan acquise 54 afin de35 prendre en compte les changements progressifs survenant dans la zone surveillée. Par exemple, l'actualisateur 2908546 15 d'image d'arrièreplan 56 peut ajouter périodiquement une pluralité de pixels en provenance des images acquises par la caméra 52 à l'image d'arrière-plan acquise 54. On doit comprendre qu'il est possible de faire des compromis pour 5 la détermination de la vitesse à laquelle l'image d'arrière-plan acquise 54 est actualisée. Par exemple, si l'image d'arrière-plan acquise 54 est actualisée trop rapidement, un intrus potentiel pourra faire partie de l'image d'arrière-plan acquise 54, ce qui aboutira ainsi à 10 un résultat faux négatif possible. Inversement, si l'image d'arrière-plan acquise 54 est actualisée trop lentement, les changements progressifs de l'environnement de la zone surveillée pourront aboutir à la génération de jetons candidats, aboutissant ainsi à un résultat faux positif 15 possible. Ainsi, l'actualisateur d'image d'arrière-plan 56 peut être programmable par rapport à la quantité de pixels ajoutés à l'image d'arrière-plan acquise 54, ainsi que par rapport à la fréquence avec laquelle les pixels sont ajoutés à l'image d'arrière-plan acquise 54. 20 Comme on l'a décrit ci-dessus par rapport au système de détection d'intrusion à caméra stéréoscopique 10 de l'exemple de la figure 1, le détecteur de jeton 18 peut être configuré pour appliquer un algorithme de différence de pixels en valeur absolue afin de générer une image de 25 différence. Ainsi, l'image de différence est une différence de pixels en valeur absolue entre l'image d'arrière-plan et chacune des images acquises par celle respective de la première caméra 14 et/ou de la seconde caméra 16. Ainsi, une légère variation de l'alignement horizontal et/ou 30 vertical entre la caméra en cours d'acquisition d'image et l'image d'arrière-plan peut aboutir à une image de différence qui montre une variation significative, bien qu'il n'y ait pratiquement aucun changement dans la zone surveillée réelle. Ce décalage d'alignement peut survenir 35 lors d'une instabilité verticale d'une caméra, si bien que la caméra en cours d'acquisition d'image s'est légèrement 2908546 16 déplacée en raison du vent, d'une vibration ou d'un quelconque parmi une variété d'autres facteurs. Le mouvement pourrait provoquer le décalage des images acquises par rapport à l'image d'arrière-plan d'un ou 5 plusieurs pixels dans une direction donnée, ce qui peut aboutir à une image de différence montrant une variation extrême entre les images acquises et l'image d'arrière-plan, donnant ainsi naissance à une détection d'intrus fausse positive. 10 Pour prendre en compte l'instabilité verticale des caméras, le générateur d'image d'arrière-plan 50 comprend un stabilisateur d'image d'arrièreplan 58. Le stabilisateur d'image d'arrière-plan 58 est configuré pour aligner verticalement et horizontalement les images 15 acquises de la caméra 52 par rapport à l'image d'arrière-plan acquise 54, pour que l'image d'arrière-plan acquise 54 soit stabilisée. Le stabilisateur d'image d'arrière-plan 58 reçoit comme entrées chaque image acquise en provenance de la caméra 52 et l'image d'arrière-plan acquise 54. L'image 20 d'arrière-plan acquise 54 est délivrée en entrée à un filtre de type Signe du Laplacien de Gaussienne (SLOG) d'arrière-plan 60 et les images acquises à partir de la caméra 52 sont chacune délivrées en entrée à un filtre SLOG d'image 62. On doit comprendre que le filtre SLOG 25 d'arrière-plan 60 et le filtre SLOG d'image 62 ne sont pas limités à des filtres SLOG, mais pourraient être l'un quelconque d'une variété de filtres d'image passe-bande. Le filtre SLOG d'arrière-plan 60 et le filtre SLOG d'image 62 fonctionnent pour convertir les images respectives en 30 images filtrées, de sorte que les images filtrées mettent en évidence les contrastes de texture. On doit comprendre aussi que l'image d'arrière-plan acquise 54 peut seulement être délivrée en entrée au filtre SLOG d'arrière-plan 60 à chaque actualisation par l'actualisateur d'image d'arrière- 35 plan 56. La figure 3 représente un exemple d'une image de 2908546 17 caméra 100 et d'une première image filtrée 102, d'une deuxième image filtrée 104 et d'une troisième image filtrée 106 de l'image de caméra 100 selon un aspect de l'invention. Dans l'exemple de la figure 3, la première 5 image filtrée 102, une deuxième image filtrée 104 et une troisième image filtrée 106 sont chacune des images filtrées SLOG de l'image de caméra 100. Les images filtrées 102, 104 et 106 montrent des motifs de pixels blancs et noirs de contrastes texturaux de l'image de caméra 100, et 10 celles-ci ne sont pas représentatives de modifications de luminosité de l'image de caméra 100. Ainsi, les ombres dues au passage de nuages et d'autres motifs de luminosité ne sont pas détectés dans les images filtrées SLOG, telles que les images 102, 104 et 106. 15 La première image filtrée 102, une deuxième image filtrée 104 et une troisième image filtrée 106 ont chacune divers degrés de résolution pour montrer des contrastes texturaux binaires de l'image de caméra 100. La première image filtrée 102 est une représentation filtrée de faible 20 résolution de l'image de caméra 100, la deuxième image filtrée 104 est une représentation filtrée de résolution moyenne de l'image de caméra 100 et la troisième image filtrée 106 est une représentation filtrée de haute résolution de l'image de caméra 100. Un filtre SLOG donné, 25 comme le filtre SLOG d'arrière-plan 60 et le filtre SLOG d'image 62 de l'exemple de la figure 2, peut être accordé pour fournir les divers degrés de résolution de texture binaire comme cela est représenté dans l'exemple de la figure 3. Comme le montre l'exemple de la figure 3, l'image 30 filtrée 106 définit un motif de texture binaire de l'image de caméra 100 plus précis que les images filtrées 102 et 104. Cependant, l'image filtrée 106 peut être plus sujette à un bruit pendant le filtrage de l'image de caméra 100. En se référant de nouveau à la figure 2, le filtre 35 SLOG d'arrière-plan 60 et le filtre SLOG d'image 62 peuvent seulement s'appliquer à une opération de filtrage grossière, comme l'image filtrée 102, à l'image d'arrière- 2908546 18 plan acquise 54 et aux images visuelles reçues de la caméra 52. Les images filtrées sont délivrées respectivement en sortie du filtre SLOG d'arrière-plan 60 et du filtre SLOG d'image 62 à un corrélateur d'image filtrée 64. Le 5 corrélateur d'image filtrée 64 superpose l'image d'arrière-plan acquise filtrée à l'image visuelle acquise filtrée. Le corrélateur d'image filtrée 64 décale ensuite de manière itérative l'image d'arrière-plan acquise filtrée d'un pixel à la fois sur l'image visuelle acquise filtrée. 10 A chaque décalage de pixels, le corrélateur d'image filtrée 64 peut déterminer une note de corrélation. La note de corrélation peut être représentative de la manière avec laquelle l'image d'arrière-plan acquise filtrée est bien alignée avec l'image visuelle acquise filtrée en se basant 15 sur le nombre de pixels de motifs de textures binaires qui concordent. Le décalage peut être à la fois dans les directions verticale et horizontale, et un décalage peut survenir à travers toute l'image ou à travers une partie de l'image, de sorte que des bonds de décalage de pixels 20 positifs et négatifs peuvent être réglés à la fois dans les directions verticale et horizontale. Le décalage de pixels fournissant la note de corrélation la plus élevée peut être représentatif de l'alignement approprié entre l'image d'arrière-plan acquise filtrée et l'image visuelle acquise 25 filtrée. On doit comprendre que le corrélateur d'image filtrée 64 peut exécuter la corrélation pour chaque image visuelle acquise filtrée associée à chaque trame de la caméra 52, par rapport à l'image d'arrière-plan acquise filtrée. 30 Pendant la détermination de la corrélation appropriée entre l'image d'arrière-plan acquise filtrée et l'image visuelle acquise filtrée, le corrélateur d'image filtrée 64 communique à un décaleur d'image 66 le nombre de pixels décalés pour réaliser la corrélation. Le décaleur d'image 35 66 reçoit l'image d'arrière-plan acquise 54 et décale l'image d'arrière-plan acquise 54 du nombre de pixels qui 2908546 19 lui a été communiqué par le corrélateur d'image filtrée 64. L'image d'arrière-plan acquise filtrée est ensuite délivrée en sortie du décaleur d'image 66 à un détecteur de jeton, tel que le détecteur de jeton 18 montré dans l'exemple de 5 la figure 1. De cette manière, l'image d'arrière-plan peut être stabilisée afin de réduire toute détection d'intrusion fausse positive résultant des différences de pixels en valeur absolue dans une image de différence basées sur un manque d'alignement horizontal et vertical entre l'image 10 d'arrière-plan et les images visuelles acquises en provenance d'une caméra respective. On doit comprendre que le générateur d'image d'arrière-plan 50 n'est pas limité à l'exemple de la figure 2. Par exemple, certains ou tous les composants du 15 stabilisateur d'image d'arrière-plan 58 peuvent être intégrés ensemble. Comme autre exemple, le décaleur d'image 66 peut résider dans le détecteur de jeton respectif, de sorte que le stabilisateur d'image d'arrière-plan 58 délivre en sortie les informations d'alignement de pixels 20 au détecteur de jeton. En outre, comme autre exemple supplémentaire, le corrélateur d'image filtrée 64 peut corréler l'image visuelle acquise filtrée par rapport à l'image d'arrière-plan acquise filtrée et pourra communiquer les informations de décalage de pixels au 25 détecteur de jeton. Ainsi, chaque image visuelle acquise peut être décalée par rapport à l'image d'arrière-plan dans le détecteur de jeton, au lieu de décaler l'image d'arrière-plan acquise. La figure 4 montre un autre exemple d'un système de 30 détection d'intrusion à caméra stéréoscopique 150 selon un aspect de l'invention. Le système de détection d'intrusion à caméra stéréoscopique 150 comprend un étage d'acquisition d'image stéréo 152, comprenant une première caméra 154 et une seconde caméra 156. La première caméra 154 et la 35 seconde caméra 156 peuvent être des caméras numériques. La première caméra 154 et la seconde caméra 156 peuvent être 2908546 20 configurées pour acquérir de manière concomitante des images de la même zone surveillée. Ainsi, la première caméra 154 et la seconde caméra 156 fonctionnent en stéréo l'une par rapport à l'autre, de sorte qu'elles peuvent être 5 montées l'une à côté de l'autre (par exemple à 1 mètre). Les images acquises peuvent être chacune des trames obtenues séparément assemblées à un débit rapide (par exemple 15 trames par seconde) par la première caméra 154 et la seconde caméra 156 respectives. 10 Le système de détection d'intrusion à caméra stéréoscopique 150 comprend un détecteur de jeton 158. Le détecteur de jeton 158 comprend un comparateur d'image 160, un circuit de remplissage d'image 162 et un circuit de localisation de jeton 164. Les images visuelles acquises 15 par la caméra 154 sont délivrées en sortie au comparateur d'image 160. Le comparateur d'image 160 est configuré pour comparer les images acquises à partir de la première caméra 154 avec une image d'arrière-plan générée à partir d'un générateur d'image d'arrière-plan 166. Le générateur 20 d'image d'arrière-plan 166 peut être sensiblement similaire au générateur d'image d'arrière-plan 50 qui a été décrit dans l'exemple de la figure 2 ci-dessus. Ainsi, l'image d'arrière-plan délivrée en sortie du générateur d'image d'arrière-plan 166 peut être alignée sensiblement 25 verticalement et horizontalement avec les images acquises délivrées en sortie de la caméra 154. Le comparateur d'image 160 applique un algorithme de différence de pixels en valeur absolue pour produire une image de différence. Les différences de pixels peuvent être 30 basées sur la texture, la luminosité et le contraste de couleur. L'image de différence montre ainsi pratiquement tous les pixels qui sont différents entre chacune des images acquises à partir de la caméra 154 et l'image d'arrière-plan. On doit comprendre que le comparateur 35 d'image 160 génère ainsi une image de différence pour chacune des images correspondant à chacune des trames 2908546 21 délivrées en sortie de la caméra 154. Il se peut que l'image de différence seule ne puisse pas cependant illustrer précisément une image de pixels en valeur absolue d'un intrus potentiel. Par exemple, un 5 intrus portant du noir peut passer furtivement devant une surface d'arrière-plan sombre dans la zone surveillée. Le comparateur d'image 160 peut également distinguer les mains, le visage et les chaussures de l'intrus en appliquant l'algorithme de différence de pixels en valeur 10 absolue, mais il peut y avoir des parties du corps de l'intrus dans les images acquises qui ne peuvent pas être distinguées par le comparateur d'image 160 à partir de l'image d'arrière-plan. Ainsi, le comparateur d'image 160 délivre en sortie l'image de différence au circuit de 15 remplissage d'image 162. Le circuit de remplissage d'image 162 applique un algorithme de remplissage de pixels à l'image de différence, de sorte qu'il est possible de déterminer si un jeton candidat existe. L'algorithme de remplissage de 20 pixels relie les pixels qui sont proches les uns des autres dans l'image de différence si bien que les pixels reliés peuvent prendre forme pour la détermination de la présence d'un jeton candidat. Par exemple, l'algorithme de remplissage d'image pourrait commencer avec un remplissage 25 horizontal, de gauche à droite sur l'image de différence, de sorte que les pixels sur une ligne horizontale qui sont à une certaine distance inter-pixels prédéfinie les uns des
autres peuvent être d'abord reliés. La distance inter-pixels prédéfinie peut être réglée de façon à empêcher des 30 remplissages parasites qui pourraient aboutir à des résultats faux positifs. L'algorithme de remplissage d'image pourrait appliquer ensuite une opération similaire dans la direction verticale sur l'image de différence. En conséquence, des pixels disjoints étroitement groupés 35 peuvent être remplis pour tenir compte des imprécisions de détection de la différence de pixels en valeur absolue 2908546 22 pouvant résulter. Ainsi, dans l'exemple ci-dessus de l'intrus camouflé, il est toujours possible de trouver l'intrus, comme les mains, le visage et les chaussures de l'intrus peuvent être remplis pour former une "tache" 5 pixélisée bidimensionnelle sur l'image de différence. L'image de différence remplie est délivrée en sortie du circuit de remplissage d'image 162 au circuit de localisation de jeton 164. Le groupe de pixels rempli sur l'image de différence remplie peut être examiné par le 10 circuit de localisation de jeton 164. Si le groupe de pixels rempli, tel que la "tache" pixélisée bidimensionnelle de l'intrus, dépasse des seuils de forme prédéfinis, le circuit de localisation de jeton 164 pourra marquer le groupe de pixels rempli en tant que jeton 15 candidat. Le circuit de localisation de jeton 164 détermine ainsi les coordonnées de pixels se rapportant à la position du jeton candidat sur l'image de différence remplie et communique les informations de position de pixels bidimensionnelles du jeton candidat, en tant que signal 20 TKNLOC, à un moteur d'acquisition de position 168. Le jeton candidat, comme on l'a décrit ci-dessus dans l'exemple de la figure 1, pourrait correspondre à un intrus potentiel. Les images acquises de chacune des caméras 154 et 156 25 sont également délivrées en sortie au moteur d'acquisition de position 168. Le moteur d'acquisition de position 168, similaire à celui décrit ci-dessus dans l'exemple de la figure 1, est configuré pour déterminer une position et une taille tridimensionnelles d'un intrus potentiel, et 30 pourrait faire partie d'un dispositif de poursuite d'image qui comprend également un calculateur de mouvement tridimensionnel et un comparateur de seuil. Spécifiquement, la caméra 154 délivre en sortie ses images acquises respectives à un premier filtre de type Signe du Laplacien 35 de Gaussienne (SLOG) 170 et la seconde caméra 156 délivre en sortie ses images acquises respectives à un second 2908546 23 filtre SLOG 172. Dans l'exemple de la figure 4, chacun du premier filtre SLOG 170 et du second filtre SLOG 172 applique de multiples opérations de filtrage SLOG sur chacune des images acquises respectivement à partir de 5 chacune de la première caméra 154 et de la seconde caméra 156. Spécifiquement, les filtres SLOG 170 et 172 exécutent une opération de filtrage SLOG de faible résolution, une opération de filtrage SLOG de résolution moyenne et une opération de filtrage SLOG de haute résolution sur chacune 10 des images acquises. Ces opérations de filtrage SLOG pourraient correspondre, respectivement, à la première image filtrée 102, à la deuxième image filtrée 104 et à la troisième image filtrée 106 montrées dans l'exemple de la figure 3 ci-dessus. Le premier filtre SLOG délivre en 15 sortie une image filtrée de haute résolution R HIGH, une image filtrée de résolution moyenne R_MED et une image filtrée de faible résolution RLOW à un corrélateur d'image 174. Le second filtre SLOG délivre en sortie une image filtrée de haute résolution LHIGH, une image filtrée de 20 résolution moyenne L_MED et une image filtrée de faible résolution LLOW au corrélateur d'image 174. Ainsi, le compromis entre la précision d'image et le bruit, comme on l'a décrit ci-dessus dans l'exemple de la figure 3, peut être pris en compte de manière appropriée dans la 25 détermination de la position tridimensionnelle de l'intrus potentiel. La figure 5 représente un exemple d'un corrélateur d'image 200 selon un aspect de l'invention. Le corrélateur d'image 200 de l'exemple de la figure 5 peut représenter le 30 corrélateur d'image 174 de l'exemple de la figure 4. Ainsi, on utilisera une référence à la figure 4, ainsi qu'aux références numériques analogues, dans l'explication suivante concernant l'exemple de la figure 5. Le corrélateur d'image 200 comprend un combinateur de 35 superposition d'images 202. Le combinateur de superposition d'images 202 reçoit les images filtrées délivrées en sortie 2908546 24 du premier filtre SLOG 170 et du second filtre SLOG 172 et superpose des paires des images filtrées, si bien que des paires d'images filtrées de même résolution sont superposées. Par exemple, l'image filtrée de haute 5 résolution R HIGH en provenance de la caméra 154 est superposée à l'image filtrée de haute résolution L HIGH en provenance de la caméra 156. De manière analogue, l'image filtrée de résolution moyenne R MED en provenance de la caméra 154 est superposée à l'image filtrée de résolution 10 moyenne L MED en provenance de la caméra 156. De manière analogue, l'image filtrée de faible résolution R LOW en provenance de la caméra 154 est superposée à l'image filtrée de faible résolution LLOW en provenance de la _ caméra 156. Le combinateur de superposition d'images 202 15 reçoit également le signal TKN_LOC, de sorte que les images filtrées R_HIGH, RMED et R_LOW peuvent être superposées respectivement aux images filtrées L HIGH, L MED et L LOW, à une position qui correspond à une position approximative de l'intrus potentiel sur les images filtrées respectives 20 LHIGH, LMED et L_LOW. La position de pixels de la superposition peut être identique pour chacune des paires d'images filtrées. Les trois paires d'images filtrées superposées sont délivrées en sortie du combinateur de superposition 25 d'images 202 à un décaleur de pixels itératif 204. Dans l'exemple de la figure 5, la paire d'images filtrées superposées de haute résolution est représentée par HIGHOVLY, la paire d'images filtrées superposées de résolution moyenne est représentée par MEDOVLY et la paire 30 d'images filtrées superposées de faible résolution est représentée par LOW_OVLY. On doit comprendre que dans l'exemple de la figure 5, HIGH OVLY, MED OVLY et LOW OVLY sont des paires d'images distinctes et ne sont pas ainsi des images combinées réelles. Le décaleur de pixels 35 itératif 204 applique un algorithme de corrélation de décalage de pixels à chacune des paires d'images filtrées, 2908546 25 de façon similaire à l'opération de corrélation décrite ci-dessus pour le corrélateur d'image filtrée 64 dans l'exemple de la figure 2. Cependant, le décaleur de pixels itératif 204 peut décaler chaque paire d'images filtrées de 5 façon sensiblement concomitante et égale. Pour chaque décalage de pixels, un calculateur de note de corrélation de haute résolution 206, un calculateur de note de corrélation de résolution moyenne 208 et un calculateur de note de corrélation de faible résolution 210 10 calculent une note de corrélation pour chacune des paires d'images filtrées respectives. Etant donné que chacune des paires d'images filtrées a une résolution différente par rapport à l'autre, les notes de corrélation pour chacune des paires d'images filtrées respectives peuvent être 15 différentes, même si le décalage de pixels de chacune des paires d'images filtrées est identique. Par exemple, le décalage concomitant de chacune des images filtrées R HIGH, RMED et RLOW par rapport aux images filtrées respectives LHIGH, LMED et LLOW d'un pixel dans la direction + X 20 pourra donner une note de corrélation distincte pour chacune des paires d'images filtrées. On doit comprendre que, dans l'exemple de la figure 5, la note de corrélation peut être représentative du nombre de pixels d'image filtrée du jeton candidat pouvant concorder avec les pixels 25 de l'image filtrée associée à la caméra 156. Ainsi, la note de corrélation la plus élevée peut aboutir au décalage des pixels du jeton candidat sur la position de pixels correspondante du jeton candidat dans l'autre image filtrée opposée. Ainsi, on doit comprendre qu'il est possible 30 d'obtenir une note de corrélation avant tout décalage car les images filtrées peuvent être superposées à des positions de pixels approximatives du jeton candidat sur chacune des images filtrées respectives. 35 Pour prendre en compte les notes de corrélation distinctes, le calculateur de note de corrélation de haute résolution 206, le calculateur de note de corrélation de résolution moyenne 208 et le calculateur de note de 2908546 26 corrélation de faible résolution 210 délivrent chacun les notes de corrélation respectives à un calculateur de corrélation globale 212. Le calculateur de corrélation globale 212 peut déterminer une note de corrélation globale 5 en se basant sur les notes de corrélation de résolutions respectives distinctes. Le calculateur de corrélation globale 212 peut être programmé pour déterminer la note de corrélation globale selon l'une quelconque d'une variété de manières. Comme exemple, le calculateur de corrélation 10 globale 212 peut additionner les notes de corrélation, peut calculer la moyenne des notes de corrélation ou peut appliquer un facteur de pondération aux notes de corrélation individuelles avant d'additionner ou de calculer la moyenne des notes de corrélation. Ainsi, la 15 note de corrélation globale peut être déterminée pour chaque décalage de pixels d'une quelconque manière convenant à la détermination de corrélation. La note de corrélation globale est délivrée en sortie du calculateur de corrélation globale à un détecteur de 20 valeur maximale de note de corrélation 214. Le détecteur de valeur maximale de note de corrélation 214 compare les notes de corrélation globale pour chaque décalage des paires d'images filtrées et détermine le décalage qui est le décalage optimal pour la corrélation. Lors de la 25 détermination du décalage qui correspond à la meilleure corrélation pour les paires d'images filtrées, le détecteur de valeur maximale de note de corrélation 214 délivre en sortie le nombre de pixels de décalage de la paire d'images filtrées pour la corrélation optimale. 30 On doit comprendre que le corrélateur d'image 200 n'est pas limité à l'exemple de la figure 5. Par exemple, le combinateur de superposition d'images 202 peut ne pas recevoir d'entrée en provenance du circuit de localisation de jeton 164, si bien que les images filtrées ne sont pas 35 superposées à la position de pixels approximative du jeton candidat. Comme exemple, le combinateur d'image pourrait superposer les images filtrées à des bords de pixels 2908546 27 opposés, de sorte que le décaleur de pixels itératif balaye une image filtrée à travers la totalité d'une autre pour déterminer la corrélation. Comme autre exemple, les paires d'images filtrées peuvent être superposées de sorte 5 qu'elles sont alignées horizontalement et verticalement et décalées par rapport aux pixels selon un motif en spirale à partir des centres d'image respectifs. En outre, il se peut que le corrélateur d'image 200 ne reçoive pas trois paires d'images filtrées distinctes, mais celui-ci pourrait 10 recevoir plus ou moins en corrélation les images de la première caméra 154 et de la seconde caméra 156 pour déterminer la position tridimensionnelle de l'intrus potentiel. En outre, certains des dispositifs montrés dans l'exemple de la figure 5 peuvent être intégrés ensemble 15 sous la forme d'un dispositif unique. En se référant de nouveau à la figure 4, le nombre de pixels de décalage entre les images filtrées dans une paire d'images filtrées pour une corrélation optimale est délivré en sortie du corrélateur d'image 174 à un moteur de 20 conversion de dimension 176. Le moteur de conversion de dimension 176 examine le décalage de pixels dans la corrélation de la paire d'images filtrées et convertit le décalage de pixels en une unité de mesure qui correspond à une grandeur de distance à laquelle l'intrus potentiel est 25 éloigné de l'étage d'acquisition d'image stéréo 152. Le nombre de pixels de décalage peut être inversement proportionnel à la distance, si bien qu'un grand nombre de pixels de décalage peut correspondre à une distance qui est plus proche de l'étage d'acquisition d'image stéréo 152, 30 tandis qu'un petit nombre de pixels de décalage peut correspondre à une distance qui est plus éloignée de l'étage d'acquisition d'image stéréo 152. On doit comprendre que le moteur de conversion de dimension 176 peut être pré-étalonné pour associer correctement le 35 décalage de pixels à une distance. Par exemple, un objet immobile situé à une distance prédéterminée de l'étage 2908546 28 d'acquisition d'image stéréo 152 dans la zone surveillée peut être utilisé pour étalonner la conversion du décalage de pixels en distance. La détermination de la distance de l'intrus potentiel 5 correspond ainsi directement à une position tridimensionnelle de l'intrus potentiel par rapport à l'étage d'acquisition stéréo 152. Pendant la détermination de la position tridimensionnelle de l'intrus potentiel, le moteur de conversion de dimension 176 peut déterminer une taille 10 de l'intrus potentiel. Par exemple, lors de la détermination de la position tridimensionnelle de l'intrus potentiel, un nombre de pixels de dimension du jeton candidat dans les directions verticale et horizontale peut être converti en l'unité de mesure utilisée pour déterminer 15 la distance. Ainsi, un jeton candidat qui est seulement de quelques pixels de large et qui est déterminé être à deux mètres de l'étage d'acquisition d'image stéréo 152 pourrait être une souris. Un jeton candidat qui a une largeur du même nombre de pixels et qui est déterminé être à des 20 centaines de mètres pourrait être une automobile. Par conséquent, la position et la taille tridimensionnelles de l'intrus potentiel sont déterminées sur la based'une séparation de parallaxe de la position bidimensionnelle de l'intrus potentiel (c'est-à-dire le jeton candidat) dans 25 une image acquise par la première caméra 154 par rapport à la position bidimensionnelle de l'intrus potentiel dans l'image acquise par la seconde caméra 156. Les données de position et de taille tridimensionnelles peuvent être délivrées en sortie du moteur de conversion de dimension 30 176 à un calculateur de mouvement tridimensionnel et/ou à un comparateur de seuil, comme on l'a décrit ci-dessus par rapport à l'exemple de la figure 1. La figure 6 représente un autre exemple d'un système de détection d'intrusion à caméra stéréoscopique 250 selon 35 un aspect de l'invention. Le système de détection d'intrusion à caméra stéréoscopique 250 comprend un étage 2908546 29 d'acquisition d'image stéréo 252, comprenant une première caméra 254 et une seconde caméra 256. Le système de détection d'intrusion à caméra stéréoscopique 250 comprend également un détecteur de jeton 258. Le détecteur de jeton 5 258 comprend un premier comparateur d'image 260, un premier circuit de remplissage d'image 262 et un premier circuit de localisation de jeton 264. Le détecteur de jeton 258 comprend également un second comparateur d'image 266, un second circuit de remplissage d'image 268 et un second 10 circuit de localisation de jeton 270. Les images visuelles acquises par la caméra 254 sont délivrées en sortie au premier comparateur d'image 260, et les images visuelles acquises par la caméra 256 sont délivrées en sortie au second comparateur d'image 266. 15 Le premier comparateur d'image 260 et le second comparateur d'image 266 sont configurés chacun pour comparer les images acquises respectivement à partir de la première caméra 254 et de la seconde caméra 256 avec une image d'arrière-plan générée à partir d'un premier 20 générateur d'image d'arrière-plan 272 et d'un second générateur d'image d'arrière-plan 274. Chacun du premier générateur d'image d'arrière-plan 272 et du second générateur d'image d'arrière-plan 274 peut être sensiblement similaire au générateur d'image d'arrière-plan 25 50, comme décrit dans l'exemple de la figure 2 ci-dessus. Ainsi, l'image d'arrière-plan délivrée en sortie du premier générateur d'image d'arrière-plan 272 et l'image d'arrière-plan délivrée en sortie du second générateur d'image d'arrière-plan 274 peuvent être alignées sensiblement 30 verticalement et horizontalement avec les images acquises délivrées respectivement en sortie de la première caméra 254 et de la seconde caméra 256. De façon similaire au comparateur d'image 160 de l'exemple de la figure 4 ci-dessus, chacun du premier 35 comparateur d'image 260 et du second comparateur d'image 266 applique un algorithme de différence de pixels en 2908546 30 valeur absolue pour générer des images de différence respectives. De manière analogue, le premier circuit de remplissage d'image 262 et le second circuit de remplissage d'image 268 appliquent chacun un algorithme de remplissage 5 de pixels aux images de différence respectives, de sorte qu'il est possible de déterminer si un jeton candidat existe sur chacune des images de différence respectives. Les images de différence remplies sont délivrées en sortie du circuit de remplissage d'image 262 et du circuit de 10 remplissage d'image 268 aux circuits de localisation de jeton respectifs 264 et 270. En outre, les images de différence remplies sont également délivrées en sortie du circuit de remplissage d'image 262 et du circuit de remplissage d'image 268 à un moteur d'acquisition de 15 position 276. De façon similaire à ce que l'on a décrit ci-dessus dans l'exemple de la figure 4, les images de différence remplies peuvent être examinées par les circuits de localisation de jeton respectifs 264 et 270 pour déterminer la présence d'un jeton candidat sur chacune des 20 images de différence remplies, et la position de pixels des jetons candidats respectifs. Les circuits de localisation de jeton 264 et 270 communiquent chacun les informations de position de pixels bidimensionnelles des jetons candidats respectifs au moteur d'acquisition de position 276. 25 Le moteur d'acquisition de position 276 comprend un corrélateur d'image 278 et un moteur de conversion de dimension 280. Le corrélateur d'image 278 reçoit comme entrées les images de différence remplies à partir des premier circuit de remplissage d'image 262 et second 30 circuit de remplissage d'image 268 respectifs, ainsi que les informations de position de pixels bidimensionnelles des jetons candidats respectifs à partir des circuits de localisation de jeton respectifs 264 et 270. Le corrélateur d'image 278 superpose les images de différence remplies aux 35 positions de pixels des jetons candidats respectifs, communiquées par les circuits de localisation de jeton 2908546 31 respectifs 264 et 270. Le corrélateur d'image 278 applique ensuite un algorithme de décalage de pixels pour déterminer la corrélation optimale de la paire d'images de différence remplies, de façon similaire au corrélateur d'image 200 5 décrit dans l'exemple ci-dessus de la figure 5. Cependant, puisque le détecteur de jeton 258 détecte un jeton candidat distinct pour chacune des images acquises de la première caméra 254 et de la seconde caméra 256, et génère ainsi des images de différence respectives distinctes, le corrélateur 10 d'image 278 peut déterminer directement une corrélation entre les images de différence respectives. En d'autres termes, puisque la position de pixels exacte du jeton candidat est déterminée pour les deux images de différence distinctes, il n'est pas nécessaire que le moteur 15 d'acquisition de position 276 applique l'algorithme de filtrage SLOG pour la corrélation. Ainsi, la génération d'une note de corrélation et le décalage de pixels peuvent survenir directement sur la paire d'images de différence remplies. 20 Le nombre de pixels de décalage entre les images de différence remplies pour une corrélation optimale est délivré en sortie du corrélateur d'image 278 au moteur de conversion de dimension 280. Le moteur de conversion de dimension 280 détermine le décalage de pixels dans la 25 corrélation de la paire d'images de différence remplies et convertit le décalage de pixels en une unité de mesure qui correspond à une grandeur de distance à laquelle l'intrus potentiel est éloigné de l'étage d'acquisition d'image stéréo 252. La distance peut être ensuite utilisée pour 30 déterminer une position et une taille tridimensionnelles de l'intrus potentiel, de façon similaire à ce que l'on a décrit ci-dessus dans l'exemple de la figure 4. Les données de position et de taille tridimensionnelles peuvent être délivrées en sortie du moteur de conversion de dimension 35 280 à un calculateur de mouvement tridimensionnel et/ou à un comparateur de seuil, comme on l'a décrit ci-dessus par 2908546 32 rapport à l'exemple de la figure 1. La figure 7 représente un autre exemple d'un système de détection d'intrusion à camera stéréoscopique 300 selon un aspect de l'invention. Le système de détection 5 d'intrusion à caméra stéréoscopique 300 comprend un étage d'acquisition d'image stéréo 302, comprenant une première caméra 304 et une seconde caméra 306. Le système de détection d'intrusion à caméra stéréoscopique 300 comprend également un détecteur de jeton 308. Comme on l'a décrit 10 ci-dessus dans l'exemple de la figure 4, une image de différence est générée sur la base d'un algorithme de différence de pixels en valeur absolue. Les différences de pixels en valeur absolue peuvent être basées sur la texture, la luminosité et le contraste de couleur, de sorte 15 que l'image de différence montre pratiquement tous les pixels qui sont différents entre chacune des images acquises en provenance de la caméra donnée et l'image d'arrière-plan. Par conséquent, les comparateurs d'image décrits dans les exemples des figures 4 et 6 ci-dessus 20 peuvent être sensibles aux ombres et aux changements de luminosité, comme des conditions nuageuses, provoquant ainsi potentiellement des résultats faux positifs. Le détecteur de jeton 308 comprend un premier filtre SLOG d'image 310, un premier comparateur d'image filtrée 25 312 et un premier circuit de localisation de jeton 314. Le détecteur de jeton 308 comprend aussi un second filtre SLOG d'image 316, un second comparateur d'image filtrée 318 et un second circuit de localisation de jeton 320. Les images visuelles acquises par la première caméra 304 sont 30 délivrées en sortie au premier filtre SLOG d'image 310, et les images visuelles acquises par la seconde caméra 306 sont délivrées en sortie au second filtre SLOG d'image 316. Le premier filtre SLOG d'image 310 et le second filtre SLOG d'image 316 peuvent générer chacun une ou plusieurs images 35 filtrées des images acquises respectives à partir de la première caméra 304 et de la seconde caméra 306. Par 2908546 33 exemple, chacun du premier filtre SLOG d'image 310 et du second filtre SLOG d'image 316 peut générer une image filtrée de haute résolution, une image filtrée de résolution moyenne et une image filtrée de faible 5 résolution, comme on l'a décrit ci-dessus dans l'exemple de la figure 3. Un premier générateur d'image d'arrière-plan 322 génère une image d'arrière-plan en se basant sur la première caméra 304 et délivre en sortie l'image d'arrière- 10 plan à un premier filtre SLOG d'arrière-plan 324. Le premier filtre SLOG d'arrière-plan 324 peut générer un nombre d'images filtrées de l'image d'arrière-plan égal au nombre d'images filtrées générées par le premier filtre SLOG d'image 310. Par exemple, le premier filtre SLOG 15 d'arrière-plan 324 peut générer une image d'arrière-plan filtrée de haute résolution, une image d'arrière-plan filtrée de résolution moyenne et une image d'arrière-plan filtrée de faible résolution, chaque résolution correspondant à une résolution des images filtrées générées 20 par le premier filtre SLOG d'image 310. D'une manière analogue, un second générateur d'image d'arrière-plan 326 génère une image d'arrière-plan basée sur la seconde caméra 306 et délivre en sortie l'image d'arrière-plan à un second filtre SLOG d'arrière-plan 328. Le second filtre SLOG 25 d'arrière-plan 328 peut générer un nombre d'images filtrées de l'image d'arrière-plan égal au nombre d'images filtrées générées par le second filtre SLOG d'image 316. On doit comprendre que chacun du premier générateur d'image d'arrière-plan 322 et du second générateur d'image 30 d'arrière-plan 326 peut être sensiblement similaire au générateur d'image d'arrière-plan 50 décrit dans l'exemple de la figure 2 ci-dessus. Le premier comparateur d'image filtrée 312 et le second comparateur d'image filtrée 318 sont configurés 35 chacun pour comparer les images filtrées générées respectivement par le premier filtre SLOG d'image 310 et le 2908546 34 second filtre SLOG d'image 316, avec les images d'arrière-plan filtrées générées respectivement par le premier filtre SLOG d'arrière-plan 324 et le second filtre SLOG d'arrière-plan 328. Pour obtenir une comparaison plus précise, on 5 doit comprendre que chacune des images filtrées de chaque résolution respective peut être comparée de manière concomitante. De façon similaire au comparateur d'image 160 de l'exemple de la figure 4 ci-dessus, chacun du premier comparateur d'image filtrée 312 et du second comparateur 10 d'image filtrée 318 peut appliquer un algorithme de différence de pixels en valeur absolue pour générer des images de différence respectives. Cependant, du fait que les images acquises filtrées et les images d'arrière-plan filtrées montrent seulement des contrastes de texture 15 binaires, les images de différence montreront des pixels qui diffèrent seulement en texture. Ainsi, les images de différence sont insensibles aux différences de luminosité et de contraste de couleur entre les images acquises par la première caméra 304 et la seconde caméra 306 par rapport 20 aux images d'arrière-plan respectives. L'image de différence délivrée en sortie de chacun du comparateur d'image filtrée 312 et du comparateur d'image filtrée 318 pourrait être constituée d'images de différence distinctes pour chaque résolution des images acquises filtrées et des 25 images d'arrière-plan filtrées respectives. En variante, l'image de différence délivrée en sortie de chacun du comparateur d'image filtrée 312 et du comparateur d'image filtrée 318 pourrait être une seule image de différence qui est basée sur la comparaison des images acquises filtrées 30 et des images d'arrière-plan filtrées respectives. Les images de différence sont délivrées en sortie du comparateur d'image filtrée 312 et du comparateur d'image filtrée 318 aux circuits de localisation de jeton respectifs 314 et 320. En outre, les images de différence 35 sont également délivrées en sortie du comparateur d'image filtrée 312 et du comparateur d'image filtrée 318 à un moteur d'acquisition de position 330. De façon similaire à 2908546 35 ce que l'on a décrit ci-dessus dans l'exemple de la figure 4, les images de différence peuvent être examinées par des circuits de localisation de jeton respectifs 314 et 320 pour déterminer la présence d'un jeton candidat sur chacune 5 des images de différence et déterminer la position de pixels des jetons candidats respectifs. Dans l'exemple de la figure 7, les pixels montrant les différences de texture binaires entre les images acquises filtrées et les images d'arrière-plan filtrées sont marqués par les circuits de 10 localisation de jeton respectifs 314 et 320 comme jetons candidats. Les circuits de localisation de jeton 314 et 320 communiquent chacun les informations de position de pixels bidimensionnelles des jetons candidats respectifs au moteur d'acquisition de position 330. 15 Le moteur d'acquisition de position 330 comprend un corrélateur d'image 332 et un moteur de conversion de dimension 334. Le corrélateur d'image 332 reçoit comme entrées les images de différence en provenance du comparateur d'image filtrée respectif 312 et du comparateur 20 d'image filtrée 318, ainsi que les informations de position de pixels bidimensionnelles des jetons candidats respectifs à partir des circuits de localisation de jeton respectifs 314 et 320. Le corrélateur d'image 332 superpose les images de différence aux positions de pixels des jetons candidats 25 respectifs, communiquées par les circuits de localisation de jeton respectifs 314 et 320. Le corrélateur d'image 332 applique ensuite un algorithme de décalage de pixels pour déterminer la corrélation optimale de la paire d'images de différence, de façon similaire au corrélateur d'image 200 30 décrit dans l'exemple ci-dessus de la figure 5. En outre, de façon similaire à ce que l'on a décrit ci-dessus dans l'exemple de la figure 6, la production d'une note de corrélation et un décalage de pixels peuvent survenir directement sur la paire d'images de différence, car les 35 images acquises ont déjà été filtrées. Le nombre de pixels de décalage entre les images de différence pour une corrélation optimale est délivré en 2908546 36 sortie du corrélateur d'image 332 au moteur de conversion de dimension 334. Le moteur de conversion de dimension 334 examine le décalage de pixels dans la corrélation de la paire d'images de différence et convertit le décalage de 5 pixels en une unité de mesure qui correspond à une grandeur de distance dont est éloigné l'intrus potentiel par rapport à l'étage d'acquisition d'image stéréo 302. La distance peut être ensuite utilisée pour déterminer une position et une taille tridimensionnelles de l'intrus potentiel, de 10 façon similaire à ce que l'on a décrit ci-dessus dans l'exemple de la figure 4. Les données de position et de taille tridimensionnelles peuvent être délivrées en sortie du moteur de conversion de dimension 334 à un calculateur de mouvement tridimensionnel et/ou à un comparateur de 15 seuil, comme on l'a décrit ci-dessus par rapport à l'exemple de la figure 1. La figure 8 représente un autre exemple d'un système de détection d'intrusion à caméra stéréoscopique 350 selon un aspect de l'invention. Le système de détection 20 d'intrusion à caméra stéréoscopique 350 comprend un étage d'acquisition d'image stéréo 352, comprenant une première caméra 354 et une seconde caméra 356. Le système de détection d'intrusion à caméra stéréoscopique 350 comprend également un détecteur de jeton 358. De façon similaire à 25 l'exemple de la figure 7 ci-dessus, le détecteur de jeton 358 comprend un premier filtre SLOG d'image 360, un premier comparateur d'image filtrée 362 et un premier circuit de localisation de différence de texture 364. Le détecteur de jeton 358 comprend également un second filtre SLOG d'image 30 366, un second comparateur d'image filtrée 368 et un second circuit de localisation de différence de texture 370. Les images visuelles acquises par la première caméra 354 sont délivrées en sortie au premier filtre SLOG d'image 35 360, et les images visuelles acquises par la seconde caméra 356 sont délivrées en sortie au second filtre SLOG d'image 2908546 37 366. Le premier filtre SLOG d'image 360 et le second filtre SLOG d'image 366 peuvent générer chacun une ou plusieurs images filtrées des images acquises respectives à partir de la première caméra 354 et de la seconde caméra 356. Par 5 exemple, chacun du premier filtre SLOG d'image 360 et du second filtre SLOG d'image 366 peut générer une image filtrée de haute résolution, une image filtrée de résolution moyenne et une image filtrée de faible résolution, comme on l'a décrit ci-dessus dans l'exemple de la figure 3. 10 Un premier générateur d'image d'arrière-plan 372 génère une image d'arrière-plan en se basant sur la première caméra 354 et délivre en sortie l'image d'arrière-plan à un premier filtre SLOG d'arrière-plan 374. D'une manière analogue, un second générateur d'image d'arrière- 15 plan 376 génère une image d'arrière-plan en se basant sur la seconde caméra 356 et délivre en sortie l'image d'arrière-plan à un second filtre SLOG d'arrière-plan 378. On doit comprendre que chacun du premier générateur d'image d'arrière-plan 372 et du second générateur d'image 20 d'arrière-plan 376 peut être sensiblement similaire au générateur d'image d'arrière-plan 50 comme décrit dans l'exemple de la figure 2 ci-dessus. Cependant, comme on le décrit plus en détail ci-dessous, le premier générateur d'image d'arrière-plan 372 et le second générateur d'image 25 d'arrière-plan 376 peuvent être configurés pour actualiser rapidement l'image d'arrière-plan. De façon similaire à l'exemple de la figure 7 ci-dessus, le premier filtre SLOG d'arrière-plan 374 et le second filtre SLOG d'arrière-plan 378 peuvent générer chacun un nombre d'images filtrées de 30 l'image d'arrière-plan égal au nombre d'images filtrées générées respectivement par le premier filtre SLOG d'image 360 et le second filtre SLOG d'image 366. Le premier comparateur d'image filtrée 362 et le second comparateur d'image filtrée 368 sont chacun 35 configurés pour comparer les images filtrées générées respectivement par le premier filtre SLOG d'image 360 et le 2908546 38 second filtre SLOG d'image 366, avec les images d'arrière-plan filtrées générées respectivement par le premier filtre SLOG d'arrière-plan 374 et le second filtre SLOG d'arrière-plan 378. De façon similaire au comparateur d'image 160 5 dans l'exemple de la figure 4 ci-dessus, chacun du premier comparateur d'image filtrée 362 et du second comparateur d'image filtrée 368 peut appliquer un algorithme de différence de pixels en valeur absolue afin de générer des images de différence respectives qui montrent des pixels 10 qui diffèrent seulement en texture. Ainsi, les images de différence sont insensibles aux différences de luminosité et de contraste de couleur entre les images acquises par la première caméra 354 et la seconde caméra 356 par rapport aux images d'arrière-plan respectives, de façon similaire à 15 ce que l'on a décrit ci-dessus par rapport à l'exemple de la figure 7. Les images de différence sont délivrées en sortie du comparateur d'image filtrée 362 et du comparateur d'image filtrée 368 aux circuits de localisation de différence de 20 texture respectifs 364 et 370. De façon similaire à ce que l'on a décrit ci-dessus dans l'exemple de la figure 4, les images de différence peuvent être examinées par les circuits de localisation de différence de texture respectifs 364 et 370 pour déterminer les différences de 25 texture sur chacune des images de différence et pour déterminer la position de pixels des différences de texture respectives. Cependant, puisque les images de différence filtrées peuvent être basées sur et/ou comprendre des comparaisons d'images filtrées ayant une faible résolution, 30 les différences de texture peuvent apparaître sur les images de différence filtrées respectives comme ayant une résolution inférieure à celle des images acquises par les caméras 354 et 356. En d'autres termes, une seule différence de texture marquée sur une image de différence 35 filtrée pourrait correspondre à plusieurs pixels d'une image acquise par l'une respective des caméras 354 et 356. 2908546 39 Ainsi, dans l'exemple de la figure 8, le premier circuit de localisation de jeton de texture 364 communique les informations de positions bidimensionnelles des différences de texture au premier générateur d'image d'arrière-plan 372 5 et le second circuit de localisation de différence de texture 370 communique les informations de positions bidimensionnelles des différences de texture au second générateur d'image d'arrière-plan 376. Le premier générateur d'image d'arrière-plan 372 peut 10 être configuré en outre pour recevoir les informations de positions bidimensionnelles des différences de texture à partir du premier circuit de localisation de différence de texture 364 afin d'actualiser rapidement la première image d'arrière-plan. De manière analogue, le second générateur 15 d'image d'arrière-plan 376 peut être configuré en outre pour recevoir les informations de positions bidimensionnelles des différences de texture en provenance du second circuit de localisation de différence de texture 370 afin d'actualiser rapidement la seconde image 20 d'arrière-plan. Par exemple, le premier générateur d'image d'arrière-plan 372 et le second générateur d'image d'arrière-plan 376 peuvent recevoir chacun les positions bidimensionnelles respectives des différences de texture au niveau d'un actualisateur d'image d'arrière-plan 56 dans 25 l'exemple de la figure 2. Comme on le décrit ci-dessus, une seule différence marquée sur une image de différence filtrée pourrait correspondre à plusieurs pixels d'une image acquise par l'une respective des caméras 354 et 356. Par conséquent, on 30 doit comprendre que l'un respectif des générateurs d'image d'arrière-plan 372 et 376 peut traduire les informations de positions bidimensionnelles de faible résolution en une position de pixels réelle sur une image acquise à partir de l'une respective des caméras 354 et 356. Ainsi, le premier 35 générateur d'image d'arrière-plan 372 peut actualiser tous les pixels de l'image d'arrière-plan avec une image acquise 2908546 par la première caméra 354 à l'exception des pixels correspondant à la position bidimensionnelle des différences de texture. De manière analogue, le second générateur d'image d'arrière-plan 376 peut actualiser tous 5 les pixels de l'image d'arrière-plan avec une image acquise par la seconde caméra 356 à l'exception des pixels correspondant à la position bidimensionnelle des différences de texture. On doit comprendre que l'actualisation rapide des images d'arrière-plan en se 10 basant sur les images de différence filtrées peut fonctionner en plus, ou à la place, des actualisations progressives de l'image d'arrière-plan acquise 54 par l'actualisateur d'image d'arrière-plan 56, comme on l'a décrit dans l'exemple de la figure 2. En outre, 15 l'actualisation rapide peut fonctionner en plus d'un stabilisateur d'image d'arrière-plan 58, comme on l'a décrit dans l'exemple de la figure 2. Outre les composants décrits ci-dessus, le détecteur de jeton 358 comprend également un premier comparateur 20 d'image 380, un premier circuit de remplissage d'image 382 et un premier circuit de localisation de jeton 384. Le détecteur de jeton 358 comprend en outre un second comparateur d'image 386, un second circuit de remplissage d'image 388 et un second circuit de localisation de jeton 25 390. Lors de l'actualisation rapide des première et seconde images d'arrière-plan respectives, l'image acquise à partir de la première caméra 354 ainsi que la première image d'arrière-plan actualisée sont délivrées en entrée au premier comparateur d'image 380. De manière analogue, 30 l'image acquise à partir de la seconde caméra 356, ainsi que la seconde image d'arrière-plan actualisée, sont délivrées en entrée au second comparateur d'image 386. De façon similaire au comparateur d'image 160 de l'exemple de la figure 4 ci-dessus, chacun du premier 35 comparateur d'image 380 et du second comparateur d'image 386 applique un algorithme de différence de pixels en 2908546 41 valeur absolue pour générer des images de différence respectives. Cependant, on doit comprendre que les images acquises respectives à partir de la première caméra 354 et de la seconde caméra 356 peuvent être les mêmes images qui 5 étaient utilisées pour actualiser rapidement les images d'arrière-plan par le premier générateur d'image d'arrière-plan 372 et le second générateur d'image d'arrière-plan 376 respectifs. Ainsi, tous les pixels de l'image acquise sont sensiblement identiques aux mêmes pixels dans l'image 10 d'arrière-plan respective, à l'exception des pixels au niveau de la position bidimensionnelle des différences de texture. Par conséquent, les images de différence générées par les comparateurs d'image respectifs 380 et 386 montrent les pixels qui sont différents entre les images acquises à 15 partir des caméras 354 et 356 et les images d'arrière-plan respectives seulement au niveau des positions bidimensionnelles respectives des différences de texture. En conséquence, le système de détection
d'intrusion à caméra stéréoscopique 350 est également moins sujet à une 20 détection fausse positive d'un intrus étant donné que les images de différence ne montrent pas de différences à des positions de petites différences de texture. En outre, le système de détection d'intrusion à caméra stéréoscopique 350 de l'exemple de la figure 8 peut être un système plus 25 robuste pour détecter des intrus en se basant sur la production redondante d'images de différence. Le premier circuit de remplissage d'image 382 et le second circuit de remplissage d'image 388 peuvent appliquer chacun un algorithme de remplissage de pixels aux images de 30 différence respectives, de sorte qu'il est possible de déterminer si un jeton candidat existe sur chacune des images de différence respectives. Les images de différence remplies sont délivrées en sortie du circuit de remplissage d'image 382 et du circuit de remplissage d'image 388 aux 35 circuits de localisation de jeton respectifs 384 et 390. Les images de différence remplies peuvent être examinées 2908546 42 par les circuits de localisation de jeton respectifs 384 et 390 pour déterminer la présence d'un jeton candidat sur chacune des images de différence remplies. En outre, les images de différence remplies peuvent être délivrées en 5 sortie du circuit de remplissage d'image 382 et du circuit de remplissage d'image 388 à un moteur d'acquisition de position (non représenté), de façon similaire à ce que l'on a décrit ci-dessus par rapport à l'exemple de la figure 6. En outre, les circuits de localisation de jeton 384 et 39010 peuvent communiquer chacun réellement les informations de positions de pixels bidimensionnelles des jetons candidats respectifs à un moteur d'acquisition de position. On doit comprendre que le système de détection d'intrusion à caméra stéréoscopique 350 n'est pas limité à 15 l'exemple de la figure 8. Par exemple, un ou plusieurs des dispositifs décrits dans le détecteur de jeton 358 peuvent être intégrés ensemble. Comme autre exemple, les circuits de localisation de différence de texture 364 et 370 pourraient communiquer directement les informations de 20 positions bidimensionnelles des différences de texture aux comparateurs d'image 380 et 386, en opposition à l'actualisation rapide de l'arrière-plan. Ainsi, les comparateurs d'image 380 et 386 pourraient comparer la différence de pixels seulement au niveau des positions de 25 différence de texture communiquées par les circuits de localisation de différence de texture 364 et 370. Au vu des caractéristiques structurales et fonctionnelles précédentes décrites ci-dessus, on appréciera mieux une méthodologie selon les divers aspects 30 de la présente invention en référence à la figure 9. Même si, dans un but de simplicité d'explication, les méthodologies de la figure 9 sont représentées et décrites comme s'exécutant en série, on doit comprendre et remarquer que la présente invention n'est pas limitée par l'ordre 35 représenté, comme certains aspects pourraient survenir, selon la présente invention, dans des ordres différents 2908546 43 et/ou de manière simultanée à d'autres aspects par rapport à ceux représentés et décrits dans le présent document. En outre, il se peut que toutes les caractéristiques représentées ne soient pas nécessaires pour mettre en oeuvre 5 une méthodologie selon un aspect de la présente invention. La figure 9 représente un exemple d'un procédé 400 de détection d'intrus dans une zone surveillée selon un aspect de l'invention. À 402, les premières images de la zone surveillée sont acquises par une première caméra et les 10 secondes images de la zone surveillée sont acquises par une seconde caméra. La première et la seconde caméra peuvent être chacune des caméras numériques, et les premières images et secondes images peuvent être obtenues chacune de manière sensiblement concomitante, de sorte que la première 15 caméra et la seconde caméra fonctionnent en stéréo l'une par rapport à l'autre. À 404, une image d'arrière-plan de la zone surveillée est obtenue. L'image d'arrière-plan peut être basée sur une ou plusieurs images obtenues par la première caméra. Une image d'arrière-plan distincte peut 20 être obtenue pour chacune de la première caméra et de la seconde caméra. À 406, l'image d'arrière-plan est alignée verticalement et horizontalement avec les images acquises. L'alignement vertical et horizontal peut être obtenu en appliquant un algorithme de filtrage, tel qu'un algorithme 25 de filtrage SLOG, à la fois à l'image d'arrière-plan et à l'image acquise. L'image d'arrière-plan filtrée et l'image acquise filtrée peuvent être ensuite corrélées sur la base d'un décalage de pixels et de la production d'une note de corrélation pour chaque décalage.
30 À 408, les pixels des images acquises sont comparés aux pixels de l'image d'arrière-plan pour déterminer la présence d'un intrus potentiel. Les images acquises peuvent être à la fois les premières images acquises et les secondes images acquises comparées aux images d'arrière- 35 plan respectives. En variante, les images acquises peuvent être juste les premières images acquises comparées à une 2908546 44 seule image d'arrière-plan. En outre, les images acquises et les images d'arrièreplan respectives peuvent être filtrées, de sorte que les images acquises filtrées sont comparées aux images d'arrière-plan filtrées respectives.
5 À 410, les caractéristiques tridimensionnelles associées à l'intrus potentiel sont déterminées. La détermination peut être basée sur la corrélation des versions filtrées des images acquises en se basant sur la comparaison des images acquises et de l'image d'arrière- 10 plan. La corrélation peut être basée sur la génération de notes de corrélation à chaque décalage d'un algorithme de décalage de pixels. La corrélation peut également se produire entre deux images de différence distinctes. Le degré de décalage de pixels entre les premières images et 15 les secondes images peut être traduit en une position et en une taille tridimensionnelles de l'intrus potentiel. À 412, un indicateur est activé lorsque les caractéristiques tridimensionnelles de l'intrus potentiel excèdent au moins un seuil. Le seuil pourrait correspondre 20 à la taille et/ou à la position de l'intrus potentiel. En outre, la position de l'intrus potentiel peut être suivie à travers plusieurs des premières et secondes images des première et seconde caméras, de sorte que la direction tridimensionnelle de mouvement et la vitesse peuvent être 25 déterminées. Ainsi, un autre seuil peut être la vitesse, ou un mouvement vers un espace tridimensionnel prédéfini. Ce que l'on a décrit ci-dessus sont des exemples de la présente invention. Il est bien sûr impossible de décrire chaque combinaison imaginable des composantes ou des 30 méthodologies dans le but de décrire la présente invention, mais l'homme de l'art reconnaîtra que de nombreuses autres combinaisons et permutations de la présente invention sont possibles. En conséquence, la présente invention est destinée à englober toutes ces altérations, modifications 35 et variantes qui font partie de l'esprit et du domaine d'application des revendications annexées.
Claims (28)
1. Système de détection d'intrusion (10 ; 150 ; 250 ; 300 ; 350) caractérisé en ce qu'il comprend : une première caméra (14 ; 154 ; 254 ; 304 ; 354) configurée pour générer des premières images d'une zone surveillée ; une seconde caméra (16 ; 156 ; 256 ; 306 ; 356) configurée pour générer des secondes images de la zone surveillée ; un dispositif de détection configuré pour comparer les premières images avec une image d'arrière-plan (54) de la zone surveillée, le dispositif de détection marquant les différences entre les premières images et l'image d'arrière-plan (54) comme un intrus potentiel ; et un dispositif de poursuite configuré pour évaluer chacune des premières images par rapport à chacune des secondes images pour déterminer les caractéristiques tridimensionnelles associées à l'intrus potentiel.
2. Système selon la revendication 1, caractérisé en ce que les caractéristiques tridimensionnelles comprennent la position, la taille et le mouvement, et comprenant en outre un indicateur (30), de sorte que le dispositif de poursuite est configuré en outre pour activer l'indicateur (30) lorsque au moins un élément parmi la position, la taille et le mouvement associés à l'intrus potentiel excède un seuil respectif.
3. Système selon la revendication 1, caractérisé en ce que le dispositif de poursuite comprend un comparateur de seuil (28) configuré pour permettre à un utilisateur du système de détection d'intrusion (10 ; 150 ; 250 ; 300 ; 350) de désigner au moins un espace tridimensionnel dans la zone surveillée, l'au moins un espace tridimensionnel étant l'un d'un espace de seuil, de sorte qu'un mouvement parmi celui pour entrer dans l'au moins un espace tridimensionnel et celui en direction de cet espace active l'indicateur (30), et d'une zone de silence, de sorte que les 2908546 46 différences entre les premières images et l'image d'arrière-plan (54) dans l'espace tridimensionnel n'activent pas l'indicateur (30).
4. Système selon la revendication 1, caractérisé en 5 ce que la première caméra (14 ; 154 ; 254 ; 304 ; 354) et la seconde caméra (16 ; 156 ; 256 ; 306 ; 356) sont montées chacune de manière immobile approximativement au niveau du sol.
5. Système selon la revendication 1, caractérisé en 10 ce que l'image d'arrière-plan (54) est une première image d'arrière-plan générée à partir de la première caméra (14 ; 154 ; 254 ; 304 ; 354), et en ce que le dispositif de détection est configuré en outre pour comparer les secondes images avec une seconde image d'arrière-plan de la zone 15 surveillée, la seconde image d'arrière-plan étant générée à partir de la seconde caméra (16 ; 156 ; 256 ; 306 ; 356), le dispositif de détection étant configuré en outre pour marquer les différences entre les secondes images et la seconde image d'arrière-plan comme intrus potentiel. 20
6. Système selon la revendication 5, caractérisé en ce que la première image d'arrière-plan, la seconde image d'arrière-plan, les premières images et les secondes images sont filtrées pour afficher des motifs de contraste de texture, de sorte que le dispositif de détection est 25 configuré pour comparer les premières images filtrées avec la première image d'arrière-plan filtrée et pour comparer les secondes images filtrées avec la seconde image d'arrière-plan filtrée, le dispositif de détection marquant les différences entre les premières images filtrées et la 30 première image d'arrière-plan filtrée et les différences entre les secondes images filtrées et la seconde image d'arrière-plan filtrée comme intrus potentiel.
7. Système selon la revendication 6, caractérisé en ce que la première image d'arrière-plan est actualisée sur 35 la base des différences entre les premières images filtrées et la première image d'arrière-plan filtrée et la seconde 2908546 47 image d'arrière-plan est actualisée sur la base des différences entre les secondes images filtrées et la seconde image d'arrière-plan filtrée, et en ce que le dispositif de détection est configuré en outre pour marquer 5 les différences entre les premières images et la première image d'arrière-plan actualisée comme intrus potentiel et les secondes images et la seconde image d'arrière- plan actualisée comme intrus potentiel.
8. Système selon la revendication 1, caractérisé en 10 ce qu'il comprend en outre un générateur d'image d'arrière-plan (20 ; 50 ; 166) configuré pour générer l'image d'arrière-plan (54) de la zone surveillée, dans lequel le générateur d'image d'arrière-plan (20 ; 50 ; 166) comprend un stabilisateur d'arrière-plan (58) configuré pour 15 corréler les pixels associés aux premières images avec les pixels associés à l'image d'arrière-plan (54), de sorte que les pixels associés aux premières images sont alignés verticalement et horizontalement avec les pixels associés à l'image d'arrière-plan (54) avant que le dispositif de 20 détection marque les différences entre les pixels associés aux premières images et les pixels associés à l'image d'arrière-plan (54) comme intrus potentiel.
9. Système selon la revendication 1, caractérisé en ce que le dispositif de poursuite comprend un corrélateur 25 d'image (174 ; 200 ; 278 ; 332) configuré pour comparer chacune des premières images à l'une respective des secondes images afin de déterminer une position et une taille de l'intrus potentiel dans l'espace tridimensionnel en se basant sur une séparation de parallaxe d'une position 30 bidimensionnelle de l'intrus potentiel dans une image donnée des premières images par rapport à une position bidimensionnelle de l'intrus potentiel dans celle respective des secondes images.
10. Système selon la revendication 9, caractérisé en 35 ce que le corrélateur d'image (174 ; 200 ; 278 ; 332) comprend : 2908546 48 un dispositif de superposition d'images (202) configuré pour superposer celle donnée des premières images sur celle respective des secondes images, de sorte que la position bidimensionnelle de l'intrus potentiel sur celle 5 donnée des premières images croise une position approximative de la position bidimensionnelle de l'intrus potentiel sur celle respective des secondes images ; un dispositif de décalage de pixels itératif (204) configuré pour décaler de manière répétée celle donnée des 10 premières images par rapport à celle respective des secondes images d'un seul pixel par décalage ; et un calculateur de corrélation (212) configuré pour déterminer une note de corrélation pour chaque décalage, de sorte que la séparation de parallaxe des positions 15 bidimensionnelles respectives de l'intrus potentiel est déterminée sur la base d'un décalage donné qui produit une note de corrélation la plus élevée.
11. Système selon la revendication 10, caractérisé en ce que le dispositif de poursuite comprend une pluralité de 20 filtres d'image configurés pour générer au moins une première image filtrée {102) associée à chacune des premières images et au moins une seconde image filtrée (104) associée à chacune des secondes images, chacune de l'au moins une première image filtrée (102) ayant une 25 résolution qui concorde avec une respective de l'au moins une seconde image filtrée (104), de sorte que le dispositif de superposition d'images (202) et le dispositif de décalage de pixels itératif (204) sont configurés pour superposer et décaler de manière répétée l'au moins une 30 paire concordante de l'au moins une première image filtrée (102) et de l'au moins une seconde image filtrée (104).
12. Procédé de détection d'intrus dans une zone surveillée, le procédé étant caractérisé en ce qu'il comprend les étapes consistant à : 35 acquérir des premières images de la zone surveillée à partir d'une première caméra (14 ; 154 ; 254 ; 304 ; 354) 2908546 49 et des secondes images de la zone surveillée à partir d'une seconde caméra (16 ; 156 ; 256 ; 306 ; 356) ; générer une image d'arrière-plan (54) de la zone surveillée ; 5 corréler les premiers pixels associés aux premières images avec les seconds pixels associés à l'image d'arrière-plan (54) de la zone surveillée, de sorte que les premiers pixels sont alignés horizontalement et verticalement avec les seconds pixels ; 10 comparer les premières images et l'image d'arrière-plan (54) de la zone surveillée pour déterminer la présence d'un intrus potentiel ; déterminer les caractéristiques tridimensionnelles de l'intrus potentiel en se basant sur une comparaison 15 relative des premières images et des secondes images ; et activer un indicateur (30) lorsque les caractéristiques tridimensionnelles de l'intrus potentiel excèdent au moins un seuil prédéterminé.
13. Procédé selon la revendication 12, caractérisé en 20 ce que la détermination des caractéristiques tridimensionnelles de l'intrus potentiel comprend la détermination d'une séparation de parallaxe de l'intrus potentiel dans chacune des premières images par rapport aux secondes images respectives. 25
14. Procédé selon la revendication 13, caractérisé en ce que la détermination de la séparation de parallaxe comprend la superposition de chacune des premières images sur l'une respective des secondes images à des positions bidimensionnelles approximatives respectives de l'intrus 30 potentiel et le décalage de chacune des premières images par rapport à celle respective des secondes images jusqu'à ce qu'une corrélation significative soit trouvée.
15. Procédé selon la revendication 13, caractérisé en ce qu'il comprend en outre la génération d'au moins une 35 première image filtrée (102) associée à chacune des premières images et d'au moins une seconde image filtrée 2908546 50 (104) associée à chacune des secondes images, chacune de l'au moins une première image filtrée (102) formant une paire concordante avec l'une respective de l'au moins une seconde image filtrée (104) ayant une résolution 5 sensiblement égale.
16. Procédé selon la revendication 15, caractérisé en ce que la détermination des caractéristiques tridimensionnelles de l'intrus potentiel comprend l'étape consistant à corréler de manière égale chacune de l'au 10 moins une paire concordante pour déterminer une séparation de parallaxe de l'intrus potentiel.
17. Procédé selon la revendication 16, caractérisé en ce que la corrélation égale comprend les étapes consistant à . 15 réaliser un décalage de pixels égal sur chacune de l'au moins une première image filtrée (102) par rapport à celle concordante respective de l'au moins une seconde image filtrée (104) ; générer une note de corrélation globale à chaque 20 décalage de pixels, la note de corrélation globale comprenant une note de corrélation de chacune de l'au moins une paire concordante ; et comparer la note de corrélation globale à chaque décalage de pixels pour déterminer le décalage de pixels 25 ayant la note de corrélation globale la plus élevée.
18. Procédé selon la revendication 12, caractérisé en ce que la génération de l'image d'arrière-plan (54) comprend l'étape consistant à générer une première image d'arrière-plan de la zone surveillée en se basant sur la 30 première caméra (14 ; 154 ; 254 ; 304 ; 354), et comprenant en outre les étapes consistant à générer une seconde image d'arrière-plan de la zone surveillée en se basant sur la seconde caméra (16 ; 156 ; 256 ; 306 ; 356) et comparer les secondes images et la seconde image d'arrière-plan de la 35 zone surveillée afin de déterminer la présence de l'intrus potentiel. 2908546 51
19. Procédé selon la revendication 18, caractérisé en ce qu'il comprend en outre l'étape consistant à filtrer les premières images, les secondes images, la première image d'arrière-plan et la seconde image d'arrière-plan, dans 5 lequel la comparaison des premières images et de la première image d'arrière-plan comprend l'étape consistant à comparer les premières images filtrées et la première image d'arrière-plan filtrée, et dans lequel la comparaison des secondes images et de la seconde image d'arrière-plan 10 comprend l'étape consistant à comparer les secondes images filtrées et la seconde image d'arrière-plan filtrée.
20. Procédé selon la revendication 19, caractérisé en ce qu'il comprend en outre les étapes consistant à : actualiser la première image d'arrière-plan en se 15 basant sur la comparaison entre les premières images filtrées et la première image d'arrière-plan filtrée ; actualiser la seconde image d'arrière-plan en se basant sur la comparaison entre les secondes images filtrées et la seconde image d'arrière-plan filtrée ; 20 comparer les premières images avec la première image d'arrière-plan actualisée pour déterminer la présence de l'intrus potentiel ; et comparer les secondes images avec la seconde image d'arrière-plan actualisée pour déterminer la présence de 25 l'intrus potentiel.
21. Procédé selon la revendication 12, caractérisé en ce que la détermination des caractéristiques tridimensionnelles comprend l'étape consistant à déterminer une position, une taille et un mouvement associés à l'intrus 30 potentiel en se basant sur les différences entre les premières images et l'image d'arrière-plan (54).
22. Procédé selon la revendication 12, caractérisé en ce qu'il comprend en outre l'étape consistant à désigner au moins un espace tridimensionnel dans la zone surveillée, de 35 sorte que l'au moins un espace tridimensionnel est l'un parmi un espace de seuil et une zone de silence associés à l'activation de l'indicateur (30). 2908546 52
23. Système de détection d'intrusion (10 ; 150 ; 250 ; 300 ; 350) caractérisé en ce qu'il comprend : un moyen pour acquérir simultanément des premières images et des secondes images d'une zone surveillée ; 5 un moyen pour générer en continu une image d'arrière- plan (54) de la zone surveillée ; un moyen pour détecter un intrus potentiel en se basant sur les différences entre les premières images et l'image d'arrière-plan (54) ; 10 un moyen pour déterminer les caractéristiques tridimensionnelles de l'intrus potentiel en se basant sur les premières images et les secondes images ; et un moyen pour activer un indicateur (30) en se basant sur les caractéristiques tridimensionnelles de l'intrus 15 potentiel.
24. Système selon la revendication 23, caractérisé en ce que les caractéristiques tridimensionnelles comprennent la position, la taille et le mouvement.
25. Système selon la revendication 23, caractérisé en 20 ce que le moyen pour déterminer les caractéristiques tridimensionnelles de l'intrus potentiel comprend un moyen pour déterminer une séparation de parallaxe d'une position bidimensionnelle de l'intrus potentiel dans une image donnée des premières images par rapport à une position 25 bidimensionnelle de l'intrus potentiel dans celle respective des secondes images.
26. Système selon la revendication 25, caractérisé en ce que le moyen pour déterminer une séparation de parallaxe comprend un moyen pour générer une pluralité de premières 30 images filtrées basées sur les premières images et une pluralité de secondes images filtrées basées sur les secondes images, chacune de la pluralité de premières images filtrées formant une paire concordante avec l'une respective de la pluralité de secondes images filtrées 35 ayant une résolution sensiblement égale. 2908546 53
27. Système selon la revendication 26, caractérisé en ce que le moyen pour déterminer une séparation de parallaxe comprend en outre un moyen pour décaler des pixels sur chacune de la pluralité de premières images filtrées par 5 rapport à celle concordante respective de la pluralité de secondes images filtrées et un moyen pour générer une note de corrélation globale pour chaque décalage de pixels en se basant sur une note de corrélation associée à chacune de la pluralité de paires concordantes, la séparation de 10 parallaxe étant associée au décalage de pixels ayant une note de corrélation globale la plus élevée.
28. Système selon la revendication 23, caractérisé en ce qu'il comprend en outre un moyen pour aligner horizontalement et verticalement les pixels associés aux 15 premières images et à l'image d'arrière-plan (54) avant le fonctionnement du moyen de détection de l'intrus potentiel.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/502,229 US8432448B2 (en) | 2006-08-10 | 2006-08-10 | Stereo camera intrusion detection system |
US11502229 | 2006-08-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2908546A1 true FR2908546A1 (fr) | 2008-05-16 |
FR2908546B1 FR2908546B1 (fr) | 2018-10-12 |
Family
ID=38543262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0705802A Expired - Fee Related FR2908546B1 (fr) | 2006-08-10 | 2007-08-09 | Systeme de detection d'intrusion a camera stereoscopique |
Country Status (5)
Country | Link |
---|---|
US (1) | US8432448B2 (fr) |
JP (1) | JP2008140370A (fr) |
DE (1) | DE102007037647B4 (fr) |
FR (1) | FR2908546B1 (fr) |
GB (1) | GB2440826B (fr) |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9038108B2 (en) | 2000-06-28 | 2015-05-19 | Verizon Patent And Licensing Inc. | Method and system for providing end user community functionality for publication and delivery of digital media content |
US20060236221A1 (en) * | 2001-06-27 | 2006-10-19 | Mci, Llc. | Method and system for providing digital media management using templates and profiles |
US7970260B2 (en) * | 2001-06-27 | 2011-06-28 | Verizon Business Global Llc | Digital media asset management system and method for supporting multiple users |
US8990214B2 (en) * | 2001-06-27 | 2015-03-24 | Verizon Patent And Licensing Inc. | Method and system for providing distributed editing and storage of digital media over a network |
US8972862B2 (en) * | 2001-06-27 | 2015-03-03 | Verizon Patent And Licensing Inc. | Method and system for providing remote digital media ingest with centralized editorial control |
US9401080B2 (en) | 2005-09-07 | 2016-07-26 | Verizon Patent And Licensing Inc. | Method and apparatus for synchronizing video frames |
US9076311B2 (en) * | 2005-09-07 | 2015-07-07 | Verizon Patent And Licensing Inc. | Method and apparatus for providing remote workflow management |
US8631226B2 (en) * | 2005-09-07 | 2014-01-14 | Verizon Patent And Licensing Inc. | Method and system for video monitoring |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
JP5212839B2 (ja) * | 2007-06-14 | 2013-06-19 | 日本電気株式会社 | 監視システム、及び監視方法 |
US8063375B2 (en) * | 2007-06-22 | 2011-11-22 | Intel-Ge Care Innovations Llc | Sensible motion detector |
US7782364B2 (en) * | 2007-08-21 | 2010-08-24 | Aptina Imaging Corporation | Multi-array sensor with integrated sub-array for parallax detection and photometer functionality |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
WO2010002237A2 (fr) * | 2008-06-30 | 2010-01-07 | Mimos Berhad | Détection d'intrusion à l'aide d'informations de parallaxe |
EP3032922B1 (fr) | 2008-11-17 | 2018-09-19 | Express Imaging Systems, LLC | Commande électronique pour réguler la puissance pour un éclairage à semi-conducteurs et procédés associés |
US8926139B2 (en) * | 2009-05-01 | 2015-01-06 | Express Imaging Systems, Llc | Gas-discharge lamp replacement with passive cooling |
WO2010135582A2 (fr) | 2009-05-20 | 2010-11-25 | Express Imaging Systems, Llc | Appareil et procédé d'éclairage éco-énergétique |
WO2010135575A2 (fr) | 2009-05-20 | 2010-11-25 | Express Imaging Systems, Llc | Détection de mouvement à grande portée pour la commande de l'éclairage |
US20110019243A1 (en) * | 2009-07-21 | 2011-01-27 | Constant Jr Henry J | Stereoscopic form reader |
JP5530773B2 (ja) * | 2010-03-19 | 2014-06-25 | 株式会社Ihiエアロスペース | ステレオカメラによる平面検出方法とこの方法を用いた移動ロボット |
CA2741510A1 (fr) * | 2010-05-26 | 2011-11-26 | James H. Lacey | Videocamera de surveillance montable sur une porte et procedes connexes |
US8901825B2 (en) | 2011-04-12 | 2014-12-02 | Express Imaging Systems, Llc | Apparatus and method of energy efficient illumination using received signals |
AU2011201953B2 (en) * | 2011-04-29 | 2013-09-19 | Canon Kabushiki Kaisha | Fault tolerant background modelling |
WO2013006649A2 (fr) | 2011-07-05 | 2013-01-10 | Omron Corporation | Procédé et appareil de surveillance du volume de projection |
US8610358B2 (en) | 2011-08-17 | 2013-12-17 | Express Imaging Systems, Llc | Electrostatic discharge protection for luminaire |
US8629621B2 (en) | 2011-08-24 | 2014-01-14 | Express Imaging Systems, Llc | Resonant network for reduction of flicker perception in solid state lighting systems |
JP6102930B2 (ja) * | 2011-10-14 | 2017-03-29 | オムロン株式会社 | 射影空間監視のための方法および装置 |
EP2781138A4 (fr) | 2011-11-18 | 2015-10-28 | Express Imaging Systems Llc | Lampe à semi-conducteurs à sortie ajustable à caractéristiques de sécurité |
US9360198B2 (en) | 2011-12-06 | 2016-06-07 | Express Imaging Systems, Llc | Adjustable output solid-state lighting device |
US9497393B2 (en) | 2012-03-02 | 2016-11-15 | Express Imaging Systems, Llc | Systems and methods that employ object recognition |
JP5950628B2 (ja) * | 2012-03-07 | 2016-07-13 | 株式会社日立国際電気 | 物体検知装置、物体検知方法及びプログラム |
US9210751B2 (en) | 2012-05-01 | 2015-12-08 | Express Imaging Systems, Llc | Solid state lighting, drive circuit and method of driving same |
US9204523B2 (en) | 2012-05-02 | 2015-12-01 | Express Imaging Systems, Llc | Remotely adjustable solid-state lamp |
US10002297B2 (en) * | 2012-06-20 | 2018-06-19 | Imprivata, Inc. | Active presence detection with depth sensing |
US9131552B2 (en) | 2012-07-25 | 2015-09-08 | Express Imaging Systems, Llc | Apparatus and method of operating a luminaire |
US8878440B2 (en) | 2012-08-28 | 2014-11-04 | Express Imaging Systems, Llc | Luminaire with atmospheric electrical activity detection and visual alert capabilities |
US8896215B2 (en) | 2012-09-05 | 2014-11-25 | Express Imaging Systems, Llc | Apparatus and method for schedule based operation of a luminaire |
US8995718B2 (en) * | 2012-10-11 | 2015-03-31 | Ittiam Systems (P) Ltd. | System and method for low complexity change detection in a sequence of images through background estimation |
US9301365B2 (en) | 2012-11-07 | 2016-03-29 | Express Imaging Systems, Llc | Luminaire with switch-mode converter power monitoring |
US9210759B2 (en) | 2012-11-19 | 2015-12-08 | Express Imaging Systems, Llc | Luminaire with ambient sensing and autonomous control capabilities |
WO2014092549A2 (fr) * | 2012-12-13 | 2014-06-19 | Mimos Berhad | Système et procédé d'extraction d'objet mobile au moyen d'une vision stéréoscopique |
US9288873B2 (en) | 2013-02-13 | 2016-03-15 | Express Imaging Systems, Llc | Systems, methods, and apparatuses for using a high current switching device as a logic level sensor |
US9466443B2 (en) | 2013-07-24 | 2016-10-11 | Express Imaging Systems, Llc | Photocontrol for luminaire consumes very low power |
US9414449B2 (en) | 2013-11-18 | 2016-08-09 | Express Imaging Systems, Llc | High efficiency power controller for luminaire |
US9185777B2 (en) | 2014-01-30 | 2015-11-10 | Express Imaging Systems, Llc | Ambient light control in solid state lamps and luminaires |
US20150334299A1 (en) * | 2014-05-14 | 2015-11-19 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system |
US9170707B1 (en) | 2014-09-30 | 2015-10-27 | Google Inc. | Method and system for generating a smart time-lapse video clip |
US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
US9572230B2 (en) | 2014-09-30 | 2017-02-14 | Express Imaging Systems, Llc | Centralized control of area lighting hours of illumination |
WO2016064542A1 (fr) | 2014-10-24 | 2016-04-28 | Express Imaging Systems, Llc | Détection et correction de commandes d'éclairage défectueuses dans des luminaires d'extérieur |
US9462662B1 (en) | 2015-03-24 | 2016-10-04 | Express Imaging Systems, Llc | Low power photocontrol for luminaire |
CN107637064A (zh) | 2015-06-08 | 2018-01-26 | 深圳市大疆创新科技有限公司 | 用于图像处理的方法和设备 |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
CN104966062B (zh) * | 2015-06-17 | 2021-03-23 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
CN104954747B (zh) * | 2015-06-17 | 2020-07-07 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
EP3311562A4 (fr) * | 2015-06-17 | 2018-06-20 | Zhejiang Dahua Technology Co., Ltd | Procédés et systèmes de surveillance vidéo |
EP3128482A1 (fr) | 2015-08-07 | 2017-02-08 | Xovis AG | Procédé d'étalonnage d'une caméra stéréo |
US9538612B1 (en) | 2015-09-03 | 2017-01-03 | Express Imaging Systems, Llc | Low power photocontrol for luminaire |
US10687025B2 (en) | 2015-10-27 | 2020-06-16 | Vivint, Inc. | Anti-theft doorbell camera |
US9924582B2 (en) | 2016-04-26 | 2018-03-20 | Express Imaging Systems, Llc | Luminaire dimming module uses 3 contact NEMA photocontrol socket |
US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
US10957171B2 (en) | 2016-07-11 | 2021-03-23 | Google Llc | Methods and systems for providing event alerts |
US9985429B2 (en) | 2016-09-21 | 2018-05-29 | Express Imaging Systems, Llc | Inrush current limiter circuit |
US10230296B2 (en) | 2016-09-21 | 2019-03-12 | Express Imaging Systems, Llc | Output ripple reduction for power converters |
US10098212B2 (en) | 2017-02-14 | 2018-10-09 | Express Imaging Systems, Llc | Systems and methods for controlling outdoor luminaire wireless network using smart appliance |
JP7120250B2 (ja) * | 2017-03-31 | 2022-08-17 | 横河電機株式会社 | 画像ベースによる異常検知の方法およびシステム |
US10568191B2 (en) | 2017-04-03 | 2020-02-18 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US10904992B2 (en) | 2017-04-03 | 2021-01-26 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US10219360B2 (en) | 2017-04-03 | 2019-02-26 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US11375599B2 (en) | 2017-04-03 | 2022-06-28 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US10438464B1 (en) | 2018-06-06 | 2019-10-08 | Ademco Inc. | Systems and methods for determining and verifying a presence of an object or an intruder in a secured area |
CN110163232B (zh) * | 2018-08-26 | 2020-06-23 | 国网江苏省电力有限公司南京供电分公司 | 智能视觉识别车板变压器坐标系统 |
US11074794B2 (en) | 2018-11-30 | 2021-07-27 | Ademco Inc. | Systems and methods for activating and deactivating controlled devices in a secured area |
US10996325B2 (en) | 2018-11-30 | 2021-05-04 | Ademco Inc. | Systems and methods for adjusting a signal broadcast pattern of an intrusion detector |
US11234304B2 (en) | 2019-05-24 | 2022-01-25 | Express Imaging Systems, Llc | Photocontroller to control operation of a luminaire having a dimming line |
US11317497B2 (en) | 2019-06-20 | 2022-04-26 | Express Imaging Systems, Llc | Photocontroller and/or lamp with photocontrols to control operation of lamp |
US11100651B1 (en) * | 2019-08-08 | 2021-08-24 | National Technology & Engineering Solutions Of Sandia, Llc | Infrared intrusion detection system (IRIDS) |
US10762773B1 (en) | 2019-08-19 | 2020-09-01 | Ademco Inc. | Systems and methods for building and using a false alarm predicting model to determine whether to alert a user and/or relevant authorities about an alarm signal from a security system |
USD1027692S1 (en) | 2019-10-25 | 2024-05-21 | Icm Airport Technics Australia Pty Ltd | Baggage scanner station |
USD1002411S1 (en) | 2019-10-25 | 2023-10-24 | Icm Airport Technics Australia Pty Ltd | Baggage scanner array |
US11212887B2 (en) | 2019-11-04 | 2021-12-28 | Express Imaging Systems, Llc | Light having selectively adjustable sets of solid state light sources, circuit and method of operation thereof, to provide variable output characteristics |
AU2019272041A1 (en) | 2019-11-11 | 2021-05-27 | Icm Airport Technics Pty Ltd | Device with biometric system |
Family Cites Families (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4468694A (en) * | 1980-12-30 | 1984-08-28 | International Business Machines Corporation | Apparatus and method for remote displaying and sensing of information using shadow parallax |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPS62264390A (ja) | 1986-05-12 | 1987-11-17 | Omron Tateisi Electronics Co | 監視ロボツト用視覚認識装置 |
US4924506A (en) * | 1986-07-22 | 1990-05-08 | Schlumberger Systems & Services, Inc. | Method for directly measuring area and volume using binocular stereo vision |
US4905296A (en) | 1986-07-22 | 1990-02-27 | Schlumberger Systems & Services, Inc. | System for shape recognition |
JPH0431996A (ja) | 1990-05-28 | 1992-02-04 | Matsushita Electric Works Ltd | 画像認識型の防犯センサー |
US5220441A (en) * | 1990-09-28 | 1993-06-15 | Eastman Kodak Company | Mechanism for determining parallax between digital images |
US5239373A (en) * | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
JP3114813B2 (ja) | 1991-02-27 | 2000-12-04 | 日本電信電話株式会社 | 情報入力方法 |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5999185A (en) * | 1992-03-30 | 1999-12-07 | Kabushiki Kaisha Toshiba | Virtual reality control using image, model and control data to manipulate interactions |
EP0571702A3 (fr) | 1992-05-26 | 1994-10-12 | Takenaka Corp | Dispositif de pointage avec la main et ordinateur mural. |
DE69434657T2 (de) | 1993-06-04 | 2007-02-15 | Sarnoff Corp. | System und Verfahren zur elektronischen Bildstabilisierung |
EP0631250B1 (fr) * | 1993-06-21 | 2002-03-20 | Nippon Telegraph And Telephone Corporation | Procédé et appareil pour la reconstruction tridimensionnelle d'objets |
US20020126161A1 (en) * | 1994-07-05 | 2002-09-12 | Hitachi, Ltd. | Information processing system |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6327381B1 (en) * | 1994-12-29 | 2001-12-04 | Worldscape, Llc | Image transformation and synthesis methods |
US5913727A (en) * | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
US20010006426A1 (en) * | 1996-07-18 | 2001-07-05 | Korea Institute Of Science And Technology | Holographic projection screen for displaying a three-dimensional color images and optical display system using the holographic screen |
US6002808A (en) * | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
RU2123718C1 (ru) | 1996-09-27 | 1998-12-20 | Кузин Виктор Алексеевич | Способ ввода информации в компьютер |
US6956573B1 (en) * | 1996-11-15 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for efficiently representing storing and accessing video information |
EP0849697B1 (fr) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | Procédé et système de reconnaissance de gestes de la main |
DE19708240C2 (de) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
JP3749369B2 (ja) * | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
US7532372B2 (en) * | 1997-07-08 | 2009-05-12 | Kremen Stanley H | Method for creating a holographic screen that reconstructs uniformly magnified three-dimensional images from projected integral photographs |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
DE19739285C1 (de) | 1997-09-08 | 1998-11-19 | Siemens Nixdorf Inf Syst | Vorrichtung zur Darstellung und virtuellen Eingabe von Daten |
JP3795647B2 (ja) * | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
FR2771202B1 (fr) * | 1997-11-19 | 2000-01-21 | Inst Nat Rech Inf Automat | Dispositif electronique de traitement de donnees-image, pour la simulation du comportement deformable d'un objet |
US6195104B1 (en) * | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
US6377229B1 (en) * | 1998-04-20 | 2002-04-23 | Dimensional Media Associates, Inc. | Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) * | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
DE19845030A1 (de) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6690357B1 (en) | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US6147678A (en) * | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6204852B1 (en) * | 1998-12-09 | 2001-03-20 | Lucent Technologies Inc. | Video hand image three-dimensional computer interface |
WO2000055802A1 (fr) | 1999-03-17 | 2000-09-21 | Siemens Aktiengesellschaft | Installation pour interaction |
JP2002540864A (ja) * | 1999-04-01 | 2002-12-03 | キン リューン チョイ、ドミニク | シミュレートされた人間相互交流システム |
US7015954B1 (en) * | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US7006236B2 (en) * | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
WO2001095061A2 (fr) * | 1999-12-07 | 2001-12-13 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | Table virtuelle etendue: rallonge optique pour systemes de projection de type table |
SE0000850D0 (sv) | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US6469734B1 (en) * | 2000-04-29 | 2002-10-22 | Cognex Corporation | Video safety detector with shadow elimination |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
EP1323019A2 (fr) * | 2000-09-26 | 2003-07-02 | Eugenio Bustamante | Fourniture de signaux d'entree |
US7242388B2 (en) * | 2001-01-08 | 2007-07-10 | Vkb Inc. | Data input device |
DE10100617A1 (de) | 2001-01-09 | 2002-07-18 | Siemens Ag | Steuerbare Anordnung mit Benutzerauthentisierung |
DE10100615A1 (de) * | 2001-01-09 | 2002-07-18 | Siemens Ag | Handerkennung mit Positionsbestimmung |
US6775014B2 (en) * | 2001-01-17 | 2004-08-10 | Fujixerox Co., Ltd. | System and method for determining the location of a target in a room or small area |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
EP1689172B1 (fr) | 2001-06-05 | 2016-03-09 | Microsoft Technology Licensing, LLC | Système d'affichage vidéo interactif |
US7007236B2 (en) | 2001-09-14 | 2006-02-28 | Accenture Global Services Gmbh | Lab window collaboration |
US7110569B2 (en) | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
US20030067537A1 (en) * | 2001-10-04 | 2003-04-10 | Myers Kenneth J. | System and method for three-dimensional data acquisition |
US6983065B1 (en) * | 2001-12-28 | 2006-01-03 | Cognex Technology And Investment Corporation | Method for extracting features from an image using oriented filters |
US7138997B2 (en) * | 2002-06-28 | 2006-11-21 | Autodesk, Inc. | System for physical rotation of volumetric display enclosures to facilitate viewing |
WO2003071410A2 (fr) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Systeme de reconnaissance de geste utilisant des capteurs de perception de profondeur |
AU2003221893A1 (en) | 2002-04-08 | 2003-10-27 | Newton Security Inc. | Tailgating and reverse entry detection, alarm, recording and prevention using machine vision |
WO2003091987A1 (fr) * | 2002-04-26 | 2003-11-06 | Idemitsu Kosan Co., Ltd. | Dispositif et element structurel d'absorption des bruits et procede de fabrication associe |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US6857746B2 (en) * | 2002-07-01 | 2005-02-22 | Io2 Technology, Llc | Method and system for free-space imaging display and interface |
US7190461B2 (en) * | 2002-07-17 | 2007-03-13 | New York University | Method and apparatus for determining a bidirectional reflectance distribution function, subsurface scattering or a bidirectional texture function of a subject |
US7321386B2 (en) * | 2002-08-01 | 2008-01-22 | Siemens Corporate Research, Inc. | Robust stereo-driven video-based surveillance |
JP4216021B2 (ja) * | 2002-08-30 | 2009-01-28 | 富士重工業株式会社 | 侵入物検出装置 |
US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
ES2212739B1 (es) * | 2003-01-02 | 2005-04-01 | Sociedad Española De Carburos Metalicos, S.A. | Sistema analizador para la deteccion de gases reductores y oxidantes en un gas portador y sensor de gases basado en oxidos metalicos de tipo semiconductor. |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7088243B2 (en) * | 2003-05-26 | 2006-08-08 | S1 Corporation | Method of intruder detection and device thereof |
US6796656B1 (en) * | 2003-06-14 | 2004-09-28 | Imatte, Inc. | Generating a matte signal from a retro reflective component of a front projection screen |
JP4741488B2 (ja) * | 2003-07-03 | 2011-08-03 | ホロタッチ, インコーポレイテッド | ホログラフィックヒューマンマシンインタフェース |
US20050012817A1 (en) * | 2003-07-15 | 2005-01-20 | International Business Machines Corporation | Selective surveillance system with active sensor management policies |
US7159927B2 (en) * | 2003-07-23 | 2007-01-09 | Honda Motor Co., Ltd. | Powered tailgate system |
US7190496B2 (en) * | 2003-07-24 | 2007-03-13 | Zebra Imaging, Inc. | Enhanced environment visualization using holographic stereograms |
FR2858692B1 (fr) * | 2003-08-08 | 2006-01-06 | Rosenthal Patrick Olivier Levy | Systeme permettant la visualisation d'images en trois dimensions avec un rendu en relief sur 36o degres |
KR100588042B1 (ko) * | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
US7755608B2 (en) * | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
US7969409B2 (en) * | 2004-02-18 | 2011-06-28 | Rafal Jan Krepec | Camera assisted pen tablet |
US7738151B2 (en) * | 2004-04-13 | 2010-06-15 | Board Of Regents, The University Of Texas System | Holographic projector |
JP2005304540A (ja) * | 2004-04-16 | 2005-11-04 | Funai Electric Co Ltd | 監視カメラを備えた自走式掃除機 |
JP4424088B2 (ja) * | 2004-06-25 | 2010-03-03 | 株式会社日立製作所 | 撮像装置 |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
WO2007018523A2 (fr) * | 2004-07-28 | 2007-02-15 | Sarnoff Corporation | Procede et dispositif permettant la poursuite stereoscopique par plusieurs cameras et la fusion de pistes rf et video |
US7724242B2 (en) * | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
US8560972B2 (en) * | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US20060092178A1 (en) * | 2004-10-29 | 2006-05-04 | Tanguay Donald O Jr | Method and system for communicating through shared media |
JP5631535B2 (ja) * | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US7643051B2 (en) * | 2005-09-09 | 2010-01-05 | Roy Benjamin Sandberg | Mobile video teleconferencing system and control method |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US9052575B2 (en) * | 2007-07-12 | 2015-06-09 | Hewlett-Packard Development Company, L.P. | Determining correspondence mappings from infrared patterns projected during the projection of visual content |
US8139110B2 (en) | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
-
2006
- 2006-08-10 US US11/502,229 patent/US8432448B2/en active Active
-
2007
- 2007-08-09 GB GB0715481A patent/GB2440826B/en not_active Expired - Fee Related
- 2007-08-09 DE DE102007037647.4A patent/DE102007037647B4/de not_active Expired - Fee Related
- 2007-08-09 FR FR0705802A patent/FR2908546B1/fr not_active Expired - Fee Related
- 2007-08-10 JP JP2007209786A patent/JP2008140370A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
FR2908546B1 (fr) | 2018-10-12 |
US8432448B2 (en) | 2013-04-30 |
DE102007037647A1 (de) | 2008-05-21 |
GB2440826B (en) | 2008-10-08 |
DE102007037647B4 (de) | 2019-06-19 |
JP2008140370A (ja) | 2008-06-19 |
GB0715481D0 (en) | 2007-09-19 |
US20080043106A1 (en) | 2008-02-21 |
GB2440826A (en) | 2008-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2908546A1 (fr) | Stereo camera intrusion detection system | |
BE1022488B1 (fr) | Systeme d'appareil de prise de vues a temps-de-vol | |
BE1022486B1 (fr) | Un systeme d'appareil de prise de vues tof et une methode pour mesurer une distance avec le systeme | |
US20150379702A1 (en) | Active Imaging Systems for Plant Growth Monitoring | |
CA2886159A1 (fr) | Systeme de classification automatique de vehicules automobiles | |
FR2961928A1 (fr) | Procede et dispositif de reconnaissance d'un objet parasite dans une image de camera | |
EP3195077A1 (fr) | Procédé et système de localisation et de cartographie | |
EP2432660B1 (fr) | Procede et dispositif pour etendre une zone de visibilite | |
EP0577491B1 (fr) | Procédé et dispositif de surveillance d'une scène tridimensionnelle, mettant en oeuvre des capteurs d'imagerie | |
FR2958767A1 (fr) | Procede de detection de cibles dans des images stereoscopiques. | |
FR3014229A1 (fr) | Reconnaissance de formes par correction d'image | |
FR2953316A1 (fr) | Procede d'obtention d'une base locale d'elevation de terrain a partir d'un moyen de detection embarque a bord d'un vehicule et dispositif pour la mise en oeuvre de ce procede | |
FR3047829A1 (fr) | Procede d'estimation de la position du disque solaire dans une image de ciel | |
EP4177839A1 (fr) | Procédé de détermination de paramètres de calibration d'un dispositif de prise de vue et produit programme d'ordinateur associé | |
EP2862154B1 (fr) | Regroupement de donnees attachees a des images | |
CA2503891C (fr) | Dispositif de traitement d'images a reconnaissance et selection de sources de lumiere | |
FR3078427A1 (fr) | Detection dynamique de lumiere parasite dans une image numerique | |
CA2354569C (fr) | Procede et systeme d'aide a la visee pour arme legere | |
FR2931249A1 (fr) | Procede de fusion des mesures prises par plusieurs capteurs heterogenes, permettant notamment de detecter et de suivre des objets | |
EP2877979B1 (fr) | Methode monocamera de determination d'une direction d'un solide | |
FR3066303B1 (fr) | Procede de calibration d'un dispositif de surveillance d'un conducteur dans un vehicule | |
EP4341897B1 (fr) | Procédé et dispositif de traitement d'une séquence d'images pour la détermination de vignettes poursuivies dans ladite séquence d'images | |
FR3047830A1 (fr) | Procede de determination de la direction de deplacement d'objets dans une scene | |
FR2997258A1 (fr) | Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe | |
WO2024184519A1 (fr) | Procédé de reconstruction en trois dimensions d'un élément mobile |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 11 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |
|
PLFP | Fee payment |
Year of fee payment: 14 |
|
ST | Notification of lapse |
Effective date: 20220405 |