FR2943878A1 - Systeme de supervision d'une zone de surveillance - Google Patents
Systeme de supervision d'une zone de surveillance Download PDFInfo
- Publication number
- FR2943878A1 FR2943878A1 FR0901505A FR0901505A FR2943878A1 FR 2943878 A1 FR2943878 A1 FR 2943878A1 FR 0901505 A FR0901505 A FR 0901505A FR 0901505 A FR0901505 A FR 0901505A FR 2943878 A1 FR2943878 A1 FR 2943878A1
- Authority
- FR
- France
- Prior art keywords
- sensors
- covered
- zone
- areas
- individuals
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 16
- 230000033001 locomotion Effects 0.000 title claims abstract description 12
- 238000013213 extrapolation Methods 0.000 title claims abstract description 7
- 238000012544 monitoring process Methods 0.000 title claims description 7
- 230000000694 effects Effects 0.000 claims abstract description 4
- 230000004907 flux Effects 0.000 claims description 3
- 238000012800 visualization Methods 0.000 abstract description 3
- 238000004088 simulation Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/19691—Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
- G08B13/19693—Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Emergency Management (AREA)
- Alarm Systems (AREA)
Abstract
L'invention a pour objet un système de supervision d'une zone donnée dans laquelle sont répartis des capteurs électroniques (600) générant des flux de données représentatives de l'activité dans les zones couvertes par ces capteurs, ladite zone comprenant des zones non couvertes par lesdits capteurs. Des informations contenues dans les flux de données sont affichées sur une interface de visualisation (603) et positionnées dans une représentation virtuelle en trois dimensions de la zone de supervision, un serveur de traitement (602) comportant des moyens pour prédire les mouvements dans les zones non couvertes par extrapolation et/ou interpolation des données contenues dans au moins un des flux de données disponibles.
Description
Système de supervision d'une zone de surveillance
L'invention concerne un système de supervision d'une zone donnée et s'applique notamment aux domaines de la sécurité, du traitement vidéo et de la simulation. L'invention peut être utilisée notamment dans le cadre de la surveillance d'une infrastructure, de l'entrainement d'opérateurs de sécurité et de la supervision de l'entrainement des soldats dans un contexte périurbain.
Les techniques de traitement vidéo ont considérablement évolué ces dernières années. La numérisation des contenus et l'augmentation des capacités de calcul des ordinateurs rendent possible le traitement en temps réel des séquences vidéo afin notamment de les interpréter. Afin de surveiller une zone géographique donnée, appelée dans la suite de la description zone de surveillance ou zone de supervision , des systèmes de vidéosurveillance sont habituellement mis en oeuvre. Un réseau de capteurs vidéo est alors réparti sur la zone de surveillance, les flux générés par ces différents capteurs étant transmis vers une salle de contrôle. Les images vidéo correspondant à l'ensemble ou à un sous ensemble de ces flux peuvent être affichées sur un mur d'images composé d'un ou plusieurs écrans. Un opérateur peut ainsi surveiller, par exemple, l'intérieur d'un bâtiment et son environnement à partir de ladite salle de contrôle. L'affichage des images vidéo en provenance de tel ou tel capteur est sélectionné manuellement par l'opérateur, ou automatiquement lorsqu'un évènement donné est détecté, comme par exemple lorsque l'ouverture d'une porte située près d'un capteur vidéo donné est détectée. Un opérateur connaissant parfaitement la zone de surveillance peut rapidement établir le lien entre les images affichées sur le mur d'écrans et les lieux réels. L'opérateur interprète ainsi le ou les mouvements observés et peut réagir en conséquence, par exemple en déclenchant une alarme. En effet, il sait de par son expérience estimer quand un individu a été aperçu dans un écran, c'est-à-dire qu'il est passé dans la zone couverte par le capteur vidéo correspondant, sera de nouveau visible et dans quel autre écran.
Un capteur vidéo placé dans la zone de surveillance offre un point de vue particulier de la scène observée. Ce point de vue est lié au positionnement dudit capteur. Il est impossible, sans déplacer physiquement une caméra, d'avoir un point de vue différent, ce qui implique qu'il n'est pas possible de représenter dans le mur d'images un individu évoluant dans une zone non couverte par les capteurs. Dans les systèmes existants, un opérateur qui n'est pas habitué à la zone de surveillance ou au mur d'images peut difficilement se représenter ladite zone dans son ensemble à partir des images vidéo observées. Cela est la conséquence, dans les systèmes actuels, d'un manque de moyens de représentation de la zone de surveillance et des personnes qui y évoluent.
Un but de l'invention est notamment de pallier les inconvénients précités. A cet effet l'invention a pour objet un système de supervision d'une zone donnée dans laquelle sont répartis des capteurs électroniques générant des flux de données représentatives de l'activité dans les zones couvertes par ces capteurs, ladite zone comprenant des zones non couvertes par lesdits capteurs. Des informations contenues dans les flux de données sont affichées sur une interface de visualisation et positionnées dans une représentation virtuelle en trois dimensions de la zone de supervision, un serveur de traitement comportant des moyens pour prédire les mouvements dans les zones non couvertes par extrapolation et/ou interpolation des données contenues dans au moins un des flux de données disponibles. Dans un mode de réalisation, les flux de données vidéo en provenance de capteurs électroniques sont adaptés par ajustement sur une primitive 3D de type quadrilatère afin d'être affichés dans la représentation virtuelle en trois dimensions de la zone de supervision. Dans un autre mode de réalisation, les flux de données vidéo en provenance de capteurs électroniques sont adaptés par projection de texture afin d'être affichés dans la représentation virtuelle en trois dimensions de la zone de supervision. Les capteurs électroniques composant le système peuvent être choisis parmi : des caméras infrarouge, des caméras à projection infrarouge, des caméras stéréoscopiques, des caméras panoramiques et des caméras monoculaires de type réseau IP. Selon un mode de réalisation, lorsqu'un point de vue sélectionné par un opérateur correspond à une zone couverte par un ou plusieurs capteurs vidéo, un algorithme de fusion de flux est appliqué sur les flux provenant desdits capteurs de manière à ce que les images vidéo correspondant au point de vue sélectionné soient reconstruites. La présence d'individus dans des zones couvertes ou non couvertes est indiquée dans la représentation virtuelle tridimensionnelle de la zone de supervision, par exemple, par des éléments synthétiques, de type avatars ou formes géométriques simplifiées. Le serveur de traitement comporte, par exemple, des moyens pour estimer a posteriori des trajets ayant été potentiellement réalisés par des individus s'étant déplacés dans des zones non couvertes en interpolant les données collectées par les capteurs des zones couvertes proches desdites zones non couvertes. Dans un mode de réalisation, les estimations de trajets passés sont mémorisées et que les opérateurs ont la possibilité d'accéder à ces informations. Le serveur de traitement comporte, par exemple, des moyens pour 25 estimer en temps réel la position d'individus se situant dans des zones non couvertes de la zone de supervision. Selon un aspect de l'invention, l'estimation en temps réel de la position d'individus se situant dans des zones non couvertes de la zone de supervision est réalisée en considérant que les trajectoires desdits individus 30 sont inertielles. Le comportement futur d'individus si situant dans la zone de supervision peut être prédit, par exemple, par extrapolation en utilisant les données déjà collectées par les capteurs et mémorisées par le système.
Le serveur de traitement comporte des moyens, par exemple, pour simuler le comportement d'un individu ou d'un groupe d'individus face à un évènement fictif.
Le système selon l'invention a notamment comme avantages de permettre à son ou ses utilisateurs, appelés également opérateurs, une appréhension globale et synthétique de la zone de surveillance. L'opérateur peut de déplacer virtuellement dans une reconstruction de la zone de surveillance et accéder ainsi à des informations localisées et précises. Le système a également comme avantage de pouvoir prédire et estimer des évènements ayant lieu dans des zones non couvertes par les capteurs du système. Ces prédictions et estimations peuvent être réalisées en temps réel, dans ce cas l'action instantanée est analysée. Ces prédictions et estimations peuvent également être réalisées dans le passé et dans le futur, ce dernier cas permettant une anticipation de situations à venir potentielles. L'opérateur peut ainsi reconstituer des actions en déplaçant un curseur temporel et accéder à des informations sur des actions ayant eu potentiellement lieu dans des zones non couvertes.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description qui suit donnée à titre illustratif et non limitatif, faite en regard des dessins annexés parmi lesquels :
la figure 1 donne un exemple de système de vidéosurveillance utilisant un mur d'images ; la figure 2 illustre le principe de la représentation en trois dimensions de la zone de surveillance, de la disposition des capteurs vidéo réels ainsi que celui de la représentation des flux vidéo en provenance d'un capteur dans la représentation en trois dimensions ; la figure 3 donne un exemple de représentation de personnes présentes dans la zone de surveillance, éventuellement en mouvement, ainsi qu une série d'informations complémentaires pouvant être affichées dans une 30 représentation virtuelle tridimensionnelle de la zone de surveillance ; la figure 4 donne un exemple de reconstitution de deux trajets possibles trajet d'une même personne dans la zone de surveillance ; la figure 5 illustre la capacité du système de vidéosurveillance à simuler des évènements se produisant dans zone surveillée ; la figure 6 présente un exemple de système de vidéosurveillance selon l'invention.
La figure 1 donne un exemple de système de vidéosurveillance utilisant un mur d'images. Comme explicité précédemment, les systèmes de vidéosurveillance sont habituellement utilisés pour sécuriser une zone donnée, ladite zone étant appelée dans la description zone de surveillance . Ces systèmes se basent sur un réseau de capteurs vidéo. La zone de surveillance est, par exemple, une infrastructure critique 100 dans laquelle l'activité et les mouvements d'individus doivent être contrôlés. Les flux vidéo capturés sont ensuite dirigés vers une salle de contrôle au travers d'un réseau de communication, salle dans laquelle se trouve le mur d'images. Les capteurs vidéo sont répartis dans la zone de surveillance aux endroits les plus stratégiques, par exemple au croisement 105 de deux couloirs. Le mur d'images 104, de par ses capacités d'affichage, ne peut afficher qu'un sous-ensemble des vues offertes par les capteurs. Certains flux en provenance de certains capteurs 102 ne sont pas affichés. Un système classique permet de choisir quelles sont les vues affichées dans le mur d'images parmi les vues disponibles. Cette sélection peut être effectuée de manière active, c'est-à-dire que l'opérateur sélectionne les flux vidéo à afficher sur le mur. La sélection peut également être effectuée de manière semi-automatique, en se basant sur la détection d'événements, par exemple la détection d'un mouvement dans la zone couverte par un des capteurs vidéo ou un quelconque capteur d'intrusion. Ainsi, un flux vidéo en provenance d'un capteur 101 positionné dans 35 le coin d'une pièce de l'infrastructure à surveiller peut être affiché sur une portion du mur d'images 103. L'opérateur du système de vidéosurveillance y aperçoit un individu 107. Si l'opérateur connait bien la zone de surveillance, il sait qu'un second capteur 106 est présent dans cette pièce et peut prévoir que l'individu détecté 107 apparaîtra dans le champ dudit capteur, le flux vidéo correspondant étant affiché, par exemple, dans une portion 108 du mur d'images 104. Cette analyse est difficile à effectuer pour un opérateur du système n'ayant pas une bonne connaissance de la zone de surveillance, ou lorsque plusieurs évènements se produisant dans différentes parties de la zone de surveillance doivent être surveillés simultanément. De plus, il est rare que le réseau de capteurs du système couvre l'ensemble de la zone de surveillance. Ainsi, l'opérateur du système n'a pas une bonne perception de l'activité potentielle dans les zones non couvertes.
La figure 2 illustre le principe de la représentation en trois dimensions de la zone de surveillance, de la disposition des capteurs vidéo réels ainsi que celui de la représentation des flux vidéo en provenance d'un capteur dans la représentation en trois dimensions. Le système de supervision selon l'invention se base sur la représentation virtuelle tridimensionnelle de la zone de surveillance. Le système selon l'invention pouvant aussi être utilisé à des fins de simulations, la zone de surveillance est aussi appelée zone de supervision dans la suite de la description. La représentation en trois dimensions offre une vue synoptique claire et parfaitement intuitive de la zone. L'opérateur peut se déplacer virtuellement dans ladite représentation tridimensionnelle, ladite représentation étant affichée, par exemple, sur un écran fixe ou mobile (de type assistant personnel PDA). Avec cette technique, l'opérateur peut librement choisir le point de vue pour effectuer la surveillance. L'opérateur peut alors, par exemple, se positionner librement à l'intersection de deux couloirs. Une modélisation tridimensionnelle de l'environnement apparait sur l'écran. Les différents éléments présents dans la réalité sont représentés virtuellement, à savoir les murs, les fenêtres, la texture du sol, par exemples. Si un ou plusieurs capteurs sont présents dans la zone affichée correspondant au point de vue sélectionné par l'opérateur, un symbole graphique desdits capteurs peut apparaitre 201. Dans cet exemple, une représentation graphique 201 d'une caméra vidéo est utilisée. Cette représentation est rendue visible en utilisant une couleur vive, le rouge par exemple. Ainsi, l'opérateur du système peut se positionner virtuellement à la position d'une caméra réellement présente dans l'infrastructure. Dans ce cas le flux vidéo 202 de la caméra correspondante est présenté sur l'écran. Le flux vidéo peut être représenté dans l'environnement tridimensionnel par projection de texture sur le modèle virtuel ou, comme dans l'exemple de la figure, par ajustement sur une primitive 3D simplifiée de type quadrilatère 202.
L'opérateur peut déplacer le point de vue n'importe où ailleurs dans la zone de supervision. Le système comprend aussi des moyens pour calculer le flux vidéo d'une caméra fictive qui serait positionnée à cet endroit. Pour cela le système utilise, lorsque cela est possible, plusieurs flux en provenance de capteurs couvrant la zone correspondant au point de vue sélectionné par l'opérateur et applique un algorithme de fusion de flux de manière à ce que les images vidéo correspondant au point de vue sélectionné soient reconstruites.
La figure 3 donne un exemple de représentation de personnes présentes dans la zone de supervision, éventuellement en mouvement, ainsi qu'une série d'informations complémentaires pouvant être affichées dans une représentation virtuelle tridimensionnelle de la zone de supervision. Comme explicité précédemment, le système de supervision selon l'invention permet à son utilisateur de déplacer le point de vue affiché dans une représentation virtuelle tridimensionnelle de la zone de supervision et d'accéder aux informations produites par les capteurs répartis dans ladite zone. Habituellement, le réseau de capteurs déployé sur la zone de supervision ne couvre pas la totalité de la zone de supervision. Ainsi, des individus se déplaçant et apparaissant dans une zone couverte par un ou plusieurs capteurs peuvent disparaitre des écrans de surveillance lorsque qu'ils passent dans une zone non couverte. Afin de permettre à l'opérateur de suivre le parcours d'individus se déplaçant dans les zones non couvertes, le système de supervision selon l'invention comprend un mécanisme d'évaluation des parcours réalisés par des individus se déplaçant ou s'étant déplacés dans des zones non couvertes. La présence d'individus dans des zones couvertes ou non couvertes est indiquée dans la représentation virtuelle tridimensionnelle de la zone de supervision à l'aide d'avatars. Ces avatars peuvent être par exemples des cylindres de couleur 300, 301, 302. L'analyse des flux issus des capteurs permet d'enrichir la représentation en trois dimensions. Par exemple, la mise en oeuvre d'algorithmes d'analyse vidéo permettant de reconnaître un individu présent dans la zone de supervision donne la possibilité d'associer à un avatar un nom, un prénom et toute autre information pertinente 305. Ainsi, des algorithmes de reconnaissance faciale sont, par exemple, utilisés. D'autre part, dans le cas ou l'accès à la zone de supervision est sécurisé par un système d'indentification des individus, par exemple à l'aide de badges, les informations associées à l'individu identifié peuvent être affichées 305 et associées à son avatar. De plus, des informations concernant des détails du point de vue sélectionné peuvent être affichées, par exemple le nom de l'occupant d'un bureau 306 ainsi que des indications associées à divers types d'équipements, comme par exemple un extincteur 307 ou un photocopieur 304.
L'analyse vidéo couplée à des modèles physiques cohérents et à des règles de cohérence permet d'estimer la position de personnes circulant dans des zones non couvertes. Par exemple, les positions successives d'un individu dans des zones couvertes permettent de calculer une vitesse moyenne de déplacement. Cette information combinée avec des règles d'apparition et de disparition dans les zones couvertes donne la possibilité de prévoir le parcours ayant été réalisé dans le passé ou étant en cours de réalisation. Le système de vidéosurveillance selon l'invention permet d'une part une estimation a posteriori du parcours ayant été réalisé dans le passé par des individus s'étant déplacés dans des zones non couvertes en interpolant, par exemple, les données collectées par les capteurs dans les zones couvertes. Les opérateurs ont aussi la possibilité de parcourir les informations mémorisées et de se déplacer ainsi dans le passé. D'autre part, le système permet une estimation en temps réel de la 35 position d'individus en mouvement lorsqu'ils quittent une zone couverte. En temps réel, une estimation est réalisée en se basant, par exemple, sur des estimations de trajectoires considérées inertielles. Par exemple, les positions suivantes d'un individu sont estimées en prenant en considération sa position et sa vitesse au moment où il est sorti d'une zone couverte par un capteur.
Le système permet également de prédire le comportement futur d'un individu dans la zone de supervision par extrapolation à l'aide des données déjà collectées et le représenter.
La figure 4 donne un exemple de reconstitution de deux trajets possibles trajet d'une même personne dans la zone de supervision. Il a été précédemment explicité que les déplacements d'un individu dans des zones non couvertes de la zone de surveillance peuvent être prédites. Dans l'exemple de la figure, une vue globale 400 de la zone de surveillance présente deux trajets estimés par le système appelés trajet 1 et trajet 2 et reliant un point de départ 411 à un point d'arrivée 412. Ces deux trajets comprennent des points en commun pour lesquels il n'y a pas d'ambiguïté. C'est le cas lorsque l'individu s'est déplacé dans une zone couverte par un ou plusieurs capteurs. Ainsi, un point 406 peut être commun aux deux estimations de trajet. Associé à un point d'un trajet, le système a la capacité d'indiquer des informations comme par exemple l'heure de passage 409 et la fiabilité de l'estimation 408. Ainsi, dans cet exemple, l'individu est passé par le second point commun aux trajets 1 et 2 à 10h34 avec une probabilité, exprimée en pourcentage, de 100%. Dans l'exemple de la figure, il apparait qu'une zone non couverte 410 existe entre le point de départ 411 et la point d'arrivée 412. Le dernier point 407 estimé sans ambiguïté indiqué un passage à 10h40. Ensuite, les trajets 1 et 2 diffèrent dans la zone non couverte 410. Le système, après analyse des données récoltées par les différents capteurs, indique deux points de passage probables. Le premier 402 fait partie du trajet 1 et sa fiabilité est estimée à 80%. Le second 403 appartient au trajet 2 et sa fiabilité est de 20%. A la sortie de la zone non couverte 410, il n'y a plus d'ambiguïté et les deux trajets se confondent à nouveau. L'individu arrive à un point intermédiaire 401 à 10h55 avec une probabilité de 100%, pour enfin arriver au point final des trajets 412 à 10h56.
Des informations plus globales associées à chacun de trajets possibles 404, 405 peuvent également être affichées.
La figure 5 illustre la capacité du système de supervision à simuler 5 des évènements se produisant dans une zone surveillée. Le système de supervision peut être utilisé également pour simuler ou observer le comportement d'un individu ou d'un groupe d'individus face à un évènement fictif donné, comme par exemple une simulation d'incendie. L'opérateur peut alors suivre les déplacements des individus et analyser les 10 risques. L'exemple de la figure montre une vue globale de la zone de supervision 505. Le temps est, par exemple, indiqué 500. Lors de la simulation incendie, l'évènement fictif, c'est-à-dire le feu, est représenté graphiquement 501 sur la vue globale de la zone de supervision. Dans le cadre d'une simulation, des individus virtuels dont le comportement est 15 simulé peuvent être répartis sur la zone de supervision. Lorsque la simulation est lancée, les individus modélisés réagissent en se déplaçant. La simulation, en fonction de la position connue des personnes avant l'incendie, calcule leur position probable dès l'occurrence de l'événement. L'exemple de la figure montre l'état de la simulation à 09h45 alors que l'incendie a été 20 introduit de façon fictive plus tôt dans le temps par l'opérateur. Le fait que les avatars soient regroupés 502, 503, 504 est la conséquence du fait qu'ils sortent de la zone de supervision par des voies prévues pour l'évacuation. L'opérateur a alors la possibilité de se déplacer virtuellement dans la zone de supervision et de suivre pas à pas l'évolution de la simulation. 25 La réaction d'individus réels face à un ou plusieurs événements fictifs peut être étudiée de la même manière.
La figure 6 présente un exemple d'architecture de système de supervision selon l'invention.
30 Un système de supervision selon l'invention comprend un ensemble hétérogène de capteurs répartis dans la zone de surveillance. Ces capteurs 600 peuvent être optiques et choisis parmi plusieurs familles (géométrique et domaine spectral), tels que des caméras infrarouge ou a projection infrarouge ( Time Of Flight camera ), des caméras monoculaires, stéréoscopiques, des caméras panoramiques/dômes ou PanTiltZoom (PTZ), par exemples. Les capteurs 600 communiquent avec un serveur de traitement 602 en utilisant un réseau de télécommunications 601. Le serveur de traitement reçoit les différents flux de données et flux vidéo en provenance des capteurs dans le but de les exploiter et de rendre disponibles ces informations traitées dans la représentation virtuelle tridimensionnelle de la zone de surveillance. Sur un flux vidéo donné est effectué un traitement 2D ou 3D, de type reconnaissance de formes, par exemple. Plusieurs flux vidéo traités peuvent ensuite être fusionnés comme explicité dans la description. Le serveur de traitement réalise ainsi les prédictions et reconstructions explicitées précédemment. Une interface de visualisation et de contrôle 603 permet à l'utilisateur 604 ou aux utilisateurs du système de se déplacer dans l'environnement virtuel, d'accéder aux images vidéo réelles, aux images vidéo reconstruites ainsi qu'aux différentes prédictions. L'interface permet également aux opérateurs de configurer des simulations ou de mettre en place des alarmes se déclenchant lorsqu'un évènement donné est détecté, par exemples. C'est interface est par exemple un écran fixe ou un écran mobile, de type assistant personnel PDA par exemple.
Claims (12)
- REVENDICATIONS1- Système de supervision d'une zone donnée dans laquelle sont répartis des capteurs électroniques (600) générant des flux de données représentatives de l'activité dans les zones couvertes par ces capteurs, ladite zone comprenant des zones non couvertes par lesdits capteurs, le système étant caractérisé en ce que des informations contenues dans les flux de données sont affichées sur une interface de visualisation (603) et positionnées (202) dans une représentation virtuelle (200) en trois dimensions de la zone de supervision, un serveur de traitement (602) comportant des moyens pour prédire les mouvements dans les zones non couvertes par extrapolation et/ou interpolation des données contenues dans au moins un des flux de données disponibles.
- 2- Système selon la revendication 1 caractérisé en ce que les flux de données vidéo en provenance de capteurs électroniques (600) sont adaptés par ajustement sur une primitive 3D de type quadrilatère (202) afin d'être affichés dans la représentation virtuelle en trois dimensions de la zone de supervision.
- 3- Système selon la revendication 1 caractérisé en ce que les flux de données vidéo en provenance de capteurs électroniques (600) sont adaptés par projection de texture afin d'être affichés dans la représentation virtuelle en trois dimensions de la zone de supervision.
- 4- Système selon l'une quelconque des revendications précédentes caractérisé en ce que les capteurs électroniques (600) composant le système sont choisis parmi : des caméras infrarouge, des caméras à projection infrarouge, des caméras stéréoscopiques, des caméras panoramiques et des caméras monoculaires de type réseau IP.
- 5- Système selon l'une quelconque des revendications précédentes caractérisé en ce que lorsqu'un point de vue (200) est sélectionné par un opérateur correspond à une zone couverte par un ou plusieurscapteurs vidéo, un algorithme de fusion de flux est appliqué sur les flux provenant desdits capteurs de manière à ce que les images vidéo correspondant au point de vue sélectionné soient reconstruites.
- 6- Système selon l'une quelconque des revendications précédentes caractérisé en ce que la présence d'individus dans des zones couvertes ou non couvertes est indiquée dans la représentation virtuelle tridimensionnelle de la zone de supervision par des éléments synthétiques, de type avatars ou formes géométriques simplifiées (300, 301, 302).
- 7- Système selon l'une quelconque des revendications précédentes caractérisé en ce que le serveur de traitement (602) comporte des moyens pour estimer a posteriori des trajets (402, 403) ayant été potentiellement réalisés par des individus s'étant déplacés dans des zones non couvertes (410) en interpolant les données collectées par les capteurs des zones couvertes proches desdites zones non couvertes (410).
- 8- Système selon la revendication 7 caractérisé en ce que les estimations de trajets passés sont mémorisées et que le ou les opérateurs ont la possibilité d'accéder à ces informations.
- 9- Système selon l'une quelconque des revendications précédentes caractérisé en ce que le serveur de traitement (602) comporte des moyens pour estimer en temps réel la position d'individus se situant dans des zones non couvertes de la zone de supervision.
- 10- Système selon la revendication 9 caractérisé en ce que l'estimation en temps réel de la position d'individus se situant dans des zones non couvertes de la zone de supervision est réalisée en considérant que les trajectoires desdits individus sont inertielles.
- 11- Système selon l'une quelconque des revendications précédentes caractérisé en ce que le comportement futur d'individus si situant dansla zone de supervision est prédit par extrapolation en utilisant les données déjà collectées par les capteurs et mémorisées par le système.
- 12- Système selon l'une quelconque des revendications précédentes caractérisé en ce que le serveur de traitement (602) comporte des moyens pour simuler le comportement d'un individu ou d'un groupe d'individus (502, 503, 504) face à un évènement fictif (501).10
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0901505A FR2943878B1 (fr) | 2009-03-27 | 2009-03-27 | Systeme de supervision d'une zone de surveillance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0901505A FR2943878B1 (fr) | 2009-03-27 | 2009-03-27 | Systeme de supervision d'une zone de surveillance |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2943878A1 true FR2943878A1 (fr) | 2010-10-01 |
FR2943878B1 FR2943878B1 (fr) | 2014-03-28 |
Family
ID=41226117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0901505A Active FR2943878B1 (fr) | 2009-03-27 | 2009-03-27 | Systeme de supervision d'une zone de surveillance |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2943878B1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2460142C1 (ru) * | 2011-04-26 | 2012-08-27 | Владимир Андреевич Куделькин | Способ защиты линейного участка границы |
EP3067709A1 (fr) * | 2015-03-13 | 2016-09-14 | Morpho | Procédé et dispositif de suivi d'individus dans un lieu équipé de moyens répartis de détection |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010010541A1 (en) * | 1998-03-19 | 2001-08-02 | Fernandez Dennis Sunga | Integrated network for monitoring remote objects |
WO2005120071A2 (fr) * | 2004-06-01 | 2005-12-15 | L-3 Communications Corporation | Procede et systeme permettant d'effectuer un flash video |
WO2008002630A2 (fr) * | 2006-06-26 | 2008-01-03 | University Of Southern California | Intégration transparente d'images dans des modèles tridimensionnels |
-
2009
- 2009-03-27 FR FR0901505A patent/FR2943878B1/fr active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010010541A1 (en) * | 1998-03-19 | 2001-08-02 | Fernandez Dennis Sunga | Integrated network for monitoring remote objects |
WO2005120071A2 (fr) * | 2004-06-01 | 2005-12-15 | L-3 Communications Corporation | Procede et systeme permettant d'effectuer un flash video |
WO2008002630A2 (fr) * | 2006-06-26 | 2008-01-03 | University Of Southern California | Intégration transparente d'images dans des modèles tridimensionnels |
Non-Patent Citations (2)
Title |
---|
BLACK J ET AL: "Validation of Blind Region Learning and Tracking", VISUAL SURVEILLANCE AND PERFORMANCE EVALUATION OF TRACKING AND SURVEIL LANCE, 2005. 2ND JOINT IEEE INTERNATIONAL WORKSHOP ON BEIJING, CHINA 15-16 OCT. 2005, PISCATAWAY, NJ, USA,IEEE, 15 October 2005 (2005-10-15), pages 9 - 16, XP010875349, ISBN: 978-0-7803-9424-7 * |
JAVED ET AL: "Modeling inter-camera space-time and appearance relationships for tracking across non-overlapping views", COMPUTER VISION AND IMAGE UNDERSTANDING, ACADEMIC PRESS, US, vol. 109, no. 2, 10 January 2008 (2008-01-10), pages 146 - 162, XP022416212, ISSN: 1077-3142 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2460142C1 (ru) * | 2011-04-26 | 2012-08-27 | Владимир Андреевич Куделькин | Способ защиты линейного участка границы |
EP3067709A1 (fr) * | 2015-03-13 | 2016-09-14 | Morpho | Procédé et dispositif de suivi d'individus dans un lieu équipé de moyens répartis de détection |
FR3033648A1 (fr) * | 2015-03-13 | 2016-09-16 | Morpho | Procede et dispositif de suivi d'individus dans un lieu equipe de moyens repartis de detection |
US10636262B2 (en) | 2015-03-13 | 2020-04-28 | Idemia Identity & Security | Method and device for monitoring individuals in a place equipped with distributed detection means |
Also Published As
Publication number | Publication date |
---|---|
FR2943878B1 (fr) | 2014-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6801760B2 (ja) | 画像処理装置、監視システム、画像処理方法、及びプログラム | |
CN100556130C (zh) | 使用多个摄像机的监视系统 | |
JP4673849B2 (ja) | 複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置 | |
EP2438583B1 (fr) | Dispositif de simulation d'un environnement d'un système de supervision d'une infrastructure | |
CN109191761A (zh) | 一种基于火焰多特征融合的火灾识别方法 | |
Milosavljević et al. | Integration of GIS and video surveillance | |
US20110285851A1 (en) | Intruder situation awareness system | |
US11854275B2 (en) | Systems and methods for detecting symptoms of occupant illness | |
US11200745B2 (en) | Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality | |
JP2008537380A (ja) | インテリジェントなカメラ選択および対象追跡 | |
JP2008502228A (ja) | ビデオフラッシュライトを実行する方法およびシステム | |
CN114399606A (zh) | 基于立体可视化的交互展示系统、方法、设备 | |
CN108122246A (zh) | 视频监控智能识别系统 | |
Gupta et al. | CrowdVAS-Net: A deep-CNN based framework to detect abnormal crowd-motion behavior in videos for predicting crowd disaster | |
KR102676020B1 (ko) | 영상의 객체 간 상호작용행위 검출 장치 및 방법 | |
US20050078852A1 (en) | Method of counting objects in a monitored environment and apparatus for the same | |
WO2018087462A1 (fr) | Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles | |
FR2943878A1 (fr) | Systeme de supervision d'une zone de surveillance | |
CN113361364A (zh) | 目标行为检测方法、装置、设备及存储介质 | |
US9767564B2 (en) | Monitoring of object impressions and viewing patterns | |
EP2916542A1 (fr) | Procédé et système de supervision, notamment appliqué à la vidéosurveillance | |
WO2023121410A1 (fr) | Système d'imagerie 3d intelligent traversant les obstacles utilisant une détection électromagnétique à bande ultralarge pour détecter des objets | |
FR3015093A1 (fr) | Systeme et procede de controle de flux d'entree et de sortie des personnes dans des espaces fermes | |
Ntalampiras et al. | Prometheus database: a multimodal corpus for research on modeling and interpreting human behavior | |
Ahmed et al. | A decision support engine for video surveillance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |
|
PLFP | Fee payment |
Year of fee payment: 14 |
|
PLFP | Fee payment |
Year of fee payment: 15 |
|
PLFP | Fee payment |
Year of fee payment: 16 |