FR2944934A1 - Sites monitoring method for communication network, involves initially modifying video stream by integration of reference elements adapted to scenic contents of each image in order to identify causes of event - Google Patents

Sites monitoring method for communication network, involves initially modifying video stream by integration of reference elements adapted to scenic contents of each image in order to identify causes of event Download PDF

Info

Publication number
FR2944934A1
FR2944934A1 FR0902034A FR0902034A FR2944934A1 FR 2944934 A1 FR2944934 A1 FR 2944934A1 FR 0902034 A FR0902034 A FR 0902034A FR 0902034 A FR0902034 A FR 0902034A FR 2944934 A1 FR2944934 A1 FR 2944934A1
Authority
FR
France
Prior art keywords
image
dome
target
event
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0902034A
Other languages
French (fr)
Other versions
FR2944934B1 (en
Inventor
Alexandre Creneau
Patrick Launay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SCUTUM
Original Assignee
SCUTUM
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SCUTUM filed Critical SCUTUM
Priority to FR0902034A priority Critical patent/FR2944934B1/en
Publication of FR2944934A1 publication Critical patent/FR2944934A1/en
Application granted granted Critical
Publication of FR2944934B1 publication Critical patent/FR2944934B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The method involves detecting presence of an event triggering capture of a panoramic reference image by an image capturing unit along a direction of the event. The image is transmitted to a remote station through video streams. The video stream is initially modified by integration of reference elements adapted to scenic contents of each image in order to identify causes of the event. Displacement of cause of the event is automatically tracked by the image capturing unit. An independent claim is also included for a system for monitoring sites in a vision field of an image capturing unit connected to a remote station.

Description

PROCEDE ET SYSTEME DE SURVEILLANCE DOMAINE TECHNIQUE DE L'INVENTION [001]L'invention se rapporte à un procédé et à un système de surveillance. [002]La présente invention se rapporte au domaine de la surveillance de site, et plus particulièrement, à celui de la télévidéosurveillance qui consiste en l'exploitation d'images d'un site ou de plusieurs sites à des fins de surveillance, depuis un poste de contrôle situé sur un site distant des sites surveillés. Les sites surveillés et le site de surveillance sont interconnectés par un réseau de communication. ETAT DE LA TECHNIQUE ANTERIEURE [003]La télévidéosurveillance est fondamentalement différente de la vidéosurveillance opérée depuis un poste local par un ou plusieurs agents de surveillance. [004]Un poste local de vidéosurveillance est généralement organisé autour des IHM suivantes : - Un mur d'image permettant d'afficher l'ensemble des caméras en direct afin que l'agent puisse avoir une vision globale du site et sélectionner une camera; - Un écran d'alarme sur lequel s'affichent automatiquement les caméras associées aux capteurs en alarme; - Un écran de supervision avec les alarmes au fil de l'eau , les consignes à appliquer et les plans du site, et - Un écran de tracking permettant à l'agent de piloter les caméras en 25 direct ou de relire des enregistrements. [005] Le plus souvent, les agents de surveillance gèrent uniquement le site sur lequel se situe le poste de contrôle. En conséquence, les alarmes sont traitées sans délai et la levée de doute vidéo, opération consistant à qualifier l'alarme d'un capteur par une caméra, s'opère essentiellement par la vision en direct de l'écran d'alarme et du mur d'images. [006]La vidéosurveillance locale consiste en une simple visualisation en direct d'un mur d'image est aujourd'hui obsolète. [007]La télévidéosurveillance pose trois problématiques différentes : 1. Les alarmes sont reçues en différé, de quelques ms (réseau IP) à plusieurs secondes (RTC ou GSM Data). 2. La probabilité qu'une liste d ( alarmes en attente de traitement se constitue au poste de contrôle distant est plus probable qu'en gestion locale, de part la possibilité de mutualiser la surveillance de plusieurs sites. 3. Les réseaux IP bas débit (< 1 Mbps) généralement utilisés pour interconnecter les sites surveillés avec la station centrale limitent le nombre de caméras pouvant être visionnées simultanément à distance avec une qualité suffisante. [008]En conséquence du 1, la connexion en direct sur la caméra en alarme peut être trop tardive pour qualifier l'événement : par exemple, un intrus déclenchant l'alarme en franchissant une clôture devant une caméra peut se retrouver hors champ de la caméra deux secondes plus tard. La qualification de l'alarme ne peut alors se faire que sur la base des images enregistrées au moment de l'alarme. [009]En conséquence du 3, l'opération consistant à visualiser simultanément toutes les caméras est techniquement impossible avec un niveau de qualité suffisant pour que la phase d'analyse vidéo du site menacé puisse être intégrée dans le process de sécurisation du site à distance. [010]C'est pourquoi, dans l'état actuel de la technique, la télévidéosurveillance est le plus souvent restreinte à la qualification vidéo des alarmes et l'envoi d'une équipe d'intervention sur le terrain. [011]Une telle stratégie de télévidéosurveillance crée deux failles de sécurité majeures : l'évolution de la menace représentée par l'intrus, entre l'intrusion et l'arrivée des équipes d'intervention, n'est pas maîtrisée : l'intrus a pu abandonner un explosif ou attenter à la sûreté de fonctionnement d'un équipement, et - l'équipe d'intervention ne bénéficie d'aucune information lui permettant de localiser l'intrus : elle va donc perdre du temps à le rechercher et, éventuellement, conclure à son départ du site alors que l'intrus s'y trouve encore. [012]Ces failles de sécurité n'étant pas admissibles sur la plupart des sites sensibles, les responsables sûreté se refusent généralement à externaliser la vidéosurveillance. Or, sur beaucoup de sites sensibles, il est possible d'identifier des plages horaires pendant lesquelles l'activité du site étant fortement réduite, la télévidéosurveillance pourrait se substituer avantageusement au gardiennage local, sous réserve de la démonstration de l'efficacité des techniques mises en oeuvre. [013]Le projet Scutum consiste à lever l'ensemble des verrous technologiques et à mettre en oeuvre une organisation et des techniques lui permettant d'offrir des services de télévidéosurveillance crédibles et efficaces. [014]Un des aspects importants de ce projet est l'IHM des opérateurs en charge de l'analyse vidéo des sites. L'IHM cristallise a elle seule la crédibilité du projet Scutum. En phase de décision d'un responsable sûreté, sa démonstration sera déterminante. [015]Cette IHM doit être conçue comme un outil permettant à un opérateur en charge de la surveillance de plusieurs sites, de s'immerger en quelques secondes dans un nouveau site en alarme, d'en prendre rapidement le contrôle et de disposer automatiquement du niveau d'information nécessaire à l'exercice de sa mission. L'ergonomie de cette IHM doit être particulièrement soignée, car elle est à la fois, gage de l'efficacité de l'opérateur. 10 15 20 25 EXPOSE DE L'INVENTION [016]La présente invention vise à résoudre le problème lié aux difficultés techniques rencontrées pour le déploiement et la fiabilité des mécanismes de vidéosurveillance. [017] Pour ce faire, un aspect de l'invention se rapporte à un procédé de surveillance d'un site situé dans le champ de vision d'au moins un moyen de capture d'images relié à un poste distant, le procédé comprenant les étapes suivantes : - détection de la présence d'un évènement apte à déclencher la capture d'au moins une image par le moyen de capture d'images en direction dudit évènement; - transmission de ladite au moins une image au poste distant au travers d'un flux vidéo, dans lequel ledit flux vidéo est initialement modifié par l'intégration d'éléments de références adaptés au contenu scénique de chacune des images composant ce flux vidéo de sorte à identifier la cause et le contexte dudit évènement. [018] Selon des modes de réalisation particuliers, le procédé comprend : - une étape préalable d'acquisition d'au moins une image panoramique de référence au format équirectangulaire du champ de vision d'au moins un moyen de capture d'images - une étape de transmission de ladite au moins une image panoramique de référence au poste distant, - une série d'étapes de calcul, à partir de ladite au moins une image panoramique de référence, d'images panoramiques au format rectilinéaire correspondant chacune à une vision élargie de ladite scène par rapport à la vision de chaque image composant ledit flux vidéo, TECHNICAL FIELD OF THE INVENTION [001] The invention relates to a method and a monitoring system. [002] The present invention relates to the field of site monitoring, and more particularly to that of televideosurveillance which consists of the exploitation of images of a site or several sites for surveillance purposes, since a checkpoint located at a site remote from the monitored sites. The monitored sites and the surveillance site are interconnected by a communication network. STATE OF THE PRIOR ART [003] Televideosurveillance is fundamentally different from video surveillance operated from a local station by one or more monitoring agents. [004] A local video surveillance station is generally organized around the following HMIs: - An image wall to display all the live cameras so that the agent can have a global view of the site and select a camera; - An alarm screen on which the cameras associated with the sensors in alarm are automatically displayed; - A supervision screen with the alarms on the water, the instructions to be applied and the site plans, and - A tracking screen allowing the agent to control the cameras live or reread records. [005] Most often, the monitoring agents only manage the site on which the checkpoint is located. As a result, the alarms are processed without delay and the removal of doubt video, operation of qualifying the alarm of a sensor by a camera, operates essentially by the live view of the alarm screen and the wall images. [006] Local video surveillance consists of a simple live viewing of an image wall is now obsolete. [007] Televideosurveillance poses three different problems: 1. The alarms are received offline, from a few ms (IP network) to several seconds (RTC or GSM Data). 2. The probability that a list of alarms waiting to be processed at the remote control station is more likely than in local management, due to the possibility of pooling the monitoring of multiple sites 3. The low speed IP networks (<1 Mbps) typically used to interconnect monitored sites with the central station limit the number of cameras that can be simultaneously viewed remotely with sufficient quality. [008] As a result of 1, the live connection to the alarmed camera can To be too late to qualify the event: for example, an intruder triggering the alarm by crossing a fence in front of a camera may be out of camera two seconds later, and the alarm can only be qualified based on the images recorded at the time of the alarm. [009] As a consequence of the 3, the operation of simultaneously viewing all the cameras is technically impossible with a sufficient level of quality so that the video analysis phase of the threatened site can be integrated into the process of securing the remote site. [010] Therefore, in the current state of the art, televideosurveillance is most often restricted to the video qualification of alarms and the dispatch of a field intervention team. [011] Such a televideosurveillance strategy creates two major security flaws: the evolution of the threat represented by the intruder, between the intrusion and the arrival of the intervention teams, is not mastered: the intruder has been able to abandon an explosive or compromise the safety of an equipment, and - the intervention team does not benefit from any information enabling it to locate the intruder: it will therefore waste time searching for it and, eventually, conclude to leave the site while the intruder is still there. [012] These security flaws are not eligible on most sensitive sites, security managers generally refuse to outsource CCTV. However, on many sensitive sites, it is possible to identify time slots during which the activity of the site being greatly reduced, televideosurveillance could advantageously replace the local guarding, subject to the demonstration of the effectiveness of the techniques put implemented. [013] The Scutum project consists in removing all technological barriers and in implementing an organization and techniques enabling it to offer credible and effective televideosurveillance services. [014] One of the important aspects of this project is the HMI of the operators in charge of the video analysis of the sites. The GUI alone crystallizes the credibility of the Scutum project. In the decision phase of a safety manager, his demonstration will be decisive. [015] This HMI should be conceived as a tool allowing an operator in charge of the surveillance of several sites, to immerse himself in a few seconds in a new site in alarm, to take quick control of it and to have automatic access. level of information necessary for the exercise of its mission. The ergonomics of this HMI must be particularly careful, because it is at the same time, guaranteeing the efficiency of the operator. SUMMARY OF THE INVENTION [016] The present invention aims to solve the problem related to the technical difficulties encountered for the deployment and reliability of video surveillance mechanisms. [017] To do this, one aspect of the invention relates to a method of monitoring a site located in the field of view of at least one image capture means connected to a remote station, the method comprising the following steps: detecting the presence of an event capable of triggering the capture of at least one image by the image capture means in the direction of said event; transmission of said at least one image to the remote station through a video stream, in which said video stream is initially modified by the integration of reference elements adapted to the scenic content of each of the images composing this video stream so that identify the cause and context of the event. [018] According to particular embodiments, the method comprises: a prior step of acquiring at least one reference panoramic image in the equirectangular format of the field of view of at least one image capture means; step of transmitting said at least one reference panoramic image to the remote station, - a series of calculation steps, from said at least one panoramic panoramic image, of panoramic images in rectilinear format each corresponding to an enlarged vision of said scene with respect to the vision of each image composing said video stream,

- une série d'étapes de fusion desdites images panoramiques calculées et des images composant ledit flux vidéo afin de constituer un flux vidéo de réalité augmentée restituant, sur le poste distant, un champ de vision de ladite scène artificiellement élargi par rapport au flux vidéo initial a series of steps of merging said calculated panoramic images and images composing said video stream in order to constitute an augmented reality video stream rendering, on the remote station, a field of view of said artificially expanded scene with respect to the initial video stream;

[019] Selon des modes de réalisation particuliers, lesdits éléments de références se rapportent à l'une des informations relatives à l'un des éléments suivants : [019] According to particular embodiments, said reference elements relate to one of the information relating to one of the following elements:

- désignation et identification de la cause de l'évènement ; - designation and identification of the cause of the event;

localisation de la cause de l'évènement et/ou - indication des bâtiments et infrastructures du ou des sites. [020] Selon des modes de réalisation particuliers, le procédé comprend une étape de suivi automatique du déplacement de la cause dudit évènement par au moins 15 deux moyens de capture d'images, caractérisée par les étapes suivantes : - suivi du déplacement de la cause dudit évènement par le moyen de capture d'image 1 - détection d'entrée de la cause dudit évènement dans une zone du champ de vision dudit moyen de capture d'image 1 ou dans une zone du champ de vision d'un moyen de capture d'image 2 - focalisation du moyen de capture d'image 2 en direction de la cause dudit évènement confirmation d'entrée de la cause dudit évènement dans une zone du champ de vision dudit moyen de capture d'image 2 et capture d'au moins une image de la cause dudit évènement par ledit moyen de capture d'image 2 10 20 25 - suivi du déplacement de la cause dudit évènement par le moyen de capture d'image 2 [021] Selon des modes de réalisation particuliers, le procédé comprend une étape préalable de paramétrage d'au moins une zone de détection dans le champ de 5 vision d'au moins un capteur d'image, caractérisée par les étapes suivantes : - association d'une matrice d'altitude à ladite image panoramique permettant d'entrer, pour tout point de l'image panoramique de référence, la valeur d'altitude en ce point, - marquage sur un calque superposable à ladite image 10 panoramique desdits points caractéristiques de ladite zone de détection, calcul des valeurs d'altitudes en ces points caractéristiques de ladite zone de détection et entrée desdites valeurs dans la matrice d'altitude, 15 - paramétrage manuel complet sur ledit calque de ladite zone de détection, avec l'assistance éventuelle de moyen d'analyse d'image. [022] L'invention se rapporte également à un système de surveillance d'un ou de plusieurs sites situés dans un champ de vision d'au moins un moyen de capture 20 d'images, pour la mise en oeuvre du procédé, comprenant au moins un capteur associé audit au moins un moyen de capture d'images, apte à détecter un évènement susceptible de déclencher la capture d'au moins une image par le moyen de capture d'images en direction dudit évènement de sorte à transmettre ladite au moins une image au poste distant au travers d'un flux vidéo, caractérisé 25 en ce que le système comprend des moyens de traitements aptes à modifier ledit flux vidéo par l'intégration d'éléments de références adaptés au contenu scénique de chacune des images composant ce flux vidéo de sorte à identifier la cause et le contexte dudit évènement, et par la fusion d'images panoramiques calculées avec le flux vidéo initial afin d'élargir artificiellement le champ de vision de la scène. [023] Avantageusement, le système comprend une unité de suivi automatique de la cause dudit évènement par les différents moyens de capture d'images d'un même site. [024]Selon un mode de réalisation particulier, le moyen de capture d'images est 5 un dôme thermique. BREVE DESCRIPTION DES FIGURES [025] D'autres caractéristiques et avantages de l'invention ressortiront à la lecture de la description qui suit, en référence aux figures annexées, qui illustrent : - la figure 1, est une vue d'un pote de vidéosurveillance, 10 - la figure 2, est une vue d'un site en objet d'une vidéosurveillance, - les figures 3, 4 et 5, représentent une vue fournie par un dôme, - les figures 6, 7 et 20, représentent une vue des canaux de géolocalisation, - la figure 8, se rapporte à une vue schématique d'une Interface Homme- machine (IHM) selon l'invention, 15 - la figure 9, est une vue d'une caméra à focale fixe, les figures 10 et 11, représentent une vue d'un dôme, - la figure 12, est une vue schématique du redressement des images et fusion en une seule image panoramique, les figures 13 et 14, représentent une vue d'une image panoramique, 20 - la figure 15, est une vue schématique d'une image panoramique et d'un mode de réalisation selon l'invention, - la figure 16 représente une vue schématique du positionnement dynamique d'une cible selon l'invention, - la figure 17, est une vue du pointage absolu d'une zone à visionner selon 25 l'invention, - la figure 18, est une vue schématique du système selon l'invention, la figure 19, est une vue schématique d'un suivi de cible selon l'invention, 30 - les figures 21, 22, 23 et 29, représentent une vue schématique des images panoramiques selon l'invention, la figure 24, est une vue schématique d'un dôme selon l'invention, - les figures 25, 26, 27, représentent une vue schématique de la 5 transformation de l'image panoramique au plan selon l'invention, - la figure 28, est une vue schématique de la précision au voisinage de l'horizon selon l'invention 10 - la figure 30, est une vue schématique de la détection d'un intrus, la figure 31, est une vue schématique sensiblement similaire à la figure 2, - les figures 32 à 45 représentent une vue schématique du fonctionnement 15 de l'hypertracking, - la figure 46, est une vue schématique d'un dôme couplé à l'autotracking, - les figures 47 et 48, représentent une vue relative à l'autotracking et à la 20 réalité augmentée, - les figures 49 à 56, représentent une vue de la couverture du système selon l'invention, 25 - les figures 57 à 61, représentent une vue schématique du calibrage du système selon l'invention, et - les figures 62 à 69, représentent une vue schématique du mécanisme de suivi de la cible par le système selon l'invention. [026]Pour plus de clarté, les éléments identiques ou similaires sont repérés par des signes de référence identiques sur l'ensemble des figures. DESCRIPTION DETAILLEE D'UN MODE DE REALISATION [027] A la figure 3, la vidéo ci-contre est fournie par un dôme avec un capteur 35 thermique de résolution 320x240 pixels. L'image est étendue en plein écran par 30 l'opérateur (écran 24" de 1920x1200 pixels). II peut y distinguer nettement un individu se dirigeant vers un portail. La scène se déroule à 250 m du dôme. [028]L'opérateur a identifié une menace, mais il ne peut la contextualiser : - Où se trouve l'intrus ? - Quels sont les bâtiments menacés ? - Quels dômes ou caméras peuvent permettre l'identification de l'individu ? - Où se trouve l'intervenant le plus proche ? [029]Instinctivement, l'opérateur souhaiterait commander au dôme un zoom arrière afin d'élargir le champ de vision et rechercher de l'information dans l'image : l'objectif de la réalité augmentée est de lui fournir cette information en l'immergeant le plus possible dans le site. [30] Sur commande de l'opérateur, le moteur de réalité augmentée du site vidéosurveillé va progressivement élargir le champ de vision du dôme thermique en faisant apparaître les bâtiments voisins et infrastructures (routes). Il va également y insérer des informations utiles à la localisation de la cible et des intervenants. [31] La figure 4 représente une immersion par panoramique virtuel. Le dôme thermique n'est pas doté d'un zoom continu mais d'un objectif à focale fixe de 50mm ou 100mm. Il ne peut donc produire en direct les images des bâtiments apparaissant progressivement dans l'écran lors du zoom arrière : celles-ci sont calculées en temps réel par le moteur de réalité augmentée à partir d'un mapping photo panoramique effectué quelques minutes auparavant par le dôme. Ainsi, sur la copie d'écran ci-contre, l'image centrale flottante est réelle, le fond d'écran panoramique est virtuel. [032]En poussant le zoom arrière plus loin, l'opérateur peut obtenir une vision panoramique complète sur 360° en horizontal et jusqu'à 180° en vertical. [033]Cette technique, comme illustrée aux figures 4 et 5, est applicable aux dômes thermiques à focale fixe, ainsi qu'aux dômes visibles. En effet, lorsque le zoom du dôme est sur une valeur élevée, les déplacements manuels du dôme par l'opérateur sont délicats, même en connaissant bien le site. Or, à partir de la vue panoramique de la réalité augmentée, l'opérateur peut désigner avec la souris une zone d'intérêt dans l'image afin d'y faire focaliser le dôme. [034] Le moteur de réalité augmentée va également enrichir le flux avec des éléments simples (textes, symboles...) : - désignation et identification des cibles (exemple : véhicule à 500m); - identification des bâtiments visibles dans l'image les plus proches de la cible lorsque l'opérateur les survole avec la souris (exemple : EDF, GEFCO) ; - localisation précise de la cible dans l'environnement (exemple : portail nord); - localisation d'équipements importants à signaler aux intervenants (lecteurs de contrôle d'accès par exemple). Il va enfin insérer dans le flux vidéo, deux canaux d'information temps réel de géolocalisation : - le canal géolocalisation opérateur permettant à l'opérateur de visionner : • l'emplacement de l'intrus sur un plan détaillé de la zone, • les ressources vidéo à sa disposition pour visualiser la cible, • éventuellement, les limites de propriété (exemple : traits en vert) • les équipements important pour l'intervenant. location of the cause of the event and / or - indication of the buildings and infrastructures of the site (s). [020] According to particular embodiments, the method comprises a step of automatically tracking the movement of the cause of said event by at least two image capturing means, characterized by the following steps: - tracking the displacement of the cause said event by the image capture means 1 - input detection of the cause of said event in an area of the field of view of said image capture means 1 or in an area of the field of view of a capture means image 2 - focusing of the image capture means 2 towards the cause of said event confirmation of entry of the cause of said event in an area of the field of view of said image capture means 2 and capture of at less an image of the cause of said event by said image-capturing means - followed by the displacement of the cause of said event by the image-capture means 2 [021] According to particular embodiments, the method includes a preliminary step of parameterizing at least one detection zone in the field of vision of at least one image sensor, characterized by the following steps: - association of an altitude matrix with said panoramic image allowing enter, for any point of the reference panoramic image, the altitude value at this point, marking on a layer superimposable on said panoramic image of said characteristic points of said detection zone, calculation of the altitude values in these areas; characteristic points of said detection zone and input of said values in the altitude matrix, 15 - complete manual parameterization on said layer of said detection zone, with the possible assistance of image analysis means. [022] The invention also relates to a system for monitoring one or more sites situated in a field of view of at least one image capture means, for carrying out the method, comprising at least one sensor associated with said at least one image capture means, capable of detecting an event likely to trigger the capture of at least one image by the image capture means in the direction of said event so as to transmit said at least one an image at the remote station through a video stream, characterized in that the system comprises processing means able to modify said video stream by integrating reference elements adapted to the scenic content of each of the images composing this video stream so as to identify the cause and context of said event, and by merging calculated panoramic images with the original video stream to artificially expand the field of view of the scene. [023] Advantageously, the system comprises a unit for automatically tracking the cause of said event by the different means of capturing images of the same site. [024] According to a particular embodiment, the image capture means is a thermal dome. BRIEF DESCRIPTION OF THE FIGURES [025] Other features and advantages of the invention will emerge on reading the description which follows, with reference to the appended figures, which illustrate: FIG. 1 is a view of a video surveillance buddy FIG. 2 is a view of a site under video surveillance, FIGS. 3, 4 and 5 show a view provided by a dome, FIGS. 6, 7 and 20 show a view. 8, relates to a schematic view of a human-machine interface (HMI) according to the invention, FIG. 9 is a view of a fixed-focus camera, FIGS. 10 and 11 show a view of a dome; FIG. 12 is a schematic view of the image recovery and merge into a single panoramic image; FIGS. 13 and 14 show a view of a panoramic image; FIG. 15 is a schematic view of a panoramic image and an embodiment according to the invention. FIG. 16 represents a schematic view of the dynamic positioning of a target according to the invention; FIG. 17 is a view of the absolute pointing of an area to be viewed according to the invention; FIG. is a schematic view of the system according to the invention, FIG. 19 is a schematic view of a target tracking according to the invention; FIGS. 21, 22, 23 and 29 show a schematic view of the panoramic images according to FIG. 24 is a diagrammatic view of a dome according to the invention; FIGS. 25, 26 and 27 show a schematic view of the transformation of the panoramic image into the plane according to the invention; FIG. 28 is a schematic view of the accuracy in the vicinity of the horizon according to the invention; FIG. 30 is a schematic view of the detection of an intruder, FIG. 31 is a substantially similar schematic view. in FIG. 2, FIGS. 32 to 45 show a schematic view of the operation 1 FIG. 46 is a diagrammatic view of a dome coupled to autotracking; FIGS. 47 and 48 show a view relating to autotracking and augmented reality; FIGS. 49 to 56 show a view of the cover of the system according to the invention, - figures 57 to 61 show a schematic view of the calibration of the system according to the invention, and - figures 62 to 69 show a schematic view. the target tracking mechanism by the system according to the invention. [026] For greater clarity, the identical or similar elements are marked with identical reference signs throughout the figures. DETAILED DESCRIPTION OF AN EMBODIMENT [027] In FIG. 3, the video opposite is provided by a dome with a 320x240 pixel thermal sensor. The image is extended in full screen by the operator (1920x1200 pixel screen 24 "), where it can clearly see an individual heading towards a portal The scene is set 250 m from the dome. [028] operator has identified a threat, but can not contextualize it: - Where is the intruder? - Which buildings are threatened? - Which domes or cameras can identify the individual? - Where is the speaker? [029] Instinctively, the operator would like to command the dome to zoom out to widen the field of view and search for information in the image: the goal of augmented reality is to provide that information by immersing it as much as possible in the site. [30] On command of the operator, the augmented reality engine of the video surveillance site will gradually widen the field of vision of the thermal dome by revealing neighboring buildings and infrastructures (roads ). He will also insert information useful for locating the target and stakeholders. [31] Figure 4 shows a virtual panoramic immersion. The thermal dome does not have a continuous zoom but a fixed focus lens of 50mm or 100mm. It can not produce live images of buildings appearing gradually in the screen when zoomed out: they are calculated in real time by the augmented reality engine from a panoramic photo mapping made a few minutes ago by the dome. Thus, on the screenshot opposite, the floating central image is real, the panoramic wallpaper is virtual. [032] By pushing the zoom out further, the operator can get a complete panoramic view of 360 ° horizontally and up to 180 ° vertically. [033] This technique, as illustrated in Figures 4 and 5, is applicable to thermal domes fixed focal and visible domes. Indeed, when the zoom of the dome is on a high value, the manual movements of the dome by the operator are delicate, even knowing the site well. Now, from the panoramic view of augmented reality, the operator can designate with the mouse an area of interest in the image in order to focus the dome. [034] The augmented reality engine will also enrich the stream with simple elements (texts, symbols ...): - designation and identification of targets (example: vehicle at 500m); - identification of buildings visible in the image closest to the target when the operator flies over them with the mouse (example: EDF, GEFCO); - precise location of the target in the environment (example: north portal); - location of important equipment to report to stakeholders (access control readers for example). It will finally insert in the video stream, two channels of real-time geolocation information: - the operator geolocation channel allowing the operator to view: • the location of the intruder on a detailed map of the area, • the video resources at its disposal to visualize the target, • possibly the property limits (example: green lines) • the important equipment for the speaker.

En cliquant sur le symbole du dôme ou d'une caméra, il peut obtenir une prévisualisation de la vision de celle-ci (clic droit) ou la commutation de la vidéo en direct sur cette caméra (clic gauche). - le canal géolocalisation intervenant (option) permettant de visionner les positions relatives de l'intrus (exemple carré rouge) et des intervenants sur le plan du site (exemple : symboles vert et bleu). [035]Cette liste n'est pas exhaustive, le principe étant d'enrichir l'information sans pour autant détruire le sentiment visuel d'immersion dans la scène de l'opérateur par une quantité d'information trop importante dans son champ de vision. [036]La figure 6 représente une vue du canal de géolocalisation d'un intervenant, et la figure 7 un canal de géolocalisation de l'opérateur. By clicking on the symbol of the dome or a camera, it can obtain a preview of the vision of this one (right click) or the commutation of the live video on this camera (left click). - the intervening geolocalisation channel (option) allowing to view the relative positions of the intruder (red square example) and the speakers on the site plan (example: green and blue symbols). [035] This list is not exhaustive, the principle being to enrich the information without destroying the visual feeling of immersion in the scene of the operator by too much information in his field of vision . [036] Figure 6 shows a view of the geolocation channel of a speaker, and Figure 7 a geolocation channel of the operator.

[037] La vue représentée à la figure 8 est une vue modulable de l'organisation de 10 l'écran de surveillance dont l'ergonomie peut être modifiée selon les choix de l'opérateur. [037] The view shown in FIG. 8 is a modular view of the organization of the surveillance screen whose ergonomics can be modified according to the operator's choices.

[038]Par la suite, un mapping panoramique est réalisé. Cette opération consiste à photographier le paysage sur toute l'amplitude d'action d'un dôme thermique ou 15 visible et à fusionner ces photos en une seule image panoramique en projection équirectangulaire. [038] Thereafter, a panoramic mapping is made. This operation consists in photographing the landscape over the entire range of action of a thermal or visible dome and fusing these photos into a single panoramic image in equirectangular projection.

[039]A la figure 9, est représenté un dôme thermique. Une caméra à focale fixe de 50mm a une ouverture angulaire de l'image de 14° par 10°. 20 A la figure 10, un dôme a une amplitude de 360° en site et de -45°/+90° en azimut. En balayant en site tous les 14° et en azimut tous les 10°, il faut 26x14=338 photos au total pour mapper toute la vision du dôme. A raison de 6 images/s, il faut 60 s pour réaliser le mapping. Si une image JPEG pèse 8 Ko, il faut une mémoire de 2.6 Mo pour stocker 25 l'image panoramique en résolution native. A raison d'une vitesse de transmission de 1 Mbps, il faut 21 s pour transmettre l'image panoramique. [40] A la figure 11, en restreignant le mapping à 270° en site (on supprime les 90° à l'arrière du dôme) et à 45° en azimut (on part de l'horizontale et on descend de 45°), il faut 20x5=100 photos, soit 16 s à raisons de 6 images/s, 0.8 Mo de 30 mémoire, et 6s de transmission à 1 Mbps. [41] A partir d'un dôme visible en effectuant le mapping en zoom arrière maximum, l'ouverture angulaire de l'image est de 54° par 42°. Pour un mapping5 total, il faut 7x4=28 photos, soit 4s à raison de 6 images CIF/s, soit 224 Ko de mémoire et 2 s de transmission à 1 Mbps. Pour un mapping partiel, il faut 6x2=12 photos, soit 96 Ko de mémoire et 1 s de transmission à 1 Mbps. [042]A la figure 12 est représente le redressement des images et fusion dans une seule image ou vue panoramique. [043]L'image doit être redressée avant d'être fusionnée, afin d'obtenir la continuité des pixels sur une mémoire rectangulaire (cf. outils opensource panorama tools , PTAssembler ...). [044]Les fonctionnalités se rapportent également à une image panoramique et POI (Point of Interest), comme illustré à la figure 13. Pour insérer des informations contextuelles, l'image panoramique est plus naturelle à travailler que le plan du site, car elle correspond à l'angle de vision de l'opérateur. On peut, par exemple, y indiquer des points d'intérêts : • Routes, carrefour • Bâtiments • Accès (portail, portillons...) • Limites de propriété défendues (détection périphérique) • Equipements importants pour les intervenants (lecteurs de contrôle 20 d'accès). II est possible d'indiquer lors de l'insertion des POI (point of interest) sur l'image panoramique, si l'information doit être systématiquement insérée dans l'image augmentée du poste opérateur ou si elle doit apparaître uniquement lorsque l'opérateur survole le secteur concerné avec sa souris. 25 [045]Les fonctionnalités se rapportent également à une image panoramique et PTC (Points to Check). Dans le cas d'un intrus abandonnant un objet sur le site, attentant à la sûreté d'un équipement du site, ou ayant un comportement suspect à un emplacement précis, 30 l'opérateur doit pouvoir insérer des points à contrôler par l'équipe d'intervention. Le mode d'insertion potentiel peut s'effectuer par pointage direct dans l'image (exemple : clic droit, ouverture d'une fenêtre de saisie, saisie d'un texte) avec report automatique sur l'image panoramique et sur le plan du site (canal opérateur et canal intervenant). L'IHM doit prévoir également l'effacement des PTC. [046]Les fonctionnalités se rapportent également à une image panoramique et détection vidéo intelligente. • Comparaison des images panoramiques n I n-1 [039] In Figure 9, there is shown a thermal dome. A fixed focal length camera of 50mm has an angular aperture of the image of 14 ° by 10 °. In Fig. 10, a dome has an amplitude of 360 ° in elevation and -45 ° / + 90 ° in azimuth. Sweeping in all 14 ° site and in azimuth every 10 °, it takes 26x14 = 338 photos in total to map all the vision of the dome. At the rate of 6 images / s, it takes 60 s to perform the mapping. If a JPEG image is 8 KB, 2.6 MB memory is required to store the panoramic image in native resolution. At a transmission rate of 1 Mbps, it takes 21 seconds to transmit the panoramic image. [40] In Figure 11, restricting the mapping to 270 ° in site (we remove the 90 ° at the back of the dome) and 45 ° in azimuth (we start from the horizontal and we go down by 45 °) , it takes 20x5 = 100 photos, 16 s reasons for 6 images / s, 0.8 MB 30 memory, and 6s transmission at 1 Mbps. [41] From a visible dome performing the maximum zooming mapping, the angular aperture of the image is 54 ° by 42 °. For a total mapping5, you need 7x4 = 28 photos, ie 4s with 6 CIF / s images, ie 224 KB of memory and 2 s of transmission at 1 Mbps. For a partial mapping, you need 6x2 = 12 photos, ie 96 KB of memory and 1 s of transmission at 1 Mbps. [042] In Figure 12 is the straightening of images and merging into a single image or panoramic view. [043] The image must be straightened before being merged, in order to obtain the continuity of the pixels on a rectangular memory (see tools opensource panorama tools, PTAssembler ...). [044] The features also refer to a panoramic and point of interest (POI) image, as shown in Figure 13. To insert contextual information, the panoramic image is more natural to work than the site map because it corresponds to the viewing angle of the operator. For example, you can indicate points of interest: • Roads, crossroads • Buildings • Access (gate, gates ...) • Defended property limits (peripheral detection) • Important equipment for the workers (control readers 20 access). It is possible to indicate when inserting the POI (point of interest) on the panoramic image, if the information must be systematically inserted in the augmented image of the operator station or if it must appear only when the operator fly over the area concerned with his mouse. [045] The features also relate to a panoramic image and PTC (Points to Check). In the case of an intruder abandoning an object on the site, waiting for the safety of a site equipment, or having suspicious behavior at a specific location, the operator must be able to insert points to be controlled by the team. intervention. The potential insertion mode can be done by direct pointing in the image (example: right click, opening of an input window, entering a text) with automatic report on the panoramic image and on the plane of the image. site (operator channel and intervening channel). The HMI must also provide for the erasure of the PTCs. [046] Features also relate to a panoramic image and intelligent video detection. • Comparison of panoramic images n I n-1

Si l'image panoramique est rafraîchie à une fréquence élevée (toutes les 10 mn par exemple) et qu'elle est fournie à un moteur de détection vidéo 10 intelligent, celui-ci peut suspecter l'apparition d'un intrus en détectant l'apparition de points chauds (blanc) d'une image sur l'autre. Il donne en retour des informations sur la cible (type, distance...) au moteur de réalité augmentée pour qu'il les insère dans l'IHM. If the panoramic image is refreshed at a high frequency (every 10 minutes for example) and is supplied to an intelligent video detection engine, the latter can suspect the appearance of an intruder by detecting the appearance of hot spots (white) from one image to another. It gives back information on the target (type, distance ...) to the augmented reality engine so that it inserts them into the HMI.

15 • Image de référence 15 • Reference image

Le moteur de détection vidéo intelligente peut avoir besoin d'une image de référence afin de l'aider pour l'analyse d'une scène où il ne détecte pas ou peu de mouvement. 20 Prenons l'exemple d'un dôme s'orientant en direction d'un capteur terrain sur information d'alarme. Le moteur de détection vidéo intelligente peut avoir des difficultés à confirmer la présence de l'intrus sur la seule base d'une détection de mouvement. En effet, si l'intrus s'est immobilisé ou s'il se déplace 25 lentement en direction du dôme, le nombre de pixels variant dans l'image peut être nul ou non significatif. The Intelligent Video Detection Engine may need a reference image to help it analyze a scene where it does not detect or move. 20 Take the example of a dome moving towards a field sensor on alarm information. The intelligent video detection engine may have difficulty in confirming the presence of the intruder on the sole basis of motion detection. Indeed, if the intruder has stopped or moves slowly toward the dome, the number of pixels varying in the image may be zero or insignificant.

Le moteur de détection peut alors utiliser la dernière image panoramique et la comparer à l'image en direct pour l'aider à localiser la cible. Cette information 30 de suspicion de présence peut, par exemple, motiver une observation plus prolongée du secteur ou être soumise à l'avis de l'opérateur. [047] Les fonctionnalités se rapportent également à une image panoramique et scan de zone, comme illustré en figure 14.5 Pour retrouver une cible perdue, ou pour lancer une ronde à la volée, l'opérateur peut avoir à désigner une zone à balayer par un dôme à partir d'éléments de sélection. L'opérateur entre un simple segment ou un chemin plus complexe, désigne les secteurs à neutraliser (route située à l'extérieur du site, zone d'activité autorisée), indique la vitesse de scan et nomme cette ronde. Lorsqu'il lance la ronde, le dôme va effectuer un balayage lent et continu du paysage en suivant le chemin et le moteur de détection vidéo intelligente va assister l'opérateur pour localiser les cibles en mouvement dans les secteurs non neutralisés. [048]Les fonctionnalités se rapportent également à une image panoramique et moteur d'hypertracking, comme illustré en figure 15. Le moteur d'hypertracking est un dispositif du site destiné à automatiser le suivi d'une cible par une même caméra (autotracking) et de caméras en caméras. Sur le schéma ci-contre, des dômes thermiques, visibles et des caméras fixes contribuent à la sécurisation d'une zone urbaine. Un individu parcourant le Bd Georges Pompidou de la gauche vers la droite sera suivi dans un premier temps par le dôme thermique installé sur le bâtiment des PTT, puis par le dôme (jaune) du stade, dont le rayon d'action est représenté sur le plan du site par le cercle jaune. Si l'individu parcours la rue de Bayeux jusqu'au Rond-point de la Maladrerie, il sera suivi dans un premier temps par le dôme thermique des PTT, puis repris ensuite par le dôme thermique situé à l'extrême droite du plan. The detection engine can then use the latest panoramic image and compare it to the live image to help locate the target. This presence suspicion information may, for example, motivate a more prolonged observation of the area or be subject to the opinion of the operator. [047] The features also refer to a panoramic image and zone scan, as shown in Figure 14.5 To find a lost target, or to start a round on the fly, the operator may have to designate an area to be scanned by a dome from selection elements. The operator enters a simple segment or a more complex path, designates the sectors to be neutralized (road located outside the site, zone of authorized activity), indicates the speed of scan and names this round. When it launches the round, the dome will perform a slow and continuous landscape scan following the path and the intelligent video detection engine will assist the operator to locate moving targets in unneutralized areas. [048] The features also relate to a panoramic image and hypertracking engine, as illustrated in Figure 15. The hypertracking engine is a site device for automating the tracking of a target by the same camera (autotracking) and cameras in cameras. On the diagram opposite, thermal domes, visible and fixed cameras contribute to the security of an urban area. An individual crossing the Boulevard Georges Pompidou from left to right will be followed initially by the thermal dome installed on the building of PTT, then by the dome (yellow) of the stadium, whose range of action is represented on the plan of the site by the yellow circle. If the individual crosses the rue de Bayeux to the Rond-point de la Maladrerie, it will be followed initially by the PTT thermal dome, then taken again by the thermal dome located at the extreme right of the plan.

Les rayons d'action des dômes sont indiqués au niveau du plan de masse lors de la phase de paramétrage, puis reportés dans les images panoramiques des différents dômes pour la mise en oeuvre opérationnelle de l'hypertracking. Ce report est automatisé par le configurateur du système. Le technicien effectuant les réglages sur le site va ensuite ajuster les rayons d'action sur l'image panoramique et ajouter les conventions de sens de franchissement. Le résultat final est ensuite transmis au moteur d'hypertracking qui le traduit en consignes. [049]L'invention comprend un mécanisme d'autotracking sur cible confirmée ou désignée par l'opérateur. Cette opération est essentielle : - pour le suivi automatique d'un intrus entre l'instant où il est détecté et confirmé par un dôme, et l'instant où un opérateur va prendre la mission de surveillance du site en direct ; pendant ces quelques secondes (voir dizaines de secondes), le site n'est pas sous contrôle opérateur. - faciliter le travail de l'opérateur en mission de surveillance et d'analyse ; depuis l'IHM, l'opérateur doit pouvoir engager et désengager l'hypertracking, désigner une nouvelle cible et réengager l'autotracking sur cette nouvelle cible. [050]Dans l'invention, un report dynamique de la position de la cible sur le plan du site est effectué. Comme illustré à la figure 16, on privilégie un positionnement grossier (précision 10 m) calculé à partir de la position de l'axe optique du dôme, éventuellement corrigée par les courbes de niveau du site lorsqu'il existe sur celui-ci des dénivelés importants. Ces courbes de niveau peuvent être une matrice de valeurs de niveau attachée à l'image panoramique. La cible est reportée sur le canal intervenant et sur le canal opérateur. [051]L'invention prévoit également, un pointage absolu d'une zone à visionner par un dôme, comme illustré en figure 17. The action radiuses of the domes are indicated at the level of the ground plane during the parameterization phase, then reported in the panoramic images of the different domes for the operational implementation of the hypertracking. This report is automated by the system configurator. The technician performing the adjustments on the site will then adjust the rays of action on the panoramic image and add the conventions of direction of crossing. The final result is then transmitted to the hypertracking engine which translates it into instructions. [049] The invention comprises a target autotracking mechanism confirmed or designated by the operator. This operation is essential: - for the automatic tracking of an intruder between the moment it is detected and confirmed by a dome, and the moment when an operator will take the mission of monitoring the site live; during these few seconds (see tens of seconds), the site is not under operator control. - facilitate the work of the operator on a monitoring and analysis mission; from the HMI, the operator must be able to engage and disengage the hypertracking, designate a new target and recommit autotracking on this new target. [050] In the invention, a dynamic report of the position of the target on the site plan is performed. As shown in Figure 16, we prefer a coarse positioning (10 m accuracy) calculated from the position of the optical axis of the dome, possibly corrected by contour of the site when there are on it unevennesses important. These contour lines can be a matrix of level values attached to the panoramic image. The target is carried over to the intervening channel and the operator channel. [051] The invention also provides an absolute pointing of an area to be viewed by a dome, as illustrated in FIG. 17.

L'opérateur doit pouvoir indiquer sur l'image panoramique, une zone à visionner en direct par un dôme. II entoure la zone d'intérêt avec la souris (rectangle) et l'IHM commande le positionnement de l'axe optique du dôme sur le centre de la zone désignée, calcule le niveau de zoom (proportion virtuel/réel) et augmente l'image du dôme de l'image panoramique calculée. [052]Comme illustré à la figure 18, l'architecture du système selon l'invention comprend les éléments suivants : - Les capteurs terrains : • détectent les intrusions ; • remontent les informations par réseau radio mesh à une gateway reliée en IP à un serveur. - Sur le serveur, une interface logicielle (mesh SDK) : • fait l'acquisition des alarmes (type, localisation) ; • les transmet au moteur d'hypertracking. - Le moteur d'hypertracking : commande au dôme le plus proche de focaliser sur la cible et de l'accrocher ; • forme un clip vidéo et le transmet au centre de télévidéosurveillance pour qualification transmet au moteur de réalité augmentée le flux vidéo du dôme en direct ; • suit la cible de caméra en caméra et transmet flux vidéo au moteur de réalité augmentée. - Le moteur de réalité augmentée : • fusionne la vidéo temps réel avec l'image panoramique recalculée ; • reporte la cible sur le plan du site ; • présente les informations fusionnées sur le poste analyseur du centre de télévidéosurveillance. - Le module de réalité augmentée est composé : • d'un module serveur installé sur un serveur du site distant ; • d'un ou plusieurs modules clients, installés sur les postes des opérateurs analyseurs. - Le module client : • calcule l'image panoramique ; • affiche le contenu fusionné ; • remonte les contrôles opérateur (souris, clavier) au module serveur. - Le module serveur : récupère les flux vidéo via le moteur d'hypertracking et fusionne les données ; • pilote les dômes pour l'acquisition des images panoramiques, via le moteur d'hypertracking ; • remonte au moteur d'hypertracking les contrôles de l'opérateur. [053]Le moteur d'hypertracking commute une source vidéo à la fois vers le moteur de réalité augmentée. La source vidéo composée de la succession des sources vidéo pertinentes pour le suivi d'une cible est appelée le canal alarme . [054]Pour passer d'une caméra à une autre, le principe est le suivant : • la caméra 1 suit la cible ; • un événement déclencheur (franchissement d'une limite, par exemple) prépositionne une ou plusieurs caméras vers la cible ; • une ou plusieurs caméras accrochent la cible et fournissent une image JPEG de l'accrochage ; • le moteur d'hypertracking choisit une caméra selon une liste de critères ; • II suit la cible également avec la caméra choisie ; • il commute la caméra choisie dans le canal alarme lorsque la caméra 1 perd la cible. [055]Les caméras qui n'ont pas été sélectionnées pour suivre la cible constituent les canaux candidats . [056]A la figure 19, les caméras participant au suivi de la cible sont symbolisées par les bandes grises A (candidates), jaunes B (canal alarme) ou noire C (cible perdue). A chaque bande horizontale correspond une caméra différente. L'événement déclencheur est symbolisé par le trait rouge D. L'accrochage d'une caméra est matérialisé par la photo JPEG de l'événement. The operator must be able to indicate on the panoramic image, an area to be viewed live by a dome. It surrounds the area of interest with the mouse (rectangle) and the HMI controls the positioning of the optical axis of the dome on the center of the designated area, calculates the zoom level (virtual / real proportion) and increases the Dome image of the calculated panoramic image. [052] As illustrated in FIG. 18, the architecture of the system according to the invention comprises the following elements: the ground sensors: • detect the intrusions; • trace the information over a mesh radio network to a gateway connected in IP to a server. - On the server, a software interface (mesh SDK): • Acquires alarms (type, location); • transmits them to the hypertracking engine. - The hypertracking engine: command to the dome closest to focus on the target and to hang it; • forms a video clip and transmits it to the televideo monitoring center for qualification transmits to the augmented reality engine the video flow of the live dome; • Follows camera to camera and transmits video stream to augmented reality engine. - The augmented reality engine: • merges the real-time video with the recalculated panoramic image; • postpones the target on the site plan; • presents the merged information on the analyzer station of the remote surveillance center. The augmented reality module is composed of: a server module installed on a server of the remote site; • one or more client modules, installed on the stations of the analyzers operators. - The client module: • calculates the panoramic image; • display the merged content; • Raises the operator controls (mouse, keyboard) to the server module. - The server module: retrieves video streams via the hypertracking engine and merges the data; • pilot the domes for the acquisition of panoramic images, via the hypertracking engine; • goes back to the hypertracking engine the controls of the operator. [053] The hypertracking engine switches one video source at a time to the augmented reality engine. The video source composed of the succession of video sources relevant for tracking a target is called the alarm channel. [054] To switch from one camera to another, the principle is as follows: • Camera 1 follows the target; • a triggering event (crossing a boundary, for example) prepositioning one or more cameras to the target; • One or more cameras hang on the target and provide a JPEG image of the snapping; • the hypertracking engine chooses a camera according to a list of criteria; • He also follows the target with the chosen camera; • It switches the selected camera in the alarm channel when the camera 1 loses the target. [055] Cameras that have not been selected to track the target are the candidate channels. [056] In FIG. 19, the cameras participating in tracking the target are symbolized by the gray bands A (candidates), yellow B (alarm channel) or black C (lost target). Each horizontal band corresponds to a different camera. The triggering event is symbolized by the red line D. The snapping of a camera is materialized by the JPEG photo of the event.

Cette fenêtre est donc une présentation de métadonnées fournies par le moteur d'hypertracking. Elle constitue un élément de la stratégie d'hypertracking : elle est présentée par le moteur de réalité augmentée à la demande de l'opérateur analyseur, lorsque celui-ci constate ou suspecte une erreur dans les choix effectués par le moteur d'hypertracking (suivi d'une mauvaise cible). This window is therefore a presentation of metadata provided by the hypertracking engine. It constitutes an element of the hypertracking strategy: it is presented by the augmented reality engine at the request of the analyzer operator, when the latter finds or suspects an error in the choices made by the hypertracking engine (tracking a bad target).

En cliquant sur une vignette, l'opérateur peut visionner l'image dans son format natif. En cliquant sur un canal candidat, l'opérateur peut relire l'enregistrement vidéo correspondant ou commuter la source vidéo en direct dans le moteur de réalité augmenté. [057]Comme illustré à la figure 20, la position de la cible est reportée sur le canal de géolocalisation opérateur. Il est intéressant d'y reporter également les caméras accrochant la cible. By clicking on a thumbnail, the operator can view the image in its native format. By clicking on a candidate channel, the operator can replay the corresponding video record or switch the live video source into the augmented reality engine. [057] As illustrated in FIG. 20, the position of the target is plotted on the operator geolocation channel. It is interesting to also refer to the cameras hanging on the target.

Un clic droit sur une de ses caméras doit permettre de prévisualiser la caméra (image JPEG, par exemple) sans modifier le canal alarme. Un clic gauche confirmé doit permettre le basculer la ressource candidate dans le canal alarme. [058]Le système selon l'invention comprend des moyens de connexion et de communication adaptés aux flux entre le module client et le module serveur de la réalité augmentée. [059]L'objectif du module de réalité augmentée est de fournir toute l'information utile à l'opérateur pour son analyse de l'évolution de la menace et le pilotage des équipes d'intervention. Les flux d'informations doivent être optimisés car la bande passante disponible sur le réseau VPN d'interconnexion sera inférieure à 1 Mbps et, le plus souvent, de l'ordre de 500 kbps, voire 256 kbps. [060]Le moteur d'hypertracking contribue à économiser la bande passante en choisissant, pour l'opérateur, la caméra la mieux positionnée pour suivre la cible. [061]Quelques données de poids d'images et de bitrate vidéo : • Une image JPEG en 4CIF pèse environ 32 Ko en N&B et 50 Ko en couleur • Une vignette JPEG en QCIF pèse environ 8 Ko en N&B et 12 Ko en couleur • Un flux MPEG4 en CIF à 6 images/s occupe une bande passante de 128 kbps (caméra thermique). • Un flux MPEG4 en 2CIF à 6 images/s occupe une bande passante de 256 kbps. • Un flux MPEG4 en 4CIF à 6 images/s occupe une bande passante de 512 kbps. A right click on one of its cameras must allow to preview the camera (JPEG image, for example) without modifying the alarm channel. A confirmed left click must allow the candidate resource to be switched in the alarm channel. [058] The system according to the invention comprises connection and communication means adapted to the flows between the client module and the augmented reality server module. [059] The objective of the augmented reality module is to provide all the useful information to the operator for his analysis of the evolution of the threat and the steering of the intervention teams. The information flows must be optimized because the bandwidth available on the interconnection VPN network will be less than 1 Mbps and, most often, of the order of 500 kbps or 256 kbps. [060] The hypertracking engine helps to save bandwidth by choosing, for the operator, the camera best positioned to follow the target. [061] Some image weight and video bitrate data: • A 4CIF JPEG image weighs about 32 KB in B & W and 50 KB in color • A JPEG image in QCIF is about 8 KB in B & W and 12 KB in color • An MPEG4 stream in CIF at 6 frames / s occupies a bandwidth of 128 kbps (thermal camera). • An MPEG4 stream in 2CIF at 6 frames / s occupies a bandwidth of 256 kbps. • An MPEG4 stream at 4CIF at 6 frames / s occupies a bandwidth of 512 kbps.

En H264, les besoins en bande passante sont les mêmes, la qualité étant sensiblement meilleure qu'en MPEG4 notamment sur les scènes peu éclairées [062]Le moteur de réalité augmentée va augmenter le flux vidéo centré sur la cible avec les flux suivants, qui sont des flux discrets : • image panoramique : pour chaque dôme, elle est téléchargée une seule fois par le module client, la première fois que le dôme est commuté dans le canal alarme ; sur les sites à faible upload, l'image panoramique de référence doit être rééchantillonnée sur une résolution plus basse pour accélérer le transfert vers le module client de réalité augmentée ; • canal de géolocalisation : l'image JPEG du plan du site est téléchargée également une seule fois lors de la lère connexion sur le site. La position de la cible et la mise en évidence des ressources disponibles est une information discrète qui ne prend pas de bande passante. La mise à jour peut intervenir toutes les secondes ; • fenêtre des canaux candidats : cette fenêtre contient des informations sur les choix effectués par le moteur d'hypertracking. In H264, the bandwidth requirements are the same, the quality being significantly better than in MPEG4 especially on the dimly lit scenes. [062] The augmented reality engine will increase the video flow centered on the target with the following streams, which are discrete streams: • panoramic image: for each dome, it is downloaded once by the client module, the first time the dome is switched in the alarm channel; on sites with low uploads, the reference panoramic image must be resampled to a lower resolution to accelerate the transfer to the augmented reality client module; • geolocation channel: the JPEG image of the site map is also downloaded once during the first connection to the site. The position of the target and the highlighting of available resources is discrete information that does not take up bandwidth. The update can take place every second; • candidate channel window: this window contains information about the choices made by the hypertracking engine.

Sa composition nécessite : • la réception de données discrètes ne consommant pas de bande passante et pouvant être transmis toutes les secondes dans une trame structurée (XML) ; • la réception des vignettes d'accrochage d'un dôme ou d'une caméra (thumbnails JPEG de 8 Ko, 1s pour remonter avec 64 kbps de bande passante réservé) ; • prévisualisation en résolution native de l'image JPEG d'accrochage : une image de 32 Ko met 4s pour remonter avec 64 kbps de bande passante réservée au canal de prévisualisation ; • prévisualisation d'un canal candidat en résolution native : elle est constituée de la remontée d'une image JPEG de la caméra concernée à la demande de l'opérateur. [063]Tableau relatif au flux entre le module client et le module serveur de la réalité augmenté : Bande passante 1Mbps* 512 kbps 256 kbps canal alarme 512* 256* 128* Prévisualisation 256 128 64 Géolocalisation 256 128 64 +canaux candidats *CIF ou *4CIF *2CIF 320x240 [064]Le mécanisme de traitement mise en oeuvre par l'invention offre une 5 puissance de calcul adaptée au système. [065]Puissance du serveur : Sur le serveur, le module serveur de réalité augmentée va cohabiter avec le module d'hypertracking et le module de détection vidéo intelligente. Le module de détection vidéo intelligente consomme de la ressource machine : 10 actuellement un maximum de 8 sources vidéo peuvent être analysées simultanément sur un serveur quadcore. Le module d'hypertracking va consommer un peu de ressource pour l'autotracking, quasiment rien pour le tracking de caméra en caméra. Le module serveur de réalité augmentée va consommer de la ressource lors des 15 phases d'assemblage et de calibrage des photos panoramiques. Les temps de calcul, fonction du nombre de photos à assembler, du nombre de dômes et de la fréquence de mapping, déterminera la puissance machine à réserver. Il n'est pas exclu qu'une machine doive être dédiée à la réalité augmentée. [066]Puissance du poste client : Le client doit réaliser la décompression MPEG4 20 ou H264 du canal alarme de l'image temps réel ou enregistrée. • 22 Le client doit également réaliser l'extraction de la vision panoramique centrée sur l'image temps réel (projection rectilinéaire) à partir de l'image panoramique en projection équirectangulaire. La puissance de calcul requise est fonction du degré de synchronisation souhaité. Its composition requires: • the reception of discrete data that does not consume bandwidth and can be transmitted every second in a structured frame (XML); • the receipt of thumbnails of a dome or a camera (thumbnails JPEG of 8 KB, 1s to go up with 64 kbps of reserved bandwidth); • native resolution preview of the snapping JPEG image: a 32 KB image puts 4s to go up with 64 kbps of bandwidth reserved for the preview channel; • preview of a candidate channel in native resolution: it consists of the uploading of a JPEG image of the camera concerned at the request of the operator. [063] Table relating to the flow between the client module and the augmented reality server module: Bandwidth 1Mbps * 512 kbps 256 kbps alarm channel 512 * 256 * 128 * Preview 256 128 64 Geolocation 256 128 64 + candidate channels * CIF or * 4CIF * 2CIF 320x240 [064] The processing mechanism implemented by the invention offers a calculation power adapted to the system. [065] Server Power: On the server, the augmented reality server module will coexist with the hypertracking module and the intelligent video detection module. The intelligent video detection module consumes machine resource: currently a maximum of 8 video sources can be analyzed simultaneously on a quadcore server. The hypertracking module will consume a little resource for autotracking, almost nothing for camera tracking camera. The augmented reality server module will consume resources during the 15 phases of assembly and calibration of the panoramic photos. The calculation times, depending on the number of photos to be assembled, the number of domes and the mapping frequency, will determine the machine power to reserve. It is not excluded that a machine must be dedicated to augmented reality. [066] Power of the client station: The client must perform the MPEG4 or H264 decompression of the alarm channel of the real-time or recorded image. • 22 The client must also perform the extraction of panoramic vision centered on the real-time image (rectilinear projection) from the panoramic image in equirectangular projection. The computing power required depends on the desired degree of synchronization.

A la différence des modèles de réalité augmentée où des objets 3D sont calculés et ajoutés dans l'image réelle 25 fois par seconde, la réalité augmentée de notre modèle de télévidéosurveillance ajoute principalement du contenu virtuel à l'extérieur de l'image réelle. L'attention de l'opérateur est soutenue au centre de sa vision (fovéa) sur l'image en direct. L'immersion dans l'image est simulée par la restitution d'une vision panoramique calculée et ajustée sur l'image en direct. Afin de s'affranchir visuellement d'un lien parfait entre l'image en direct et l'image panoramique, il faut visualiser l'image ou vue temps réel comme une fenêtre flottante au dessus de l'image panoramique, les deux fenêtres pouvant être synchrones ou non, selon ce que souhaite l'opérateur : • Fenêtres asynchrones : l'opérateur a besoin de se situer dans l'image panoramique tout en gardant un oeil sur la cible dans l'image en direct : il circule donc dans l'image panoramique, puis demande la resynchronisation du panoramique sur la fenêtre temps réel • Fenêtres synchrones : vision panoramique et vision temps réel sont parfaitement synchronisées. C'est le principe de la réalité augmentée. Des essais ergonomiques devront déterminer ce qui est acceptable comme délais de resynchronisation des 2 fenêtres. On peut garder la fenêtre flottante temps réel centrée au centre de l'IHM et recalculer l'image panoramique en conséquence. Il est également possible de prendre en compte le déplacement du dôme en déplaçant la fenêtre flottante sur l'image panoramique, ce qui évite de recalculer l'image panoramique. [067]L'invention met en oeuvre des outils panoramiques. A titre d'exemple, pour une image panoramique, assemblage des photos et viewer client, des outils tels que des programmes et librairies opensource de Panorama Tools, écrits à l'origine par le Professeur de Physique et de Mathématiques allemand Helmut Dersch, pourront être utilisés. Pour un exemple de rendu sur poste client : http://www.animatif.com/panos/viaduc_mil.htm. [068] Le calibrage des images panoramiques est nécessaire en raison de leur utilisation comme images de référence par le moteur d'analyse vidéo intelligente et comme déclencheur par le moteur d'hypertracking, comme illustré aux figures 22 et 23. Différents facteurs peuvent conduire à ce que 2 images panoramiques prises dans les mêmes conditions par le même dôme ne se superposent pas parfaitement : support du dôme déréglé, vent faisant fléchir le mât... Dans l'exemple ci-contre, la 2ème image est décalée de quelques degrés en Pan (x). Pour le calibrage, le calcul d'auto corrélation sur la totalité de l'image panoramique megapixel serait trop coûteux en temps de calcul. Il convient de trouver une méthode plus rapide, par exemple, en matchant 2 ou 3 blocs 16x16 pixels caractéristiques de l'image panoramique de référence, avec les mêmes zones de l'image panoramique brute ; la calibration revient à trouver les décalages en x et y (Dx et Dy) de la transformation à appliquer à l'image panoramique afin qu'elle se superpose à l'image de référence. [069]Un des avantages de l'invention est de permettre la géolocalisation sur plan du site. [070]Les dômes, illustrés à la figure 24, compatibles avec le concept de réalité augmentée doivent accepter une commande de positionnement absolu de leur axe optique pour leur contrôle, et une requête d'information sur les valeurs PTZ en cours, pour la synchronisation de l'image panoramique sur l'image en direct. Comme par exemple des dômes IP tels que des modèles de type Sony RX550. Pour de tel dôme, les commandes Sony CGI sont comprise dans le tableau suivant : °<pan pan position: "E020" to °1FEE` F) position>,R~tili Abso;utePanTilt posïtion>,~speed>' ptzf ptzf agi inptset "F808 "07F8" tilt position: to speed: to 24 avec set = positionne inq = récupère la position [O71]Les commandes et requêtes sont envoyées en HTTP au dôme Sony IP : - Positionner le dôme à l'adresse IP 192.168.1.1 en 0000,0000 à la vitesse maximale : http://192.168.1.1 /command/ptzf.chi?AbsolutePanTilt=0000,0000,24 Récupérer les valeurs PTZ courantes : http://192.168.1.1 /command/inquiry.cgi?parameter=ptzf [O72]L'invention offre l'avantage de permettre la transformation de l'image panoramique au plan et réciproquement. [O73]S'agissant l'image panoramique au plan, comme illustré à la figure 25 : - Xa, Ya : coordonnées absolues de la cible dans le référentiel commun du site (plan du site) ; - X1, Y1 : coordonnées absolues du dôme 1 ; R1 : rotation du repère du dôme 1 relative au référentiel commun ; - x1, yl : coordonnées relatives de la cible dans le repère du dôme 1 ; - x'1, y'1 : coordonnées relative de la cible dans le repère du dôme 1, après rotation R1 Xa = x'1 + X1 Ya=y'1 + Y1 p,t - aux figures 26 et 27- correspondent aux coordonnées Pan and Tilt absolues de l'axe optique, h à l'altitude absolue d'installation du dôme, n à Unlike Augmented Reality models where 3D objects are calculated and added to the actual image 25 times per second, the augmented reality of our televideo surveillance model adds mostly virtual content to the outside of the actual image. The attention of the operator is supported in the center of his vision (fovea) on the live image. The immersion in the image is simulated by the reproduction of a panoramic vision calculated and adjusted on the live image. In order to visually overcome a perfect link between the live image and the panoramic image, it is necessary to visualize the image or real-time view as a floating window above the panoramic image, the two windows being able to be synchronous or not, depending on what the operator wants: • Asynchronous windows: the operator needs to be in the panoramic image while keeping an eye on the target in the live image: it circulates in the panoramic image, then request the resynchronization of the panoramic on the real time window • Synchronous windows: panoramic vision and real-time vision are perfectly synchronized. This is the principle of augmented reality. Ergonomic tests will have to determine what is acceptable as resynchronization delays of the 2 windows. We can keep the real-time floating window centered in the center of the HMI and recalculate the panoramic image accordingly. It is also possible to take into account the displacement of the dome by moving the floating window on the panoramic image, which avoids to recalculate the panoramic image. [067] The invention uses panoramic tools. As an example, for a panoramic image, photo collation and client viewer, tools such as Panorama Tools' open source programs and libraries, originally written by German Physics and Mathematics Professor Helmut Dersch, can be used. For an example of rendering on client workstation: http://www.animatif.com/panos/viaduc_mil.htm. [068] The calibration of panoramic images is necessary because of their use as reference images by the intelligent video analysis engine and as a trigger by the hypertracking engine, as illustrated in Figures 22 and 23. Various factors may lead to what 2 panoramic images taken under the same conditions by the same dome are not superimposed perfectly: support dome unregulated, wind bending the mast ... In the example opposite, the 2nd image is shifted a few degrees in Pan (x). For calibration, the autocorrelation calculation over the entire megapixel panoramic image would be too expensive in computing time. A faster method should be found, for example, by matching 2 or 3 16x16 pixel blocks characteristic of the reference panoramic image, with the same areas of the raw panoramic image; the calibration amounts to finding the shifts in x and y (Dx and Dy) of the transformation to be applied to the panoramic image so that it is superimposed on the reference image. [069] One of the advantages of the invention is to allow location geolocation of the site. [070] The domes, illustrated in FIG. 24, compatible with the concept of augmented reality must accept an absolute positioning control of their optical axis for their control, and an information request on the current PTZ values, for the synchronization. of the panoramic image on the live image. Like for example IP domes such as Sony RX550 type models. For such a dome, the Sony CGI commands are included in the following table: ° <pan pan position: "E020" to "1FEE" F) position>, R ~ tili Abso; utePanTilt position>, ~ speed> 'ptzf ptzf acted inptset "F808" 07F8 "tilt position: to speed: to 24 with set = position inq = retrieve position [O71] Commands and queries are sent in HTTP to the Sony IP dome: - Set the dome to IP address 192.168. 1.1 at 0000.0000 at the maximum speed: http://192.168.1.1/command/ptzf.chi?AbsolutePanTilt=0000,0000,24 Retrieve the current PTZ values: http://192.168.1.1/command/inquiry.cgi ? parameter = ptzf [O72] The invention offers the advantage of allowing the transformation of the panoramic image to the plane and vice versa. [O73] With regard to the panoramic image on the plane, as illustrated in FIG. 25: - Xa , Ya: absolute coordinates of the target in the common reference frame of the site (site plan) - X1, Y1: absolute coordinates of dome 1; R1: rotation of dome 1 reference relativity to the common reference system; - x1, yl: relative coordinates of the target in the reference of the dome 1; - x'1, y'1: relative coordinates of the target in the reference of the dome 1, after rotation R1 Xa = x'1 + X1 Ya = y'1 + Y1 p, t - in Figures 26 and 27- correspond to Absolute Pan and Tilt coordinates of the optical axis, h to the absolute dome installation altitude, n to

l'altitude absolue au point d'intersection de l'axe optique avec le sol, et d à la distance de la cible au pied du dôme. the absolute altitude at the point of intersection of the optical axis with the ground, and d at the distance of the target at the foot of the dome.

R1 correspond à la rotation du repère du dôme par rapport au référentiel absolu. • d = (h-n) tan(rr/2-t) R1 corresponds to the rotation of the reference of the dome with respect to the absolute reference. • d = (h-n) tan (rr / 2-t)

• xl = d cos(p) • xl = d cos (p)

• yl = d sin(p) • yl = d sin (p)

• x'1 = d cos(p+R1) X'1 = d cos (p + R1)

• y'1 = d sin(p+R1) Xa = (h-n) tan(rr/2-t) cos(p+R1) + X1 • y'1 = d sin (p + R1) Xa = (h-n) tan (rr / 2-t) cos (p + R1) + X1

Ya = (h-n) tan(rr/2-t) sin(p+R1) + Y1 Ya = (h-n) tan (rr / 2-t) sin (p + R1) + Y1

[074]Concernant, le plan à l'image panoramique [074] Regarding, the plan to the panoramic image

• x'1 =XaùX1 • x'1 = XaùX1

• y'1 =Ya ù Y1 • d = racine(x'l 2+y' l 2) Y'1 = Ya where Y1 • d = root (x'l 2 + y 'l 2)

• p + R1 = Acos (x'1/d) • p + R1 = Acos (x'1 / d)

• rr/2-t = Atan [d/(h-n)] • rr / 2-t = Atan [d / (h-n)]

p = ùR1 + Acos [x'1 / racine((Xa-X1)2+(Ya-Y1)2)] p = ùR1 + Acos [x'1 / root ((Xa-X1) 2+ (Ya-Y1) 2)]

t = rr/2 ù Atan [racine((Xa-X1)2+(Ya-Y1)2)/(h-n)] [075]A la figure 28, est illustré le mécanisme permettant d'obtenir une précision au voisinage de l'horizon. t = rr / 2 where Atan [root ((Xa-X1) 2+ (Ya-Y1) 2) / (hn)] [075] In Figure 28 is illustrated the mechanism for obtaining a precision in the vicinity of the horizon.

La distance de la cible en fonction de la hauteur relative dôme/cible (h-n) et de la valeur de l'inclinaison par rapport à l'horizon en radian (t) est donnée par : • d = (h-n) tan(rr/2-t) La mesure de la distance en fonction de la mesure d'inclinaison de l'axe optique est obtenue selon le processus ci-dessous. La dérivée de la distance d par rapport à l'inclinaison t est : • var(d)/var(t) = -(h-n)/cos2(rr/2-t) Au voisinage de l'horizon (t=0), la dérivée de la distance d par rapport à l'inclinaison t tend vers l'infini : le calcul de la distance subit donc de fortes variations en fonction de l'erreur commise sur la mesure de l'inclinaison de l'axe optique var(t). The distance of the target as a function of the relative height dome / target (hn) and the value of the inclination with respect to the horizon in radian (t) is given by: • d = (hn) tan (rr / 2-t) The measurement of the distance as a function of the tilt measurement of the optical axis is obtained according to the process below. The derivative of the distance d with respect to the inclination t is: • var (d) / var (t) = - (hn) / cos2 (rr / 2-t) Near the horizon (t = 0) , the derivative of the distance d with respect to the inclination t tends to infinity: the calculation of the distance undergoes strong variations according to the error made on the measurement of the inclination of the optical axis var (t).

Cette valeur est réglée par l'autotracking qui va positionner l'axe optique au pied de la cible. Ce réglage ne peut être plus précis qu'un pixel de l'image. Les tableaux ci-dessous montrent qu'au-dessous de 2 degré, l'erreur est supérieure à la hauteur relative du dôme/cible. dôme thermique (50mm) ouverture verticale (degré) 10 résolution verticale (pixel) 240 var(t) pour 1 pixel (radian) 0.0007 hauteur relative dôme/cible (m) 10 t en degré 1 2 3 4 5 var(d) pour 1 pixel I 23.9 6.0_ 2.7 1.5 1.0 dôme visible (Sony RX550 zoom arrière) ouverture verticale (degré) 40.65 résolution verticale (pixel) 480 var(t) pour 1 pixel (radian) 0.0015 hauteur relative dôme/cible (m) 10 t en degré 1 2 3 4 5 var(d) pour 1 pixel 48.5 12.1 5.4 3.0 1.9 Tableaux dôme thermique et dôme visible La mesure de distance en fonction de la mesure de la hauteur relative cible/dôme est obtenue selon le processus ci-dessous. 26 20 This value is set by autotracking which will position the optical axis at the foot of the target. This setting can not be more accurate than a pixel in the image. The tables below show that below 2 degrees, the error is greater than the relative height of the dome / target. thermal dome (50mm) vertical aperture (degree) 10 vertical resolution (pixel) 240 var (t) for 1 pixel (radian) 0.0007 relative height dome / target (m) 10 t in degree 1 2 3 4 5 var (d) for 1 pixel I 23.9 6.0_ 2.7 1.5 1.0 visible dome (Sony RX550 zoom out) vertical aperture (degree) 40.65 vertical resolution (pixel) 480 var (t) for 1 pixel (radian) 0.0015 relative height dome / target (m) 10 t in degree 1 2 3 4 5 var (d) for 1 pixel 48.5 12.1 5.4 3.0 1.9 Thermal dome and visible dome boards The distance measurement according to the measurement of the target relative height / dome is obtained according to the process below. 26 20

La dérivée de la distance d par rapport à l'altitude relative de la cible n est : The derivative of the distance d relative to the relative altitude of the target n is:

• var(d)/var(h-n) = tan (rr/2-t) • var (d) / var (h-n) = tan (rr / 2-t)

Au voisinage de l'horizon (t=0), la dérivée de la distance d par rapport à la hauteur relative dôme/cible (h-n) tend vers l'infini : le calcul de la distance subit donc de fortes variations en fonction de l'erreur commise sur la mesure de la hauteur relative de la cible var(h-n). Cette valeur est réglée par la valeur de quantization des courbes de niveau (précision à 1 m, 2m ou 5m). In the vicinity of the horizon (t = 0), the derivative of the distance d relative to the relative height dome / target (hn) tends to infinity: the calculation of the distance undergoes strong variations according to the error on measuring the relative height of the target var (hn). This value is set by the quantization value of the contour lines (accuracy at 1m, 2m or 5m).

[076] t en degré 1 2 3 4 5 10 15 20 25 var(d) pour 1 m 57 29 19 14 11 6 4 3 2 var(d) pour 2 m 115 57 38 29 23 11 7 5 4 var(d) pour5 m 286 143 95 72 57 28 19_ 14_ 11 Tableau relatif à la géolocalisation [077]Le tableau ci-dessus donne la précision de la géolocalisation et fonction de la précision de la mesure le la hauteur relative. 15 • Pour une précision de lm sur la mesure de la hauteur relative dôme/cible, au-dessous de 5°, l'erreur sur la distance est supérieure à 10m. • Pour une précision de 2m sur la hauteur relative dôme/cible, l'erreur est supérieure à 10m au-dessous de 10°. • Pour une précision de 5m sur la hauteur relative dôme/cible, l'erreur est 20 supérieure à 10m au-dessous de 25°. [078]On peut donc reporter sur la projection panoramique équirectangulaire d'un dôme, plusieurs bandes centrées sur l'horizon (t=0). • Bande +/- 2° : à l'intérieur de cette bande, le calcul de la distance donne une erreur trop importante. La position de la cible est gelée sur le plan10 jusqu'à la prochaine mesure acceptable donnée par le même dôme ou, éventuellement, par un autre dôme. [079]Comme représenté, à la figure 29, pour les sites accusant des dénivelés, ceux-ci doivent être reportés sur la matrice associée au panoramique pour le calcul de la distance de la cible. • Bande +1- 5° : à l'intérieur de cette bande, la hauteur relative dôme/cible doit est reportée avec une précision de lm, pour une erreur sur la distance inférieure à 10m ; • Bande +1- 10° : à l'intérieur de cette bande, la hauteur relative dôme/cible peut être reportée avec une précision de 2m, pour une erreur sur la distance inférieure à 10m ; • Bande +1- 25° : à l'intérieur de cette bande, la hauteur relative dôme/cible peut être reportée avec une précision de 5m, pour une erreur sur la distance inférieure à 10m. [076] t in degree 1 2 3 4 5 10 15 20 25 var (d) for 1 m 57 29 19 14 11 6 4 3 2 var (d) for 2 m 115 57 38 29 23 11 7 5 4 var (d) ) for5 m 286 143 95 72 57 28 19_ 14_ 11 Table relating to geolocation [077] The table above gives the accuracy of the geolocation and depends on the accuracy of the measurement and the relative height. • For an accuracy of 1m on dome / target relative height measurement, below 5 °, the distance error is greater than 10m. • For an accuracy of 2m on dome / target relative height, the error is greater than 10m below 10 °. • For a 5m accuracy on dome / target relative height, the error is greater than 10m below 25 °. [078] We can therefore refer to the equirectangular panoramic projection of a dome, several bands centered on the horizon (t = 0). • Band +/- 2 °: within this band, the calculation of the distance gives a too important error. The position of the target is frozen on the plane until the next acceptable measurement given by the same dome or possibly by another dome. [079] As shown in Figure 29, for sites with elevations, these must be reported on the matrix associated with the pan for calculating the distance of the target. • Band + 1- 5 °: within this band, the dome / target relative height must be reported with an accuracy of 1m, for an error on the distance less than 10m; • Band + 1- 10 °: within this band, the dome / target relative height can be reported with an accuracy of 2m, for an error over the distance less than 10m; • Band + 1- 25 °: within this band, the relative height dome / target can be reported with an accuracy of 5m, for an error on the distance less than 10m.

Avantageusement l'invention permet de mettre fin au gardiennage 24/24 pour les sites sensibles, car il répond aux besoins de télévidéosurveillance de sites sensibles pendant les périodes d'activité réduite : • sites sensibles et d'importance vitale comme des complexes industriels, les aéroports, les ports, les gares ferroviaires, les sites de production, de stockage ou de distribution de l'énergie, les infrastructures hospitalières... ; • espaces ouverts et complexes comme une rue passante, un espace public, un centre commercial, un hall d'aéroport, une entrée de port, un lieu d'interconnexion de différents modes de transport... ; [080]L'IHM doit être la vitrine d'une nouvelle technologie destinée à faire évoluer les idées que les concepteurs de systèmes de sécurité, les responsables sûreté et les exploitants de centres de contrôle à distance se font de la télévidéosurveillance, notamment la quasi impossibilité de vidéosurveiller efficacement des sites sensibles au travers de réseaux bas débits. [081]L'invention permet de d'assurer des missions opérationnelles de suivi d'intrusions et de pilotage des intervenants jusqu'à l'élimination des menaces aux travers d'étapes de réception, qualification, traitement des alarmes. [082]En liaison avec l'invention, de nouvelles méthodes de travail vont redéfinir les limites de responsabilité et niveaux de qualification des opérateurs : on entrevoit ainsi facilement l'émergence de deux types d'opérateurs au sein d'une même station : ceux en charge de la qualification des alarmes et ceux en charge de l'analyse et du suivi des sites menacés. [083]Dans l'invention, l'hypertracking en télévidéosurveillance consiste à suivre une cible humaine ou non humaine (véhicule) circulant à l'intérieur d'un espace sécurisé par des caméras de vidéosurveillance. Les caméras peuvent être indifféremment : - des caméras au standard PAL fonctionnant dans le spectre visible et donnant des images en couleur ou noir et blanc (caméras visibles jour/nuit) ; - des caméras Megapixels visibles jour/nuit. - des dômes visibles jour/nuit ; - des caméras thermiques. [084]Dans le cas d'un dôme thermique ou visible, l'hypertracking peut fonctionner 20 conjointement avec : - de l'autotracking, opération consistant à piloter automatiquement le dôme afin de maintenir une cible dans son champ de vision ; - du tracking manuel, opération identique, mais réalisée par un opérateur ; 25 - d'autotracking par PTZ virtuel, opération consistant à extraire d'une vidéo issue d'une caméra Megapixel, une vidéo centrée sur la cible en résolution plus basse. [085]Nous nous intéresserons plus particulièrement à l'hypertracking d'une cible unique, circulant dans un espace et à des horaires où il subsiste une activité humaine peu dense, c'est-à-dire un petit nombre de personnes ou de véhicules autorisés à circuler et qui ne doivent pas faire l'objet d'autotracking, d'hypertracking ou d'autotracking par PTZ virtuel. La cible a été auparavant choisie automatiquement par le système ou désignée par un opérateur. D'une manière générale, les champs de vision des dômes et caméras peuvent se chevaucher ou être disjoints : une cible en mouvement peut donc, à un moment donné, être autotrackée par zéro, une ou plusieurs caméras. Nous nous intéresserons plus particulièrement à l'hypertracking de sites très étendus avec une faible densité de dômes et de caméras fixes. La figure 30 représente un site étendu, avec une zone d'activité centrale. L'intrusion y est détectée en périmétrie par un réseau de détecteurs thermiques. [086]L'intrus est détecté au franchissement du périmètre par un détecteur thermique et confirmé par le vidéosensor d'un dôme thermique : il devient la cible. [087]Celle-ci est autotrackée par le dôme thermique jusqu'en périphérie de la zone d'activité. Le relais est pris ensuite successivement par des dômes visibles, puis par des caméras fixes. [088]Les caméras doivent ignorer les personnes et véhicules déjà présents sur le site avant l'intrusion. [089]Le canal alarme est une source vidéo unique constituée par l'enchaînement de plusieurs sources vidéo poursuivant la même cible. Lorsqu'il y a recouvrement du champ des caméras, le canal d'alarme peut être synthétisé à partir de différentes caméras pour une même cible traquée. Le canal d'alarme idéal est celui qui optimise certains critères, par exemple : - taille de la cible maximale dans l'image ; - caméra visible plutôt que thermique, le jour, l'inverse, la nuit ; - caméra couleur plutôt que noir et blanc, le jour, l'inverse, la nuit ; - caméra Megapixel plutôt que caméra standard, le jour, l'inverse, la nuit ; - dôme plutôt que caméra fixe ; - minimiser le nombre de changement de caméra dans le canal ; Lorsqu'il n'y pas recouvrement du champ des caméras, la cible peut être hors champ de vision pendant des périodes plus ou moins longues. Les dômes peuvent, par exemple, balayer lentement une zone pour retrouver la cible. L'hypertracking est alors souvent une opération probabiliste, c'est-à-dire que dans un espace temps donné, plusieurs caméras peuvent se porter candidates pour la reprise du suivi d'une cible sortie du champ des caméras, sans garantie que ce soit la bonne cible. Le moteur d'hypertracking opérera un choix afin de synthétiser le canal alarme, ce choix pouvant se révéler erroné (reprise sur une mauvaise cible) ou non pertinent (choix d'une ressource vidéo se révélant moins bien placée qu'une autre au regard de la trajectoire suivie par la cible). [090]L'arborescence des choix multiples qu'aurait pu réaliser le moteur d'hypertracking constitue l'ensemble des canaux candidats . [091]La télévidéosurveillance consiste à exploiter les ressources vidéo d'un site à distance après réception d'une ou de plusieurs alarmes au centre de télévidéosurveillance. Elle se déroule en trois phases : 1. vérification du bien-fondé des alarmes (levée de doute) et élimination des fausses alarmes ; 2. évaluation de la nature et de l'évolution de la menace ; 3. information et pilotage des équipes d'intervention terrain. [092]La phase 1 est idéalement traitée par l'envoi d'une séquence vidéo de l'événement déclencheur au centre de télésurveillance puis par l'analyse de celle- ci par l'opérateur. Cette l ère opération est indispensable, mais elle diffère d'autant la phase 2, consistant à observer les caméras du site en direct. Typiquement, cette phase peut être différée de plusieurs secondes à plusieurs minutes. [093]Ceci pose deux problèmes fondamentaux : Comment retrouver l'intrus et qu'a fait l'intrus depuis son intrusion ? [094]Comme illustré en figure 31, en absence de tout automatisme d'hypertracking, l'opérateur à en charge la localisation la cible sur les différentes ressources vidéo disponibles sur le site. Le nombre de caméras potentiellement concernées sur un site croit rapidement avec le temps décompté depuis l'intrusion. Or, l'opérateur est le plus souvent contraint par la bande passante du lien d'interconnexion avec le site ne lui donnant la possibilité de monter qu'un nombre limité de caméras simultanées. [095]Le comportement de l'intrus entre l'intrusion sur le site et son suivi en direct par un opérateur, n'est disponible qu'en consultant les enregistrements des ressources vidéo du site. On conçoit aisément l'intérêt de l'hypertracking et du canal alarme, puisqu'en théorie, l'observation en direct au canal alarme évite à l'opérateur de rechercher l'intrus sur plusieurs caméras. De plus, la lecture de l'enregistrement du canal alarme lui permet de combler son défaut de surveillance entre l'intrusion et le suivi de la cible en direct, comme représenté en figure 32. [096]L'Hypertracking est actuellement un sujet mobilisant beaucoup de 20 ressources en recherche et développement, comme en témoigne le document US7450735. [097]La variété des types et qualité des ressources vidéo (visible, thermique, couleur, noir et blanc, caméras calibrées, non calibrées) rend extrêmement complexe à automatiser ce qui nécessiterait déjà un entraînement à un agent de 25 surveillance connaissant parfaitement le site, la localisation des ressources vidéo disponibles, les usages en cours sur le site, ainsi que les différents modes opératoires des précédentes intrusions. [098]En particulier, en traitement vidéo intelligent, la reconnaissance d'une cible (signature) parmi plusieurs est souvent restreinte à l'intérieur du champ d'une même caméra, avec des temps d'occultation de la cible relativement faibles. La transmission d'une signature entre deux caméras est aujourd'hui du domaine de la recherche et semble être limitée à des caméras dont les champs se chevauchent. [099]Lorsque les champs des caméras ne se chevauchent pas, la piste la plus simple pour suivre plusieurs cibles de caméras en caméras consiste à définir un référentiel commun à toutes les caméras, de reporter la position des cibles sur ce référentiel et de faire des hypothèses sur la base d'optimisation probabiliste des trajets. [0100]Dans tous les cas, les méthodes proposées peuvent être relativement coûteuses en temps de calcul (analyse d'images, réseaux de neurones ou Bayésiens) de sorte que la plus-value de l'hypertracking en terme de télévidéosurveillance peut se trouver neutralisée par les coûts matériels et logiciels à mettre en oeuvre pour le réaliser. L'approche de l'invention est une approche en terme de résultat à atteindre, faisant intervenir la ressource humaine (l'opérateur) dans un processus semi automatisé de force raisonnable . Par force raisonnable on entend : - peu coûteux en ressources matérielles et logicielles ; - facile à paramétrer par les techniciens réalisant l'installation ; - susceptible de se tromper, mais donnant la possibilité à l'opérateur de rattraper les erreurs ; - facile et rapide à utiliser par un opérateur ; - permettant d'arriver au résultat escompté : localisation de la cible et vision de sa trajectoire dans un délai compatible avec l'arrivée de l'intervention ; - compatible avec les logiciels de vidéosurveillance IP du marché. [0101]A la puissance algorithmique, l'invention propose de substituer une approche pragmatique basée sur : - et les étapes de conception professionnelles APSAD (R31 pour la télésurveillance, R81 pour l'installation d'alarme, R82 pour l'installation de vidéosurveillance - une approche susceptible d'entrer dans le cadre du projet de norme Afnor d'interopérabilité. [0102]Les techniques de détection extérieures (détecteurs passifs ou actifs) se révèlent sources de nombreuses fausses alarmes ou à contrario, lorsque les seuils de détections sont trop durcis, de mauvais détecteurs d'intrusion. Les technologies hyperfréquences par effet Doppler ont été quasiment bannies pour leur incapacité à maîtriser le rayon d'action des détecteurs, conduisant parfois à des détections justifiées, mais pour des cibles en dehors des limites surveillées. Les barrières infrarouges actives déclenchent intempestivement lorsque la végétation coupe les faisceaux, ou ne déclenchent pas lorsqu'on franchit très rapidement les faisceaux. Les capteurs IR extérieurs sont très sensibles aux animaux passant dans les premiers mètres de leur champ de détection. [0103]Les détecteurs double technologie sont peu efficaces lorsque les mouvements leur sont parfaitement tangentiels (seul l'infrarouge déclenche) ou radiants (seul l'hyperfréquence déclenche). [0104]Les technologies de vidéosensor ont été écartées ces dernières années en raison du taux important de fausses alarmes. Elles ont tendances à revenir d'actualité, sous l'appellation de vidéosurveillance intelligente avec l'émergences d'algorithmes plus robustes et aussi en association avec des caméras thermiques. Toutefois, les différents opérateurs rencontrés sur ce marché ne garantissent pas un taux de fausse alarme moyen inférieur à une alarme par caméra et par jour. Souvent, il est nécessaire de modéliser en 3D le champ de vision et de choisir judicieusement des filtres de traitement afin d'obtenir de bons résultats. Ce travail de paramétrage n'étant pas à la portée des tous les techniciens, des profils de détection moyens sont précalibrés et les mécanismes de modélisations de scène simplifiés à l'extrême. On peut arriver alors à des cas de non détections de cibles réelles, sans action corrective possible par le technicien. [0105]On trouve, dans les produits Sony, une détection intelligente embarquée, basée sur la segmentation du contour des cibles et la cohérence de mouvements de celles-ci sur au moins 15 images successives. Les réglages sont simples, de type taille d'objet et seuil de détection applicables à quelques fenêtres de détection définies dans l'image. Les objets en oscillation rapide sont filtrés, mais pas ceux en oscillation lente. L'approche Sony ne nécessite pas de modélisation préalable de la scène visionnée. La détection est d'ailleurs applicable à différentes prépositions de dômes 360°avec la possibilité de régler les fenêtres et seuils de détection préposition par préposition. [0106]Actuellement, Scutum utilise des capteurs de type infrarouges passifs ou double technologie, associés à des dômes Sony avec analyse intelligente. Les capteurs sont implantés sur le terrain au plus près des points d'intrusions potentielles. Ils délivrent des informations de préalarme et forcent la focalisation des dômes en direction de l'événement. Si la détection intelligente embarquée dans un des dômes confirme l'intrusion dans les minutes suivant l'information de préalarme, une alarme confirmée est délivrée. L'événement est filmé quelques secondes et le clip vidéo résultant est transmis en télésurveillance pour analyse finale par l'opérateur. [0107]Avec cette technique, on obtient un taux de fausse alarme de l'ordre d'une fausse alarme par semaine et par dôme, sans pour autant, abaisser le niveau de détection du site. L'utilisation des dômes Sony est cependant limitée au domaine visible, ce qui nécessite un éclairage correct des secteurs surveillés. [0108]On retiendra le principe de chaîne de décision suivante : - déclenchement d'alarme par un premier équipement : préalarme ; - prépositionnement d'un deuxième équipement vers la zone de déclenchement du premier équipement ; - ouverture d'une fenêtre spatio-temporelle de confirmation sur un deuxième équipement ; - si détection : • alarme confirmée ; • clip vidéo ou photo de l'événement. [0109]Afin d'appréhender toute la difficulté de réaliser l'hypertracking d'une cible désignant un intrus évoluant dans un secteur ou il existe une activité humaine, nous allons prendre l'exemple illustré en figure suivant. Un bâtiment est surveillé en extérieur par deux dômes en angle, et en intérieur par des caméras fixes. Paul et Sophie sont des employés. Les secteurs grisés sont des bureaux sous surveillance dans lesquels Paul et Sophie n'ont pas à circuler. [0110]Les caméras doivent d'enchaîner dans le canal alarme selon la séquence suivante : dl G-cl -c2-c3-c4-c3-c5-d2G. - dlG préalerte d2D, cl, c3 et dl D (voir premier cas) : cl confirme ; - cl préalerte c2, c3, d2D et dlD ou dlG : c2 confirme, mais c3 peux confirmer via Paul ou Sophie (voir deuxième cas) ; - c2 préalerte cl, c3 et d2D ou d2G (voir troisième cas) : c3 confirme ; - c3 préalerte cl, c2, c4, c5, dl G ou d1 D, d2D : c4 confirme, mais c5 ou dl D peuvent également confirmer via Paul ou Sophie ; à noter que l'intrus a quitté c3 pour y re-rentrer (voir 4ème cas) ; - c4 préalerte d2G, c3, c5 : c5 confirme mais c3 peut également confirmer via Paul ou Sophie - c5 préalerte c3, c4, d2G et dlD : c3 confirme, mais c4 peut également confirmer via Paul ou Sophie ; dl D peut également déclencher via Paul ou Sophie sortant par l'entrée (voir 5ème cas) ; - c3 préalerte cl, c2, c4, c5, dl G ou dl D, d2D : c5 confirme, mais c4 ou dl D peut également déclencher via Paul ou Sophie ; - c5 préalerte c4, c3, d2G et dl D : d2G confirme, mais c3, c4 et dl D peuvent déclencher via Paul ou Sophie. [0111]Dans le premier cas représenté en figure 34, si dlG reste actif, rien ne peut préalerter le dôme pour l'envoyer sur dlD. Plusieurs solutions : - le dôme dl peut cycler entre dlG et dlD : en l'occurrence, la proximité du dôme de la fenêtre donne la possibilité à l'intrus de sortir du champ de vision du dôme avant que celui-ci ne revienne sur dlD ; - on préalerte par un contact d'ouverture sur la fenêtre de sortie vers dl D : mais Sophie a pu laisser la fenêtre ouverte ; - on ajoute une caméra dans la pièce juste avant la sortie. On place un sensor sur la fenêtre vers dl D qui préalerte dl D ; - on remplace dl par 2 caméras fixes [0112]Dans le deuxième cas représenté en figure 35, la caméra cl préalerte c2 et c3 ; c3 peux confirmer via Paul ou Sophie. - Si Paul confirme en c3, venant de c4 ou c5, il pourrait être éliminé car présent sur la scène avant l'intrusion en cl. - Si Sophie déclenche c3, le même raisonnement n'est pas applicable, car ses bureaux ne sont pas sous caméra. Prendre en compte la porte par laquelle elle pénètre en c3 n'est pas pertinent, car l'intrus peut également confirmer en c3 en utilisant cette même porte. - Ce cas d'indécision ne peut se traiter qu'en éliminant Sophie par comparaison avec l'intrus vu en cl : mais attention, Sophie peut avoir une signature proche de l'intrus [0113]Dans le troisième cas en figure 36, la caméra c2 préalerte c3, d2D et d2G. Plusieurs solutions : - le dôme d2 peut cycler entre d2G et d2D : en l'occurrence, la proximité du dôme des deux fenêtres donne la possibilité à l'intrus de sortir du champ de vision du dôme avant que celui-ci revienne sur la fenêtre de sortie ; - on positionne 2 sensors sur c2 : un sur la fenêtre vers d2D et un sur la fenêtre vers d2G. • le sensor vers d2G préalerte d2G ; • le sensor vers d2D préalerte d2D. [0114]Dans le quatrième cas illustré en figure 37, ce cas est des plus complexes. La caméra c3 préalerte cl, c2, c4 et c5, dl D et d 1 G. La caméra c4 confirme, mais le problème est que l'intrus a quitté c3 pour y ré-entrer. Si l'intrus a quitté c3 très longtemps, c3 a pu oublier la signature de l'intrus ou encore, en quittant c3, l'intrus a pu changer d'apparence. Advantageously, the invention makes it possible to terminate guarding 24/24 for sensitive sites, because it meets the needs of televideosurveillance of sensitive sites during periods of reduced activity: • sites sensitive and of vital importance as industrial complexes, the airports, ports, railway stations, production sites, storage or distribution of energy, hospital infrastructure ...; • open and complex spaces such as a busy street, a public space, a shopping center, an airport hall, a harbor entrance, a place of interconnection between different modes of transport ...; [080] The HMI should be the showcase for a new technology designed to change the thinking that security system designers, security managers and remote control center operators make about televideosurveillance. unable to effectively monitor sensitive sites through low bit rate networks. [081] The invention makes it possible to ensure operational missions of intrusion monitoring and stakeholder control until the elimination of threats through stages of reception, qualification, alarm processing. [082] In connection with the invention, new working methods will redefine the limits of responsibility and skill levels of operators: it is easy to see the emergence of two types of operators within the same station: those in charge of the qualification of the alarms and those in charge of the analysis and the follow-up of the threatened sites. [083] In the invention, the hypertracking televideosurveillance is to follow a human or non-human target (vehicle) circulating inside a secure space by CCTV cameras. The cameras can be indifferently: - cameras with the PAL standard operating in the visible spectrum and giving images in color or black and white (cameras visible day / night); - Megapixel cameras visible day / night. - domes visible day / night; - thermal cameras. [084] In the case of a thermal or visible dome, hypertracking can work in conjunction with: autotracking, an operation of automatically driving the dome to maintain a target in its field of view; - manual tracking, identical operation, but performed by an operator; 25 - autotracking by virtual PTZ, operation of extracting a video from a Megapixel camera, a video centered on the target in lower resolution. [085] We will be particularly interested in the hypertracking of a single target, circulating in a space and at times when there is a low human activity, that is to say a small number of people or vehicles allowed to circulate and which must not be autotracking, hypertracking or autotracking by virtual PTZ. The target was previously automatically selected by the system or designated by an operator. In general, the fields of view of the domes and cameras can overlap or be disjoint: a moving target can, at a given moment, be autotracked by zero, one or more cameras. We will focus on the hypertracking of very large sites with a low density of domes and fixed cameras. Figure 30 shows an extended site with a central activity area. The intrusion is detected in perimetry by a network of thermal detectors. [086] The intruder is detected at the perimeter crossing by a thermal detector and confirmed by the video sensor of a thermal dome: it becomes the target. [087] It is autotracked by the thermal dome to the periphery of the zone of activity. The relay is then taken successively by visible domes, then by fixed cameras. [088] The cameras must ignore the persons and vehicles already present on the site before the intrusion. [089] The alarm channel is a single video source constituted by the linking of several video sources pursuing the same target. When there is recovery of the camera field, the alarm channel can be synthesized from different cameras for the same tracked target. The ideal alarm channel is one that optimizes certain criteria, for example: - size of the maximum target in the image; - visible camera rather than thermal, the day, the opposite, the night; - color camera rather than black and white, the day, the opposite, the night; - Megapixel camera rather than standard camera, the day, the opposite, the night; - dome rather than fixed camera; - minimize the number of camera changes in the channel; When there is no recovery of the field of the cameras, the target can be out of field of vision during periods more or less long. Domes can, for example, slowly scan an area to find the target. Hypertracking is then often a probabilistic operation, that is to say that in a given space time, several cameras can be candidates for the resumption of the tracking of a target out of the field of the cameras, without any guarantee that it is the right target. The hypertracking engine will make a choice in order to synthesize the alarm channel, this choice being able to be erroneous (recovery on a bad target) or irrelevant (choice of a video resource revealing itself less well placed than another with regard to the trajectory followed by the target). [090] The tree of multiple choices that could have achieved the hypertracking engine is the set of candidate channels. [091] Tele-video surveillance consists in exploiting the video resources of a remote site after receiving one or more alarms at the remote surveillance center. It takes place in three phases: 1. verification of the validity of the alarms (removal of doubt) and elimination of false alarms; 2. evaluation of the nature and evolution of the threat; 3. Information and management of field intervention teams. [092] Phase 1 is ideally handled by sending a video sequence of the triggering event to the central monitoring station and then analyzing it by the operator. This first operation is essential, but it differs from Phase 2, which consists of observing live site cameras. Typically, this phase can be delayed from several seconds to several minutes. [093] This poses two fundamental problems: How to find the intruder and what did the intruder do since his intrusion? [094] As illustrated in FIG. 31, in the absence of any hypertracking automatism, the operator supports the location of the target on the various video resources available on the site. The number of potentially affected cameras on a site is growing rapidly with the time taken since the intrusion. However, the operator is most often forced by the bandwidth of the interconnection link with the site giving him the opportunity to mount a limited number of simultaneous cameras. [095] The behavior of the intruder between the intrusion on the site and its live follow-up by an operator, is available only by consulting the recordings of the video resources of the site. The interest of hypertracking and the alarm channel can easily be seen, since in theory the live observation on the alarm channel prevents the operator from searching for the intruder on several cameras. In addition, reading the alarm channel record allows it to fill its monitoring gap between the intrusion and the live target tracking, as shown in Figure 32. [096] Hypertracking is currently a mobilizing topic many 20 resources in research and development, as evidenced by the document US7450735. [097] The variety of types and quality of video resources (visible, thermal, color, black and white, calibrated, uncalibrated cameras) makes it extremely complex to automate what would already require training for a supervisor who is perfectly familiar with the site. , the location of the available video resources, the current uses on the site, as well as the different operating modes of the previous intrusions. [098] In particular, in intelligent video processing, the recognition of one target (signature) among several is often restricted within the field of the same camera, with relatively low target shadowing times. The transmission of a signature between two cameras is today in the field of research and seems to be limited to cameras whose fields overlap. [099] When the fields of the cameras do not overlap, the simplest track to track multiple camera targets in cameras is to define a repository common to all cameras, to postpone the position of the targets on this repository and to make assumptions based on probabilistic optimization of the paths. In all cases, the proposed methods can be relatively expensive in computing time (image analysis, neural networks or Bayesians) so that the added value of hypertracking in terms of televideosurveillance can be neutralized by the hardware and software costs to implement to achieve it. The approach of the invention is an approach in terms of the result to be achieved, involving the human resource (the operator) in a semi automated process of reasonable force. By reasonable force we mean: - inexpensive in hardware and software resources; - easy to set up by the technicians performing the installation; - likely to be wrong, but giving the opportunity to the operator to make up for mistakes; - easy and fast to use by an operator; - to achieve the expected result: location of the target and vision of its trajectory within a time compatible with the arrival of the intervention; - compatible with the IP video surveillance software of the market. At the algorithmic power, the invention proposes to substitute a pragmatic approach based on: - and the professional design steps APSAD (R31 for remote monitoring, R81 for the alarm installation, R82 for the installation of CCTV an approach likely to fall within the scope of the draft Afnor interoperability standard External detection techniques (passive or active detectors) prove to be sources of numerous false alarms or conversely, when the detection thresholds are too hard, poor intrusion detectors Doppler microwave technologies have been virtually banned for their inability to control the detector's range of action, sometimes leading to justified detections, but for targets outside the monitored limits. Active infrared barriers trigger unexpectedly when vegetation cuts beams, or does not trigger when crossing the beams very quickly. Outdoor IR sensors are very sensitive to animals passing in the first meters of their field of detection. The dual technology detectors are inefficient when the movements are perfectly tangential (only the infrared triggers) or radiant (only the microwave triggers). Videosensor technologies have been ruled out in recent years due to the high rate of false alarms. They tend to come back in the news, under the name of intelligent video surveillance with the emergence of more robust algorithms and also in association with thermal cameras. However, the different operators encountered on this market do not guarantee an average false alarm rate lower than one alarm per camera per day. Often, it is necessary to model in 3D the field of vision and to choose wisely treatment filters in order to obtain good results. This parameterization work is not within the reach of all technicians, average detection profiles are precalibrated and the mechanisms of scene modeling simplified to the extreme. We can then arrive at cases of non-detection of real targets, without possible corrective action by the technician. In Sony products, there is an embedded intelligent detection, based on the segmentation of the target contour and the coherence of movements thereof on at least 15 successive images. The settings are simple, of type object size and detection threshold applicable to some detection windows defined in the image. Fast-oscillating objects are filtered, but not those in slow oscillation. The Sony approach does not require prior modeling of the scene viewed. The detection is also applicable to different 360 ° prepositions of domes with the possibility of adjusting the windows and detection thresholds preposition by preposition. Currently, Scutum uses passive infrared or dual technology type sensors, associated with Sony domes with intelligent analysis. The sensors are located in the field as close as possible to potential intrusions. They deliver pre-alarm information and force focus of the domes towards the event. If the intelligent detection embedded in one of the domes confirms the intrusion in the minutes following the pre-alarm information, a confirmed alarm is delivered. The event is filmed a few seconds and the resulting video clip is transmitted by remote monitoring for final analysis by the operator. With this technique, we obtain a false alarm rate of the order of a false alarm per week and per dome, without lowering the detection level of the site. The use of Sony domes is, however, limited to the visible range, which requires proper lighting of the monitored areas. [0108] The following decision-chain principle will be retained: - alarm triggering by a first device: pre-alarm; - Prepositioning a second equipment to the trigger zone of the first equipment; opening a space-time confirmation window on a second piece of equipment; - if detected: • alarm confirmed; • video clip or photo of the event. In order to understand the difficulty of achieving the hypertracking of a target designating an intruder moving in a sector where there is human activity, we will take the example illustrated in the following figure. A building is monitored externally by two angle domes, and indoors by fixed cameras. Paul and Sophie are employees. The shaded areas are supervised offices in which Paul and Sophie do not have to circulate. The cameras must follow in the alarm channel according to the following sequence: d1 G-cl -c2-c3-c4-c3-c5-d2G. - dlG pre-alert d2D, cl, c3 and dl D (see first case): cl confirms; - c pre-alert c2, c3, d2D and dlD or dlG: c2 confirms, but c3 can confirm via Paul or Sophie (see second case); - c2 pre-warning cl, c3 and d2D or d2G (see third case): c3 confirms; - c3 pre-alert cl, c2, c4, c5, dl G or d1 D, d2D: c4 confirms, but c5 or dl D can also confirm via Paul or Sophie; note that the intruder left c3 to re-enter (see 4th case); - c4 pre-alert d2G, c3, c5: c5 confirms but c3 can also confirm via Paul or Sophie - c5 pre-alert c3, c4, d2G and dlD: c3 confirms, but c4 can also confirm via Paul or Sophie; dl D can also trigger via Paul or Sophie coming out through the entrance (see 5th case); - c3 pre-alert cl, c2, c4, c5, dl G or dl D, d2D: c5 confirms, but c4 or dl D can also trigger via Paul or Sophie; - c5 pre-alert c4, c3, d2G and dl D: d2G confirms, but c3, c4 and dl D can trigger via Paul or Sophie. In the first case shown in FIG. 34, if dlG remains active, nothing can pre-initialise the dome to send it to dlD. Several solutions: - the dome dl can cycle between dlG and dlD: in this case, the proximity of the dome of the window gives the intruder the possibility to leave the field of vision of the dome before it returns to dlD ; - Pre-alerting by an opening contact on the exit window to dl D: but Sophie could leave the window open; - we add a camera in the room just before the exit. We place a sensor on the window towards dl D which pre-alerts dl D; - We replace dl with 2 fixed cameras In the second case shown in Figure 35, the camera cl pre-alert c2 and c3; It can be confirmed via Paul or Sophie. - If Paul confirms in c3, coming from c4 or c5, he could be eliminated because present on the stage before the intrusion in cl. - If Sophie triggers c3, the same reasoning is not applicable because her office is not under camera. Take into account the door through which it enters c3 is not relevant, because the intruder can also confirm in c3 using this same door. - This case of indecision can only be treated by eliminating Sophie by comparison with the intruder seen in cl: but be careful, Sophie may have a signature close to the intruder [0113] In the third case in Figure 36, the c2 pre-alarm camera c3, d2D and d2G. Several solutions: - the dome d2 can cycle between d2G and d2D: in this case, the proximity of the dome of the two windows gives the intruder the possibility to leave the field of view of the dome before it returns to the window Release ; - we set 2 sensors on c2: one on the window towards d2D and one on the window towards d2G. • the sensor to d2G pre-alert d2G; • the sensor to d2D pre-alert d2D. In the fourth case illustrated in FIG. 37, this case is of the most complex. The camera c3 pre-alerts cl, c2, c4 and c5, d1 D and d 1 G. The camera c4 confirms, but the problem is that the intruder has left c3 to re-enter. If the intruder has left for a very long time, he may have forgotten the signature of the intruder or else, when leaving c3, the intruder may have changed his appearance.

La caméra c3 doit donc récupérer l'intrus, ce qui signifie que c3 doit se préalerter elle-même. Paul ou Sophie ne doivent pas déclencher c3. Si Paul et Sophie sont en c4 et c5 lorsque l'intrus quitte c3, on peut les éliminer s'ils entrent en c3. On voit cependant que si une troisième personne entre en c3 par la porte, il pourra être pris pour l'intrus. En plaçant des sensors sur les portes du couloir, on peut éliminer les portes de c4 et c5 et la porte d'entrée. [0115]Dans le cinquième cas illustré en figure 38, la caméra c5 préalerte c3 et dl D : la caméra c3 confirme mais également dl D via Paul qui sort. The camera c3 must therefore recover the intruder, which means that c3 must pre-alert itself. Paul or Sophie must not trigger c3. If Paul and Sophie are in c4 and c5 when the intruder leaves c3, they can be eliminated if they enter c3. We see, however, that if a third person enters the door, he can be mistaken for the intruder. By placing sensors on the doors of the hallway, the doors of c4 and c5 and the front door can be eliminated. In the fifth case illustrated in Figure 38, the camera c5 pre-warning c3 and dl D: the camera c3 confirms but also dl D via Paul coming out.

De nuit, dlD peut avoir basculé en noir et blanc alors que les caméras intérieures sont en couleur. La prise de vue du dôme est beaucoup plus générale que la caméra. La reconnaissance de Paul entre c3 et dl D est complexe (elle l'est également par un opérateur). La reconnaissance de l'intrus entre c5 et c3 est plus probable, mais là encore, l'intrus est en bout de couloir sur c3. At night, dlD may have switched to black and white while indoor cameras are in color. The shooting of the dome is much more general than the camera. The recognition of Paul between c3 and dl D is complex (it is also complex by an operator). Recognition of the intruder between c5 and c3 is more likely, but again, the intruder is at the end of the aisle on c3.

La solution est de placer un sensor sur les fenêtres de c5 et de ne préalerter dl D que si ce sensor est activé. [0116] Le premier cas a montré, qu'il pouvait être nécessaire de modifier le dispositif afin de ne pas perdre un individu : ajouter une caméra ou remplacer un 5 dôme par une caméra fixe. [0117] Le deuxième cas a montré que la reconnaissance de la signature de l'intrus pouvais ne pas être suffisante, lorsqu'une personne non connue pénétrait dans le champ des caméras triggées. [0118] Le troisième et le cinquième cas ont montré la nécessité de placer des 10 sensors sur les fenêtres conduisant vers l'extérieur lorsque la reprise de l'intrus peut se faire par un dôme ou une caméra fixe. [0119]Le quatrième cas a montré qu'une caméra pouvait se préalerter elle-même, qu'un intrus pouvait changer de signature en entrant à nouveau dans le champ de la caméra, qu'il était possible d'éliminer les cibles actives dans un secteur et que 15 limiter les chemins possibles par des sensors sur le portes pouvaient restreindre les hypothèses, [0120]11 est nécessaire d'ajouter la caméra c6. La mise en place de sensors sur les points de passage d'une caméra à une autre permet de limiter le nombre de possibilités comme illustré en figure 39. 20 Le suivi des individus déjà présents dans une zone avant qu'une préalerte se déclenche permet d'éliminer leurs propres mouvements pour déclencher une caméra, ce qui revient à neutraliser les secteurs autours d'eux. Ceci peut être étendu aux mouvements d'individus reconnus se déplaçant entre plusieurs caméras dont les champs se recouvrent, mais aussi, pour les caméras dont les 25 champs ne se recouvrent pas, de détecter leur passage d'une caméra à une autre afin de continuer à neutraliser leurs mouvements. Dans un exemple représenté en figure 40, Sophie a été neutralisée car présente dans le bâtiment avant que l'intrus y pénètre. Ses déplacements sont maintenant suivis mais ne déclenchent pas d'alarme. Sophie quitte son bureau en c6 pour aller dans celui de Paul en c5, en passant par le couloir en c3. Lorsqu'elle sort de son bureau, elle active c6-sensor 4. On arme c3-sensor 6 du couloir qui confirme. [0121]Lorsqu'elle quitte le couloir pour aller dans le bureau de Paul, elle active c3-sensor 4. On arme c5-sensor 3 du bureau de Paul qui confirme. [0122]Maintenant qu'on a éliminé Paul et Sophie, reprenons le parcours de l'intrus. [0123]A la figure 41, l'intrus est autotracké par dl. Trois sensors sont positionnés sur les issues du bâtiment. A l'identique d'un masque dynamique, les sensors suivent les mouvements du dôme. Il est possible de reporter les sensors sur l'image panoramique du dôme et de détecter l'intrusion de l'intrus dans ces sensors, puis sa disparition. A la figure 42, le sensor 1 donne sur le bureau de Sophie en c6. Le sensor 2 15 donne sur le bureau sans caméra. Le sensor 3 donne sur le bureau sous surveillance de cl. - Détection sur d1-sensor 1 arme c6-sensor 2 (bureau de Sophie). - Détection sur d1-sensor 2 (bureau sans caméra) arme cl-sensor 5, c3-sensor 7 (couloir) et c6-sensor 3 (bureau de Sophie). 20 - Détection sur d1-sensor 3 arme c1-sensor 1 qui confirme. [0124]A la figure 43, l'intrus est dans le bureau surveillé par et . - Détection sur c1-sensor 1 arme dlG. - Détection sur c1-sensor 2 arme d2D. - Détection sur c1-sensor 5 arme c3-sensor 7 (couloir) et c6-sensor 3 25 (bureau de Sophie). - Détection sur cl-sensor 4 arme c3-sensor 1. - Détection sur c1-sensor 3 arme c3-sensor 8 et c2-sensor 5 qui confirme. [0125]Maintenant qu'on a éliminé Paul et Sophie, reprenons le parcours de l'intrus. L'intrus est autotracké par dl. Trois sensors sont positionnés sur les issues du bâtiment. A l'identique d'un masque dynamique, les sensors suivent les mouvements du dôme. Note : il est possible de reporter les sensors sur l'image panoramique du dôme et de détecter l'intrusion de l'intrus dans ces sensors, puis sa disparition. Le sensor 1 donne sur le bureau de Sophie en c6. Le sensor 2 donne sur le bureau sans caméra. Le sensor 3 donne sur le bureau sous surveillance de cl. - Détection sur d1-sensor 1 arme c6-sensor 2 (bureau de Sophie). - Détection sur d1-sensor 2 (bureau sans caméra) arme c1-sensor 5, c3- sensor 7 (couloir) et c6-sensor 3 (bureau de Sophie). - Détection sur d1-sensor 3 arme c1-sensor 1 qui confirme. [0126]L'intrus est dans le bureau surveillé par cl. - Détection sur c1-sensor 1 arme dl G. - Détection sur c1-sensor 2 arme d2D. - Détection sur cl-sensor 5 arme c3-sensor 7 (couloir) et c6-sensor 3 (bureau de Sophie). - Détection sur cl-sensor 4 arme c3-sensor 1. - Détection sur c1-sensor 3 arme c3-sensor 8 et c2-sensor 5 qui confirme. The solution is to place a sensor on the windows of c5 and to pre-alert dl D only if this sensor is activated. The first case has shown that it may be necessary to modify the device in order not to lose an individual: to add a camera or to replace a dome by a fixed camera. The second case showed that recognition of the signature of the intruder may not be sufficient, when an unknown person entered the field of camera triggers. [0118] The third and fifth cases have shown the need to place sensors on windows leading outward when the intruder can be resumed by a dome or a fixed camera. The fourth case showed that a camera could pre-itself itself, that an intruder could change the signature by entering the field of the camera again, that it was possible to eliminate the active targets in the camera. a sector and that limiting the possible paths by sensors on the doors could restrict the assumptions, [0120] It is necessary to add the camera c6. The installation of sensors on the points of passage from one camera to another limits the number of possibilities as illustrated in FIG. 39. The tracking of the individuals already present in an area before an early warning is triggered makes it possible to eliminate their own movements to trigger a camera, which amounts to neutralizing the sectors around them. This can be extended to the movements of recognized individuals moving between several cameras with overlapping fields, but also, for cameras whose fields do not overlap, to detect their passage from one camera to another in order to continue to neutralize their movements. In an example shown in Figure 40, Sophie was neutralized because present in the building before the intruder enters. His movements are now tracked but do not trigger an alarm. Sophie leaves her office in C6 to go to that of Paul in C5, through the corridor in C3. When she comes out of her office, she activates c6-sensor 4. One arms c3-sensor 6 of the corridor that confirms. [0121] When she leaves the hall to go to Paul's office, she activates c3-sensor 4. One arms c5-sensor 3 from Paul's office that confirms. [0122] Now that we have eliminated Paul and Sophie, let's take the course of the intruder. In Figure 41, the intruder is autotracked by dl. Three sensors are positioned on the building's exits. Like a dynamic mask, the sensors follow the movements of the dome. It is possible to postpone the sensors on the panoramic image of the dome and detect the intrusion of the intruder into these sensors, then its disappearance. In Figure 42, the sensor 1 gives Sophie's desk in c6. The sensor 2 15 is on the desk without a camera. The sensor 3 overlooks the office under surveillance of cl. - Detection on d1-sensor 1 c6-sensor weapon 2 (Sophie's office). - Detection on d1-sensor 2 (desktop without camera) weapon cl-sensor 5, c3-sensor 7 (corridor) and c6-sensor 3 (Sophie's office). 20 - Detection on d1-sensor 3 c1-sensor 1 which confirms. In Figure 43, the intruder is in the office monitored by and. - Detection on c1-sensor 1 weapon dlG. - Detection on c1-sensor 2 d2D weapon. - Detection on c1-sensor 5 weapon c3-sensor 7 (corridor) and c6-sensor 3 25 (Sophie's office). - Detection on cl-sensor 4 weapon c3-sensor 1. - Detection on c1-sensor 3 weapon c3-sensor 8 and c2-sensor 5 which confirms. [0125] Now that we have eliminated Paul and Sophie, let's take the course of the intruder. The intruder is autotracked by dl. Three sensors are positioned on the building's exits. Like a dynamic mask, the sensors follow the movements of the dome. Note: it is possible to postpone the sensors on the panoramic image of the dome and detect the intrusion of the intruder into these sensors, then its disappearance. The sensor 1 gives Sophie's desk in c6. The sensor 2 is on the desk without a camera. The sensor 3 overlooks the office under surveillance of cl. - Detection on d1-sensor 1 c6-sensor weapon 2 (Sophie's office). - Detection on d1-sensor 2 (desktop without camera) weapon c1-sensor 5, c3- sensor 7 (corridor) and c6-sensor 3 (Sophie's office). - Detection on d1-sensor 3 c1-sensor 1 weapon that confirms. [0126] The intruder is in the office monitored by cl. - Detection on c1-sensor 1 weapon dl G. - Detection on c1-sensor 2 weapon d2D. - Detection on cl-sensor 5 weapon c3-sensor 7 (corridor) and c6-sensor 3 (Sophie's office). - Detection on cl-sensor 4 weapon c3-sensor 1. - Detection on c1-sensor 3 weapon c3-sensor 8 and c2-sensor 5 which confirms.

Puis, comme illustrées aux figures 44 et 45: - Détection sur c2-sensor 4 arme c3-sensor 2 qui confirme. - Détection sur c3-sensor 7 arme c6-sensor 3 qui confirme. - Détection sur c6-sensor 4 arme c3-sensor 6 qui confirme. - Détection sur c3-sensor 3 arme c4-sensor 3 qui confirme. - Détection sur c4-sensor 2 arme c5-sensor 4 qui confirme. - Détection sur c5-sensor 3 arme c3-sensor 4 qui confirme. A noter, que l'algorithme de détection de mouvement doit être suffisamment performant pour détecter successivement une apparition puis une disparition de l'intrus via le même sensor. - Détection sur c3-sensor 4 arme c5-sensor 3 qui confirme - Détection sur c5-sensorl arme d2G sensor 3 qui confirme. [0127]La particularité du dôme thermique est que son faible angle d'ouverture couplé à l'autotracking de la centre cible permet de suivre celle-ci sur un plan par simple report de l'intersection de l'axe optique sur la maintient la cible courbe de niveau du site. C'est un peu moins vrai pour les dômes visibles dont l'ouverture angulaire peut atteindre 60°. Toutefois, lorsque l'autotracking fonctionne et au de l'image, on peut considérer que cette mesure est suffisante pour localiser la cible sur un plan, comme représenté en figure 46. [0128]A chaque dôme est associé une image panoramique de sa vision sur 360° en projection équirectangulaire. Cette image permet le calcul de la vision panoramique augmentant la vision temps réel de la caméra. Then, as illustrated in Figures 44 and 45: - Detection on c2-sensor 4 c3-sensor 2 which confirms. - Detection on c3-sensor 7 c6-sensor 3 weapon that confirms. - Detection on c6-sensor 4 c3-sensor 6 weapon that confirms. - Detection on c3-sensor 3 c4-sensor 3 weapon that confirms. - Detection on c4-sensor 2 weapon c5-sensor 4 which confirms. - Detection on c5-sensor 3 weapon c3-sensor 4 which confirms. Note that the motion detection algorithm must be sufficiently powerful to successively detect an appearance and then disappearance of the intruder via the same sensor. - Detection on c3-sensor 4 c5-sensor 3 weapon which confirms - Detection on c5-sensorl weapon d2G sensor 3 which confirms. The peculiarity of the thermal dome is that its small opening angle coupled to the autotracking of the target center makes it possible to follow it on a plane by simply postponing the intersection of the optical axis on the maintaining the target curve level of the site. This is a little less true for visible domes whose angular aperture can reach 60 °. However, when autotracking works and the image, we can consider that this measurement is sufficient to locate the target on a plane, as shown in Figure 46. Each dome is associated with a panoramic image of his vision 360 ° in equirectangular projection. This image allows the calculation of the panoramic vision increasing the real-time vision of the camera.

La vision temps réel est une fenêtre flottant sur la vision panoramique. Les deux fenêtres peuvent être synchrones ou non : l'opérateur peut avoir besoin de circuler dans le panoramique tout en gardant un oeil sur la cible, puis redemander la resynchronisation du panoramique sur la fenêtre temps réel, comme représenté en figure 47. A la figure 48 illustre la projection équirectangulaire projette la latitude (pan) sur l'axe des x et la longitude (tilt) sur l'axe des y. Le segment rouge E sur l'image ci-dessous correspond à un arc de cercle centré sur le dôme thermique. La détection de franchissement de ce segment par l'intrus peut servir à déclencher une alarme. [0129]A la figure 49, dans le cas du dôme thermique vers le dôme thermique, les dômes thermiques couvrent des distances importantes (jusqu'à 600m) et, la nuit, ils sont plus efficaces que les dômes visibles. Ils sont destinés à surveiller les parties communes en grande périphérie des bâtiments. Lorsqu'une cible a été verrouillée par un dôme thermique, elle peut être perdue par ce dernier pour 2 raisons : éloignement trop important du dôme et cible masquée/cachée sur le site. La médiatrice de la droite reliant les deux dômes constitue la ligne d'égale distance d'une cible aux deux dômes. Cette ligne peut être ajustée par rapport aux bâtiments et différents masques présents sur le site. [0130]Lorsque la trajectoire de la cible franchit cette ligne, le deuxième dôme est 20 théoriquement mieux positionné que le premier pour suivre la cible ; la taille de la cible (en nombre de pixel) doit y être plus importante. [0131]Si l'on bascule d'un dôme sur l'autre au franchissement de la ligne d'égale distance, il peut y avoir un phénomène de basculement perpétuel d'un dôme à l'autre lorsque l'intrus chemine le long de ligne. 25 [0132]En fait, tant que le premier dôme continue à poursuivre la cible, il n'y a pas d'intérêt à basculer sur le deuxième dôme. Par contre, le deuxième dôme doit être prêt au cas où le premier perd la cible. [0133]Nous proposons donc le fonctionnement suivant : - Détection du franchissement de la ligne d'égale distance. - Focalisation du deuxième dôme thermique en direction de la cible. - Attente 15s de confirmation par le vidéosensor -Si confirmation, verrouillage la cible et autotracking ; -3 Si non confirmation, focalisation en direction de la dernière position relevée et attente confirmation 15 seconde, ainsi de suite. - Basculement du deuxième dôme dans le canal alarme si la cible est perdue par le dôme 1 ou taille inférieure à un seuil à déterminer [0134]Dans le cas du dôme thermique vers le dôme visible, avec recouvrement partiel, on peut projeter, pour chaque dôme visible, un cercle d'accrochage dont le rayon est fonction de la puissance de zoom de chaque dôme. Ce rayon prend en compte le cas le plus favorable (le jour). La nuit, en fonction de la qualité de l'éclairage, la limite d'accrochage n'est plus fonction du dôme mais de la portée de l'éclairage. Dans notre exemple, la limite épouse la clôture du site. [0135]De jour, nous proposons le fonctionnement suivant : - Détection du franchissement de la ligne d'accrochage du dôme ; - Focalisation du dôme visible en direction de la cible ; - Attente 15s de confirmation par le vidéosensor : - Si confirmation, verrouillage la cible et autotracking, -3 Si non confirmation, focalisation en direction de la dernière position relevée par le dôme thermique et attente confirmation 15s, ainsi de suite, - Basculement du dôme visible dans le canal alarme si la cible est perdue par le dôme thermique. [0136]De nuit, le fonctionnement est identique, mais basé sur la détection de franchissement de la limite d'éclairage : - Détection du franchissement de la limite d'éclairage. - Focalisation du dôme visible en direction de la cible. - Attente 15s de confirmation par le vidéosensor : confirmation, verrouillage la cible et autotracking -) Si non confirmation, focalisation en direction de la dernière position relevée par le dôme thermique et attente confirmation 15s, ainsi de suite. - Basculement du dôme visible dans le canal alarme dés que la cible est perdue par le dôme thermique. [0137]Dans le cas du dôme thermique vers le dôme visible, sans recouvrement partiel, figure 50, tant que le dôme thermique conserve sa cible, il reste au canal alarme. Lorsque le dôme thermique arrive en limite de portée, sa probabilité de reprendre sa cible est faible et la probabilité de reprendre une cible différente de la cible d'origine devient importante. On peut alors déclencher une procédure de reprise par le ou les dômes visibles les plus proches à la détection du franchissement de la limite d'accrochage du dôme thermique. Nous proposons la procédure suivante : - Détection du franchissement de la ligne d'accrochage du dôme thermique. - Déclenchement sur le dôme visible d'un balayage lent d'un secteur limité centré sur la dernière position connue de la cible. - Basculement du dôme visible dans le canal alarme si la cible est perdue par le dôme thermique et reprise par le dôme visible, si aucun dôme thermique n'a accroché la cible. [0138] Dans le cas du dôme visible vers le dôme thermique sans recouvrement partiel, le retour vers le(s) dômes thermique(s) doit s'effectuer au plus vite, dès que la cible quitte la zone défendue par les dômes visibles et qu'un dôme thermique peut localiser la cible. Lorsque la cible arrive en limite de portée d'un dôme visible, on peut déclencher une procédure de reprise par le ou les dômes thermiques les plus proches. De jour, tant que la cible peut être trackée par les dômes visibles, il est plus intéressant de rester dans le visible. La nuit, c'est le contraire : il est plus intéressant de repasser dans le thermique. De jour, nous proposons donc le fonctionnement suivant : - Détection du franchissement de la ligne d'accrochage du dôme. - Déclenchement sur le dôme thermique d'un balayage lent d'un secteur limité centré sur la dernière position connue de la cible. - Basculement du dôme thermique dans le canal alarme si la cible est perdue par le dôme visible et qu'aucun dôme visible n'est candidat. De nuit, nous proposons le fonctionnement suivant : - Détection du franchissement de la limite d'éclairage du dôme visible. - Déclenchement sur le dôme thermique d'un balayage lent d'un secteur limité centré sur la dernière position connue de la cible. - Basculement du dôme thermique dans le canal alarme dés que la cible est perdue par le dôme visible. [0139]Dans le cas du dôme visible vers le dôme thermique, le retour vers le(s) dômes thermique(s) doit s'effectuer dès que la cible quitte la zone défendue par les dômes visibles. De jour, tant que la cible peut être trackée par les dômes visibles, il est plus intéressant de rester dans le visible. La nuit, c'est le contraire : il est plus intéressant de repasser dans le thermique. [0140]De jour, nous proposons donc le fonctionnement suivant : - Détection du franchissement de la ligne d'accrochage du dôme. - Focalisation du dôme thermique en direction de la cible - Attente 15s de confirmation par le vidéosensor : confirmation, verrouillage la cible et autotracking, -~ Si non confirmation, focalisation en direction de la dernière position relevée par le dôme visible et attente confirmation 15s, ainsi de suite, - Basculement du dôme thermique dans le canal alarme si la cible est perdue par le dôme visible et qu'aucun dôme visible n'est candidat [0141]De nuit, nous proposons le fonctionnement suivant : - Détection du franchissement de la limite d'éclairage. - Focalisation du dôme thermique en direction de la cible - Attente 15s de confirmation par le vidéosensor : ) Si confirmation, verrouillage la cible et autotracking, -)'Si non confirmation, focalisation en direction de la dernière position relevée par le dôme visible et attente confirmation 15s, ainsi de suite - Basculement du dôme thermique dans le canal alarme dés que la cible est perdue par le dôme visible. [0142]Cas du dôme visible vers dôme visible avec recouvrement partiel des champs de vision. Comme pour les dômes thermiques, la médiatrice de la droite reliant les deux dômes constitue la ligne d'égale distance d'une cible aux deux dômes. Toutefois, à la différence des dômes thermiques, avec 60 degrés d'ouverture, le report de l'axe optique d'un dôme visible sur le plan du site est une localisation peu précise : lorsque le franchissement de la ligne est détecté, l'intrus peut se trouver dans une zone plus ou moins large en amont ou en aval de cette ligne. [0143]De jour, nous proposons donc le fonctionnement suivant : - Détection d'entrée de la cible dans le secteur d'accrochage commun aux deux dômes. - Focalisation du second dôme visible en direction de la cible. - Attente 15s de confirmation par le vidéosensor : -*Si confirmation, verrouillage la cible et autotracking, non confirmation, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15s, ainsi de suite, -) Si perte de la cible, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15s, ainsi de suite. - Si le premier dôme perd la cible et que le deuxième l'accroche : basculement du deuxième dôme au canal alarme. - Si les deux dômes perdent la cible : le premier qui la reprend bascule au canal alarme ; si un dôme thermique a accroché la cible, et qu'aucun dôme visible n'est candidat, il bascule au canal alarme. [0144]De nuit, nous proposons donc le fonctionnement suivant : - Détection d'entrée de la cible dans le secteur d'accrochage commun aux deux dômes. - Focalisation du deuxième dôme visible en direction de la cible. - Attente 15s de confirmation par le vidéosensor : -Si confirmation, verrouillage la cible et autotracking, --Si non confirmation, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15 secondes, ainsi de suite, 25 -)'Si perte de la cible, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15 secondes, ainsi de suite. - Si le premier dôme perd la cible et qu'elle est accrochée par un autre 5 dôme, basculement de ce dôme dans le canal alarme avec priorité aux dômes thermiques. - Si les 2 dômes perdent la cible : le premier qui la reprend bascule au canal alarme, avec priorité aux dômes thermiques. [0145]A la figure 51, représente le dôme visible vers dôme visible sans 10 recouvrement des champs de vision. Lorsque la cible franchit la limite d'accrochage d'un dôme, les dômes les mieux positionnés doivent focaliser en direction de la dernière position relevée et attendre un déclenchement du vidéosensor. [0146]De jour, nous proposons donc le fonctionnement suivant : 15 - Détection de sortie de la cible de son secteur d'accrochage en direction du deuxième dôme. - Focalisation du deuxième dôme visible en direction de la cible. - Attente 15s de confirmation par le vidéosensor du dôme 2 : confirmation, verrouillage la cible et autotracking, 20 non confirmation, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15s, ainsi de suite, perte de la cible, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15s, ainsi de 25 suite. - Si le premier dôme perd la cible et que le deuxième l'accroche : basculement du deuxième dôme au canal. - Si les deux dômes perdent la cible : le premier qui la reprend bascule au canal alarme. [0147]De nuit, nous proposons donc le fonctionnement suivant : - Détection de sortie de la cible de son secteur d'accrochage en direction du second dôme - Focalisation du second dôme visible en direction de la cible - Attente 15s de confirmation par le vidéosensor du dôme deuxième : -? Si confirmation, verrouillage la cible et autotracking non confirmation, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15s, ainsi de suite, ) Si perte de la cible, focalisation en direction de la dernière position relevée par le premier dôme et attente confirmation 15s, ainsi de suite. - Si le premier dôme perd la cible et qu'elle est accrochée par un autre dôme, basculement de ce dôme dans le canal alarme avec priorité aux dômes thermiques. 20 - Si les 2 dômes perdent la cible : le premier qui la reprend bascule au canal alarme, avec priorité aux dômes thermiques. [0148]Les figures 52 et 53 représentent le dôme vers caméra fixe. Nous nous intéressons à la caméra 1. Pour entrer dans son champ de vision, un intrus peut venir (avec sens de franchissement) : 15 25 - d'une issue du bâtiment (sensor 1) ; - de la clôture de gauche (sensor 2) ; - d'en face (sensor 3), et - depuis l'arrière (sensor 4). [0149]Si la cible est en autotracking sur le dôme thermique de gauche ou de droite : - Détection du franchissement de la limite d'éclairage. - En fonction du point de franchissement : armement des sensors 2 et 4 ou armement des sensors 2 et 3. - Attente 10 mn de confirmation par un des sensors - Si confirmation, basculement de la caméra dans le canal alarme, -->Si non confirmation, désarmement des sensors [0150]Si la cible est en autotracking sur le dôme visible en face : - Détection du franchissement de la limite de secteur d'accrochage du dôme vers la caméra. - Armement du sensor 3. - Attente 10 mn de confirmation : - Si confirmation, basculement de la caméra dans le canal alarme, -Si non confirmation, désarmement du sensor. [0151]Si la cible est en autotracking sur le dôme visible arrière : - Détection du franchissement de la limite de secteur d'accrochage du dôme vers la caméra. 20 - Armement du sensor 4. - Attente 10 mn de confirmation : -)Si confirmation, basculement de la caméra dans le canal alarme, -Si non confirmation, désarmement du sensor. [0152]Les figures 52 et 54 représentent la suite du cas du dôme vers caméra fixe. Nous nous intéressons à la caméra 2 dont le champ de vision recouvre celui du dôme visible. [0153]Le dôme visible a accroché la cible : - Armement du sensor 3 tant que la cible est verrouillée par le dôme. - Attente de confirmation du sensor : confirmation, suivi de la cible dans le champ de vision de la caméra (autotracking) - Si le dôme perd la cible : -)Basculement de la caméra dans le canal alarme. [0154]Le dôme thermique verrouille la cible : - Détection du franchissement de la limite d'éclairage. - Focalisation du dôme visible en direction de la cible et armement des sensors 2 et 3 de la caméra : -)Si le dôme visible verrouille la cible, il l'autotracke -) Si la caméra verrouille la cible, elle l'autotracke - Si le dôme thermique perd la cible, basculement du dôme dans le canal alarme, s'il a toujours la cible, la caméra dans le cas contraire, même si elle n'a plus la cible. - Si la caméra perd la cible, armement des sensors 2, 3 et 4 des caméras extérieures 1,2 et 3 pendant 10mn (exemple de procédure de reprise). - Désarmement des sensors au bout des 10mn si la cible n'a été reprise par aucune caméra. [0155]Dans le cas de la caméra fixe vers dôme, illustré par les figures 52 et 55 : • Caméra 1 - Sortie du champ de la caméra via le sensor 4 : Positionnement des dômes thermiques et visibles vers la caméra, -Attente confirmation 10mn, ~Autotracking de la cible par tout dôme verrouillant la cible, Insertion au canal alarme dans l'ordre de priorité suivant : dôme thermique, dôme visible - Sortie du champ de la caméra via le sensor 2 : .-Positionnement des dômes thermiques et du dôme visible face à la caméra, vers la caméra, -)'Attente confirmation 10mn, -3 Autotracking de la cible par tout dôme verrouillant la cible, Insertion au canal alarme dans l'ordre de priorité suivant : dôme thermique, dôme visible. - Sortie du champ de la caméra via le sensor 3 : -)'Positionnement du dôme thermique et du dôme visible faces à la caméra, vers la caméra, -> Attente confirmation 10mn, ->Autotracking de la cible par tout dôme verrouillant la cible, -)Insertion au canal alarme dans l'ordre de priorité suivant : dôme thermique, dôme visible. [0156]Dans le cas de la caméra fixe vers caméra fixe, illustré par les figures 52 et 56 : [0157]Nous nous intéressons aux caméras 2 et 3. - Sortie du champ de la caméra 2 via le sensor 4 : Armement du sensor 3 de la caméra 3, -Attente confirmation 10mn, -Insertion de la caméra 3 au canal alarme si aucun dôme n'est candidat. - Franchissement du sensor de la caméra 3 en direction du de la caméra 2 : Armement du sensor 4 de la caméra 2, -Attente confirmation 10mn, -'Insertion de la caméra 2 au canal alarme si aucun dôme n'est candidat. [0158]Suivons un individu depuis la limite de propriété l'intérieur d'un bâtiment : - Les capteurs sont actifs en permanence ou désactivés ponctuellement (entrée du site sur ou un point de détection quelconque, jusqu'à accès autorisé, par exemple). L'activation d'un capteur préalerte un dôme thermique ou visible qui confirme et autotraque la cible. - Le trajet de l'individu est reporté à la fois sur l'image panoramique du dôme et sur le plan du site. Des barrages virtuels y figurent, symbolisant les secteurs d'accrochages des dômes et caméras fixes voisins. - Le franchissement virtuel d'un secteur d'accrochage par l'intrus préalerte un ou plusieurs dômes, qui confirment, l'accrochent et autotraquent. Chaque dôme doit confirmer sur son secteur d'accrochage uniquement : la zone sensor ne doit pas être étendue à toute l'image afin d'éviter de confirmer sur le personnel du site. C'est pourquoi, si l'accrochage n'a pas lieu dans les 15s, une nouvelle consigne de position est donnée au dôme qui tente à nouveau de détecter la cible. - Lorsque le dôme thermique perd l'intrus, le moteur d'hypertracking désigne le dôme qui va prendre le relais du dôme thermique dans le canal alarme. - Si le dôme initial perd l'intrus et qu'aucun autre dôme ne suit l'intrus, il doit se préalerter lui- même (il peut retrouver sa cible plus tard) ainsi que les autres dômes dont les secteurs d'accrochage sont les plus probables. On peut imaginer qu'un mécanisme de scan de zone avec détection de mouvement se mette en place automatiquement sur le dôme thermique et les dômes visibles voisins afin de maximaliser les chances de retrouver l'intrus. - Lorsqu'un dôme visible accroche l'intrus, il l'autotraque. Il est clair, à ce niveau, que si une personne du site est confondue avec l'intrus, les chances de retrouver l'intrus s'amenuisent. C'est pourquoi, si l'autotracking se fait en plan large on conserve une vision globale du site et la possibilité de récupérer d'une erreur. Par ailleurs, on perd en possibilité d'identifier la cible. Mais, si l'opérateur prend la main, il peut, lui, décider de zoomer sur la cible. - Les dômes et caméras visibles peuvent hypertraquer le même individu, sur des zones d'accrochage assez larges. Dans la mesure du possible, les individus déjà présents sur le site avant l'arrivée de l'intrus doivent être identifiés et neutralisés. Il convient donc de les reporter sur le plan du site. - Lorsque l'intrus approche d'un bâtiment, le dôme préalerte les caméras intérieures : on a vu que le positionnement de sensors sur les ouvrants ou points de passages obligés des caméras intérieures était souvent nécessaire pour restreindre le choix de caméras potentielles. Seuls ces sensors confirment pour les caméras concernées. [0159]Le logiciel doit donc accepter l'armement et désarmement dynamique de : - capteurs, - secteurs et zones d'accrochage, et - sensors sur ouvrants ou points de passages obligés. [0160]Le logiciel doit pouvoir neutraliser automatiquement les secteurs autour des personnes présentes sur une zone avant qu'une intrusion y soit détectée et suivre le déplacement de ces personnes de caméra fixe en caméra fixe (pas d'autotracking) afin de limiter le nombre de canaux candidats. [0161]Le logiciel doit pouvoir constituer des clips vidéo des confirmations d'intrusions initiales et des photos de chaque confirmation accrochage, et effectuer un choix lorsque deux confirmations créent une arborescence possible du canal alarme. Real-time vision is a floating window on panoramic vision. The two windows can be synchronous or not: the operator may need to circulate in the pan while keeping an eye on the target, then ask for the resynchronization of the pan on the real-time window, as shown in Figure 47. In the figure 48 illustrates the equirectangular projection projects the latitude (pan) on the x-axis and the longitude (tilt) on the y-axis. The red segment E on the image below corresponds to a circular arc centered on the thermal dome. The detection of crossing this segment by the intruder can be used to trigger an alarm. In FIG. 49, in the case of the thermal dome towards the thermal dome, the thermal domes cover considerable distances (up to 600m) and, at night, they are more effective than the visible domes. They are intended to monitor common areas in the periphery of buildings. When a target has been locked by a thermal dome, it can be lost by the latter for 2 reasons: too large distance of the dome and target hidden / hidden on the site. The mediator of the line connecting the two domes is the line of equal distance from a target to the two domes. This line can be adjusted to the buildings and different masks present on the site. When the trajectory of the target crosses this line, the second dome is theoretically better positioned than the first to follow the target; the size of the target (in number of pixels) must be larger. If one switches from one dome to the other crossing the line of equal distance, there can be a phenomenon of perpetual tilting from one dome to another when the intruder journeys along. line. In fact, as long as the first dome continues to track the target, there is no point in switching to the second dome. On the other hand, the second dome must be ready in case the first loses the target. We therefore propose the following operation: - Detection of the crossing of the line of equal distance. - Focusing the second thermal dome towards the target. - Waiting 15s of confirmation by the videosensor -If confirmation, locking the target and autotracking; -3 If no confirmation, focus towards the last raised position and wait confirmation 15 seconds, and so on. - Failover of the second dome in the alarm channel if the target is lost by the dome 1 or size less than a threshold to be determined [0134] In the case of the thermal dome towards the visible dome, with partial recovery, it is possible to project, for each visible dome, a hanging circle whose radius is a function of the zoom power of each dome. This radius takes into account the most favorable case (the day). At night, depending on the quality of the lighting, the limit of attachment is no longer a function of the dome but of the range of the lighting. In our example, the limit follows the closing of the site. By day, we propose the following operation: - Detection of the crossing of the hanging line of the dome; - Focusing of the visible dome towards the target; - Waiting 15s of confirmation by the video sensor: - If confirmation, locking the target and autotracking, -3 If no confirmation, focusing towards the last position raised by the thermal dome and wait confirmation 15s, so on, - Tilting of the dome visible in the alarm channel if the target is lost by the thermal dome. At night, the operation is identical, but based on the detection of crossing the lighting limit: - Detection of crossing the lighting limit. - Focusing the visible dome towards the target. - Waiting 15s of confirmation by the video sensor: confirmation, locking the target and autotracking -) If no confirmation, focus towards the last position raised by the thermal dome and wait confirmation 15s, so on. - Failover of the visible dome in the alarm channel as soon as the target is lost by the thermal dome. In the case of the thermal dome towards the visible dome, without partial recovery, FIG. 50, as long as the thermal dome retains its target, it remains at the alarm channel. When the thermal dome reaches the range limit, its probability of returning to its target is low and the probability of returning to a target different from the original target becomes significant. It is then possible to initiate a recovery procedure by the visible domes or domes closest to the detection of the crossing of the thermal dome catch limit. We propose the following procedure: - Detection of the crossing of the line of attachment of the thermal dome. - Trigger on the visible dome of a slow scan of a limited area centered on the last known position of the target. - Failover of the visible dome in the alarm channel if the target is lost by the thermal dome and taken back by the visible dome, if no thermal dome has hung the target. In the case of the visible dome towards the thermal dome without partial overlap, the return to the thermal dome (s) must be made as soon as possible, as soon as the target leaves the zone defended by the visible domes and a thermal dome can locate the target. When the target reaches the limit of range of a visible dome, we can trigger a recovery procedure by the nearest thermal dome (s). By day, as long as the target can be tracked by the visible domes, it is more interesting to stay in the visible. At night, it is the opposite: it is more interesting to return to the thermal. During the day, we therefore propose the following operation: - Detection of the crossing of the hanging line of the dome. - Triggering on the thermal dome of a slow scan of a limited area centered on the last known position of the target. - Failover of the thermal dome in the alarm channel if the target is lost by the visible dome and no visible dome is candidate. At night, we propose the following operation: - Detection of the crossing of the lighting limit of the visible dome. - Triggering on the thermal dome of a slow scan of a limited area centered on the last known position of the target. - Switching of the thermal dome in the alarm channel as soon as the target is lost by the visible dome. In the case of the visible dome to the thermal dome, the return to the (s) thermal domes (s) must be made as soon as the target leaves the area defended by the visible domes. By day, as long as the target can be tracked by the visible domes, it is more interesting to stay in the visible. At night, it is the opposite: it is more interesting to return to the thermal. By day, we therefore propose the following operation: - Detection of the crossing of the hanging line of the dome. - Focus of the thermal dome towards the target - Waiting 15s of confirmation by the video sensor: confirmation, locking the target and autotracking, - ~ If no confirmation, focusing towards the last position raised by the visible dome and wait confirmation 15s, so on, - Failover of the thermal dome in the alarm channel if the target is lost by the visible dome and no visible dome is candidate [0141] By night, we propose the following operation: - Detection of the crossing of the lighting limit. - Focusing of the thermal dome towards the target - Waiting 15s of confirmation by the video sensor:) If confirmation, locking the target and autotracking, -) 'If no confirmation, focus towards the last position raised by the visible dome and waiting confirmation 15s, so on - Switching the thermal dome in the alarm channel as soon as the target is lost through the visible dome. [0142] Case of the visible dome to visible dome with partial recovery of the fields of view. As for the thermal domes, the mediator of the line connecting the two domes is the line of equal distance from a target to the two domes. However, unlike thermal domes, with 60 degrees of opening, the report of the optical axis of a visible dome on the site plan is an inaccurate location: when crossing the line is detected, the intruder can be in a more or less wide area upstream or downstream of this line. By day, we therefore propose the following operation: - Target entry detection in the snap sector common to both domes. - Focusing of the second visible dome towards the target. - Wait 15s confirmation by the video sensor: - * If confirmation, lock the target and autotracking, no confirmation, focus towards the last position raised by the first dome and wait confirmation 15s, so on, -) If loss of target, focus towards the last position raised by the first dome and wait confirmation 15s, so on. - If the first dome loses the target and the second hangs: tilting of the second dome to the alarm channel. - If the two domes lose the target: the first one that resumes it switches to the alarm channel; if a thermal dome has hung the target, and no visible dome is a candidate, it switches to the alarm channel. At night, we therefore propose the following operation: - Target entry detection in the snap sector common to both domes. - Focusing the second visible dome towards the target. - Wait 15s of confirmation by the video sensor: -If confirmation, lock the target and autotracking, --If not confirmation, focus towards the last position raised by the first dome and wait confirmation 15 seconds, so on, 25 -) 'If the target is lost, focus towards the last position raised by the first dome and wait confirmation 15 seconds, and so on. - If the first dome loses the target and is hooked by another dome, tilting of this dome in the alarm channel with priority to thermal domes. - If the 2 domes lose the target: the first one that resumes it switches to the alarm channel, with priority to the thermal domes. [0145] In FIG. 51, represents the visible dome towards visible dome without overlapping fields of view. When the target crosses the hanging limit of a dome, the best-positioned domes must focus towards the last raised position and wait for the video sensor to go off. By day, we therefore propose the following operation: 15 - Target exit detection of its attachment sector towards the second dome. - Focusing the second visible dome towards the target. - Wait 15s of confirmation by the video sensor of the dome 2: confirmation, locking the target and autotracking, 20 non-confirmation, focusing towards the last position raised by the first dome and wait confirmation 15s, and so on, loss of the target, focusing towards the last position raised by the first dome and waiting confirmation 15s, so on. - If the first dome loses the target and the second hangs: tilting of the second dome to the channel. - If the two domes lose the target: the first one that resumes it switches to the alarm channel. At night, we therefore propose the following operation: - Detection of the target's exit from its attachment sector towards the second dome - Focusing of the second visible dome towards the target - Waiting 15s of confirmation by the video scanner of the second dome: -? If confirmation, lock the target and unconfirmed autotracking, focus towards the last position raised by the first dome and wait confirmation 15s, so on,) If loss of the target, focus towards the last position raised by the first dome and wait confirmation 15s, so on. - If the first dome loses the target and is hooked by another dome, tilting of this dome in the alarm channel with priority to the thermal domes. 20 - If the 2 domes lose the target: the first one that resumes it switches to the alarm channel, with priority to the thermal domes. Figures 52 and 53 show the dome to fixed camera. We are interested in the camera 1. To enter his field of vision, an intruder can come (with direction of crossing): 15 25 - from a building exit (sensor 1); - the left fence (sensor 2); - from the other side (sensor 3), and - from the back (sensor 4). If the target is autotracking on the left or right thermal dome: - Detection of the crossing of the lighting limit. - Depending on the crossing point: arming sensors 2 and 4 or arming sensors 2 and 3. - Wait for 10 minutes confirmation by one of the sensors - If confirmation, switching the camera in the alarm channel, -> If no confirmation, disarming of the sensors [0150] If the target is in autotracking on the visible dome opposite: - Detection of the crossing of the dome snap zone limit towards the camera. - Arming of the sensor 3. - Waiting 10 mn of confirmation: - If confirmation, switching of the camera in the alarm channel, - If no confirmation, disarming of the sensor. If the target is autotracking on the rear visible dome: - Detection of crossing the dome catchment limit of the dome to the camera. 20 - Arming the sensor 4. - Waiting 10 mn of confirmation: -) If confirmation, switching of the camera in the alarm channel, -If not confirmation, disarming of the sensor. Figures 52 and 54 show the following case of the dome to fixed camera. We are interested in the camera 2 whose field of vision overlaps that of the visible dome. [0153] The visible dome has hung the target: - Arming the sensor 3 as the target is locked by the dome. - Wait for confirmation of the sensor: confirmation, followed by the target in the field of vision of the camera (autotracking) - If the dome loses the target: -) Switching the camera in the alarm channel. [0154] The thermal dome locks the target: - Detection of the crossing of the lighting limit. - Focus of the visible dome towards the target and arming of the sensors 2 and 3 of the camera: -) If the visible dome locks the target, it autotracke -) If the camera locks the target, it autotracke - Si the thermal dome loses the target, tilting of the dome in the alarm channel, if it still has the target, the camera in the opposite case, even if it no longer has the target. - If the camera loses the target, arming sensors 2, 3 and 4 of the external cameras 1,2 and 3 for 10 minutes (example of recovery procedure). - Disarming the sensors after 10 minutes if the target was not picked up by any camera. In the case of the fixed-to-dome camera, illustrated by FIGS. 52 and 55: • Camera 1 - Output of the camera field via the sensor 4: Positioning of the thermal and visible domes towards the camera, - Waiting for confirmation 10 minutes , ~ Autotracking of the target by any dome locking the target, Insertion to the alarm channel in the following order of priority: thermal dome, visible dome - Output of the camera field via the sensor 2: -Positioning the thermal domes and the visible dome facing the camera, towards the camera, -) 'Waiting confirmation 10mn, -3 Autotracking the target by any dome locking the target, Insertion to the alarm channel in the following order of priority: thermal dome, visible dome. - Output of the camera field via the sensor 3: -) 'Positioning of the thermal dome and the visible dome facing the camera, towards the camera, -> Waiting confirmation 10mn, -> Autotracking of the target by any dome locking the target , -) Insertion in the alarm channel in the following order of priority: thermal dome, visible dome. In the case of the fixed camera towards fixed camera, illustrated by FIGS. 52 and 56: [0157] We are interested in the cameras 2 and 3. - Output of the field of the camera 2 via the sensor 4: Arming of the sensor 3 of the camera 3, -Waiting confirmation 10mn, -Insertion of the camera 3 to the alarm channel if no dome is a candidate. - Passing of the sensor of the camera 3 towards the camera 2: Arming the sensor 4 of the camera 2, - Waiting confirmation 10 minutes, - Inserting the camera 2 to the alarm channel if no dome is a candidate. [0158] Let's follow an individual from the property limit inside a building: - The sensors are permanently active or temporarily deactivated (entry of the site on or any point of detection, until authorized access, for example) . Activating a sensor pre-alerts a thermal or visible dome that confirms and self-tests the target. - The individual's journey is reported both on the panoramic image of the dome and on the site plan. Virtual dams are included, symbolizing the clashing areas of neighboring domes and fixed cameras. - The virtual crossing of a hooking area by the intruder pre-alerts one or more domes, which confirm, hang and self-tap. Each dome must confirm on its snap area only: the sensor zone should not be extended to the entire image in order to avoid confirming on site staff. Therefore, if the snap does not occur in the 15s, a new set point is given to the dome that tries again to detect the target. - When the thermal dome loses the intruder, the hypertracking motor designates the dome that will take over from the thermal dome in the alarm channel. - If the initial dome loses the intruder and no other dome follows the intruder, he must pre-alert himself (he can find his target later) and other domes whose attachment sectors are the same. more likely. One can imagine that a motion-scanning zone scan mechanism is automatically set up on the nearby thermal dome and neighboring domes to maximize the chances of finding the intruder. - When a visible dome hangs the intruder, it autotraque. It is clear at this level that if a person from the site is confused with the intruder, the chances of finding the intruder diminish. This is why, if autotracking is done in a wide shot, we keep a global view of the site and the possibility of recovering from an error. Moreover, we lose the opportunity to identify the target. But, if the operator takes the hand, he can decide to zoom on the target. - Domes and visible cameras can hypertrack the same individual, on fairly wide areas of attachment. As far as possible, individuals already present on the site before the arrival of the intruder must be identified and neutralized. They should therefore be transferred to the site plan. - When the intruder approaches a building, the dome pre-alarms the indoor cameras: we have seen that the positioning of sensors on the opening or passage points required by indoor cameras was often necessary to restrict the choice of potential cameras. Only these sensors confirm for the cameras concerned. The software must therefore accept the dynamic arming and disarming of: - sensors, - sectors and zones of attachment, and - sensors on opening or forced points of passage. The software must be able to automatically neutralize the sectors around the people present on an area before an intrusion is detected and follow the movement of these people from fixed camera to fixed camera (no autotracking) to limit the number candidate channels. The software must be able to constitute video clips of initial intrusion confirmations and photos of each confirmation hooking, and make a choice when two confirmations create a possible tree of the alarm channel.

La caméra choisie alimente le canal alarme et la caméra candidate crée une nouvelle arborescence appelée canal candidat. A priori, si les choix opérés sont les bons, un canal candidat a plus de chance, soit d'alimenter à terme le canal alarme, soit de mourir , c'est-à-dire que la cible suivie se stabilise sur le site ou, n'étant pas une vraie cible, est perdue par la caméra. [0162]Comme représenté à la figure 19, l'opérateur doit pouvoir visualiser sur une même fenêtre, le déroulement du canal alarme et l'apparition de canaux candidats. Il doit pouvoir visualiser les photos des confirmations d'accrochage. [0163]L'opérateur dispose du canal alarme et des photos qui balisent chaque changement de caméra du canal alarme et chaque début de nouvelle arborescence d'un canal candidat. [0164] Lorsqu'il se connecte en direct sur le site, il se connecte au canal alarme et relis, dans une fenêtre, l'historique du canal alarme depuis l'intrusion. [0165]Chaque changement de ressource vidéo dans le canal alarme déclenche la transmission de la vignette associée. [0166]En cliquant sur une vignette, l'opérateur peut visionner l'image dans son format natif. En cliquant sur un canal candidat, l'opérateur peut relire l'enregistrement vidéo correspondant ou commuter la source vidéo en direct dans le moteur de réalité augmenté. [0167]11 existe 2 possibilités où situer l'hypertracking : - hypertracking décentralisé, et - hypertracking centralisé. [0168]Hypertracking décentralisé (hypertracking coopératif) : à l'image de joueurs sur un terrain de foot (les caméras), le joueur le mieux positionné prend automatiquement le ballon (la cible) en entente avec ses équipiers. Cela suppose une intelligence collective des dômes et des caméras et une règle permettant à la caméra la mieux positionnée de s'insérer d'autorité dans le canal alarme. The chosen camera feeds the alarm channel and the candidate camera creates a new tree called the candidate channel. A priori, if the choices made are the right ones, a candidate channel is more likely, either to feed the alarm channel in the long run, or to die, ie the target tracked stabilizes on the site or , not being a real target, is lost by the camera. As shown in Figure 19, the operator must be able to view on the same window, the course of the alarm channel and the appearance of candidate channels. He must be able to view the snap confirmations photos. The operator has the alarm channel and the photos that mark each camera change of the alarm channel and each start of a new tree of a candidate channel. When it connects live on the site, it connects to the alarm channel and reread, in a window, the history of the alarm channel since the intrusion. Each change of video resource in the alarm channel triggers transmission of the associated thumbnail. [0166] By clicking on a thumbnail, the operator can view the image in its native format. By clicking on a candidate channel, the operator can replay the corresponding video record or switch the live video source into the augmented reality engine. There are two possibilities where to situate the hypertracking: decentralized hypertracking, and centralized hypertracking. [0168] Decentralized hypertracking (cooperative hypertracking): like the players on a football field (the cameras), the best positioned player automatically takes the ball (the target) in agreement with his teammates. This assumes a collective intelligence of domes and cameras and a rule allowing the best-positioned camera to fit into the alarm channel.

Hypertracking semble logiquement réservé à une intelligence centralisée : la géolocalisation des cibles semble en être une bonne raison. Mais avant d'écarter l'hypothèse d'un hypertracking collectif, poussons le raisonnement jusqu'au bout. [0169]Reprenons la problématique du match de foot. Une équipe de joueurs prépositionnés sur le terrain (mais avec certaine une latitude de déplacement) poursuit un ballon dont la trajectoire n'est pas maîtrisée par le groupe puisque l'équipe adverse peut en prendre le contrôle. Le ballon constitue la cible officielle. Le marquage des joueurs adverses constitue autant de cibles secondaires que de joueurs pouvant s'avérer dangereux à l'approche du but. Le comportement des joueurs est parfaitement réglé par l'intelligence de jeu collectif : il est très rare que 2 joueurs d'une même équipe se disputent le ballon. [0170]Revenons maintenant à nos dômes et caméras poursuivant un intrus et révisons les fonctionnalités attendues par le télésurveilleur. [0171] Canal alarme : Chaque caméra ou dôme qui s'estime le mieux positionné par rapport à la cible officielle s'insère automatiquement dans le canal alarme, sur la base d'une intelligence collective qui règle les confits. Pour faire simple, on peut imaginer, par exemple, un canal multicast dédié à l'alarme (comme une chaîne télé) sur lequel chaque caméra poursuivant la cible 20 émet successivement, d'une manière concertée avec les autres. Le centre de télésurveillance doit pouvoir relire le canal alarme, depuis la détection de l'intrus jusqu'à la vision en direct d'un opérateur. La première solution est de faire appel à un magnétoscope local filmant sur site le canal alarme. La deuxième solution est de laisser à chaque caméra le soin de conserver ses 25 propres enregistrements. La troisième solution est d'enregistrer le canal alarme au centre de télésurveillance. Cette solution semble la plus simple car elle n'implique pas de matériel supplémentaire sur le site. Mais techniquement, elle implique une connexion automatique du centre de télésurveillance au canal alarme, avant que le doute ne soit levé par l'opérateur, donc avant de décider si oui ou non le site doit être suivi par un opérateur. Cette solution présente donc l'inconvénient de consommer de la bande passante entrante avant de décider si on va traiter ou non le site. Mais elle présente un avantage indéniable : elle est politiquement correcte car elle va dans le sens de l'avantage client. En effet, les images du site peuvent être diffusées sur un écran en salle d'analyse, susceptibles d'être visualisées par un opérateur analyseur, même s'il n'est pas encore saisi officiellement de la mission de surveillance de ce site. [0172] Canaux candidats : Le suivi des canaux candidats par le centre de télésurveillance implique : ^ la mise en place et la diffusion de missions parallèles permettant à plusieurs caméras de tracker une cible non officielle ; • leur diffusion sur un canal candidat ; • l'enregistrement des caméras contribuant à un canal candidat ou l'enregistrement des canaux candidats ; • l'accès par le centre de télésurveillance en direct à tous les canaux candidats potentiels ; • l'accès par le centre de télésurveillance aux enregistrements successifs des caméras contribuant aux différents canaux candidats ou à l'enregistrement des canaux candidats ; [0173]Lorsqu'une caméra accroche une cible, elle doit le signaler au centre de télésurveillance. En effet, l'opérateur doit pouvoir évaluer la piste suivie par cette caméra et les caméras suivantes, en cas d'échec constaté sur le canal alarme. L'information du centre de télésurveillance par la caméra peut être l' image d'accrochage elle-même ou un lien vers cette image transmis sous forme de vignette. [0174]La caméra doit ensuite : • soit conserver elle-même les images suivantes : le centre de télésurveillance devra aller les rechercher dans la caméra, et ce, pour chaque caméra ; • soit les émettre sur un canal candidat : les canaux candidats doivent être enregistrés par un équipement externe aux caméras, soit sur site, soit au centre de télésurveillance (si le nombre n'est pas trop important) [0175]Dans l'hypothèse où chaque caméra assure ses propres enregistrements, ceux-ci doivent être rattachés et indexés sur le numéro de canal candidat. [0176]Dans l'hypothèse où un dispositif extérieur gère les enregistrements, se pose le problème suivant : on ne sait pas, à priori, combien il aura de canaux à enregistrer. Au pire, il ne devrait pas y avoir plus de canaux candidats que de caméras sur le site (à démontrer) et, pour le centre de télésurveillance, la multivision des canaux candidats restera moins consommatrice de bande passante que la multivision de toutes les caméras du site. [0177]Le problème posé par la solution de l'hypertracking collectif est que les caméras existantes ne peuvent pas aujourd'hui être prises en compte dans l'hypertracking. II n'y aura donc pas de marché à court terme pour cette technologie. Par contre, elle va dans le sens de l'intégration au plus près de la caméra et mérite certainement d'être étudiée de près. [0178]Hypertracking centralisé : Option 1 : la fonction d'hypertracking est intégrée au logiciel d'enregistrement vidéo du site. Option 2 : l'hypertracking est une fonctionnalité assurée par un équipement indépendant du site, qui accède aux ressources vidéo soit : • directement : il envoie les requêtes de flux et décode les flux ; • via le système d'enregistrement vidéo du site (abonnement aux ressources de l'enregistreur via SDK). [0179]Hypertracking centralisé sur l'enregistreur vidéo du site existant. Dans cette solution, on considère qu'une solution logicielle de type Milestone ou Genetec intègre un module d'hypertracking. L'avantage pour le client final est : • pas de multiplication des équipements ; pas de multiplication des flux sur le réseau (un seul flux pour l'enregistrement et le traitement d'images) ; • à priori, coût profitant d'une plus large diffusion des logiciels. [0180]On entrevoit dans cette solution, trois forces d'algorithmes (comme le fait Sony dans son logiciel) : niveau standard : applicable à la plupart des caméras intérieures ; niveau avancé : réservé aux caméras et dômes intérieurs et extérieurs. [0181]Le niveau avancé consommant plus de ressources de calcul que le niveau standard, on peut imaginer qu'une partie des traitements d'hypertracking soient effectués dans les dômes thermiques et visibles et caméras extérieures. [0182]A titre d'exemple, les dômes et caméras Sony embarquent une détection de mouvement avancée qui peut être exploitée sous forme d'alarme par les logiciels Milestone et Sony (pas par Genetec) et sous forme de Metadata par le logiciel Sony (pas par Milestone). Cela explique la difficulté (ou le manque de volonté) des éditeurs de logiciels de vidéosurveillance dès lors qu'il s'agit d'intégrer une fonctionnalité propriétaire. [0183]Le même problème se pose d'une manière plus basique pour le pilotage des dômes disposant du pointage absolu. Milestone et Sony utilisent le pointage absolu des dômes Sony, pas Genetec, qui jusqu'à présent s'est refusée à intégrer ce type de pilotage trop propriétaire . [0184]Afin de minimise l'effort de développement des intégrateurs, Sony, Axis et Bosch se sont rapprochés au niveau mondial afin d'harmoniser leurs protocoles et leur métadonnées. La prochaine version du logiciel Sony RealShotManager reconnaîtra les caméras Bosch et Axis. L'Afnor vient de lancer un groupe de travail pour l'élaboration à 3 ans d'une norme sur l'interopérabilité en vidéosurveillance numérique. A priori, les télésurveilleurs ne sont pas représentés dans ce groupe de travail. [0185]Pour avancer dans cette voie, Scutum doit convaincre au moins un intégrateur logiciel de type Milestone ou Genetec et probablement un intervenant spécialisé en détection vidéo intelligente. [0186]Hypertracking centralisé sur un équipement autre que l'enregistreur du site. On a deux possibilités : • cet équipement fait seul l'acquisition et la décompression des flux vidéo avant traitement : il faut d'ores et déjà éliminer cette solution qui nécessite un travail permanent d'intégration de nouvelles caméras de surveillance IP. Ou alors la limiter à quelques flux génériques JPEG et MPEG4. • cet équipement récupère les flux vidéo décompressés via le système d'enregistrement du site : cela nécessite de développer sur la base du SDK de l'éditeur de logiciel. Les possibilités offertes par les éditeurs de logiciel sont différentes ; Genetec, par exemple travaille sur le flux vidéo natif et gère la décompression, Milestone confie aux SDK des fabricants la décompression. ISS, fait les deux, en fonction du fabricant de caméra. Genetec semble être la voie la plus sure. C'est le choix d'Evitech, qui récupère les flux via Genetec et retourne les alarmes issues de ses propres calculs à Genetec. Hypertracking seems logically reserved for a centralized intelligence: the geolocation of targets seems to be a good reason. But before ruling out the hypothesis of a collective hypertracking, let's push the reasoning to the end. Let's take up the problem of the football match. A team of players prepositioned on the field (but with some latitude of movement) pursues a ball whose trajectory is not mastered by the group since the opposing team can take control. The ball is the official target. The marking of the opposing players is as many secondary targets as players who can be dangerous when approaching the goal. The behavior of the players is perfectly regulated by the intelligence of collective game: it is very rare that 2 players of the same team compete for the ball. [0170] Now back to our domes and cameras pursuing an intruder and review the features expected by the remote surveillance. [0171] Alarm channel: Each camera or dome that considers itself best positioned relative to the official target automatically inserts into the alarm channel, based on a collective intelligence that settles the confits. For simplicity, one can imagine, for example, a multicast channel dedicated to the alarm (such as a TV channel) on which each camera pursuing the target 20 emits successively, in a concerted manner with others. The central monitoring station must be able to re-read the alarm channel, from the detection of the intruder to the live view of an operator. The first solution is to use a local video recorder filming the alarm channel on site. The second solution is to allow each camera to keep its own recordings. The third solution is to register the alarm channel at the central station. This solution seems the simplest because it does not imply additional material on the site. But technically, it involves an automatic connection of the central monitoring station to the alarm channel, before the doubt is raised by the operator, so before deciding whether or not the site must be followed by an operator. This solution therefore has the disadvantage of consuming incoming bandwidth before deciding whether or not the site will be processed. But it has an undeniable advantage: it is politically correct because it goes in the direction of the customer advantage. Indeed, the images of the site can be diffused on a screen in analysis room, likely to be visualized by an operator analyzer, even if it is not yet officially seized of the mission of surveillance of this site. Candidate Channels: The monitoring of the candidate channels by the remote surveillance center involves: the setting up and the broadcasting of parallel missions allowing several cameras to track an unofficial target; • their distribution on a candidate channel; • registration of cameras contributing to a candidate channel or registration of candidate channels; • access by the remote monitoring center to all potential candidate channels; • access by the central monitoring station to the successive recordings of the cameras contributing to the different candidate channels or to the recording of the candidate channels; When a camera hangs a target, it must report it to the central station. Indeed, the operator must be able to evaluate the track followed by this camera and the following cameras, in case of failure found on the alarm channel. The information from the central monitoring station by the camera may be the snap image itself or a link to this image transmitted as a thumbnail. The camera must then: • either keep itself the following images: the monitoring station will have to search them in the camera, and this, for each camera; • or transmit them on a candidate channel: the candidate channels must be recorded by equipment external to the cameras, either on site or at the central station (if the number is not too important) [0175] Assuming that each camera provides its own recordings, these must be attached and indexed on the candidate channel number. In the event that an external device manages the recordings, the following problem arises: it is not known, a priori, how many channels it will have to record. At worst, there should not be more candidate channels than cameras on the site (to demonstrate) and, for the monitoring center, the multivision of the candidate channels will remain less bandwidth consuming than the multivision of all the cameras of the site. site. The problem posed by the solution of collective hypertracking is that existing cameras can not today be taken into account in hypertracking. There will therefore be no short-term market for this technology. However, it goes in the direction of integration closer to the camera and certainly deserves to be studied closely. Centralized Hypertracking: Option 1: the hypertracking function is integrated into the video recording software of the site. Option 2: Hypertracking is a feature provided by site-independent equipment that accesses video resources: • Directly: Sends stream requests and decodes streams. • via the video recording system of the site (subscription to the resources of the recorder via SDK). Centralized hypertracking on the video recorder of the existing site. In this solution, it is considered that a software solution of the Milestone or Genetec type integrates a hypertracking module. The advantage for the end customer is: • no multiplication of equipment; no multiplication of flows on the network (a single stream for recording and image processing); • a priori, cost benefiting from wider dissemination of software. In this solution, we see three forces of algorithms (as Sony does in its software): standard level: applicable to most indoor cameras; advanced level: reserved for indoor and outdoor cameras and domes. The advanced level consuming more computing resources than the standard level, one can imagine that some of the hypertracking treatments are performed in the thermal and visible domes and external cameras. By way of example, the Sony domes and cameras embody advanced motion detection which can be exploited as an alarm by the Milestone and Sony software (not by Genetec) and in the form of Metadata by the Sony software ( not by Milestone). This explains the difficulty (or the lack of will) of the video surveillance software vendors when it comes to integrating a proprietary feature. The same problem arises in a more basic way for controlling domes with absolute pointing. Milestone and Sony use the absolute pointing of the Sony domes, not Genetec, which until now has refused to integrate this type of control too proprietary. In order to minimize the development effort of the integrators, Sony, Axis and Bosch have come together at the global level to harmonize their protocols and their metadata. The next version of the Sony RealShotManager software will recognize the Bosch and Axis cameras. Afnor has just launched a working group to develop a 3-year standard for interoperability in digital video surveillance. A priori, telemonitoring operators are not represented in this working group. To move in this direction, Scutum must convince at least one software integrator Milestone or Genetec type and probably a specialist in intelligent video detection. Hypertracking centralized on equipment other than the site recorder. There are two possibilities: • this equipment alone acquires and decompresses the video streams before processing: it is already necessary to eliminate this solution which requires a permanent work of integration of new IP surveillance cameras. Or limit it to a few generic JPEG and MPEG4 streams. • this equipment recovers uncompressed video streams via the site's registration system: this requires developing on the basis of the SDK of the software publisher. The possibilities offered by software publishers are different; Genetec, for example, works on the native video stream and manages the decompression, Milestone entrusts the SDK manufacturers decompression. ISS, does both, depending on the camera manufacturer. Genetec seems to be the safest way. This is the choice of Evitech, which recovers the flows via Genetec and returns the alarms from its own calculations to Genetec.

Il faut donc : soit convaincre un spécialiste de détection vidéo intelligente d'intégrer l'hypertracking à leur propre moteur d'analyse vidéo, d'une part, et d'avoir une politique de prix agressive pour les licences caméras intérieures, d'autre part ; soit de développer un moteur propriétaire strictement limité à l'hypertracking ; La première voie semble la plus pérenne car susceptible d'évoluer avec les progrès de l'intelligence vidéo. [0187]Un autre mode de réalisation porte également sur un hypertracking multithreadé, où chaque thread serait propre à une caméra, en essayant de conserver le plus possible l'indépendance de chaque thread vis-à-vis d'un thread principal. Ce qui reviendrait à simuler sur un serveur centralisé le comportement de N caméras agissant collectivement. [0188]Afin d'assurer un fonctionnement optimal de l'invention le système comprend des moyens permettant le calibrage des valeurs de rotation des dômes. [0189]La première étape du calibrage des dômes consiste à aligner leurs valeurs de rotation sur un référentiel commun. [0190]11 existe deux méthodes : l'alignement des dômes sur l'infini et l'alignement 15 deux à deux. [0191]Dans de cadre de l'alignement des dômes sur l'infini et comme illustré à la figure 57, lorsqu'un point caractéristique situé à l'infini (plusieurs Km) est visible depuis la plupart des dômes du site, la méthode la plus simple consiste à prendre un 1er dôme de référence (dôme 0), puis : 20 • de mesurer la valeur en pan de ce point ; • pour chaque dôme, d'aligner la valeur en pan de ce point sur la valeur de référence. Pour les dômes ne pouvant visualiser le même point de référence, ils doivent être alignés en pan sur des dômes déjà calibrés avec lesquels ils partageant un même 25 point caractéristique très éloigné. So you have to: convince an intelligent video detection specialist to integrate hypertracking into their own video analytics engine, on the one hand, and have an aggressive price policy for indoor camera licenses, on the other hand go ; to develop a proprietary engine strictly limited to hypertracking; The first path seems the most durable because likely to evolve with the progress of video intelligence. Another embodiment also relates to a multithreaded hypertracking, where each thread would be specific to a camera, trying to keep as much as possible the independence of each thread vis-à-vis a main thread. This would be to simulate on a centralized server the behavior of N cameras acting collectively. In order to ensure optimum operation of the invention the system comprises means for calibrating the rotation values of the domes. The first step of the calibration of the domes consists in aligning their rotation values with a common reference frame. [0190] There are two methods: the alignment of the domes on the infinite and the alignment two by two. In the context of the alignment of the domes on the infinite and as illustrated in FIG. 57, when a characteristic point situated at infinity (several Km) is visible from most of the domes of the site, the method the simplest is to take a first reference dome (dome 0), then: • measure the pan value of this point; • for each dome, align the value in pan of this point with the reference value. For the domes that can not visualize the same reference point, they must be aligned in pan on already calibrated domes with which they share a very distant characteristic point.

Après calibrage, les points très éloignés doivent afficher des valeurs de pan identiques lorsqu'ils sont pointés dans les images panoramiques de différents dômes. [0192]Dans le cadre de l'alignement des dômes deux à deux t comme illustré à la figure 58, une autre technique de calibrage des valeurs de rotation consiste à aligner les dômes 2 à 2 : • On prend un premier dôme de référence ; • On vise un second dôme à partir du 1er dôme ; • On mesure la valeur pan = p1 ; • Avec le second dôme on vise le 1 er dôme ; • On mesure la valeur pan = p2 ; • On applique la correction de rotation R sur le 2nd dôme pour que p2=pl +180°. On aligne ainsi les autres dômes en procédant de la même manière, en choisissant les dômes les plus éloignés plutôt que les dômes les plus proches. [0193]La deuxième étape de calibration consiste, pour chaque dôme, à entrer leurs coordonnées GPS (x, y et altitude h) dans le configurateur, comme illustré aux figures 59 à 61. Les valeurs d'altitudes doivent être validées par la méthode consistant, pour 20 chaque dôme, à aller pointer dans l'image panoramique le pied des autres dômes visibles et vérifier la valeur retournée par le calcul : • h1-n1 = D tan (t1) ; • h2-n2 = D tan (t2). [0194]Puis, dans la mesure du possible, des points intermédiaires situés sur la 25 droite joignant les deux dômes doivent être vérifiés comme étant alignés avec 10 1520 l'autre dôme dans chaque panoramique. Les altitudes ni sont calculées en utilisant la méthode de mise en correspondance précédente et relevées dans les matrices associées des deux panoramiques et sur le plan. [0195]Dans l'hypothèse qu'on connaisse pour chaque dôme les positions et 5 altitudes (x,y,h). On peut calculer la distance des deux dômes : • D = racine((x2-x1)2 +(y2-yl)2) Et l'angle absolu R de la droite joignant les deux dômes, dans le référentiel commun : • R = Atan[(yl-y2) / (x1-x2)] Si on calcule les angles (pan) de la cible relatifs à cette droite : • p'1= p1-R • p'2=p2-R On a: • dl cos(p'l) + d2 cos(p'2) = D • dl sin(p'1)=d2 sin(p'2) D'où pour les valeurs non nulle de p'2 (cible non alignée avec les dômes) : d2 = dl sin(p'l)/sin(p'2) • dl [cos(p'1) + cos(p'2)sin(p'1)/sin(p'2)]=D • dl = D sin(p'2) / [cos(p'1)sin(p'2)+cos(p'2)sin(p'1)] Soit: • dl = D sin(p'2)/sin(p'l+p'2) • d2 = D sin(p'l)/sin(p'l+p'2) [0196]Lorsque deux dômes visent une cible non alignée avec les dômes, sa position est déterminée de manière unique par les valeurs de pan des deux dômes. [0197]On a aussi pour les valeurs non nulles de t1 et t2 (cible non alignée sur l'horizon) : • d1 = (h1 - n) / tan (t1) • d2 = (h2 - n) / tan (t2) • dl cos(p'l) + d2 cos(p'2) = D D'où : • (h1 -n) cos(p'l )/ tan(t1) + (h2 -n) cos(p'2)/tan(t2) = D On pose : • cl = cos(p'l)/tan(tl) • c2 = cos(p'2)/tan(t2) [0198]D'où l'altitude de la cible : [0199]• n=h1cl +h2c2ùD/(c1+c2) [0200]En pointant un même point dans deux images panoramiques, on peut donc calculer une valeur d'altitude unique à reporter dans les matrices associées à chaque panoramique. [0201]L'association à chaque image panoramique d'une matrice d'altitudes est 20 nécessaire pour prendre en compte : • les dénivelés importants sur le site • des buttes, terre-pleins, monticules, cuves, toitures ou terrasses accessibles par l'intrus, lorsqu'elles sont visibles par un ou plusieurs dômes [0202]L'ensemble du site ne peut être relevé. Il faut donc s'intéresser uniquement aux trajets probables des cibles potentielles, trajets le long desquels, la non prise en compte des courbes de niveau pourrait induire une erreur de géolocalisation préjudiciable. [0203]Quelles erreurs et quels préjudices peut-on craindre? Rappelons les objectifs à atteindre. [0204]Le système doit : • détecter la cible par un capteur • la confirmer avec un dôme • l'accrocher avec le même dôme [0205] L'opérateur doit ensuite pouvoir : • suivre et évaluer l'évolution de la cible • choisir les ressources vidéo pertinentes • piloter les équipes d'intervention pour l'élimination des menaces [0206] Les menaces sont constituées : • de la cible elle-même • des points à contrôler sur la trajectoire de la cible [0207]Etudions, pour chacune de ces étapes, les données qui devront être entrées dans le système par le configurateur. [0208]Le dôme le mieux positionné doit focaliser vers le capteur en alarme : il doit donc apprendre sa position et l'enregistrer sous forme de préposition (valeur de PTZ préenregistrée). [0209]La méthode classique consiste à piloter le dôme dans une fenêtre du configurateur en centrant le capteur au centre de l'image, puis à associer au capteur la préposition obtenue par la méthode get PTZ [0210]Le report de la position du capteur sur le panoramique n'a, à priori, pas d'intérêt. Pas plus que la géolocalisation du capteur, vis-à-vis des missions opérationnelles de l'opérateur. La valeur de l'altitude des capteurs n'est donc pas nécessaire. Si plusieurs dômes peuvent confirmer la cible, la même procédure s'applique. A noter qu'un seul dôme sera diffusé sur le canal alarme. [0211]L'algorithme d'autotracking n'utilise pas la géolocalisation de la cible, mais repositionne régulièrement l'axe optique du dôme sur les pieds de la cible (points le plus bas de la segmentation). Le configurateur n'apporte aucune valeur par rapport à cette fonction. [0212]Le suivi d'évolution de la cible de caméra en caméra est permis par le moteur d'hypertracking, comme illustré aux figures 63 et 62. Une erreur du moteur d'hypertracking peut être induite par une erreur de géolocalisation. Le moteur d'hypertracking fonctionne ainsi : • autotracking d'une cible par dôme 1 ; • report de sa trajectoire sur l'image panoramique du dôme 1 ; • détection de franchissement d'une limite décrochage/accrochage 20 au niveau de l'image panoramique ; • transmission d'une consigne au dôme 2 pour qu'il vise à l'endroit indiqué. [0213]Ou : • autotracking d'une cible par dôme 1 ; 25 • report de sa trajectoire sur l'image panoramique du dôme 2 ; • détection de franchissement d'une limite décrochage/accrochage au niveau de l'image panoramique du dôme 2 ; • focalisation du dôme 2 en direction de la cible. [0214]Dans le premier cas, si le point de franchissement dans l'image panoramique du dôme 1 ne correspond pas au point de focalisation du dôme 2, le dôme 2 risque de ne pas accrocher la cible. Dans le 2ème cas, une erreur importante de report de la trajectoire de la cible dans l'image panoramique du dôme 2 peut conduire le dôme : • à ne pas déclencher : la trajectoire reportée ne coupe pas la limite d'accrochage alors que la trajectoire réelle la couperait • à déclencher intempestivement : un secteur est franchi, mais lorsque le dôme focalise sur le point de franchissement, il n'y trouve pas la cible. [0215]Afin de réduire ces cas d'erreurs, il suffit de mettre en correspondance les images panoramiques des dômes pris deux à deux au niveau des secteurs d'accrochage/décrochage respectifs. Cette mise en correspondance s'effectue en relevant, dans les secteurs d'accrochage/décrochage, un certain nombre de points caractéristiques (amers) apparaissant dans les deux images panoramiques. [0216]Le configurateur doit donc permettre : • de désigner un point du panoramique 1 ; • de désigner le point correspondant du panoramique 2 ; • de calculer l'altitude n de ce point ; d'entrer cette valeur dans les matrices d'altitudes des deux dômes ; • de laisser ce point sur un calque. [0217]Comme illustré à la figure 63, depuis le dôme 0 on peut accrocher le dôme 1 ou le dôme 2. [0218]A ce niveau, l'on considère avoir réalisé un paramétrage minimal pour atteindre l'objectif fixé. Les courbes doivent cependant être extrapolées par le calcul (hyperboles, polynômes de degrés 3). [0219]La figure 64 le représente après extrapolation. [0220] L'opérateur dispose de 3 méthodes pour insérer un point à contrôler (PTC): • pointer l'emplacement précis du PTC directement dans le canal de géolocalisation opérateur ; • pointer dans l'image temps réel ; • pointer dans l'image panoramique. [0221]La pointage direct dans le canal opérateur est la méthode plus simple lorsque l'emplacement ou l'objet à contrôler est parfaitement identifié sur le plan. Elle présente l'avantage sur les méthodes suivantes d'un positionnement précis du PTC sur le plan du site. Par contre, le report du PTC sur l'image panoramique peut être erroné, en raison de l'erreur sur l'altitude du PTC. Cette méthode n'est pas la plus utilisée, car la vision de l'opérateur est concentrée sur l'intrus plutôt que sur le plan du site. [0222]Le pointage dans l'image réelle est plus naturel : l'opérateur clique sur ce qu'il voit. Le pointage est consigné sur l'image panoramique sous-jacente. Cette méthode suppose que la cible ne se déplace pas trop rapidement, sinon le PTC peut sortir de l'image temps réel, le temps que l'opérateur réagisse. Le pointage dans l'image panoramique permet alors à l'opérateur de pointer (au jugé) le PTC. [0223]Les méthodes de pointage dans l'image réelle ou panoramique présentent l'avantage de désigner avec précision le PTC dans l'image panoramique, mais l'inconvénient d'un report sur le plan plus ou moins précis, en fonction de la précision de l'altitude du PTC dans l'image panoramique. On sait en effet que, plus on approche de l'horizon, plus l'erreur sur la mesure d'altitude entraîne une erreur importante dans le report sur le plan. De même, lorsque l'intrus se trouve dans une région non étalonnée ou faiblement étalonnée en altitude. [0224]Pour remplir sa mission d'élimination des menaces, l'opérateur doit conduire l'intervenant sur les emplacements précis des PTC. Dans l'IHM, les plans du site des 2 canaux de géolocalisation sont des guides opérationnels pour l'opérateur, lui indiquant les positions relatives intervenant/cible et intervenant/PTC. [0225]11 existe deux hypothèses de travail : l'intervenant est géolocalisé par GPS . sa position est automatiquement reportée dans les canaux de géolocalisation ; • l'intervenant n'est pas équipé de GPS. [0226]Auxquelles s'ajoutent les deux possibilités suivantes : • l'intrus a déjà été éliminé lorsque les PTC sont vérifiés : le canal alarme est potentiellement disponible pour le suivi de l'intervenant ; • l'intrus est encore sur site lorsque les PTC commencent à être vérifiés : le canal alarme n'est pas disponible. [0227]Afin de limiter les cas de figure, on considérera que le canal alarme et l'image panoramique associée doivent rester au maximum disponibles pour le suivi ou la récupération de l'intrus et ne doivent être mobilisées par l'opérateur pour suivre l'intervenant, que lorsqu'il a besoin de la vision augmentée pour diriger l'intervenant sur le PTC. [0228]Le pilotage de l'intervenant vers un PTC est dans un mode de réalisation réalisé par l'opérateur, figure 65. Pour débuter sa mission de contrôle d'un PTC, l'opérateur clique sur le PTC dans un canal de géolocalisation et affiche l'image du dôme ayant marqué le PTC dans la fenêtre de prévisualisation, image centrée sur le PTC. [0229]Pour piloter grossièrement l'intervenant vers le PTC, l'opérateur doit, dans un 1er temps, utiliser les canaux de géolocalisation et donner des indications à l'intervenant sur l'emplacement approximatif du PTC. [0230]Lorsque l'intervenant se trouve à proximité du PTC, soit l'opérateur est en mesure de lui indiquer précisément sa localisation (c'est le cas lorsqu'il a pointé le PTC directement dans le canal géolocalisation opérateur), soit il peut piloter l'intervenant une fois qu'il le voit en direct dans la fenêtre de prévisualisation, soit il doit se référer à l'image panoramique afin de lui indiquer précisément le PTC. Dans le dernier cas, l'opérateur va devoir accrocher l'intervenant avec le dôme. [0231]Premier cas : l'intervenant n'est pas géolocalisé. L'opérateur doit utiliser le dôme ayant marqué le PTC pour localiser l'intervenant, l'accrocher et l'autotracker. Il dispose de plusieurs techniques : • Il voit l'intervenant dans le canal de prévisualisation : il engage alors l'autotracking sur l'intervenant en tant que cible ; • Il connaît la position sur plan de l'intervenant (en fonction des indications de ce dernier) : il pointe alors cette position sur le plan, ce qui dirige le dôme vers l'intervenant et lui permet de le voir dans le canal de prévisualisation ; il engage alors l'autotracking sur l'intervenant en tant que cible ; • II lance un scan automatique de zone ; • II recherche manuellement l'intervenant en pilotant le dôme dans le canal de prévisualisation, ou exceptionnellement, en montant le dôme dans le canal alarme. On voit que à défaut de moyen de géolocalisation, l'opérateur peut perdre du temps à accrocher l'intervenant. [0232]Deuxième cas : l'intervenant est géolocalisé. La position GPS de l'intervenant est reportée sur l'image panoramique du dôme ayant marqué le PTC, avec une imprécision relative aux valeurs d'altitudes. Mais une fois l'intervenant autotracké par le dôme, sa position reportée dans l'image panoramique devient précise, puisque issue des valeurs pan and tilt du dôme. Sa position relative par rapport au PTC devient donc précise. After calibration, the very far points should display identical pan values when they are pointed in the panoramic images of different domes. In the context of the alignment of the domes two to two t as illustrated in Figure 58, another technique of calibration of the rotation values is to align the domes 2 to 2: • Take a first reference dome; • A second dome is aimed at from the 1st dome; • We measure the value pan = p1; • With the second dome we aim for the first dome; • We measure the value pan = p2; • The rotation correction R on the 2nd dome is applied so that p2 = pl + 180 °. The other domes are thus aligned in the same way, choosing the more distant domes rather than the nearest domes. The second calibration step consists, for each dome, of entering their GPS coordinates (x, y and altitude h) in the configurator, as illustrated in FIGS. 59 to 61. The altitude values must be validated by the method consisting, for each dome, to point in the panoramic image the foot of other visible domes and check the value returned by the calculation: • h1-n1 = D tan (t1); • h2-n2 = D tan (t2). [0194] As far as possible, intermediate points on the right joining the two domes should be checked to be aligned with the other dome in each pan. The altitudes are computed using the previous matching method and found in the associated matrices of both panes and on the plane. [0195] Assuming that we know for each dome the positions and 5 altitudes (x, y, h). We can calculate the distance of the two domes: • D = root ((x2-x1) 2 + (y2-yl) 2) And the absolute angle R of the line joining the two domes, in the common frame of reference: • R = Atan [(yl-y2) / (x1-x2)] If we calculate the angles (pan) of the target relative to this line: • p'1 = p1-R • p'2 = p2-R We have: • dl cos (p'l) + d2 cos (p'2) = D • dl sin (p'1) = d2 sin (p'2) Hence for the non-zero values of p'2 (target not aligned with the domes): d2 = dl sin (p'l) / sin (p'2) • dl [cos (p'1) + cos (p'2) sin (p'1) / sin (p'2)] = D • dl = D sin (p'2) / [cos (p'1) sin (p'2) + cos (p'2) sin (p'1)] Let be: • dl = D sin (p ') 2) / sin (p'l + p'2) • d2 = D sin (p'l) / sin (p'l + p'2) [0196] When two domes aim at a target not aligned with the domes, its position is uniquely determined by the pan values of both domes. We also have for the non-zero values of t1 and t2 (target not aligned on the horizon): • d1 = (h1 - n) / tan (t1) • d2 = (h2 - n) / tan (t2 ) • dl cos (p'l) + d2 cos (p'2) = D Where: • (h1 -n) cos (p'l) / tan (t1) + (h2 -n) cos (p ') 2) / tan (t2) = D We put: • cl = cos (p'l) / tan (tl) • c2 = cos (p'2) / tan (t2) [0198] Hence the altitude of the target: [0199] • n = h1cl + h2c2ùD / (c1 + c2) [0200] By pointing the same point in two panoramic images, we can calculate a unique altitude value to be reported in the matrices associated with each panoramic . [0201] The association with each panoramic image of a matrix of altitudes is necessary to take into account: • the important elevation changes on the site • mounds, terraces, mounds, vats, roofs or terraces accessible by the intruders, when they are visible by one or more domes [0202] The whole of the site can not be raised. It is therefore necessary to focus only on the probable paths of the potential targets, paths along which the non-taking into account of the contour lines could lead to a detrimental geolocation error. [0203] What errors and what harm can be feared? Remember the objectives to achieve. [0204] The system must: • detect the target by a sensor • confirm it with a dome • hang it with the same dome [0205] The operator must then be able to: • monitor and evaluate the evolution of the target • choose the relevant video resources • control the intervention teams for the elimination of the threats [0206] The threats consist of: • the target itself • checkpoints on the trajectory of the target [0207] Let us study, for each of these steps, the data that will have to be entered into the system by the configurator. The best positioned dome must focus towards the sensor in alarm: it must learn its position and save it as a preposition (prerecorded PTZ value). The conventional method consists in controlling the dome in a configurator window by centering the sensor at the center of the image, and then associating with the sensor the preposition obtained by the get PTZ method. [0210] The transfer of the sensor position on the panoramic has, at first sight, no interest. No more than the geolocation of the sensor, vis-à-vis the operational missions of the operator. The value of the altitude of the sensors is therefore not necessary. If multiple domes can confirm the target, the same procedure applies. Note that only one dome will be broadcast on the alarm channel. The autotracking algorithm does not use the geolocation of the target, but regularly repositions the optical axis of the dome on the feet of the target (the lowest points of the segmentation). The configurator does not provide any value for this function. The evolution of the camera target camera is allowed by the hypertracking engine, as shown in Figures 63 and 62. A hypertracking engine error can be induced by a geolocation error. The hypertracking engine works as follows: • autotracking a target by dome 1; • transfer of its trajectory to the panoramic image of dome 1; • detection of crossing a limit stall / snap 20 at the panoramic image; • transmission of a setpoint to the dome 2 so that it aims at the indicated place. Or: • autotracking of a target by dome 1; 25 • report of its trajectory on the panoramic image of the dome 2; • detection of crossing of a stall / hook limit at the panoramic image of the dome 2; • focus of the dome 2 towards the target. In the first case, if the crossing point in the panoramic image of the dome 1 does not correspond to the point of focus of the dome 2, the dome 2 may not catch the target. In the second case, a significant error in the trajectory of the target in the panoramic image of the dome 2 can lead the dome: • not to trigger: the reported trajectory does not cut the limit of attachment while the trajectory real would cut it • to trigger unexpectedly: a sector is crossed, but when the dome focuses on the crossing point, it does not find the target. In order to reduce these cases of errors, it suffices to map the panoramic images of the domes taken two by two at the respective hooking / unhooking sectors. This matching is done by raising, in the hooking / unhooking sectors, a certain number of characteristic points (bitter) appearing in the two panoramic images. The configurator must therefore allow: • to designate a point of the panoramic 1; • to designate the corresponding point of the panoramic 2; • calculate the altitude n of this point; to enter this value in the matrices of altitudes of the two domes; • leave this point on a layer. As shown in Figure 63, from the dome 0 can be mounted on the dome 1 or the dome 2. [0218] At this level, it is considered to have achieved a minimum parameter to achieve the fixed objective. The curves must, however, be extrapolated by the calculation (hyperbolas, polynomials of degrees 3). [0219] Figure 64 represents it after extrapolation. [0220] The operator has 3 methods for inserting a control point (PTC): • point the precise location of the PTC directly in the operator geolocation channel; • point in the real-time image; • point in the panoramic image. Direct pointing in the operator channel is the simplest method when the location or object to be controlled is perfectly identified on the map. It has the advantage over the following methods of precise positioning of the PTC on the site plan. On the other hand, the transfer of the PTC on the panoramic image can be erroneous, because of the error on the altitude of the PTC. This method is not the most used, because the vision of the operator is focused on the intruder rather than the site plan. The pointing in the real image is more natural: the operator clicks on what he sees. The score is recorded on the underlying panoramic image. This method assumes that the target is not moving too fast, otherwise the PTC may exit the real-time image, the time that the operator responds. The pointing in the panoramic image then allows the operator to point (judged) the PTC. The pointing methods in the real or panoramic image have the advantage of accurately designating the PTC in the panoramic image, but the disadvantage of a report on the more or less precise plane, depending on the altitude accuracy of the PTC in the panoramic image. Indeed, we know that the closer we get to the horizon, the more the error on the altitude measurement leads to a significant error in the report on the plane. Similarly, when the intruder is in an uncalibrated or low altitude calibrated region. [0224] To fulfill its mission of eliminating threats, the operator must lead the speaker on the specific locations of the PTC. In the HMI, the site plans of the 2 geolocation channels are operational guides for the operator, indicating the relative positions intervening / target and intervening / PTC. [0225] There are two working hypotheses: the speaker is geolocated by GPS. its position is automatically reported in the geolocation channels; • The speaker is not equipped with GPS. [0226] To which are added the two following possibilities: • the intruder has already been eliminated when the PTCs are checked: the alarm channel is potentially available for the monitoring of the speaker; • the intruder is still on site when the PTCs start to be checked: the alarm channel is not available. [0227] In order to limit the situations, it will be considered that the alarm channel and the associated panoramic image must remain at the maximum available for the monitoring or the recovery of the intruder and must not be mobilized by the operator to follow the intervener, only when he needs the augmented vision to direct the stakeholder on the PTC. [0228] The pilot's control to a PTC is in an embodiment carried out by the operator, FIG. 65. To begin his PTC control mission, the operator clicks on the PTC in a geolocation channel. and displays the image of the dome that marked the PTC in the preview window, image centered on the PTC. [0229] To roughly control the speaker to the PTC, the operator must, in a first time, use the geolocation channels and give guidance to the speaker on the approximate location of the PTC. [0230] When the speaker is near the PTC, the operator is able to tell him precisely its location (this is the case when he pointed the PTC directly in the geolocalisation operator channel), or he can pilot the speaker once he sees it live in the preview window, or he must refer to the panoramic image to tell him precisely the PTC. In the latter case, the operator will have to hang the speaker with the dome. [0231] First case: the speaker is not geolocated. The operator must use the dome that marked the PTC to locate the speaker, hang it and autotracker. He has several techniques: • He sees the speaker in the preview channel: he then engages autotracking on the speaker as a target; • It knows the position on the plane of the speaker (according to the indications of the latter): he then points this position on the plane, which directs the dome towards the speaker and allows him to see it in the preview channel ; he then engages autotracking on the stakeholder as a target; • He starts an automatic zone scan; • It manually searches for the speaker by driving the dome in the preview channel, or exceptionally by mounting the dome in the alarm channel. We see that in the absence of a means of geolocation, the operator can spend time hooking the speaker. [0232] Second case: the speaker is geolocated. The GPS position of the speaker is plotted on the panoramic image of the dome marking the PTC, with inaccuracy relative to the altitude values. But once the intervener autotracked by the dome, its position reported in the panoramic image becomes precise, since it comes from the pan and tilt values of the dome. Its relative position with respect to the PTC thus becomes precise.

Pour accrocher l'intervenant, on va reporter sa trajectoire GPS sur l'image panoramique du dôme et détecter le franchissement d'une limite d'accrochage. Si le report de cette trajectoire est faux, son intersection avec la limite d'accrochage est fausse et le dôme va focaliser à côté de la cible. To hook the speaker, we will postpone its GPS trajectory on the panoramic image of the dome and detect the crossing of a limit of attachment. If the postponement of this trajectory is false, its intersection with the snap limit is false and the dome will focus next to the target.

Une fois l'intervenant accroché par le dôme dans la fenêtre de prévisualisation, l'opérateur peut basculer le dôme dans le canal alarme afin de profiter de la vision augmentée de la scène. [0233]Le configurateur doit permettre de croiser les limites d'accrochages jour des dômes avec des positions absolues (GPS) du plan. Il doit donc : • soit prévoir une procédure de mise en correspondance manuelle de l'image panoramique avec des amers du plan • soit, prévoir une procédure de mise en correspondance automatique, par exemple en en engageant l'autotracking sur le véhicule d'intervention dans le cadre d'une procédure d'apprentissage [0234]Les deux méthodes doivent être possibles, pour la bonne raison que, si en phase d'installation, on peut envisager d'utiliser le GPS du véhicule d'intervention, par la suite, les techniciens ne disposeront plus de cette ressource. Le configurateur doit donc permettre : • de désigner un point du panoramique 1 • de désigner le point correspondant sur le plan • de calculer l'altitude n de ce point • d'entrer cette valeur dans la matrice d'altitude correspondante • de laisser ce point sur un calque [0235]Seules les voies d'accès utilisées par le véhicule d'intervention doivent être étalonnées, comme illustré en figure 66. [0236]A ce niveau, l'on considère avoir réalisé un paramétrage minimal pour atteindre l'objectif fixé. Les points doivent être ensuite extrapolés vers la gauche et la droite pour prendre en compte les largeurs des voies, puis, grâce à des algorithmes d'analyse d'images, les segments doivent être reliés entre eux en prenant en compte les caractéristiques du site (bâtiments, obstacles), comme illustré en figure 67. [0237]Le problème que va rencontrer l'analyse d'image pour la définition de la limite d'accrochage d'un dôme, est la possible non prise en compte des masques naturels du site, pouvant conduire à une apparition spontanée de l'intervenant dans la zone de compétence, sans que la limite d'accrochage ne soit franchie. Sur l'exemple présenté en figures 68, et 69, il est possible de passer de la zone 1 à la zone 2 sans franchir la limite d'accrochage en profitant du masque du poteau ou en longeant la haie végétale. [0238]Une solution consisterait à programmer l'algorithme d'analyse d'images afin qu'il prenne en compte ces masques dans la limite d'accrochage. Ainsi, dans l'exemple ci-dessous, dans les deux cas l'intrus serait détecté au franchissement de la nouvelle limite. [0239]En absence de vision trois dimensions (3D) de la scène, la problématique semble complexe, même sur des images panoramiques à haute résolution. On peut, cependant, envisager l'assistance de la ressource humaine dans le processus d'analyse. Ainsi, dans l'exemple ci-dessous, la segmentation du grillage par l'analyse vidéo pourra être rejetée par le technicien paramétrant le site, car la cible reste visible à travers le grillage. [0240]La définition de la limite d'accrochage de nuit doit être définie à partir de l'image panoramique de nuit, probablement par analyse d'image assistée par le technicien. [0241]Ainsi, il est entendu que l'invention n'est pas limitée aux exemples de réalisation décrits et illustrés. Elle n'est en outre pas limitée à ces exemples d'exécution et aux variantes décrites. Once the speaker hung by the dome in the preview window, the operator can switch the dome in the alarm channel to take advantage of the increased vision of the scene. [0233] The configurator must make it possible to cross the limits of daytime clashes of the domes with absolute positions (GPS) of the plane. It must therefore: • provide for a procedure for manual matching of the panoramic image with plan bitter • or, provide for an automatic matching procedure, for example by engaging autotracking on the intervention vehicle in the context of a learning procedure [0234] Both methods must be possible, for the good reason that, if during the installation phase, it is possible to envisage using the GPS of the intervention vehicle, afterwards technicians will no longer have this resource. The configurator must therefore: • designate a point of the panoramic 1 • designate the corresponding point on the plane • calculate the altitude n of this point • enter this value in the corresponding altitude matrix • leave this point on a layer [0235] Only the access routes used by the intervention vehicle must be calibrated, as shown in Figure 66. [0236] At this level, it is considered to have achieved a minimum parameterization to reach the target. objective set. The points must then be extrapolated to the left and right to take into account the widths of the tracks, then, thanks to image analysis algorithms, the segments must be connected together taking into account the characteristics of the site ( buildings, obstacles), as shown in Figure 67. [0237] The problem that image analysis will encounter in defining the hanging limit of a dome is the possible failure to take into account the natural masks of the site, which can lead to a spontaneous appearance of the intervener in the area of competence, without the limit of attachment being crossed. In the example shown in FIGS. 68 and 69, it is possible to go from zone 1 to zone 2 without crossing the hanging limit by taking advantage of the pole mask or by following the plant hedge. A solution would be to program the image analysis algorithm so that it takes into account these masks in the snap limit. Thus, in the example below, in both cases the intruder would be detected at the crossing of the new limit. [0239] In the absence of three-dimensional (3D) vision of the scene, the problematic seems complex, even on high resolution panoramic images. One can, however, consider the assistance of the human resource in the process of analysis. Thus, in the example below, the segmentation of the grid by the video analysis may be rejected by the technician setting the site because the target remains visible through the grid. [0240] The definition of the night snap limit must be defined from the night panoramic image, probably by image analysis assisted by the technician. Thus, it is understood that the invention is not limited to the embodiments described and illustrated. It is furthermore not limited to these exemplary embodiments and the variants described.

Claims (11)

REVENDICATIONS1. Procédé de surveillance d'un ou de plusieurs sites situés dans un champ de vision d'au moins un moyen de capture d'images relié à un poste distant, le procédé comprenant les étapes suivantes : - détection de la présence d'un évènement apte à déclencher la capture d'au moins une image par le moyen de capture d'images en direction dudit évènement; - transmission de ladite au moins une image au poste distant au travers d'un flux vidéo, caractérisé en ce que ledit flux vidéo est initialement modifié par l'intégration d'éléments de références adaptés au contenu scénique de chacune des images composant ce flux vidéo de sorte à identifier la cause dudit évènement. REVENDICATIONS1. A method of monitoring one or more sites in a field of view of at least one image capture means connected to a remote station, the method comprising the steps of: - detecting the presence of a suitable event triggering capture of at least one image by the image capturing means towards said event; transmission of said at least one image to the remote station through a video stream, characterized in that said video stream is initially modified by the integration of reference elements adapted to the scenic content of each of the images composing this video stream so as to identify the cause of said event. 2. Procédé selon la revendication 1, comprenant une étape préalable d'acquisition d'au moins une image panoramique de référence au format équirectangulaire du champ de vision d'au moins un moyen de capture d'images. 2. Method according to claim 1, comprising a prior step of acquiring at least one reference panoramic image in the equirectangular format of the field of view of at least one image capture means. 3. Procédé selon la revendication précédente, comportant une étape de transmission de ladite au moins une image panoramique de référence au poste distant. 25 3. Method according to the preceding claim, comprising a step of transmitting said at least one reference panoramic image to the remote station. 25 4. Procédé selon la revendication 2, comportant une série d'étapes de calcul, à partir de ladite au moins une image panoramique de référence, d'images panoramiques au format rectilinéaire correspondant chacune à une vision élargie de ladite scène par rapport à la vision de chaque image composant ledit flux vidéo. 30 4. Method according to claim 2, comprising a series of calculation steps, from said at least one panoramic panoramic image, of panoramic images in rectilinear format each corresponding to an enlarged vision of said scene with respect to the vision. of each image composing said video stream. 30 5. Procédé selon l'une des revendications précédente, comprenant une une série d'étapes de fusion desdites images panoramiques calculées et des20images composant ledit flux vidéo afin de constituer un flux vidéo de réalité augmentée restituant, sur le poste distant, un champ de vision de ladite scène artificiellement élargi par rapport au flux vidéo initial. 5. Method according to one of the preceding claims, comprising a series of steps of merging said computed panoramic images and images composing said video stream in order to constitute an augmented reality video stream restoring, on the remote station, a field of view. of said artificially expanded scene with respect to the initial video stream. 6. Procédé selon l'une quelconque des revendications précédentes, dans lequel lesdits éléments de références se rapportent à l'une des informations relatives à l'un des éléments suivants : - désignation et identification de la cause de l'évènement ; localisation de la cause de l'évènement et/ou - indication des bâtiments et infrastructures du ou des sites. 6. Method according to any one of the preceding claims, wherein said reference elements relate to one of the information relating to one of the following elements: designation and identification of the cause of the event; location of the cause of the event and / or - indication of the buildings and infrastructures of the site (s). 7. Procédé selon l'une quelconque des revendications précédentes, comprenant une étape de suivi automatique du déplacement de la cause dudit évènement par au moins deux moyens de capture d'images, caractérisée par les étapes suivantes : - suivi du déplacement de la cause dudit évènement par le moyen de capture d'image 1 ; - détection d'entrée de la cause dudit évènement dans une zone du champ de vision dudit moyen de capture d'image 1 ou dans une zone du champ de vision d'un moyen de capture d'image 2 ; - focalisation du moyen de capture d'image 2 en direction de la cause dudit événement ; - confirmation d'entrée de la cause dudit évènement dans une zone du champ de vision dudit moyen de capture d'image 2 et capture d'au moins une image de la cause dudit évènement par ledit moyen de capture d'image 2, et - suivi du déplacement de la cause dudit évènement par le moyen de capture d'image 2. 7. Method according to any one of the preceding claims, comprising a step of automatically tracking the movement of the cause of said event by at least two image capturing means, characterized by the following steps: tracking the displacement of the cause of said event by the image capturing means 1; - input detection of the cause of said event in an area of the field of view of said image capture means 1 or in an area of the field of view of an image capture means 2; focusing the image-capturing means 2 towards the cause of said event; confirmation of entry of the cause of said event in an area of the field of view of said image-capture means 2 and capture of at least one image of the cause of said event by said image-capture means 2, and tracking the movement of the cause of said event by the image capture means 2. 8. Procédé selon l'une quelconque des revendications précédentes, comportant une étape préalable de paramétrage d'au moins une zone de30détection dans le champ de vision d'au moins un capteur d'image, caractérisée par les étapes suivantes : - association d'une matrice d'altitude à ladite image panoramique permettant d'entrer, pour tout point de l'image panoramique de référence, la valeur d'altitude en ce point, - marquage sur un calque superposable à ladite image panoramique desdits points caractéristiques de ladite zone de détection, - calcul des valeurs d'altitudes en ces points caractéristiques de ladite zone de détection et entrée desdites valeurs dans la matrice d'altitude, et - paramétrage manuel complet sur ledit calque de ladite zone de détection, avec l'assistance éventuelle de moyen d'analyse d'image. 8. Method according to any one of the preceding claims, comprising a preliminary step of parameterizing at least one zone of detection in the field of view of at least one image sensor, characterized by the following steps: - association of an altitude matrix with said panoramic image making it possible to enter, for any point of the reference panoramic image, the altitude value at this point, marking on a layer superimposable on said panoramic image of said characteristic points of said zone; detection, - calculation of the altitude values at these characteristic points of said detection zone and entry of said values in the altitude matrix, and - complete manual parameterization on said layer of said detection zone, with the possible assistance of means of image analysis. 9. Système de surveillance d'un ou de plusieurs sites situés dans un champ de vision d'au moins un moyen de capture d'images, pour la mise en oeuvre du procédé selon l'une quelconque des revendications 1 à 8, comprenant au moins un capteur associé audit au moins un moyen de capture d'images apte à détecter un évènement susceptible de déclencher la capture d'au moins une image par le moyen de capture d'images en direction dudit évènement de sorte à transmettre ladite au moins une image au poste distant au travers d'un flux vidéo, caractérisé en ce que le système comprend des moyens de traitements aptes à modifier ledit flux vidéo par l'intégration d'éléments de références adaptés au contenu scénique de chacune des images composant ce flux vidéo de sorte à identifier la cause dudit évènement. 9. System for monitoring one or more sites situated in a field of view of at least one image-capturing means, for carrying out the method according to any one of Claims 1 to 8, comprising at least one at least one sensor associated with said at least one image capture means adapted to detect an event capable of triggering the capture of at least one image by the image capture means in the direction of said event so as to transmit said at least one image at the remote station through a video stream, characterized in that the system comprises processing means able to modify said video stream by integrating reference elements adapted to the scenic content of each of the images composing this video stream so as to identify the cause of said event. 10. Système selon la revendication 9, comprenant une unité de suivi automatique de la cause dudit évènement par les différents moyens de capture d'images d'un même site. 10. System according to claim 9, comprising a unit for automatically tracking the cause of said event by the different means of capturing images of the same site. 11. Système selon la revendication précédente dans lequel, le moyen de capture d'images est un dôme thermique.30 11. System according to the preceding claim wherein the image capturing means is a thermal dome.
FR0902034A 2009-04-27 2009-04-27 METHOD AND SYSTEM FOR MONITORING Active FR2944934B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0902034A FR2944934B1 (en) 2009-04-27 2009-04-27 METHOD AND SYSTEM FOR MONITORING

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0902034A FR2944934B1 (en) 2009-04-27 2009-04-27 METHOD AND SYSTEM FOR MONITORING

Publications (2)

Publication Number Publication Date
FR2944934A1 true FR2944934A1 (en) 2010-10-29
FR2944934B1 FR2944934B1 (en) 2012-06-01

Family

ID=41078205

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0902034A Active FR2944934B1 (en) 2009-04-27 2009-04-27 METHOD AND SYSTEM FOR MONITORING

Country Status (1)

Country Link
FR (1) FR2944934B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8457401B2 (en) 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
CN104932462A (en) * 2015-05-08 2015-09-23 苏州首旗信息科技有限公司 Remote monitoring system based on displacement detection
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
CN113537790A (en) * 2021-07-21 2021-10-22 四川通普科技有限公司 Super-fusion management platform

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1267313A2 (en) * 2001-06-12 2002-12-18 Sharp Kabushiki Kaisha Image surveillance apparatus, image surveillance method, and image surveillance processing program
EP1341382A2 (en) * 2002-02-28 2003-09-03 Sharp Kabushiki Kaisha Omnidirectional monitoring control system, method and program
US20050046699A1 (en) * 2003-09-03 2005-03-03 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US20060049930A1 (en) * 2002-07-15 2006-03-09 Levi Zruya Method and apparatus for implementing multipurpose monitoring system
US20060072014A1 (en) * 2004-08-02 2006-04-06 Geng Z J Smart optical sensor (SOS) hardware and software platform
WO2006070249A1 (en) * 2004-12-27 2006-07-06 Emitall Surveillance S.A. Efficient scrambling of regions of interest in an image or video to preserve privacy
EP1835472A2 (en) * 2006-03-17 2007-09-19 Hitachi, Ltd. Object detection apparatus
US20080198225A1 (en) * 2006-12-07 2008-08-21 Ehud Gal TVMS- a total view monitoring system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1267313A2 (en) * 2001-06-12 2002-12-18 Sharp Kabushiki Kaisha Image surveillance apparatus, image surveillance method, and image surveillance processing program
EP1341382A2 (en) * 2002-02-28 2003-09-03 Sharp Kabushiki Kaisha Omnidirectional monitoring control system, method and program
US20060049930A1 (en) * 2002-07-15 2006-03-09 Levi Zruya Method and apparatus for implementing multipurpose monitoring system
US20050046699A1 (en) * 2003-09-03 2005-03-03 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US20060072014A1 (en) * 2004-08-02 2006-04-06 Geng Z J Smart optical sensor (SOS) hardware and software platform
WO2006070249A1 (en) * 2004-12-27 2006-07-06 Emitall Surveillance S.A. Efficient scrambling of regions of interest in an image or video to preserve privacy
EP1835472A2 (en) * 2006-03-17 2007-09-19 Hitachi, Ltd. Object detection apparatus
US20080198225A1 (en) * 2006-12-07 2008-08-21 Ehud Gal TVMS- a total view monitoring system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SCOTTI G; MARCENARO L; COELHO C; SELVAGGI F; REGAZZONI C S: "Dual camera intelligent sensor for high definition 360 degrees surveillance", IEE PROCEEDINGS-VISION IMAGE AND SIGNAL PROCESSING, vol. 152, no. 2, 8 April 2005 (2005-04-08), UK, pages 250 - 257, XP006023774 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US10026285B2 (en) 2000-10-24 2018-07-17 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10347101B2 (en) 2000-10-24 2019-07-09 Avigilon Fortress Corporation Video surveillance system employing video primitives
US10645350B2 (en) 2000-10-24 2020-05-05 Avigilon Fortress Corporation Video analytic rule detection system and method
US8457401B2 (en) 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US9020261B2 (en) 2001-03-23 2015-04-28 Avigilon Fortress Corporation Video segmentation using statistical pixel modeling
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
CN104932462A (en) * 2015-05-08 2015-09-23 苏州首旗信息科技有限公司 Remote monitoring system based on displacement detection
CN113537790A (en) * 2021-07-21 2021-10-22 四川通普科技有限公司 Super-fusion management platform

Also Published As

Publication number Publication date
FR2944934B1 (en) 2012-06-01

Similar Documents

Publication Publication Date Title
FR2944934A1 (en) Sites monitoring method for communication network, involves initially modifying video stream by integration of reference elements adapted to scenic contents of each image in order to identify causes of event
US9947079B1 (en) Systems and methods for dewarping images
US8687062B1 (en) Step-stare oblique aerial camera system
EP2553924B1 (en) Effortless navigation across cameras and cooperative control of cameras
US7796154B2 (en) Automatic multiscale image acquisition from a steerable camera
US20160042621A1 (en) Video Motion Detection Method and Alert Management
CN107483889A (en) The tunnel monitoring system of wisdom building site control platform
US20170195561A1 (en) Automated processing of panoramic video content using machine learning techniques
US20160019427A1 (en) Video surveillence system for detecting firearms
US20170280107A1 (en) Site sentinel systems and methods
EP2710801A1 (en) Surveillance system
JP6013923B2 (en) System and method for browsing and searching for video episodes
EP2867873B1 (en) Surveillance process and apparatus
WO2006128124A2 (en) Total awareness surveillance system
EP2689403A1 (en) Monitoring system
WO2014083321A1 (en) Imaging system and process
WO2021078523A1 (en) Method for drone surveillance of an area to be monitored having at least one part bordered externally by an area in which surveillance is prohibited
CN105323540A (en) Intelligent control four-axis aircraft with multiple cameras
WO2019158880A1 (en) Device for scalable tactical mapping in an exterior environment, associated system and method
Chan A robust target tracking algorithm for FLIR imagery
EP4115327B1 (en) Method for assisting in the detection of elements, and associated device and platform
CN109120843A (en) The method for focusing camera
EP1398744B1 (en) Method and device for managing an alarm system
EP1206129A1 (en) Computer-aided image producing system
EP2736249A1 (en) Imaging system and process

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16