FR3039919A1 - Suivi d’une cible dans un reseau de cameras - Google Patents

Suivi d’une cible dans un reseau de cameras Download PDF

Info

Publication number
FR3039919A1
FR3039919A1 FR1557513A FR1557513A FR3039919A1 FR 3039919 A1 FR3039919 A1 FR 3039919A1 FR 1557513 A FR1557513 A FR 1557513A FR 1557513 A FR1557513 A FR 1557513A FR 3039919 A1 FR3039919 A1 FR 3039919A1
Authority
FR
France
Prior art keywords
target
camera
view
field
marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1557513A
Other languages
English (en)
Other versions
FR3039919B1 (fr
Inventor
Yves Pichon
Rachid Guerchouche
Annunziato Polimeni
Bernard Boulay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neosensys
Original Assignee
Neosensys
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neosensys filed Critical Neosensys
Priority to FR1557513A priority Critical patent/FR3039919B1/fr
Publication of FR3039919A1 publication Critical patent/FR3039919A1/fr
Application granted granted Critical
Publication of FR3039919B1 publication Critical patent/FR3039919B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • G08B13/19615Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion wherein said pattern is defined by the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Suivant un aspect, la présente invention concerne un procédé de suivi et de localisation d'une cible (1010), utilisant au moins un système informatique, au moins une première caméra présentant un premier champ de vision, une position géographique, et utilisant une interface utilisateur configurée pour permettre à un utilisateur d'interagir avec une interface graphique, caractérisé en ce que ledit procédé comprend les étapes suivantes : - affichage de données vidéos fournies par la au moins une première caméra du premier champ de vision dans l'interface graphique ; - premier marquage (1020) dans l'interface graphique, par entrée dans l'interface utilisateur, d'une cible (1010) située dans le premier champ de vision ; - suivi visuel par l'utilisateur de la cible (1010) sur l'interface graphique ; - déplacement du premier marquage (1020) de sorte à ce qu'il reste en correspondance avec la cible (1010) pour en assurer le suivi sur l'interface graphique ;

Description

DOMAINE TECHNIQUE DE L’INVENTION
La présente invention concerne le domaine de la sécurité et plus particulièrement des systèmes de vidéosurveillance. Cette invention trouve particulièrement son application dans la surveillance de lieux et le suivi de personnes ou d’objets dans un réseau de caméras.
ÉTAT DE LA TECHNIQUE
Le domaine de la sécurité a toujours été une source d’innovations importante. En termes de surveillance d’un lieu, c’est le réseau de caméras qui a permis de faire des progrès importants. En effet, l’arrivée de la caméra de surveillance sur le marché il y a plusieurs décennies a révolutionné ce domaine. Il n’était plus nécessaire de faire surveiller un lieu par plusieurs personnes mais simplement par une personne regardant une pluralité de moniteurs.
Dans cette situation, l'utilisateur doit connaître avec précision la disposition et les capacités de chacune des caméras composant le réseau de caméras afin de pouvoir suivre une cible au travers du réseau le plus efficacement possible. Cette connaissance ne peut s'acquérir qu'avec le temps, rendant ainsi un nouvel utilisateur inapte à assurer un suivi fiable d'une cible.
Ensuite sont apparues les caméras numériques permettant la formation d’un réseau de caméras et profitant des avancées dans le domaine algorithmique et dans celui du traitement d’images. Aujourd’hui la plupart des systèmes de vidéosurveillance de pointe clament ne plus nécessiter d’utilisateur.
En effet, la reconnaissance automatisée d’individus tels des suspects au comportement étrange suffit désormais pour déclencher une série de procédures visant à suivre et à surveiller les suspects en question. Toutefois ces technologies présentent de nombreux inconvénients. Outre le coût prohibitif de tels systèmes, ce sont les ressources systèmes impliquées qui sont un véritable problème. De plus, ces systèmes ne sont ni parfaits, ni infaillibles. Le suivi d’un suspect ou d’une cible dans un réseau de caméras, caméras pouvant être hétérogènes quant à leur technologie, implique de s’adapter à des changements de conditions d’éclairage, d’angle de vue ; la cible peut également être occultée par d’autres personnes ou objets. Celle-ci peut également changer de tenue afin de tromper la vidéosurveillance automatisée.
Ainsi, les systèmes complètement manuels et les systèmes complètement automatisés présentent des inconvénients non négligeables.
La présente invention concerne ainsi une solution à ces inconvénients.
RÉSUMÉ DE L'INVENTION
Selon un premier aspect, la présente invention concerne un procédé de suivi et de localisation d’une cible, utilisant au moins un système informatique, au moins une première caméra présentant un premier champ de vision, une position géographique, et utilisant une interface utilisateur configurée pour permettre à un utilisateur d'interagir avec une interface graphique, caractérisé en ce que ledit procédé comprend les étapes suivantes : - affichage de données vidéos fournies par la au moins une première caméra du premier champ de vision dans l’interface graphique ; - premier marquage dans l’interface graphique, par entrée dans l’interface utilisateur, d’une cible située dans le premier champ de vision ; - suivi visuel par l’utilisateur de la cible sur l’interface graphique ; - déplacement du premier marquage de sorte à ce qu'il reste en correspondance avec la cible pour en assurer le suivi sur l'interface graphique ;
De manière très avantageuse, le suivi visuel par l’utilisateur de la cible sur l’interface graphique assure une plus grande fiabilité car cela nécessite une plus grande attention de la part de l’utilisateur. De plus, le marquage de la cible permet d’une part au système d’identifier la cible à partir entre autre de ses caractéristiques graphiques, et d’autre part cela permet à l’utilisateur de n’avoir à se concentrer uniquement sur une zone restreinte du champ de vision de la caméra.
De plus l’aspect intuitif de la présente invention de par le simple marquage d’une cible par l’utilisateur permet de faciliter l’utilisation d’un tel système de vidéosurveillance.
De manière avantageuse, l’interface utilisateur est conçue pour faciliter la sélection d’une cible.
Ainsi l’ensemble de la présente invention vise à simplifier et à fiabiliser le suivi d’une cible par un utilisateur au travers d’au moins une caméra.
La présente invention concerne aussi un système informatique de suivi d’une cible dans un réseau de caméras comprenant au moins un processeur, des moyens de stockage non transitoires d’au moins un programme informatique comprenant des instructions configurées pour mettre en œuvre les étapes du procédé selon la présente invention lorsqu’elles sont exécutées par le au moins un processeur.
La présente invention concerne également un produit programme d’ordinateur stocké dans une mémoire non transitoire et comportant des instructions exploitables par au moins un processeur, configurées pour exécuter le procédé selon la présente invention.
BRÈVE DESCRIPTION DES FIGURES
Les buts, objets, ainsi que les caractéristiques et avantages de l’invention ressortiront mieux de la description détaillée d’un mode de réalisation de cette dernière qui est illustré par les dessins d’accompagnement suivants dans lesquels : - la FIGURE 1 représente un exemple de lieu à surveiller comportant un réseau de caméras hétérogènes, il est illustré sur cette figure les champs de vision des caméras du réseau de caméras ; - la FIGURE 2 représente une interface graphique selon un mode de réalisation préférentiel de la présente invention ; - la FIGURE 3 représente le marquage d’une cible dans la fenêtre principale de l’interface graphique ; - la FIGURE 4 représente le déplacement depuis le champ de vision de d’une caméra vers le champ de vision d’une autre caméra ;
Les dessins sont donnés à titre d'exemples et ne sont pas limitatifs de l’invention. Ils constituent des représentations schématiques de principe destinées à faciliter la compréhension de l’invention et ne sont pas nécessairement à l'échelle des applications pratiques.
DESCRIPTION DÉTAILLÉE DE L'INVENTION
Avant d’entrer dans le détail de modes de réalisation préférés notamment en référence aux figures, on énonce ci-après différentes options que peut préférentiellement mais non limitativement présenter l’invention, ces options pouvant être mises en œuvre, soit séparément, soit suivant toute combinaison entre elles :
La sélection de la cible par l’utilisateur comprend la formation d’une forme géométrique englobant au moins une partie de la cible.
Cela permet à l'utilisateur de définir visuellement dans l'interface graphique de manière précise la cible à la fois pour l'utilisateur mais également pour le système informatique. Cette définition d'une zone précise dans l'interface visuelle permet au système informatique de concentrer ses ressources systèmes pour analyser uniquement cette zone restreinte afin d'optimiser le temps d'analyse.
La présente invention comprend la détermination par le système informatique d’une première position relative du premier marquage par rapport à la cible.
Le système informatique détermine au moins une distance entre au moins une partie des pixels formant l'image de la cible et au moins une partie des pixels formant le premier marquage. Cette distance permet de définir une position relative entre le marquage de la cible et la cible. L’étape de suivi de la cible comprend la préservation de la première position relative du premier marquage par rapport à la cible par déplacement du premier marquage en correspondance avec le déplacement de la cible.
Cela permet de suivre la cible au travers de l'interface graphique. Ce déplacement peut être effectué de manière manuelle par l'utilisateur ou bien de manière automatique par le système informatique.
La préservation de la première position relative du premier marquage par rapport à la cible est effectuée par le système informatique.
Cela permet de suivre de manière automatique une cible au travers de l'interface graphique. Pour un suivi automatisé, la présente invention prévoit l'utilisation de techniques de suivi automatisé et d'identification de cible connues de l'Homme du métier. Ce suivi automatique permet de faciliter le suivi de la cible en cas de perte de concentration de l'utilisateur.
La préservation de la première position relative du premier marquage par rapport à la cible effectuée par le système informatique est assistée du suivi visuel par l’utilisateur impliquant au moins une étape d’un deuxième marquage de la cible lorsque le système informatique échoue à préserver la première position relative du premier marquage par rapport à la cible. L'assistance de l'utilisateur permet de rendre le procédé de suivi de la cible plus fiable en ne se reposant pas uniquement sur un système informatique mais sur la concentration de l'utilisateur. Cette concentration est également préservée par le suivi automatique de la cible de sorte que d'une part l'utilisateur fiabilise le travail du système informatique et d'autre part le système informatique soulage la concentration de l'utilisateur.
La préservation de la première position relative du premier marquage par rapport à la cible est effectuée manuellement par l’utilisateur par l’intermédiaire de l’interface utilisateur.
Cela permet de disposer d'un procédé de suivi fiabilisé par l'utilisation de la concentration de l'utilisateur tout en minimisant les ressources informatiques. - La sélection de la cible par l’utilisateur comprend la formation d’une forme géométrique englobant en totalité la cible.
Cela permet une définition accrue de la cible pour le système informatique et pour l'utilisateur. - Le premier marquage de la cible comprend la sélection de la cible par l’utilisateur et l’analyse graphique de la cible par le système informatique de sorte à définir la cible par identification des propriétés optiques de la cible.
Cela permet au système informatique de définir un certains nombre de critères graphiques définissant la cible, par exemple il peut s'agir de la couleur, contraste, luminosité et saturation de chaque pixel de la cible, mais également de sa forme par exemple. - La au moins une caméra est une caméra prise parmi : caméra fixe, caméra mobile.
La possibilité d'utiliser une pluralité de caméras de divers types permet à la présente invention d'être utilisable dans différents environnements et d'être adaptable à divers réseaux de caméras déjà existants.
La au moins une caméra comprend une caméra au moins mobile en translation et/ou en site et/ou en azimut.
Cela permet un suivi motorisé d'une cible dans un champ de vision très large par mouvement de la caméra. - La au moins une caméra comprend un objectif pris parmi : un objectif dit classique (c’est-à-dire présentant un angle de champ de vision inférieur à 180 degrés par exemple), objectif fish-eye.
La présente invention permet l'utilisation d'un grand nombre d'objectifs divers de sorte qu'elle peut s'adapter à tous types d'objectifs. - L’interface utilisateur comprend au moins l’un des dispositifs parmi : une souris, un joystick, un clavier, une surface tactile, un stylet, un trackball, un détecteur de mouvement.
Cela permet de disposer de n'importe quel type d'interface utilisateur permettant l'interaction de l'utilisateur avec l'interface graphique. - L’interface utilisateur permet à l’utilisateur au moins une des actions parmi : la sélection de la cible, le suivi manuel de la cible dans l’interface graphique, un zoom optique dans le premier champ de vision de la au moins une caméra, une translation de l’au moins une caméra, une rotation de l’au moins une caméra.
Cela permet une interaction complète de l'utilisateur avec l'ensemble des fonctions proposées par l'interface graphique. - L’interface graphique comprend au moins une fenêtre affichant le premier champ de vision de la au moins une première caméra.
Cela permet de visualiser le champ de vision de la caméra et ainsi de repérer une éventuelle cible, ainsi que d'en assurer son suivi. De manière avantageuse, cette fenêtre possède des proportions dominantes au niveau de l'affiche de l'interface graphique de sorte à mettre en avant le champ de vision utile à l'utilisateur. - La détermination d’au moins une zone contextuelle définie par au moins une pluralité de points appartenant au champ de vision de la au moins une première caméra et dans lequel ladite au moins une zone contextuelle est configurée pour exécuter une commande dans le cas où le marquage de la cible se trouve dans cette au moins une zone.
Cela permet de rendre interactif le champ de vision d'une caméra de sorte à permettre l'exécution de commandes lorsque la cible se trouve à des endroits stratégiques. Il peut s'agir du déclenchement d'une alerte lorsque la cible s'approche d'une zone interdite par exemple. La possibilité de définir des zones contextuelles propres à chaque champ de vision de chaque caméra permet de rendre intelligents les champs de vision et ainsi d'accroitre la fiabilité et les degrés de liberté de la présente invention. - La au moins une fenêtre affichant le premier champ de vision de la au moins une première caméra comprend la au moins une zone contextuelle.
Cela permet de rendre interactif le champ de vision d'une caméra de sorte à permettre l'exécution de commandes lorsque la cible se trouve à des endroits stratégiques. Il peut s'agir du déclenchement d'une alerte lorsque la cible s'approche d'une zone interdite par exemple. La possibilité de définir des zones contextuelles propres à chaque champ de vision de chaque caméra permet de rendre intelligents les champs de vision et ainsi d'accroitre la fiabilité et les degrés de liberté de la présente invention.
La au moins une première caméra est une caméra mobile en translation, site et azimute et dans lequel la au moins une zone contextuelle correspond à un ensemble de coordonnées en translation, site et azimute de ladite caméra mobile.
La commande est configurée pour que l’interface graphique soit modifiée dans le cas où le marquage de la cible se trouve dans ladite au moins une zone contextuelle.
Cela permet par exemple d'afficher un message d'alerte lorsque la cible se trouve dans une zone prédéterminée, mais également d'enrichir l'expérience utilisateur en automatisant des actions lorsque la cible se trouve au niveau de zones d'intérêts. - La au moins une zone contextuelle est en périphérie du premier champ de vision de la au moins une première caméra.
La périphérie du champ de vision de la caméra est définit comme la limite du champ de vision de la caméra. Ainsi, une zone contextuelle se trouvant en périphérie du champ de vision d'une caméra comprend une pluralité de pixels partant de la limite du champ de vision de la caméra et allant dans une direction orthogonale à cette limite. De manière générique, il s'agit d'un cadre interne au champ de vision de la caméra. Ce cadre présente une épaisseur plus ou moins importante.
La disposition d'au moins une zone contextuelle en périphérie du champ de vision d'une caméra permet le déclenchement d'action lorsque la cible s'approche et/ou sort du champ de vision de la caméra. - une pluralité de caméras formant un réseau de caméras et disposant chacune d’un champ de vision et d’une position géographique connue par le au moins un système informatique. L'utilisation d'un réseau de caméras permet le suivi de la cible dans des structures comprenant une pluralité de zones ne pouvant pas être visibles depuis une seule et unique caméra. La position géographique de chaque caméra permet au système informatique de définir des relations entre chaque champ de vision. La définition de ces relations peut être manuelle, semi-automatique ou automatique. - La modification de l’interface graphique dans le cas où le marquage de la cible se trouve dans la au moins une zone contextuelle correspond à un remplacement de l’affichage du champ de vision d’une caméra de la pluralité de caméras par l’affichage du champ de vision d’une autre caméra de la pluralité de caméras.
Cela permet de basculer d'une caméra à une autre de manière automatisé afin que l'utilisateur n'ait pas à effectuer d'action particulière. - La au moins une zone contextuelle est configurée pour tenir compte de la position géographique de chacune des caméras de la pluralité de caméras de sorte à modifier l’affichage du champ de vision par le champ de vision le plus proche géographiquement de la cible.
Cela permet un suivi de la cible dans un réseau de caméra de manière fiable tout en ne nécessitant une connaissance préalable du réseau de caméra par l'utilisateur. - L’interface utilisateur affiche une pluralité de champs de vision de plusieurs caméras de la pluralité de caméras de sorte à ce que les champs de vision affichés correspondent au moins en partie aux champs de vision géographiquement les plus proches les uns des autres.
Cela permet à l'utilisateur de visualiser le champ de vision proche de la cible afin de sélectionner s'il le souhaite une autre caméra pour le suivi de la cible de manière manuelle. Cela permet donc une liberté supplémentaire de suivi de la cible par l'utilisateur indépendamment du système informatique.
Il est précisé que dans le cadre de la présente invention, le terme «utilisateur», «opérateur» ou leurs équivalents ont pour définition une personne utilisant la présente invention.
Il est précisé que dans le cadre de la présente invention, le terme «cible» a pour définition un objet ou un individu caractérisé par l’intérêt que l’utilisateur lui porte ; en effet il s’agit de l’objet ou de l’individu sélectionné par l’utilisateur afin de suivre ses déplacements.
Il est précisé que dans le cadre de la présente invention, le terme «caméra PTZ», «caméra Pan Tilt Zoom» ou leurs équivalents ont pour définition une caméra capable de mouvements en site, azimut et zoom. Il s’agit de caméras pouvant effectuer les mouvements suivants : Pan est la rotation de la caméra autour de l'axe Z (axe vertical), Tilt est l'inclinaison de la caméra sur l'axe X (premier axe horizontal), et Zoom est le mouvement de la lentille motorisée le long de l'axe Y (second axe horizontal perpendiculaire au premier axe horizontal).
Il est précisé que dans le cadre de la présente invention, le terme «objectif 360°», «objectif fish-eye», « objectif hypergone » ou leurs équivalents ont pour définition un objectif disposant d’une distance focale très courte et donc d’un angle de champ très grand. Typiquement cet angle de champ est supérieur ou égal à 100°.
Il est précisé que dans le cadre de la présente invention, le terme «réseau de caméras» ou ses équivalents ont pour définition une pluralité de caméras toutes connectées de manière filaire et/ou non filaire à un même réseau informatique.
Il est précisé que dans le cadre de la présente invention, le terme «réseau de caméras hétérogène» ou ses équivalents ont pour définition une pluralité de caméras toutes connectées de manière filaire et/ou non filaire à un même réseau informatique, ces caméras disposant de fonctionnalités et de caractéristiques pouvant être différentes entre elles.
Il est précisé que dans le cadre de la présente invention, le terme «zone contextuelle » ou ses équivalents ont pour définition une zone définie virtuellement, de préférence, dans une interface graphique configurée pour exécuter une commande lorsque ladite zone est activée. Cette activation peut être due à la présence d’un marquage dans ladite zone contextuelle de manière automatique ou à une action de l’utilisateur (en appuyant sur un bouton par exemple). Cette zone est avantageusement définie par un contour fermé. Préférentiellement au moins un bord de cette zone peut être défini par une des limites de la fenêtre de l’affichage graphique.
De manière avantageuse, une zone contextuelle peut correspondre à un ensemble de points de coordonnées particulières dans le champ de vision d’une caméra, ce champ de vision peut être bidimensionnel et/ou tridimensionnel (dans le cas de caméra PTZ par exemple).
Ainsi, la zone contextuelle dans le cas d’une caméra PTZ, en plus des zones à contour fermé, peut être un ensemble de valeurs du Pan, du Tilt et du Zoom (P, T et Z). Dans ce cas, les zones sont configurées pour exécuter une commande lorsque l’ensemble des valeurs est atteint (de manière automatique ou à l’intervention de l’utilisateur en appuyant sur un bouton par exemple). Les zones contextuelles définies de cette manière ne sont pas nécessairement dessinées sur l’image. Une indication de la possibilité de basculer est donnée avec une indication visuelle (un dessin, un logo, une forme clignotante ....)
Dans le cas des caméras PTZ, la définition d’une zone contextuelle a contour fermé peut être réalisée en utilisant des techniques de définitions des masques virtuelles sur ce type de caméra avec une correspondance entre les coordonnées de l’image observée et les valeurs du pan, tilt et zoom (P, T et Z). A ces zones sont ensuite assignées une fonction de zones contextuelle en leur attribuant les caractéristiques adéquates de couleur et de transparence.
Il est précisé que dans le cadre de la présente invention, le terme «propriétés optiques » ou ses équivalents ont pour définition toutes ou certaines des composantes d'un pixel composant une image, c'est à dire sa couleur, sa luminosité, son contraste, sa saturation. Cela peut également comprendre, dans le cas d'un objet, des caractéristiques propres à sa forme générale par exemple.
La présente invention concerne un procédé de suivi d’une cible au travers d’un réseau de caméras, potentiellement hétérogènes. Ce suivi est en parti au moins assuré de manière au moins visuel par un utilisateur.
Le présent procédé utilise avantageusement un système informatique. Selon un mode de réalisation, ce système informatique comprend au moins les éléments suivants : - Au moins un ordinateur comprenant au moins : o un processeur ; o une mémoire volatile et/ou non volatile ; o une interface de communication pour recevoir au moins des données vidéo ; - au moins un réseau informatique de type filaire et/ou non filaire ; - un affichage graphique de type moniteur et/ou écran numérique ; - un pointeur ;
Un des avantages de la présente invention est que l’utilisateur n’a pas besoin de connaître au préalable les spécificités du réseau de caméras, c’est-à-dire par exemple le type de caméras et leur position. En effet, de manière avantageuse, la position géographique de chacune des caméras composant le réseau de caméras est connue du système informatique selon la présente invention, de même que le type de chaque caméra. Cela implique que le système informatique connaît les fonctionnalités de chaque caméra. De plus le système informatique est configuré pour que chaque limite de champ de vision d’une caméra (c’est-à-dire la portion de l’espace d’un lieu qui est couvert par une caméra donnée) soit en lien avec au moins une limite de champ de vision d’au moins une autre caméra. Ces liens entre les limites de champs de vision permettent alors la continuité du suivi d’une cible dans le réseau de caméra de manière manuelle et/ou automatique. En effet, la présente invention permet le changement du champ de vision de caméra de manière automatique lorsque la cible sort du champ de vision de ladite caméra, le nouveau champ de vision correspond alors à celui de la caméra la plus apte à visualiser la cible de nouveau.
Avantageusement, mais non limitativement, les champs de vision des caméras se juxtaposent ou se chevauchent.
Selon un mode de réalisation le réseau de caméras est calibré afin que le système informatique utilisé par la présente invention dispose de liens entre la limite des champs de vision de chaque caméra composant le réseau de caméras. Cette calibration peut être réalisée manuellement et/ou automatiquement.
La calibration automatique est avantageusement faite à partir de points de correspondance entre les champs de vision de plusieurs caméras de la pluralité de caméras. A partir de ces points de correspondance, une représentation tridimensionnelle de la position relative des caméras entre elles peut par exemple être générée par le système informatique de sorte à établir ensuite les liens entre chaque champ de vision de chaque caméra.
Selon un mode de réalisation, la calibration automatique peut également être faite par exemple en positionnant les caméras, tout en disposant de leur spécificité (c’est-à-dire le type de caméra, leur objectif, leur angle de champ de vision, les paramètres d’acquisition d’image, etc...) dans une représentation tridimensionnelle du lieu à surveiller afin que le système informatique puisse automatiquement déterminer les liens de champs de vision entre chaque caméra à partir de leur position et de leurs spécificités techniques.
Enfin, selon un autre mode de réalisation, la calibration peut être manuelle en attribuant à chaque limite de champ de vision la limite d’un autre champ de vision d’une autre caméra. Par exemple, une limite droite d’un champ de vision est associée à une limite gauche d’un champ de vision d’une autre caméra.
La calibration une fois réalisée permet au système informatique de disposer de lien entre la limite des champs de vision de chaque caméra.
De manière avantageuse, la présente invention permet également de générer automatiquement et/ou manuellement des liens entre les champs de vision indépendamment des limites de champs de vision mais à partir de zones de correspondance dans les champs de vision eux-mêmes. C'est à dire à partir d'au moins une zone dans un champ de vision d'une première caméra qui serait également visible depuis une autre caméra, une zone contextuelle peut ainsi être positionnée à l'intérieur même du champ de vision d'une caméra sans lien avec les limites du champ de vision de la dite caméra. L’ensemble de ces liens entre les champs de vision de chaque caméra sont ensuite représentés par des zones contextuelles dans l’interface graphique de la présente invention. Ces zones contextuelles ont pour fonction, entre autres, de permettre à l’utilisateur de suivre la cible en changeant manuellement de caméra s’il le souhaite, ou bien en changeant automatiquement de caméra lorsque le marquage de la cible rentre en contact avec ces zones contextuelles ou lorsque un ensemble de valeurs PTZ est atteint (dans le cas des caméras PTZ).
De manière avantageuse, d'autres commandes peuvent être exécutées à partir de ces zones contextuelles, cela peut comprendre par exemple l'exécution d'un signal d'alerte ou d'un message d'alerte.
Selon un mode de réalisation privilégié, la présente invention comprend une interface graphique permettant le suivi de manière intuitive et simple d’une cible au travers dudit réseau de caméras. L’interface graphique de la présente invention comprend avantageusement au moins une première fenêtre présentant le champ de vision d’une première caméra.
Cette première fenêtre, dite fenêtre principale, représente une surface de l’interface graphique comprise, par exemple, entre 30% et 80%, avantageusement entre 60% et 70% et de préférence égale à 70%.
Avantageusement, l’interface graphique comprend une pluralité de fenêtres. Une partie au moins de cette pluralité de fenêtres comprend l’affichage du champ de vision d’au moins une caméra de la pluralité de caméras composant le réseau de caméras.
Préférentiellement, l’interface graphique comprend une fenêtre principale dont les proportions sont dominantes par rapport à trois autres fenêtres secondaires d’affichage. Ces trois autres fenêtres dites secondaires présentent avantageusement des proportions identiques entre elles, ainsi chacune représente une surface de l’interface graphique comprise entre 6% et 20%, avantageusement entre 10% et 15% et de préférence égale à 10%.
De manière générale, il est possible d’ajouter ou d’enlever des fenêtres secondaires d’affichage, ainsi que de modifier leurs proportions. Physiquement, les fenêtres peuvent être affichées sur un même écran ou sur plusieurs écrans.
De manière pratique et à titre d’exemple, l’interface graphique présente au moins une fenêtre comprenant le champ de vision d’une première caméra permettant la visualisation de la cible marquée. De manière avantageuse, les bordures de cette fenêtre de visualisation comprennent des zones contextuelles. C’est-à-dire que les limites du champ de vision de la caméra, limites définies par la périphérie externe du champ de vision, comprennent avantageusement des zones contextuelles.
Dans le cas présent, ces zones contextuelles ont pour fonction de modifier le champ de vision actif de la fenêtre principale. En effet, par exemple, lorsque la cible se déplace vers la droite, et commence à sortir du champ de vision de la première caméra, le marquage arrivant dans la zone contextuelle de droite, cela déclenche un changement du champ de vision. Ce changement permet de visualiser le champ de vision de la caméra géographiquement la plus pertinente pour visualiser la cible. Ainsi, puisque la position géographique de chaque caméra composant le réseau de caméras est connue par le système, celui-ci génère une cartographie et des liens de proximité permettant ainsi la génération des zones contextuelles pour chaque champ de vision de chaque caméra du réseau de caméras. La génération de ces liens de proximité correspond à l’établissement de règles de basculement entre les divers champs de vision.
De manière avantageuse, la zone contextuelle peut être définie par une portion d’espace dont la visualisation à l’affichage de l’interface graphique est une partie bidimensionnelle de l’écran d’affichage.
Cette portion d’espace peut aussi être définie par ses coordonnées dans l’espace, par exemple dans un repère orthonormé ou par les coordonnées P, T et Z d’une caméra PTZ.
De manière identique et à titre d’exemple, dans le cas du champ de vision d’une caméra PTZ, les zones contextuelles peuvent correspondre à un ensemble de coordonnées P, T et Z de sorte à ce que le basculement de champ de vision soit opéré lorsque la caméra PTZ active atteint ce jeu de coordonnées particulières définissant ladite zone contextuelle. Ainsi, dans le cas non limitatif d’une caméra PTZ dont le champ de vision est orienté vers une allée, il est possible de disposer de deux zones contextuelles comprenant des coordonnées P et T identiques, mais des coordonnées Z distinctes de sorte à présenter dans l’allée une position distincte l’une de l’autre par une profondeur dans le champ de vision différente. Ce cas illustre la présence de deux sorties orthogonales à une allée, présentes sur un même côté de l’allée et distantes l’une de l’autre. Cette distance implique une profondeur différente au niveau du champ de vision de la caméra PTZ, et donc des coordonnées Z différentes.
De manière générique, la zone contextuelle peut être définie par tous systèmes de coordonnées correspondant aux degrés de liberté d’une caméra mobile. L’exemple d’une caméra PTZ sur un rail mobile en translation illustre qu’une zone contextuelle peut comprendre non pas seulement des coordonnées P, T et Z, mais également des coordonnées relatives à la translation de la caméra sur le rail.
Selon un mode de réalisation, l’interface graphique comprend également au moins un menu de sorte à pouvoir accéder à diverses fonctions comme l’enregistrement, l’activation d’un mode de suivi, le choix de la forme du marquage, etc...
Afin d’interagir avec l’interface graphique, la présente invention concerne également une interface utilisateur. Cette interface utilisateur est configurée pour permettre à l’utilisateur de naviguer au travers de l’interface graphique de sorte à sélectionner une cible, sélectionner une caméra, suivre une cible manuellement, accéder au menu de l’interface graphique, ....
Selon un mode de réalisation, l’interface utilisateur comprend au moins un élément parmi : une souris, un joystick, un clavier, une surface tactile, un stylet, un trackball, un détecteur de mouvement.
La présente invention propose une interface utilisateur simplifiée et intuitive afin que l’utilisateur même débutant à un poste de surveillance puisse être opérationnel le plus rapidement possible. Cette philosophie de simplicité, de fiabilité et d’utilisation intuitive ressort de chaque aspect de la présente invention que cela soit le procédé de suivi, l’interface graphique ou ici l’interface utilisateur.
Maintenant que le système informatique a connaissance du réseau de caméras, que les zones contextuelles ont été générées, que l’interface graphique a été décrite et que l’interface utilisateur a été introduite, il convient de préciser l’étape de sélection d’une cible.
Selon un mode de réalisation, l’utilisateur utilise l’interface utilisateur afin de définir une région sur l’interface graphique. La définition de cette région est faite par la réalisation d’un marquage au niveau de l’interface graphique. Cette région permet alors de définir la cible dans le système informatique. Selon un mode de réalisation, ce marquage englobe au moins en partie la cible, de préférence ce marquage englobe totalement la cible.
Préférentiellement, la sélection de la cible se fait de manière préférentielle par le positionnement sur la cible d’un élément géométrique bidimensionnel (2D) : un marquage. Ce marquage peut être par exemple un rectangle, un disque ou toute autre forme 2D, de préférence au contour fermé.
Avantageusement, la définition de ce marquage peut être réalisée par simple clic sur la cible et/ou dessin d’une forme géométrique, ou toute autre technique de sélection impliquant ou non un traitement d’image par le système informatique.
Selon un mode de réalisation, c’est le système informatique lui-même qui définit une cible. Cette définition de cible est réalisée par marquage du même type que le marquage manuel réalisé par l’utilisateur afin que celui-ci prenne connaissance de la cible que le système a sélectionné de façon automatique. La présente invention se réfère aux méthodes déjà existantes dans l’art antérieur pour la sélection d’une cible de manière automatique, par exemple, la présente invention peut utiliser un algorithme du type soustraction de fond ou détection de contours par exemple.
Selon un mode de réalisation, une fois le marquage de la cible effectué, le système informatique détermine au moins une distance entre au moins une partie des pixels formant l'image de la cible et au moins une partie des pixels formant le premier marquage. Cette distance permet de définir une position relative entre le premier marquage de la cible et la cible. Le suivi semi-automatique de la cible va alors consister à conserver cette position relative et donc de déplacer le premier marquage en fonction de déplacement de la cible.
De manière avantageuse, la définition du marquage de la cible permet au système informatique de ne réaliser une analyse graphique que sur une zone réduite de l’interface graphique, ainsi les ressources nécessaires mises en jeu restent faibles en comparaison aux systèmes automatiques connus de l’art antérieur.
Une fois la cible définie, l’utilisateur suit celle-ci de manière au moins visuelle, et cela indépendamment du mode de suivi sélectionné.
La présente invention propose de fiabiliser le suivi d’une cible dans un réseau de caméras, pouvant être hétérogènes, de manière simple et intuitive pour l’utilisateur. Cette invention propose de préférence deux modes de suivi d’une cible. Chacun des modes fait appel à l’utilisateur pour au moins assurer un suivi visuel de la cible.
Selon un mode de réalisation, le premier mode de suivi d’une cible que propose la présente invention est un suivi semi-automatisé de la cible.
Selon un mode de réalisation, le second mode de suivi d’une cible que propose la présente invention est un suivi manuel de la cible.
De manière préférentielle, chacun de ces modes de suivi comprend une première étape de sélection d’une cible par l’utilisateur. Cette sélection est avantageusement réalisée par l’intermédiaire de l’interface utilisateur.
Préférentiellement, une fois le premier marquage de la cible effectué, celui-ci évolue graphiquement de sorte à suivre la cible au travers de l’interface graphique. Le déplacement du premier marquage peut être effectué manuellement par l’utilisateur lorsque le système informatique est en mode suivi manuel, ou bien le déplacement du premier marquage peut être effectué automatiquement lorsque le système informatique est en mode suivi semi-automatique.
Selon un mode de réalisation, le suivi manuel de la cible consiste en un déplacement par l’utilisateur du premier marquage de la cible de sorte à faire correspondre celui-ci avec la cible.
Selon un mode de réalisation préférentiel, le mode de suivi semi-automatique implique un suivi visuel de la cible par l’utilisateur et un déplacement du marquage de la cible de manière automatique. Ce déplacement peut être assuré par un algorithme de suivi automatique d’une cible comme par exemple un algorithme basée sur une soustraction de fond, sur la segmentation ou sur l’apprentissage. Ce suivi semi-automatique se base par exemple sur une analyse graphique de la cible et de ses propriétés optiques (couleurs, contraste, saturation, luminosité d’au moins une partie des pixels composant l’image de la cible, forme de la cible).
Lorsque le suivi semi-automatique est sélectionné et que le système informatique ne réussit pas à suivre la cible, l’utilisateur est invité à définir un second marquage correspondant à la nouvelle position de la cible, le suivi semi-automatique peut alors continuer.
Selon un mode de réalisation, l’utilisateur peut choisir à tout moment de basculer d’un mode de suivi à un autre.
Selon un mode de réalisation, lorsque le suivi de la cible est effectué dans le champ de vision d’une caméra PTZ, les fonctions de déplacement de celle-ci peuvent être automatiques et/ou manuelles de sorte à conserver la cible et/ou ses proportions dans l’interface graphique. Par exemple, si la cible s’éloigne de la caméra, la fonction zoom de la caméra peut être pilotée par le système informatique de sorte à ce que les proportions de la cible et/ou du marquage de la cible soient conservés en fonction des mouvements de la cible dans le champ de vision de la caméra. Cela permet alors de conserver une vision de la cible peu importe son éloignement par exemple par rapport à la caméra.
La présente invention concerne une solution simple et intuitive de suivi d’une cible dans un réseau de caméras, ainsi le changement du champ de vision de la fenêtre principale de manière automatique lorsque la cible n’est plus visible sur celui-ci est un aspect avantageux.
En effet, lorsque le marquage atteint au moins une zone contextuelle, alors l’interface graphique est modifiée de sorte à exécuter une commande.
De manière préférentielle, cette commande va permettre une meilleure observation de la cible à partir du champ de vision correspondant à cette zone contextuelle, cela étant possible grâce à la calibration du réseau de caméras décrite précédemment.
Selon un mode de réalisation, lorsque la caméra associée à une zone contextuelle est une caméra PTZ, cette dernière est configurée de sorte à ce qu’elle oriente son champ de vision vers le lieu (c’est-à-dire la position) où la cible va apparaître. Cette orientation est avantageusement effectuée juste avant que la cible atteigne ce lieu.
Par exemple, une manière de réaliser cette orientation est de configurer les valeurs du Pan, Tilt et Zoom de ladite caméra PTZ et d’envoyer une commande à ladite caméra PTZ pour se positionner à ces valeurs quand la cible est à une distance prédéfinie de la zone contextuelle.
Selon un mode de réalisation, la ladite commande est envoyée quand la cible ou une partie de la cible entre dans une zone prédéfinie, par exemple une zone invisible entourant la zone contextuelle correspondant à ladite caméra PTZ de basculement.
Avantageusement, une direction de la cible dans l’image peut être également calculée pour envoyer ladite commande tout en prenant en compte la distance de la cible par rapport à ladite zone contextuelle de basculement.
Selon un autre mode de réalisation, et dans le cas où le basculement se fait d’une première caméra PTZ vers une seconde caméra PTZ, et que la zone contextuelle est définie par des valeurs du Pan, Tilt et Zoom de ladite première caméra PTZ, le basculement, de champ de vision vers le champ de vision de ladite seconde caméra PTZ, se fait quand la cible se trouve à des valeurs de Pan, Tilt et Zoom prédéfinies.
Ce basculement automatique est possible grâce au positionnement préalable de zones contextuelles dans les champs de vision des caméras et/ou à des positions de la cible dont au moins une autre caméra dispose d’une meilleure vision.
Nous rappelons que de manière avantageuse les zones contextuelles sont des incrustations et/ou des zones semi-transparentes contenues dans le champ de vision d’au moins une caméra.
Le positionnement de ces zones contextuelles peut être automatisé et/ou manuel. La présence de ces zones permet de rendre intelligent l’affichage du champ de vision d’une caméra puisque l’utilisateur dispose désormais d’une liberté supplémentaire de changement manuel et/ou automatique de champ de vision afin de visualiser au mieux la cible.
Nous allons à présent illustrer certains modes de réalisation de la présente invention en utilisant les figures introduites précédemment comme support.
La figure 1 illustre un schéma représentant un magasin avec des gondoles 10, et des allées situées entre ces gondoles 10. Une caméra PTZ CO est située au centre de la pièce, et des caméras fixes C1 à C8 sont situées dans chacune des allées.
Comme nous l’avons explicité ci-dessus, une configuration préalable du réseau de caméras permet de définir les différentes règles de basculement d’une caméra à une autre. La caméra PTZ possède une large zone de fonctionnement. Sur la figure 1 sont représentés trois champs de vision 100, 200 et 500 possibles pour la caméra C0. Un encadré 100, 200, 500 illustre ce champ de vision selon le point de vue du schéma et selon le point de vue de la caméra C0 tel que pouvant apparaître à l’affichage.
Chacune des caméras C1 à C8 possède elle aussi une zone de fonctionnement correspondant à son champ de vision, ici le long d’une allée. La configuration de basculement du champ de vision de la caméra C0 vers une autre caméra dépend de là où la caméra C0 est orientée. Sachant que la caméra C0 est capable de trois mouvements PTZ, ces paramètres sont pris en compte dans les règles de basculement des caméras.
La figure 1 illustre trois exemples de champ de vision 100, 200, 500 de la caméra C0 avec les zones contextuelles correspondantes 1, 2, 3, 4, 5, 6, 7 et 8.
Le champ de vision 100 correspond à la situation où la caméra C0 zoom sur une zone où la cible se trouve. Dans ce champ de vision, la seule zone contextuelle 1 possible, et donc le seul basculement possible, est liée à la caméra fixe C1. Ainsi si le marquage de la cible entre en contact avec la zone contextuelle 1 de ce champ de vision, alors l’affichage principale de l’interface graphique sera modifié afin d’afficher le champ de vision de la caméra fixe C1 et de permettre une meilleure vision de la cible.
Le champ de vision 200 correspond à la situation où la caméra CO est orientée vers une zone où la cible se trouve. Dans ce champ de vision, les caméras possibles pour le basculement, le changement, et les zones contextuelles correspondantes 2 et 4 sont respectivement liées aux caméras C2 et C4. Ainsi, selon que la cible se déplace vers la zone contextuelle 2 ou 4, le changement de champ de vision se fera respectivement vers la caméra C2 ou C4.
Le champ de vision 500 correspond à la situation où la caméra CO est orientée vers une zone où la cible se trouve. Dans ce champ de vision, les caméras possibles pour le changement de champ de vision, et les zones contextuelles 5, 6, 7 et 8 correspondantes sont liées respectivement aux caméras fixes C5, C6, C7 et C8. Ici encore si la cible rentre en contact avec une des zones contextuelles, le champ de vision de la fenêtre principale de l’interface sera modifié afin d’afficher le champ de vision de la caméra correspondant à la zone contextuelle considérée.
De manière avantageuse, l’utilisateur peut à tout moment choisir de basculer vers un autre champ de vision, soit en sélectionnant la zone contextuelle correspondant au champ de vision souhaité, soit en sélectionnant un des champs de vision des caméras affichés sur l’interface graphique au niveau des fenêtres secondaires.
De manière générale et avantageuse, une fois le changement de caméra effectué, l’interface graphique se met à jour de façon à ce que la fenêtre principale corresponde au champ de vision de la nouvelle caméra, et que les fenêtres secondaires correspondent aux champs de vision d’autres caméras.
De manière préférentielle, ces autres caméras sont celles dont le champ de vision est le plus proche du champ de vision affiché dans la fenêtre principale.
Selon un autre mode de réalisation, il s’agit de caméras sélectionnées par l’utilisateur pour des raisons de préférences.
La figure 2 illustre, selon un mode de réalisation préférentiel, un exemple d’interface graphique selon la présente invention. L’interface graphique comprend une fenêtre principale 1000 affichant le champ de vision V1 de la caméra C1. L’interface graphique comprend également trois fenêtres secondaires 2001, 2002, 2003 affichant respectivement les champs de vision V2, V3 et V4, respectivement des caméras C2, C3 et C4.
Cette mise en forme permet à l’utilisateur de disposer d’un affichage clair de la fenêtre principale, tout en gardant une vision des champs de vision étant préférentiellement les plus aptes à suivre la cible si celle-ci sort du champ de vision V1.
Ainsi, le champ de vision V1 comprend en incrustation trois zones contextuelles 2, 3 et 4. Chacune de ces zones contextuelles est liée à un des trois champs de vision V2, V3 et V4.
Ainsi, si la cible entre en contact avec une de ces zones contextuelles, l’interface graphique est mise à jour en fonction de la zone contextuelle considérée afin d’afficher dans la fenêtre principale le champ de vision le plus pertinent pour le suivi de la cible et dans les fenêtres secondaires les champs de vision les plus proches géographiquement du champ de vision affiché dans la fenêtre principale.
Ce nombre de fenêtres secondaires peut varier d’une configuration de l’interface graphique à une autre pour permettre de couvrir toutes les possibilités de caméras où la cible peut apparaître ou pour mettre plus de caméras préférées ou probables.
Toujours dans une optique de fiabilité et de confort d’utilisation, il est préférable de lier chaque zone contextuelle à sa caméra de basculement correspondante via une information visuelle. Cette information peut être prise parmi : un filtre transparent de la même couleur que la zone contextuelle, un chiffre, une lettre, un symbole,......
La figure 3 donne un exemple de définition d’un marquage 1020 de la cible 1010 dans la fenêtre principale 1000 de l’interface graphique selon un mode de réalisation de la présente invention.
Selon ce mode de réalisation, le marquage 1020 est effectué manuellement par l’utilisateur par réalisation d’un rectangle englobant en totalité la cible 1010.
Selon un autre mode de réalisation, l’utilisateur clique sur la cible 1010, et le système informatique définit lui-même le marquage 1020 de la cible 1010 à partir d’une analyse graphique d’un certain nombre de pixels entourant le point de clic effectué par l’utilisateur.
Selon un mode de réalisation avantageux, une fois le marquage 1020 effectué, sa forme s’adapte à la taille de la cible en fonction de sa position dans l’image. Par exemple si la cible respectivement se rapproche ou s’éloigne de la caméra, la taille du marquage va donc respectivement augmenter ou réduire. L’adaptation de la taille du marquage est avantageusement automatique.
La figure 4 illustre le suivi de la cible 1010 selon un mode de réalisation de la présente invention. Dans cette figure est représentée la fenêtre principale 1000 de l’interface graphique selon la présente invention.
Dans le champ de vision affiché par la fenêtre principale se trouve la cible 1010 entourée par le marquage 1020. Des zones contextuelles 5, 6, 7 et 8 sont également représentées. Le tracé 1030 correspond à la trajectoire suivie par le marquage de la cible, c’est-à-dire au déplacement de la cible dans le champ de vision affiché dans la fenêtre principale.
Cette figure représente une situation quelques instants après un changement de champ de vision. En effet la trajectoire 1030 de la cible 1010 part depuis le bas de l’image et se dirige vers le haut de l’image. Si la cible entre dans la zone contextuelle 6, un basculement vers le champ de vision de la caméra 6 se produit.
En supposant un instant que la caméra 6 est une caméra PTZ, pour l’orienter vers la position où la cible va apparaître, la présente invention peut calculer la distance de la cible (par exemple le barycentre de la boite englobante ou tout autre indication) à la zone contextuelle considérée (à son barycentre ou à une arête par exemple). Ainsi lorsque cette distance atteint une valeur seuil préétablie, la caméra 6 s’oriente vers la position la plus probable de la cible 1010.
Avantageusement, une autre manière plus robuste et plus fiable consiste à rajouter à cette information de distance, une information de direction de la cible 1010 pour confirmer que la cible se dirige vers cette zone contextuelle.
Enfin, une manière plus simple d’orienter la caméra 6 consiste à définir une zone (qui peut être invisible par exemple) juste avant la zone contextuelle 6, de sorte que lorsque la cible s’y retrouve, la commande de positionnement de la caméra 6 soit envoyée.
Selon un mode de réalisation, dans le cas de l’utilisation d’une caméra PTZ et lors du suivi d’une cible, la caméra PTZ adapte son mouvement pour que la cible se trouve dans une zone prédéfinie de l’image, c’est-à-dire que dans le cas d’une caméra PTZ, ses fonctions de déplacement sont utilisées afin de conserver la cible au centre de l’image. Cela permet de conserver d’une part les proportions de la cible dans le champ de vision de la caméra PTZ et de suivre mécaniquement la cible dans tout le champ de vision de la caméra PTZ.
Ainsi, de manière préférentielle, un zoom maximal est défini sur la cible en fonction de la forme englobante de cette dernière. L’ensemble cible/marquage peut alors constituer, dans la limite de la focale de la caméra, un pourcentage de l’image et doit être le plus centré possible dans l’image de la fenêtre principale.
Selon un mode de réalisation, ce pourcentage est avantageusement compris entre 30% et 80%, et de préférence entre 50% et 70%.
Selon un mode de réalisation, lors du suivi, la caméra PTZ se centre sur l’ensemble cible/marquage tout en gardant un espace visible autour pour pouvoir garder en vue les zones contextuelles les plus proches et/ou préférées.
Avantageusement, dans le cas où il n’y que des zones contextuelles définies avec des paramètres Pan, Tilt et Zoom, il n’est pas nécessaire de garder un espace pour les zones contextuelle a contour fermé.
La présente invention concerne donc un procédé de suivi d’une cible dans le champ de vision d’au moins une caméra. Ce procédé permet une fiabilité accrue du suivi de la cible par le synergie de la concentration de l’utilisateur devant la suivre la cible au moins visuellement et par l’assistance du système informatique qui automatise de nombreuses fonction de la présente invention comme le basculement des champs de vision des caméras composant un réseau de caméras lorsque la cible sort du champ de vision d’une caméra. Cette fonction permet à n’importe quel utilisateur d’utiliser la présente invention sans connaissance préalable du réseau de caméras. La synergie de la concentration de l’utilisateur et du système informatique permet également un suivi semi-automatique rendu plus fiable par l’intervention de l’utilisateur en cas d’échec de suivi du système informatique. La présente invention concerne donc un système hybride homme/machine permettant d’utiliser le meilleur de chacun d’eux. L’invention n’est pas limitée aux modes de réalisations précédemment décrits et s’étend à tous les modes de réalisation couverts par les revendications.

Claims (22)

  1. REVENDICATIONS
    1. Procédé de suivi et de localisation d’une cible (1010), utilisant au moins un système informatique, au moins une première caméra (CO, C1, C2, C3, C4, C5, C6, C7, C8) présentant un premier champ de vision (100, 200, 500, V1, V2, V3, V4), une position géographique, et utilisant une interface utilisateur configurée pour permettre à un utilisateur d'interagir avec une interface graphique, caractérisé en ce que ledit procédé comprend les étapes suivantes : - affichage de données vidéos fournies par la au moins une première caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) du premier champ de vision (100, 200, 500, V1, V2, V3, V4) dans l’interface graphique ; - premier marquage (1020) dans l’interface graphique, par entrée dans l’interface utilisateur, d’une cible (1010) située dans le premier champ de vision (100, 200, 500, V1, V2, V3, V4) ; - détermination par le système informatique d’une première position relative du premier marquage (1020) par rapport à la cible (1010) ; - suivi visuel par l’utilisateur de la cible (1010) sur l’interface graphique ; - déplacement du premier marquage (1020) de sorte à ce qu'il reste en correspondance avec la cible (1010) pour en assurer le suivi sur l'interface graphique.
  2. 2. Procédé selon la revendication précédente dans lequel la sélection de la cible (1010) par l’utilisateur comprend la formation d’une forme géométrique (1020) englobant au moins une partie de la cible (1010).
  3. 3. Procédé selon l’une quelconque des revendications précédentes dans lequel l’étape de suivi de la cible (1010) comprend la préservation de la première position relative du premier marquage (1020) par rapport à la cible (1010) par déplacement du premier marquage (1020) en correspondance avec le déplacement de la cible (1010).
  4. 4. Procédé selon la revendication précédente dans lequel la préservation de la première position relative du premier marquage (1020) par rapport à la cible (1010) est effectuée par le système informatique.
  5. 5. Procédé selon la revendication précédente dans lequel la préservation de la première position relative du premier marquage (1020) par rapport à la cible (1010) effectuée par le système informatique est assistée du suivi visuel par l’utilisateur impliquant au moins une étape d’un deuxième marquage de la cible (1010) lorsque le système informatique échoue à préserver la première position relative du premier marquage (1020) par rapport à la cible (1010).
  6. 6. Procédé selon la revendication 3 dans lequel la préservation de la première position relative du premier marquage (1020) par rapport à la cible (1010) est effectuée manuellement par l’utilisateur par l’intermédiaire de l’interface utilisateur.
  7. 7. Procédé selon l’une quelconque des revendications précédentes dans lequel le premier marquage (1020) de la cible (1010) comprend la sélection de la cible (1010) par l’utilisateur et l’analyse graphique de la cible (1010) par le système informatique de sorte à définir la cible (1010) par identification des propriétés optiques de la cible (1010).
  8. 8. Procédé selon l’une quelconque des revendications précédentes dans lequel la au moins une caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) est une caméra prise parmi : caméra fixe, caméra mobile.
  9. 9. Procédé selon la revendication précédente dans lequel la au moins une caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) comprend une caméra au moins mobile en translation et/ou en site et/ou en azimut.
  10. 10. Procédé selon l’une quelconque des revendications précédentes dans lequel l’interface utilisateur permet à l’utilisateur au moins une des actions parmi : la sélection de la cible (1010), le suivi manuel de la cible (1010) dans l’interface graphique, un zoom optique dans le premier champ de vision (100, 200, 500, V1, V2, V3, V4) de la au moins une caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8), une translation de l’au moins une caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8), une rotation de l’au moins une caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8).
  11. 11. Procédé selon l’une quelconque des revendications précédentes dans lequel l’interface graphique comprend au moins une fenêtre (1000) affichant le premier champ de vision (100, 200, 500, V1, V2, V3, V4) de la au moins une première caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8).
  12. 12. Procédé selon l’une quelconque des revendications précédentes comprenant la détermination d’au moins une zone contextuelle (1, 2, 3, 4, 5, 6, 7, 8) définie par au moins une pluralité de points appartenant au champ de vision de la au moins une première caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) et dans lequel ladite au moins une zone contextuelle (1, 2, 3, 4, 5, 6, 7, 8) est configurée pour exécuter une commande dans le cas où le marquage (1020) de la cible (1010) se trouve dans cette au moins une zone (1,2, 3, 4, 5, 6, 7, 8).
  13. 13. Procédé selon la revendication précédente en combinaison avec la revendication 11 dans lequel la au moins une fenêtre (1000) affichant le premier champ de vision (100, 200, 500, V1, V2, V3, V4) de la au moins une première caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) comprend la au moins une zone contextuelle (1,2, 3, 4, 5, 6, 7, 8).
  14. 14. Procédé selon l’une quelconque des deux revendications précédentes en combinaison avec la revendication 8 dans lequel la au moins une première caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) est une caméra mobile en translation, site et azimute et dans lequel la au moins une zone contextuelle (1, 2, 3, 4, 5, 6, 7, 8) correspond à un ensemble de coordonnées en translation, site et azimute de ladite caméra mobile.
  15. 15. Procédé selon l’une quelconques des trois revendications précédentes dans lequel la commande est configurée pour que l’interface graphique soit modifiée dans le cas où le marquage (1020) de la cible (1010) se trouve dans ladite au moins une zone contextuelle (1,2, 3, 4, 5, 6, 7, 8).
  16. 16. Procédé selon la revendication précédente dans lequel la au moins une zone contextuelle (1, 2, 3, 4, 5, 6, 7, 8) est en périphérie du premier champ de vision (100, 200, 500, V1, V2, V3, V4) de la au moins une première caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8).
  17. 17. Procédé selon l'une quelconque des revendications précédentes utilisant une pluralité de caméras (C0, C1, C2, C3, C4, C5, C6, C7, C8) formant un réseau de caméras (C0, C1, C2, C3, C4, C5, C6, C7, C8) et disposant chacune d’un champ de vision (100, 200, 500, V1, V2, V3, V4) et d’une position géographique connue par le au moins un système informatique.
  18. 18. Procédé selon l’une quelconque des revendications 12 à 16 en combinaison avec la revendication 17 dans lequel la modification de l’interface graphique dans le cas où le marquage (1020) de la cible (1010) se trouve dans la au moins une zone contextuelle (1, 2, 3, 4, 5, 6, 7, 8) correspond à un remplacement de l’affichage du champ de vision (100, 200, 500, V1, V2, V3, V4) d’une caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) de la pluralité de caméras (C0, C1, C2, C3, C4, C5, C6, C7, C8) par l’affichage du champ de vision (100, 200, 500, V1, V2, V3, V4) d’une autre caméra (C0, C1, C2, C3, C4, C5, C6, C7, C8) de la pluralité de caméras (C0, C1, C2, C3, C4, C5, C6, C7, C8).
  19. 19. Procédé selon l’une quelconque des revendications 12 à 16 en combinaison avec l’une des revendications 17 et 18 dans lequel la au moins une zone contextuelle (1,2, 3, 4, 5, 6, 7, 8) est configurée pour tenir compte de la position géographique de chacune des caméras (C0, C1, C2, C3, C4, C5, C6, Cl, C8) de la pluralité de caméras (C0, C1, C2, C3, C4, C5, C6, Cl, C8) de sorte à modifier l’affichage du champ de vision (100, 200, 500, V1, V2, V3, V4) par le champ de vision (100, 200, 500, V1, V2, V3, V4) le plus proche géographiquement de la cible (1010).
  20. 20. Procédé selon la revendication précédente dans lequel l’interface utilisateur affiche une pluralité de champs de vision (100, 200, 500, V1, V2, V3, V4) de plusieurs caméras (C0, C1, C2, C3, C4, C5, C6, C7, C8) de la pluralité de caméras (C0, C1, C2, C3, C4, C5, C6, C7, C8) de sorte à ce que les champs de vision (100, 200, 500, V1, V2, V3, V4) affichés correspondent au moins en partie aux champs de vision (100, 200, 500, V1, V2, V3, V4) géographiquement les plus proches les uns des autres.
  21. 21. Système informatique de suivi d’une cible dans un réseau de caméras comprenant au moins un processeur, des moyens de stockage non transitoires d’au moins un programme informatique comprenant des instructions configurées pour mettre en œuvre les étapes du procédé selon l’une quelconque des revendications 1 à 20 lorsqu’elles sont exécutées par le au moins un processeur.
  22. 22. Produit programme d’ordinateur stocké dans une mémoire non transitoire et comportant des instructions exploitables par au moins un processeur, configurées pour exécuter le procédé selon l’une quelconque des revendications 1 à 20.
FR1557513A 2015-08-04 2015-08-04 Suivi d’une cible dans un reseau de cameras Expired - Fee Related FR3039919B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1557513A FR3039919B1 (fr) 2015-08-04 2015-08-04 Suivi d’une cible dans un reseau de cameras

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1557513A FR3039919B1 (fr) 2015-08-04 2015-08-04 Suivi d’une cible dans un reseau de cameras
FR1557513 2015-08-04

Publications (2)

Publication Number Publication Date
FR3039919A1 true FR3039919A1 (fr) 2017-02-10
FR3039919B1 FR3039919B1 (fr) 2018-01-19

Family

ID=54608729

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1557513A Expired - Fee Related FR3039919B1 (fr) 2015-08-04 2015-08-04 Suivi d’une cible dans un reseau de cameras

Country Status (1)

Country Link
FR (1) FR3039919B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3077722A1 (fr) * 2018-02-13 2019-08-16 Streetlab Dispositif de test de champ visuel
CN111275823A (zh) * 2018-12-05 2020-06-12 杭州海康威视系统技术有限公司 一种目标关联数据展示方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0689357A1 (fr) * 1994-06-17 1995-12-27 Harris Corporation Système autonome de transmission d'image prioritaire
WO2000008856A1 (fr) * 1998-08-07 2000-02-17 Koninklijke Philips Electronics N.V. Pistage d'une silhouette dans un systeme a cameras multiples
EP1862969A1 (fr) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Procédé et système de création de la représentation d'une scène 3D dynamiquement modifiée
EP2120452A1 (fr) * 2007-02-14 2009-11-18 Panasonic Corporation Caméra de surveillance et procédé de commande de caméra de surveillance
US20120062732A1 (en) * 2010-09-10 2012-03-15 Videoiq, Inc. Video system with intelligent visual display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0689357A1 (fr) * 1994-06-17 1995-12-27 Harris Corporation Système autonome de transmission d'image prioritaire
WO2000008856A1 (fr) * 1998-08-07 2000-02-17 Koninklijke Philips Electronics N.V. Pistage d'une silhouette dans un systeme a cameras multiples
EP1862969A1 (fr) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Procédé et système de création de la représentation d'une scène 3D dynamiquement modifiée
EP2120452A1 (fr) * 2007-02-14 2009-11-18 Panasonic Corporation Caméra de surveillance et procédé de commande de caméra de surveillance
US20120062732A1 (en) * 2010-09-10 2012-03-15 Videoiq, Inc. Video system with intelligent visual display

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3077722A1 (fr) * 2018-02-13 2019-08-16 Streetlab Dispositif de test de champ visuel
WO2019158848A1 (fr) * 2018-02-13 2019-08-22 Streetlab Dispositif de test de champ visuel pour la mobilite
CN111275823A (zh) * 2018-12-05 2020-06-12 杭州海康威视系统技术有限公司 一种目标关联数据展示方法、装置及系统
CN111275823B (zh) * 2018-12-05 2024-05-03 杭州海康威视系统技术有限公司 一种目标关联数据展示方法、装置及系统

Also Published As

Publication number Publication date
FR3039919B1 (fr) 2018-01-19

Similar Documents

Publication Publication Date Title
US10586395B2 (en) Remote object detection and local tracking using visual odometry
CN112823328B (zh) 用于执行相机系统的内部和/或外部校准的方法
EP2119223B1 (fr) Procede de commande a partir d'un signal oculaire volontaire, notamment pour une prise de vues
EP2715662B1 (fr) Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
CN105917292B (zh) 利用多个光源和传感器的眼睛注视检测
WO2015180659A1 (fr) Procédé de traitement d'image et dispositif de traitement d'image
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
FR3081248A1 (fr) Systeme et procede de determination d’un emplacement pour le placement d'un paquet
FR2827461A1 (fr) Selection intelligente d'une particularite et commande de l'avancee sur gros plan et du recul sur panoramique par panoramique
KR20140043384A (ko) 관점 오브젝트 선택
FR3011952A1 (fr) Procede d'interaction par le regard et dispositif associe
WO2018087462A1 (fr) Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles
FR3085217A1 (fr) Procede de determination de pose et d'identification d'une vue tridimensionnelle de visage
US9449427B1 (en) Intensity modeling for rendering realistic images
FR3039919A1 (fr) Suivi d’une cible dans un reseau de cameras
FR3011663A1 (fr) Procede de visualisation d'une image multispectrale
EP3602253B1 (fr) Système de transparence pour caméra banalisée
FR2989790A1 (fr) Dispositif de visualisation adapte a fournir un champ visuel etendu.
EP4031854A1 (fr) Dispositif de détection d'odeur, procédé de détection d'odeur et programme d'ordinateur correspondant
FR3101173A1 (fr) Dispositif d’identification d’odeur, procédé d’identification d’odeur et programme d’ordinateur correspondant
WO2019110395A1 (fr) Procede d'interaction avec un sous-titre affiche sur un ecran de television, dispositif, produit-programme d'ordinateur et support d'enregistrement pour la mise en œuvre d'un tel procede
FR3077910A1 (fr) Procede d'aide a la maintenance d'un systeme complexe
EP2877979B1 (fr) Methode monocamera de determination d'une direction d'un solide
FR2971074A1 (fr) Procede et dispositif de traitement de sequences d'images d'une scene et systeme de surveillance d'une scene comportant un tel dispositif
EP2826017B1 (fr) Procédé de détermination des paramètres géométriques indiquant le mouvement d'une caméra

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170210

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

ST Notification of lapse

Effective date: 20200406