FR2929734A1 - Procede et systeme de videosurveillance. - Google Patents

Procede et systeme de videosurveillance. Download PDF

Info

Publication number
FR2929734A1
FR2929734A1 FR0801843A FR0801843A FR2929734A1 FR 2929734 A1 FR2929734 A1 FR 2929734A1 FR 0801843 A FR0801843 A FR 0801843A FR 0801843 A FR0801843 A FR 0801843A FR 2929734 A1 FR2929734 A1 FR 2929734A1
Authority
FR
France
Prior art keywords
image
images
image area
area
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0801843A
Other languages
English (en)
Inventor
Lionel Martin
Tony Baudon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STMicroelectronics Rousset SAS
Original Assignee
STMicroelectronics Rousset SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by STMicroelectronics Rousset SAS filed Critical STMicroelectronics Rousset SAS
Priority to FR0801843A priority Critical patent/FR2929734A1/fr
Priority to US12/417,223 priority patent/US8363106B2/en
Publication of FR2929734A1 publication Critical patent/FR2929734A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19652Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

L'invention concerne un procédé de vidéosurveillance comprenant des étapes de capture périodique par une caméra (CAM) d'une image d'une zone à surveiller, d'analyse de l'image pour y détecter une présence, et de transmission de l'image par la caméra, uniquement si une présence a été détectée dans l'image.

Description

1 PROCEDE ET SYSTEME DE VIDEOSURVEILLANCE
La présente invention concerne un procédé et un système de vidéosurveillance. La présente invention s'applique notamment à la détection de présence ou d'intrusion.
Les systèmes de vidéosurveillance comprennent généralement une ou plusieurs caméras reliées à un ou plusieurs écrans d'affichage. Les écrans d'affichage requièrent l'attention d'un ou plusieurs opérateurs humains. Le nombre de caméras peut être supérieur au nombre d'écrans d'affichage. Dans ce cas, les images d'une caméra à afficher sur un écran doivent être sélectionnées soit manuellement ou soit périodiquement. Ces systèmes requièrent une attention constante de l'opérateur qui doit regarder en permanence les écrans afin de pouvoir déceler une présence ou une intrusion. Il en résulte que des intrusions peuvent échapper à la vigilance des opérateurs. Il existe également des systèmes de traitement d'image permettant d'analyser en temps réel les images fournies par une ou plusieurs caméras pour effectuer une détection d'intrusion. Ces systèmes requièrent de puissants et coûteux moyens de calcul pour que l'analyse d'image puisse être effectuée en temps réel avec une fiabilité suffisante.
Il est souhaitable de réduire l'attention des opérateurs, requise pour détecter une présence ou une intrusion sur des images vidéo. Il est également souhaitable de limiter le nombre d'opérateurs humains nécessaires lorsqu'il s'agit de surveiller les images fournies par plusieurs caméras. Il est encore souhaitable de limiter les moyens de calculs nécessaires à l'analyse en temps réel d'images vidéo. 2
Dans un mode de réalisation, cet objectif est atteint par la prévision d'un procédé de vidéosurveillance comprenant des étapes de capture périodique par une caméra d'une image d'une zone à surveiller, et de transmission de l'image. Selon un mode de réalisation, le procédé comprend une étape d'analyse de l'image pour y détecter une présence, l'image étant transmise uniquement si une présence a été détectée dans l'image.
Selon un mode de réalisation, l'analyse d'image comprend des étapes de division de l'image en zones d'images, de calcul d'une valeur moyenne de tous les pixels de chaque zone d'image, et de détection d'une présence dans chaque zone d'image en fonction de variations de la valeur moyenne de la zone d'image. Selon un mode de réalisation, une présence est détectée dans une image si la condition suivante est vérifiée dans au moins une zone d'image de l'image : 1MR(t,i)-MRF(t-1, )l G(i). VRF(t-1,i) dans laquelle MR(t,i) est la valeur moyenne des pixels de la zone d'image i dans l'image t, MRF(t-1,i) est une valeur moyenne des pixels de la zone d'image i calculée sur plusieurs images précédentes à partir de l'image précédente t-1, G(i) est une valeur de seuil de détection définie pour la zone d'image i et VRF(t-1,i) est une valeur moyenne de variance calculée sur plusieurs images précédentes à partir de l'image précédente t-1. Selon un mode de réalisation, le procédé comprend une étape d'ajustement du seuil de détection de chaque 30 zone d'image. Selon un mode de réalisation, le seuil de détection dans au moins une zone d'image est choisi de manière à inhiber la détection de présence dans la zone d'image. Selon un mode de réalisation, la valeur moyenne 35 d'une zone d'image comprend trois composantes calculées à 3 partir de trois composantes de la valeur de chaque pixel de la zone d'image. Selon un mode de réalisation, la valeur moyenne d'une zone d'image est calculée en combinant trois composantes de la valeur de chaque pixel de la zone d'image. Selon un mode de réalisation, le procédé comprend une étape d'inhibition de la détection de présence dans certaines zones d'image.
Selon un mode de réalisation, le procédé comprend une étape de transmission d'un nombre de zones d'image où une présence a été détectée dans une image. Selon ur.. mode de réalisation, le procédé comprend des étapes de capture périodique par plusieurs caméras d'images de plusieurs zones à surveiller, d'analyse par chaque caméra des images qu'elle a capturées pour y détecter une présence, et de sélection des images à transmettre provenant d'une caméra, en fonction de la détection d'une présence.
Selon un mode de réalisation, l'analyse des images est effectuée en divisant chaque image en zones d'image, et en analysant chaque zone d'image pour y détecter une présence, les images à transmettre provenant d'une caméra, étant. sélectionnées en fonction du nombre de zones d'image où une présence a été détectée dans une image par la caméra. Dans un mode de réalisation, il est prévu un dispositif de vidéosurveillance configuré pour capturer périodiquement une image d'une zone à surveiller, et transmettre l'image. Selon un mode de réalisation, le dispositif est configuré pour analyser l'image pour y détecter une présence, et transmettre l'image uniquement si une présence a été détectée dans l'image. Selon un mode de réalisation, le dispositif est 35 configuré pour diviser l'image en zones d'images, 4
calculer une valeur moyenne de tous les pixels de chaque zone d'image, et détecter une présence en fonction de variations de la valeur moyenne de chaque zone d'image. Selon un mode de réalisation, une présence est détectée dans une image si la condition suivante est vérifiée dans au moins une zone d'image de l'image : IMR(t,i)-MRF(t-1,i)I ? G(i). VRF(t-1,i) dans laquelle MR(t,i) est la valeur moyenne des pixels de la zone d'image i dans l'image t, MRF(t-1,i) est une valeur moyenne des pixels de la zone d'image i calculée sur plusieurs images précédentes à partir de l'image précédente t-1, G(i) est une valeur de seuil définie pour la zone d'image i et VRF(t-1,i) est une valeur moyenne de variance calculée sur plusieurs images précédentes à partir de l'image précédente t-1. Selon un mode de réalisation, le dispositif est configuré pour recevoir une valeur de seuil de détection pour chaque zone d'image. Selon un mode de réalisation, le dispositif est configuré pour recevoir un paramètre d'inhibition de la détection de présence dans certaines zones d'image. Selon un mode de réalisation, le dispositif est configuré pour calculer une valeur moyenne MR de zone d'image comprenant trois composantes calculées à partir de trois composantes de la valeur de chaque pixel de la zone d'image. Selon un mode de réalisation, le dispositif est configuré peur calculer une valeur moyenne de zone d'image combinant trois composantes de la valeur de chaque pixel de la zone d'image. Selon un mode de réalisation, le dispositif est configuré pour transmettre un nombre de zones d'image où une présence a été détectée dans une image. Selon un mode de réalisation, le dispositif 35 comprend une caméra configurée pour capturer des images, analyser les images capturées pour y détecter une présence, et transmettre les images uniquement si une présence a été détectée. Selon un mode de réalisation, le dispositif 5 comprend plusieurs caméras capturant des images de plusieurs zones à surveiller, chaque caméra étant configurée pour analyser les images qu'elle a capturées pour y détecter une présence, le dispositif étant configuré pour sélectionner des images à transmettre provenant d'une caméra, en fonction de la détection d'une présence. Selon un mode de réalisation, le dispositif est configuré pour transmettre les images d'une des caméras ayant détecté une présence dans le plus grand nombre de zones d'image d'une image, lorsque plusieurs des caméras ont détecté une présence dans une zone d'image d'une image.
Des exemples de réalisation de l'invention seront décrits dans ce qui suit, à titre non limitatif en relation avec les figures jointes parmi lesquelles : - la figure 1 représente sous la forme de blocs un système de détection de présence, selon un mode de réalisation, - la figure 2 représente sous la forme de blocs l'architecture matérielle d'un module de caméra, selon un mode de réalisation, - la figure 3 représente sous la forme de blocs l'architecture matérielle d'un module de caméra, selon un 30 autre mode de réalisation, - la figure 4 représente sous la forme de blocs un exemple d'architecture fonctionnelle d'un processeur vidéo du module de caméra, selon un mode de réalisation, - ta figure 5 est un diagramme d'état représentant des 35 modes de fonctionnement du module de caméra, 6 - les figures 6A à 6D représentent schématiquement des images découpées en zones d'image, selon des modes de réalisation, - la figure 7 est un organigramme illustrant le 5 fonctionnement du module de caméra, selon un mode de réalisation, - la figure 8 représente sous la forme de blocs un mode de réalisation d'un système de vidéosurveillance. La figure 1 représente un système de détection de 10 présence comportant un module de caméra CAM. Le module CAM comprend un capteur d'image numérique 1, un module de traitement d'image IPM et un module de détection DETM. Le capteur 1 fournit des signaux d'image au module IPM. Le module IPM produit à partir des signaux d'image un flux 15 de trames vidéo ou d'images numériques SV. Le module DETM analyse les images SV fournies par le module IPM et génère un signal de détection DT indiquant si une présence a été ou non détectée dans les images SV. Le signal DT commande la transmission en sortie du module 20 CAM du flux d'images SV. Le capteur d'image 1 peut être de type CMOS. La figure 2 représente un mode de réalisation du module de caméra CAM qui peut être réalisé en un seul circuit intégré. Sur la figure 2, le module CAM comprend 25 la surface sensible PXAY du capteur d'image 1, un générateur de signaux d'horloge CKGN, un circuit d'interface INTX, un microprocesseur }.iP, un circuit de traitement vidéo VPRC, un circuit de synchronisation vidéo VCKG, un circuit d'initialisation RSRG, et un 30 circuit de calcul de statistiques d'image STG. Le circuit VPRC reçoit des pixels d'image IS du capteur 1 et leur applique différents traitements pour obtenir des images corrigées. Le circuit CKGN génère les signaux d'horloge nécessaires au fonctionnement des 35 différents circuits du module CAM. Le circuit VCKG génère 7 les signaux de synchronisation SYNC nécessaires au fonctionnement du circuit. VPRC. Le microprocesseur pP reçoit des commandes par l'intermédiaire du circuit d'interface INTX et configure le circuit VPRC en fonction des commandes reçues. Le microprocesseur peut également réaliser une partie des traitements appliqués aux images. Le circuit STG effectue des calculs sur les pixels des images, comme des calculs de moyenne des valeurs des pixels de chaque image. Le circuit RSRG active ou désactive le microprocesseur }.P et le circuit VPRC en fonction d'un signal d'activation CE. Le circuit d'interface INTX est configuré pour recevoir différents paramètres de fonctionnement du microprocesseur pP et du circuit VPRC et pour fournir des informations comme le résultat de la détection de présence. Le circuit INTX est par exemple du type I2C. Le circuit VPRC applique aux pixels fournis par le capteur 1 notamment des traitements de traitement des couleurs, d'ajustement de la balance des blancs, d'extraction de contours et de correction d'ouverture et de gamma. Le circuit VPRC fournit différents signaux de synchronisation FSO, VSYNC, HSYNC, PCLK permettant l'affichage des images sur un écran vidéo. Selon un mode de réalisation, les traitements de détection du module DETM sont assurés au moins partiellement par le circuit VPRC et, le cas échéant, par le microprocesseur. Le circuit VPRC est par exemple réalisé en logique câblée. La figure 3 représente un autre mode de réalisation du module de caméra CAM. Sur la figure 3, le module de caméra est réalisé en deux blocs principaux, comprenant un capteur d'image 1', et un coprocesseur vidéo VCOP relié au capteur d'image par une liaison de transmission 2. Le capteur d'image comprend une surface sensible PXAY couplée à un objectif de caméra 3, un circuit de conversion analogique numérique ADC, et un circuit de 8
transmission numérique Tx pour transmettre les signaux de pixels numérisés en sortie du circuit ADC par la liaison 2. Le coprocesseur vidéo VCOP comprend un module de traitement vidéo VDM connecté à la liaison 2 et un module de sortie vidéo VOM. Le module VDM comprend un circuit de réception Rx connecté à la liaison 2, un circuit de traitement vidéo VPRC tel que celui représenté sur la figure 2, et un circuit de formatage DTF des données vidéo produites par le processeur vidéo. Le circuit DTF applique aux images en sortie du circuit VPRC des traitements de conversion de format d'image, par exemple pour convertir des images au format YUV en RGB. Le module VOM comprend un circuit de traitement d'image IPRC connecté à une mémoire de trame FRM prévu pour mémoriser une image, et un circuit d'interface SINT. Le circuit IPRC est configuré notamment pour appliquer aux séquences d'images SV en sortie du circuit de formatage DTF, des traitements de conversion de format vidéo incluant des traitements de compression d'image, par exemple pour convertir les images au format JPEG ou MPEG. Le circuit SINT applique aux données vidéo en sortie du circuit IPRC des traitements d'adaptation pour rendre le format de sortie des données vidéo compatible avec le système auquel le coprocesseur VCOP est connecté. La figure 4 représente des fonctions du circuit de traitement vidéo VPRC. Sur la figure 4, le circuit de traitement VPRC comprend des fonctions d'interpolation de couleurs CINT, de correction de matrice couleur CCOR, de correction de la balance des blancs BBAD, d'extraction de contours CEXT, de correction d'ouverture OCOR, de correction de gamma GCOR, et le module de détection DETM qui contrôle la sortie des images SV en fonction de la valeur du signal de détection DT. Les fonctions CEXT et CINT traitent directement les signaux d'image en sortie 9
du capteur d'image 1. La fonction CCOR applique un traitement de correction des couleurs aux signaux d'image en sortie de la fonction CCOR. La fonction BBAD applique un traitement d'ajustement de la balance des blancs aux signaux de sortie de la fonction CCOR. La fonction OCOR combine les signaux d'image en sortie des fonctions BBAD et CEXT et applique à ces signaux un traitement de correction d'ouverture. La fonction GCOR applique aux images en sortie de la fonction OCOR un traitement de correction de gamma et produit la séquence d'image SV. Le module DETM reçoit les images en sortie de la fonction GCOR. Pour réduire la consommation électrique du circuit de traitement vidéo VPRC, le module de détection DETM peut être placé, non pas à la fin de la chaîne de traitements d'image réalisés par le circuit VPRC, mais entre deux traitements intermédiaires. Ainsi, le module de détection peut être placé par exemple entre les fonctions OCOR et GCOR.
Sur les figures 2 et 3, le circuit de traitement vidéo VPRC présente différents modes de fonctionnement tels que ceux représentés sous la forme d'un diagramme d'état sur la figure 5. Sur la figure 2, les modes de fonctionnement du circuit VPRC peuvent être contrôlés par le microprocesseur pP en fonction de commandes reçues par le circuit INTX. Sur la figure 5, le circuit VPRC comprend par exemple un mode basse consommation STM, un mode pause PSE, et an mode opérationnel RUN. Dans le mode STM, tous les circuits sont hors tension, sauf ceux permettant au module CAM d'être configuré par l'intermédiaire du circuit INTX. Dans le mode PSE, tous les circuits et tous les signaux d'horloge sont actifs, mais le circuit VPRC n'effectue aucun traitement et donc ne fournit aucune image. Dans le mode RUN, le circuit VPRC fournit des images à une fréquence définie par 10 l'utilisateur. A l'entrée dans cet état, le module CAM vérifie que la balance des blancs est stabilisée. Généralement, une à trois images sont nécessaires pour ajuster la balance des blancs.
Selon un mode de réalisation, le module CAM comprend également un mode de détection DTT dans lequel tous les circuits sont actifs, et le circuit VPRC analyse les images peur y détecter une présence, mais ne fournit pas d'image si aucune présence n'est détectée. Si une présence est détectée, le circuit VPRC active un signal de détection DT, et le module CAM peut repasser à l'état RUN dans lequel il fournit des images SV. La fréquence d'acquisition des images peut être plus réduite que dans le mode RUN, de manière à réduire la consommation électrique du module CAM. Ainsi, dans le mode DTT, le module CAM transmet des images SV uniquement en cas de détection de présence. La bande passante nécessaire au module CAM pour transmettre des images vers un éventuel système de vidéosurveillance distant est donc réduite. En outre, comme aucune image n'est transmise par le module CAM dans le mode DTT, l'énergie consommée dans ce mode reste faible. Le module de détection DETM met en oeuvre un procédé de détection comprenant des étapes de découpage de chaque image en zones d'image ou ROI (region of interest), et de traitement des pixels de chaque zone d'image pour en extraire une information de détection de présence. Les figures 6A à 6D représentent des exemples de découpage de l'image en zones d'images. La figure 7 représente les étapes du procédé de traitement des zones d'images mis en oeuvre par le module de détection DETM. Les figures 6A, 6B, 6C représentent une image découpée en respectivement 16, 25 et 36 zones d'image. Le nombre de zones d'image considérées dans une image dépend 11
du niveau de détail souhaité ou de la configuration de la zone à surveiller. Bien que sur les figures 6A à 6C, les zones d'image ne sont pas contiguës, il peut être souhaité que celles- ci le soient comme sur la figure 6D pour que tous les pixels de l'image soient pris en compte dans l'évaluation de l'information de détection DT. Par ailleurs, il n'est pas nécessaire que les zones d'image soient uniformément réparties dans l'image, et présentent toutes la même forme et les mêmes dimensions. Ainsi le découpage de l'image en zones d'image peut être adapté à la configuration de l'image. Par exemple, il peut être intéressant de découper l'image en zones d'image de manière à ce que chaque zones d'image corresponde dans l'image à une zone de couleur et/ou luminance et/ou texture sensiblement uniforme. Sur la figure 7, le procédé de traitement des zones d'image comprend des étapes Si à sil. Le procédé utilise pour chaque zone d'image i, deux registres MRR(i) et VRR(i) gérés en FIFO (First In - First Out) pour mémoriser respectivement la valeur moyenne et la variance des pixels de la zone d'image, calculées sur un ensemble d'images précédentes. Les registres MRR(i) et VRR(i) permettent d'effectuer un filtrage temporel. Les tailles des registres MRR(i) et VRR(i) sont paramétrables et définissent le nombre d'images successives sur lesquelles le filtrage temporel est effectué. A l'étape Si, le module DETM initialise un indice i de numérotation des zones d'image. A l'étape S2, le module DETM calcule une valeur moyenne MR(t,i) des valeurs des pixels de la zone d'image i dans l'image t. Si la valeur de chaque pixel est définie par plusieurs composantes, par exemple Y, U, V, la valeur moyenne MR(t,i) dans la zone d'image i est calculée sur la somme des composantes ou sur une seule des composantes. Dans le 12 cas d'un imageur noir et blanc, la valeur considérée de chaque pixel peut être uniquement la luminance. Lorsque la valeur d'un pixel comprend plusieurs composantes telles que Y, U, V, il peut être utile d'analyser chaque composante séparément. Ainsi, chaque composante peut faire l'objet d'un calcul de moyenne et de variance pour chaque zone d'image. Dans ce cas, chaque zone d'image i est associée à trois registres MRR(i) et trois registres VRR(i), à raison d'un registre par composante. A l'étape S3, le module DETM évalue l'information de détection de présence sur la zone d'image i en détectant une variation importante de la valeur moyenne MR(t,i) de la zone d'image par rapport à cette même zone d'image dans plusieurs images précédentes. Cette information est par exemple évaluée en appliquant le test (1) suivant . IMR(t,i)-MRF(t-1,i) I G(i) . VRF(t-1,i) (1) dans lequel, MRF(t-1,i) est la moyenne des valeurs mémorisées dans le registre MRR(i) jusqu'à l'image précédente t-1, VF:F(t-1,i) est la moyenne des valeurs mémorisées dans le registre VRR(i) jusqu'à l'image précédente t-1, et G(i) est un paramètre de gain qui peut être différent pour chaque zone d'image i.
Si le test (._) est vérifié, cela signifie que la zone d'image i a subi une variation rapide de valeur moyenne par rapport à l'image précédente, révélant une présence probable. Le module DETM exécute alors l'étape S11, puis l'étape S9, sinon, il exécute les étapes S4 à S10. A l'étape S11, le module DETM met à jour l'information de présence DT pour indiquer qu'une présence à été détectée, et fournit éventuellement le numéro i de la zone d'image où une présence a ainsi été détectée. 13
A l'étape S4, le module DETM mémorise la valeur MR(t,i) calculée à l'étape S2 dans le registre MRR(i) en remplaçant la valeur la plus ancienne mémorisée dans le registre. A l'étape S5, le module DETM calcule et mémorise la moyenne MRF(t,i) des valeurs mémorisées dans le registre MRR(i). A l'étape S6, le module DETM calcule la variance VR(t,i) des valeurs des pixels de 1a zone d'image i, à l'aide de la formule (2) suivante : VR(t,i) = IMRF(t,i) - MR(t,i) l (2) A l'étape S7, le module DETM mémorise la valeur VR(t,i) calculée à l'étape S6 dans le registre VRR(i) en remplaçant la valeur la plus ancienne mémorisée dans le registre. A l'étape S8, le module DETM calcule et mémorise la moyenne VRF(t,i) des valeurs mémorisées dans le registre VRR(i). A l'étape S8, le module DETM incrémente l'indice i de numérotation des zones d'image. A l'étape S10, si la nouvelle valeur de l'indice i correspond à une zone d'image de l'image, le module DETM poursuit le traitement à l'étape S2 sur les pixels de la zone d'image repérée par l'indice i. Si à l'étape S10, l'indice i ne correspond pas à une zone d'image de l'image, cela signifie que toutes les zones d'image de l'image ont été traitées. Le module DETM poursuit alors le traitement à l'étape Si sur l'image suivante t+l. Il est à noter que si le module DETM a fait une détection (étape S11), les registres MRR(i) et VRR(i) ne sont pas mis à jour..
Il s'avère que le traitement de détection (étapes S3 à si()) présente une influence marginale sur la puissance de calcul nécessaire, par rapport aux calculs des moyennes MR(t,i) (étape S2). Par conséquent, le nombre de zones d'image choisi a peu d'influence sur la durée globale du traitement de détection. Le nombre de 14 zones d'image influe davantage sur la taille de la mémoire nécessaire. Ce nombre peut être choisi compris entre 16 et 49. Les calculs de moyennes peuvent être réalisés en parallèle avec le traitement de détection, le procédé de détection peut être exécuté en temps réel, au fur et à mesure de l'acquisition des images par le module CAM sans affecter les traitements d'acquisition et de correction des images. Le module DETM peut être configuré par l'intermédiaire du circuit d'interface INTX pour ne traiter qu'une partie des images, par exemple une image sur 10. Dans cet exemple, le module CAM est en mode PSE pendant 6 à 8 images consécutives. Il passe ensuite en mode RUN pendant l'acquisition d'une à trois images pour permettre la correction de l'image comme l'ajustement de la balance des blancs et la correction de gamma. Il passe ensuite en mode DTT pendant: l'acquisition d'une image. Si une présence est détectée dans le mode DTT, le module CAM passe en mode RUN pour fournir toutes les images acquises, sinon, il retourne dans le mode PSE pendant l'acquisition des 6 à 8 _images suivantes, et ainsi de suite. Dans un mode de réalisation, l'acquisition des pixels et les calculs de moyenne de zones d'image situées dans l'image sur une même ligne de zones d'image sont réalisés en parallèle avec les calculs de détection effectués sur les zones d'image situées dans l'image sur une ligne de zones d'image acquise précédemment. Le procédé de détection qui vient d'être décrit s'avère relativement robuste, étant donné qu'il peut fonctionner indifféremment avec des images prises en extérieur ou en intérieur et qu'il est insensible à des variations lentes comme des variations de luminosité (en fonction de l'heure) ou de conditions météorologiques, ou à des changements rapides mais n'affectant qu'une portion 15
non significative de l'image comme le mouvement d'une branche d'arbre ballottée par le vent. La seule contrainte est que le champ de la caméra reste fixe dans le mode DTT. Par ailleurs, il est à noter que le procédé de détection peut être insensible à un changement rapide de l'intensité d'éclairage de la scène observée par la caméra, si le réglage de la balance des blancs est effectué avant l'analyse de l'image. Le procédé de détection s'avère également flexible grâce au seuil de détection défini par le gain G qui est paramétrable pour chaque zone d'image. Il est ainsi possible d'inhiber la détection dans certaines zones d'image qui correspondent par exemple à une zone qui ne doit pas être surveillée ou qui risque de générer des fausses alarmes. La mise en oeuvre du procédé ne nécessite pas de moyens de calculs importants. Ceux-ci restent donc à la portée des circuits de traitement d'image d'une caméra. La figure 8 représente un mode de réalisation d'un système de vidéosurveillance. Sur la figure 8, le système comprend plusieurs modules de caméra CAMl-CAM8 du type du module CAM décrit précédemment. Les modules de caméra CAMl-CAM8 sont connectés à un module de contrôle distant RCTL qui commande les modules de caméra CAMl-CAM8 et qui reçoit et retransmet les signaux de détection DT et les flux vidéo SV émis par ces derniers. Le module RCTL peut comprendre les mêmes états de fonctionnement que ceux représentés sur la figure 5. Dans l'état RUNM, l'opérateur peut sélectionner le ou les modules de caméra dont il souhaite observer les images. Dans l'état DTT, en cas de détection d'une présence par un ou plusieurs modules de caméra, le module RCTL émet un signal DTI associé aux numéros des modules de caméra ayant émis le signal DT. Le module RCTL peut également accéder aux interfaces des modules CAM1-CAM8 ayant émis 16
un signal de détection DT pour obtenir les numéros des zones d'image où la détection a été effectuée. Si un seul module de caméra e émis le signal DT, le module RCTL retransmet pour affichage et/ou enregistrement les images fournies par le mocule de caméra ayant émis le signal DT. Si plusieurs modules de caméra ont émis le signal DT, le module RCTL peut appliquer une logique de sélection pour sélectionner les images de l'un des modules de caméra à retransmettre. La logique de sélection peut par exemple sélectionner le module de caméra ayant effectué une détection dans le plus grand nombre de zones d'image. Les modules de caméra CAM1-CAM8 peuvent être installés dans un dôme permettant d'effectuer une surveillance panoramique sur 360°.
Il apparaîtra clairement à l'homme de l'art que la présente invention est susceptible de diverses variantes de réalisation et d'applications, sans sortir du cadre défini par les revendications annexées. En particulier, l'invention, d'autres algorithmes de détection de présence peuvent être envisagés, dès lors que ces algorithmes sont suffisamment simples pour être mis en œuvre dans les circuits de traitement d'image d'une caméra. Ainsi, l'analyse des images par zone d'image n'est pas nécessaire et peut être remplacée par une analyse pixel par pixel, pour détecter des variations rapides, une présence étant détectée si les pixels ayant subi une variation importante sont suffisamment proches les uns des autres et en nombre suffisant. Par ailleurs, des tests alternatifs au test (1) peuvent être envisagés pour détecter une variation importante de pixel ou de zone d'image. Ainsi, par exemple, la valeur moyenne de chaque zone d'image de l'image en cours de traitement peut simplement être comparée à la valeur moyenne de la zone d'image calculée sur plusieurs images précédentes.

Claims (22)

  1. REVENDICATIONS1. Procédé de vidéosurveillance comprenant des étapes de capture périodique par une caméra (CAM) d'une image (t) d'une zone à surveiller, et de transmission de l'image, caractérisé en ce qu'il comprend une étape d'analyse de l'image (t) pour y détecter une présence, l'image étant transmise uniquement si une présence a été détectée dans l'image.
  2. 2. Procédé selon la revendication 1, dans lequel'analyse d'image comprend des étapes de division de l'image (t) en zones d'images (i), de calcul d'une valeur moyenne (MR(t,i)) de tous les pixels de chaque zone d'image, et de détection d'une présence dans chaque zone d'image en fonction de variations de la valeur moyenne de la zone d'image.
  3. 3. Procédé selon la revendication 2, dans lequel une présence est détectée dans une image (t) si la condition suivante est vérifiée dans au moins une zone d'image (i) de l'image : 1MR(t,i)-MRF(t-1,i) l G(i) . VRF(t-1,i) dans laquelle MR(t,i) est la valeur moyenne des pixels de la zone d'image i dans l'image t, MRF(t-1,i) est une valeur moyenne des pixels de la zone d'image i calculée sur plusieurs images précédentes à partir de l'image précédente t-1, G(i est une valeur de seuil de détection définie pour la zone d'image i et VRF(t-1,i) est une valeur moyenne de variance calculée sur plusieurs images précédentes à partir de l'image précédente t-1. 17
  4. 4. Procédé selon la revendication 3, comprenant une étape d'ajustement du seuil de détection (G(i)) de chaque zone d'image ( i) .
  5. 5. Procédé selon la revendication 4, dans lequel le seuil de détection (G(i)) dans au moins une zone d'image (i) est choisi de manière à inhiber la détection de présence dans la zone d'image.
  6. 6. Procédé selon l'une des revendications 2 à 5, dans lequel la valeur moyenne (MR(t,i)) d'une zone d'image (i) comprend trois composantes calculées à partir de trois composantes de la valeur de chaque pixel de la zone d'image.
  7. 7. Procédé selon l'une des revendications 2 à 5, dans lequel la valeur moyenne (MR(t,i)) d'une zone d'image (i) est calculée en combinant trois composantes de la valeur de chaque pixel de la zone d'image.
  8. 8. Procédé selon l'une des revendications 2 à 7, comprenant une étape d'inhibition de la détection de présence dans certaines zones d'image (i). 25
  9. 9. Procédé selon l'une des revendications 2 à 8, comprenant une étape de transmission d'un nombre de zones d'image (i) où une présence a été détectée dans une image (t). 30
  10. 10. Procédé selon l'une des revendications 1 à 9, comprenant des étapes de capture périodique par plusieurs caméras (CAM1-CAM8) d'images (t) de plusieurs zones à surveiller, d'analyse par chaque caméra des images qu'elle a capturées pour y détecter une présence, et de20 sélection des images à transmettre provenant d'une caméra, en fonction de la détection d'une présence.
  11. 11. Procédé selon la revendication 10, dans lequel l'analyse des images est effectuée en divisant chaque image (t) en zones d'image (i), et en analysant chaque zone d'image pour v détecter une présence, les images à transmettre provenant d'une caméra (CAM1-CAM8), étant sélectionnées en fonction du nombre de zones d'image où une présence a été détectée dans une image par la caméra.
  12. 12. Dispositif de vidéosurveillance configuré pour capturer périodiquement une image (t) d'une zone à surveiller, et transmettre l'image, caractérisé en ce qu'il est configuré pour analyser l'image (t) pour y détecter une présence, et transmettre l'image uniquement si une présence a été détectée dans l'image.
  13. 13. Dispositif selon la revendication 12, configuré pour diviser l'image (t) en zones d'images (i), calculer une valeur moyenne (MR(t,i)) de tous les pixels de chaque zone d'image, et détecter une présence en fonction de variations de la valeur moyenne de chaque zone d'image.
  14. 14. Dispositif selon la revendication 13, dans lequel une présence est détectée dans une image (t) si la condition suivante est vérifiée dans au moins une zone d'image (i) de l'image : 1MR(t,i)-MRF(t-1,i)I G(i) . VRF(t-1,i) dans laquelle MR(t,i) est la valeur moyenne des pixels de la zone d'image i dans l'image t, MRF(t-1,i) est une valeur moyenne des pixels de la zone d'image i calculée sur plusieurs images précédentes à partir de l'image précédente t-1, G(i) est une valeur de seuil définie pour la zone d'image i et VRF(t-1,i) est une valeur moyenne de variance calculée sur plusieurs images précédentes à partir de l'image précédente t-l.
  15. 15. Dispositif selon la revendication 13 ou 14, configuré pour recevoir une valeur de seuil de détection (G(i)) pour chaque zone d'image (i).
  16. 16. Dispositif selon l'une des revendications 13 à 10 15, configuré pour recevoir un paramètre d'inhibition (G(i)) de la détection de présence dans certaines zones d'image (i).
  17. 17. Dispositif selon l'une des revendications 13 à 15 16, configuré pour calculer une valeur moyenne MR(t,i) de zone d'image (i) comprenant trois composantes calculées à partir de trois composantes de la valeur de chaque pixel de la zone d'image. 20
  18. 18. Dispositif selon l'une des revendications 13 à 16, configuré pour calculer une valeur moyenne (MR(t,i)) de zone d'image (i) combinant trois composantes de la valeur de chaque pixel de la zone d'image. 25
  19. 19. Dispositif selon l'une des revendications 13 à 18, configuré pour transmettre un nombre de zones d'image (i) où une présence a été détectée dans une image (t).
  20. 20. Dispositif selon l'une des revendications 12 à 30 19, comprenant une caméra (CAM) configurée pour capturer des images (t), analyser les images capturées pour y détecter une présence, et transmettre les images uniquement si une présence a été détectée.
  21. 21. Dispositif selon l'une des revendications 12 à 20, comprenant plusieurs caméras (CAM1-CAM8) capturant des images (t) de plusieurs zones à surveiller, chaque caméra étant configurée pour analyser les images qu'elle a capturées pour y détecter une présence, le dispositif étant configuré pour sélectionner des images à transmettre provenant d'une caméra, en fonction de la détection d'une présence.
  22. 22. Dispositif selon la revendication 21, configuré pour transmettre les images d'une des caméras (CAMl-CA8) ayant détecté une présence dans le plus grand nombre de zones d'image (i) d'une image (t), lorsque plusieurs des caméras ont détecté une présence dans une zone d'image d'une image.
FR0801843A 2008-04-03 2008-04-03 Procede et systeme de videosurveillance. Pending FR2929734A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0801843A FR2929734A1 (fr) 2008-04-03 2008-04-03 Procede et systeme de videosurveillance.
US12/417,223 US8363106B2 (en) 2008-04-03 2009-04-02 Video surveillance method and system based on average image variance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0801843A FR2929734A1 (fr) 2008-04-03 2008-04-03 Procede et systeme de videosurveillance.

Publications (1)

Publication Number Publication Date
FR2929734A1 true FR2929734A1 (fr) 2009-10-09

Family

ID=39884907

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0801843A Pending FR2929734A1 (fr) 2008-04-03 2008-04-03 Procede et systeme de videosurveillance.

Country Status (2)

Country Link
US (1) US8363106B2 (fr)
FR (1) FR2929734A1 (fr)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922659B2 (en) * 2008-06-03 2014-12-30 Thales Dynamically reconfigurable intelligent video surveillance system
US8581974B2 (en) * 2010-05-06 2013-11-12 Aptina Imaging Corporation Systems and methods for presence detection
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
US9167048B2 (en) 2013-03-14 2015-10-20 Motorola Solutions, Inc. Method and apparatus for filtering devices within a security social network
US9386050B2 (en) * 2013-03-14 2016-07-05 Motorola Solutions, Inc. Method and apparatus for filtering devices within a security social network
RU2695412C1 (ru) * 2018-08-02 2019-07-23 Федеральное государственное казённое военное образовательное учреждение высшего образования "Военная академия материально-технического обеспечения имени генерала армии А.В. Хрулева" Министерства обороны Российской Федерации Радиолокационный комплекс раннего обнаружения нарушителей для охраны объекта

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19603766A1 (de) * 1996-02-02 1997-08-07 Christian Gieselmann Verfahren zum Erkennen gerichteter Bewegungen sowie Alarmanlage zur Durchführung des Verfahrens
US20020104094A1 (en) * 2000-12-01 2002-08-01 Bruce Alexander System and method for processing video data utilizing motion detection and subdivided video fields
EP1416734A1 (fr) * 2002-10-30 2004-05-06 Agilent Technologies, Inc. Détection d'événement pour des systèmes de surveillance vidéo utilisant des coéfficients de transformation d'images comprimées
US20040246123A1 (en) * 2003-06-09 2004-12-09 Tsuyoshi Kawabe Change detecting method and apparatus and monitoring system using the method or apparatus
GB2423661A (en) * 2005-02-28 2006-08-30 David Thomas Identifying scene changes

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6798834B1 (en) * 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
US6052414A (en) * 1994-03-30 2000-04-18 Samsung Electronics, Co. Ltd. Moving picture coding method and apparatus for low bit rate systems using dynamic motion estimation
TW442768B (en) * 1998-03-13 2001-06-23 Geovision Inc Security system activated and deactivated by image variation
JP2002117407A (ja) * 2000-10-10 2002-04-19 Satake Corp 動画像検索方法及びその装置
US6572177B2 (en) * 2001-01-29 2003-06-03 Westinghouse Air Brake Technologies Corporation Cover for flexible signal connection for a transit vehicle door
KR20040052491A (ko) * 2001-03-16 2004-06-23 비젼 로보틱스 코포레이션 이미지 센서의 유효 다이내믹 레인지를 효과적으로증대하는 시스템 및 방법
EP1391859A1 (fr) * 2002-08-21 2004-02-25 Strategic Vista International Inc. Système de sécurité vidéo numérique
JP4075748B2 (ja) * 2003-09-11 2008-04-16 松下電器産業株式会社 画像記録装置
TWI267805B (en) * 2005-09-23 2006-12-01 Compal Electronics Inc Method and apparatus for automatically adjusting monitoring frame based on image change
KR100721536B1 (ko) * 2005-12-09 2007-05-23 한국전자통신연구원 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법
US7809164B2 (en) * 2007-01-10 2010-10-05 Mavs Lab. Inc. Methods and systems for identifying events for a vehicle
FR2911983B1 (fr) * 2007-01-25 2009-05-29 St Microelectronics Sa Procede de suivi automatique des mouvements de la mains dans une sequence d'images.
US7609856B2 (en) * 2007-11-13 2009-10-27 Huper Laboratories Co., Ltd. Smoke detection method based on video processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19603766A1 (de) * 1996-02-02 1997-08-07 Christian Gieselmann Verfahren zum Erkennen gerichteter Bewegungen sowie Alarmanlage zur Durchführung des Verfahrens
US20020104094A1 (en) * 2000-12-01 2002-08-01 Bruce Alexander System and method for processing video data utilizing motion detection and subdivided video fields
EP1416734A1 (fr) * 2002-10-30 2004-05-06 Agilent Technologies, Inc. Détection d'événement pour des systèmes de surveillance vidéo utilisant des coéfficients de transformation d'images comprimées
US20040246123A1 (en) * 2003-06-09 2004-12-09 Tsuyoshi Kawabe Change detecting method and apparatus and monitoring system using the method or apparatus
GB2423661A (en) * 2005-02-28 2006-08-30 David Thomas Identifying scene changes

Also Published As

Publication number Publication date
US8363106B2 (en) 2013-01-29
US20090251544A1 (en) 2009-10-08

Similar Documents

Publication Publication Date Title
US10979654B2 (en) Image signal processing method and system
US8724921B2 (en) Method of capturing high dynamic range images with objects in the scene
RU2628745C2 (ru) Система защитного наблюдения и соответствующий способ инициирования тревожной сигнализации
KR20210059712A (ko) 이미지 향상을 위한 인공지능 기법
JP6143096B2 (ja) 眼底画像処理装置およびプログラム、並びに眼底画像撮影装置
FR2929734A1 (fr) Procede et systeme de videosurveillance.
US7444075B2 (en) Imaging device, camera, and imaging method
JP4482037B2 (ja) デジタル画像形成の露出
US20070092244A1 (en) Camera exposure optimization techniques that take camera and scene motion into account
US20120105662A1 (en) Camera system providing a measure of pose quality
US20150097959A1 (en) Motion detection method and device using the same
US9544516B2 (en) Method and apparatus for sensor characterization
US20120236174A1 (en) Methods and Systems for Flicker Correction
US9363427B2 (en) Device and method for calibrating a temporal contrast sensor with a frame-based camera sensor
CN113452970B (zh) 用于评定夜晚模式图像获得期间的环境光的方法
WO2017086155A1 (fr) Dispositif de capture d'images, procédé de capture d'images, et programme
CA2970908C (fr) Capture d'image ayant une resolution temporelle amelioree et une nettete d'image percue
US11113798B2 (en) Collating system, collating method, and camera device
WO2016011871A1 (fr) Procédé de prise de vues, dispositif de prise de vues et support de stockage informatique
JP2014180024A (ja) 撮像装置
WO2006010910A1 (fr) Appareil et procede permettant de capturer et de transmettre des images d'une scene
CN117255263A (zh) 用于基于事件的传感器的防闪烁过滤器抑制
JP6944901B2 (ja) 生体情報検出装置および生体情報検出方法
Poplin An automatic flicker detection method for embedded camera systems
EP4002833B1 (fr) Procédé et dispositif électronique pour augmenter la plage dynamique d'une image