FR3062505A1 - METHOD FOR DETECTING A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES - Google Patents

METHOD FOR DETECTING A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES Download PDF

Info

Publication number
FR3062505A1
FR3062505A1 FR1750676A FR1750676A FR3062505A1 FR 3062505 A1 FR3062505 A1 FR 3062505A1 FR 1750676 A FR1750676 A FR 1750676A FR 1750676 A FR1750676 A FR 1750676A FR 3062505 A1 FR3062505 A1 FR 3062505A1
Authority
FR
France
Prior art keywords
image
illuminated
images
area
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1750676A
Other languages
French (fr)
Other versions
FR3062505B1 (en
Inventor
David Guerrero
David Daurenjou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Continental Automotive France SAS
Original Assignee
Continental Automotive GmbH
Continental Automotive France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH, Continental Automotive France SAS filed Critical Continental Automotive GmbH
Priority to FR1750676A priority Critical patent/FR3062505B1/en
Publication of FR3062505A1 publication Critical patent/FR3062505A1/en
Application granted granted Critical
Publication of FR3062505B1 publication Critical patent/FR3062505B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

La présente invention a pour objet un procédé de prétraitement d'une image d'un flux vidéo d'images acquises par une caméra vidéo pour la détection d'un objet en mouvement dans une zone éclairée par une source lumineuse à partir dudit flux vidéo d'images représentant ladite zone éclairée. Le prétraitement (E2) comprend la modification (E24) du contraste de chaque pixel compris dans une zone délimitée par un motif d'éclairage prédéterminé, défini dans ladite image et représentant la zone éclairée par ladite source lumineuse, de manière inversement proportionnelle à l'éclairement de ladite zone éclairée par la source de lumière.The present invention relates to a method for preprocessing an image of a video stream of images acquired by a video camera for the detection of an object moving in a zone illuminated by a light source from said video stream. images representing said illuminated area. The pretreatment (E2) comprises modifying (E24) the contrast of each pixel included in an area delimited by a predetermined lighting pattern, defined in said image and representing the area illuminated by said light source, inversely proportional to the illumination of said area illuminated by the light source.

Description

® Mandataire(s) : CONTINENTAL AUTOMOTIVE FRANCE.® Agent (s): CONTINENTAL AUTOMOTIVE FRANCE.

® PROCEDE DE DETECTION D'UN OBJET EN MOUVEMENT A PARTIR D'UN FLUX VIDEO D'IMAGES.® METHOD FOR DETECTING A MOVING OBJECT FROM A VIDEO IMAGE STREAM.

FR 3 062 505 - A1FR 3 062 505 - A1

©) La présente invention a pour objet un procédé de prétraitement d'une image d'un flux vidéo d'images acquises par une caméra vidéo pour la détection d'un objet en mouvement dans une zone éclairée par une source lumineuse à partir dudit flux vidéo d'images représentant ladite zone éclairée. Le prétraitement (E2) comprend la modification (E24) du contraste de chaque pixel compris dans une zone délimitée par un motif d'éclairage prédéterminé, défini dans ladite image et représentant la zone éclairée par ladite source lumineuse, de manière inversement proportionnelle à l'éclairement de ladite zone éclairée par la source de lumière.The present invention relates to a method of preprocessing an image of a video stream of images acquired by a video camera for the detection of a moving object in an area illuminated by a light source from said stream. video of images representing said illuminated area. The preprocessing (E2) comprises the modification (E24) of the contrast of each pixel included in an area delimited by a predetermined lighting pattern, defined in said image and representing the area illuminated by said light source, inversely proportional to the illumination of said area illuminated by the light source.

Figure FR3062505A1_D0001

E0E0

ElEl

E2E2

E3E3

E4E4

E5E5

E6E6

Figure FR3062505A1_D0002

L’invention se rapporte au domaine du traitement d’images et concerne plus particulièrement un procédé de détection d’objets en mouvement à partir d’un flux vidéo d’images. L’invention s’applique en particulier à la détection de piétons ou de cyclistes se déplaçant dans une zone peu lumineuse afin de déclencher la mise en fonctionnement d’un projecteur de lumière.The invention relates to the field of image processing and more particularly relates to a method for detecting moving objects from a video stream of images. The invention applies in particular to the detection of pedestrians or cyclists moving in a dimly lit area in order to trigger the activation of a light projector.

De nos jours, il est connu de détecter des objets en mouvement à partir d’un flux d’images capturé par une caméra vidéo. Une telle détection peut avoir plusieurs buts. Ainsi par exemple, lorsque la caméra est fixée sur un lampadaire, il est connu de détecter les piétons circulant à proximité dudit lampadaire afin d’orienter le flux de lumière dans leur direction ou bien d’en augmenter la luminosité. Dans un autre exemple, il peut être utile de détecter les mouvements de piétons dans un but de surveillance, par exemple dans un lieu public.Nowadays, it is known to detect moving objects from a stream of images captured by a video camera. Such detection can have several purposes. Thus, for example, when the camera is fixed to a lamppost, it is known to detect pedestrians traveling near said lamppost in order to orient the light flow in their direction or to increase the brightness. In another example, it may be useful to detect pedestrian movements for surveillance purposes, for example in a public place.

Une solution connue pour réaliser une telle détection consiste à appliquer un ensemble de fonctions de distribution Gaussienne basé sur des modèles statistiques aux pixels des images acquises par la caméra afin de déterminer les pixels dont la luminosité varie de manière plus importante, qui représentent alors des objets en mouvement. Plus précisément, les pixels dont la luminosité varie peu au fil des images du flux sont catégorisées comme appartenant à l’arrière-plan des images tandis que les pixels dont la luminosité varie significativement au fil des images du flux sont catégorisées comme étant des objets en mouvement.A known solution for carrying out such a detection consists in applying a set of Gaussian distribution functions based on statistical models to the pixels of the images acquired by the camera in order to determine the pixels whose brightness varies more significantly, which then represent objects. moving. More precisely, the pixels whose brightness varies little over the images of the stream are categorized as belonging to the background of the images while the pixels whose brightness varies significantly over the images of the stream are categorized as being objects in movement.

Un tel procédé de détection comprend de manière connue une étape de prétraitement d’image, une étape de soustraction de l’arrière-plan représenté dans l’image prétraitée, une étape de post-traitement de l’image dont l’arrière-plan a été soustrait et une étape de détection d’un objet en mouvement représenté dans le flux d’images posttraitées.Such a detection method comprises, in known manner, an image preprocessing step, a step of subtracting the background represented in the pretreated image, an image postprocessing step including the background has been subtracted and a step for detecting a moving object represented in the stream of post-processed images.

Un problème se pose quand l’environnement filmé par la caméra présente une faible luminosité, notamment le soir ou la nuit. Dans ce cas, le contraste des images peut ne pas être suffisamment important pour que l’application de l’ensemble de fonctions de distribution Gaussienne permette la détection d’un objet en mouvement.A problem arises when the environment filmed by the camera is poor, especially in the evening or at night. In this case, the contrast of the images may not be high enough for the application of the set of Gaussian distribution functions to allow the detection of a moving object.

Une solution connue à ce problème consiste, lors du prétraitement des images, à diviser les images en zones de pixels et augmenter le contraste de certaines de ces zones d’un facteur prédéterminé avant d’appliquer l’ensemble de fonctions de distribution Gaussienne.A known solution to this problem consists, during the preprocessing of the images, in dividing the images into pixel zones and increasing the contrast of some of these zones by a predetermined factor before applying the set of Gaussian distribution functions.

Ce faisant, plusieurs problèmes subsistent. Tout d’abord, le prétraitement des images par zones de pixels ne permet pas d’obtenir une luminosité homogène sur l’ensemble des pixels d’une image, ce qui peut entraîner des erreurs de résultats lors de l’application de l’ensemble de fonctions de distribution Gaussienne selon les zones des images ainsi traitées. Or, ces erreurs peuvent empêcher la détection d’objets en mouvement dans certaines des zones du flux d’images, ce qui présente un inconvénient important.In doing so, several problems remain. First of all, the preprocessing of the images by pixel zones does not make it possible to obtain a uniform brightness on the whole of the pixels of an image, which can cause errors of results during the application of the whole Gaussian distribution functions according to the areas of the images thus processed. However, these errors can prevent the detection of moving objects in some of the areas of the image stream, which has a significant drawback.

De plus, l’utilisation d’un facteur de contraste peut conduire certaines zones des images à devenir trop lumineuses de sorte que les pixels de ces zones saturent. Une telle saturation génère à la fois une distorsion de la valeur de luminosité de ces pixels et du bruit numérique pouvant entraîner des erreurs de résultat lors de l’application de l’ensemble de fonctions de distribution Gaussienne aux images prétraitées. De telles erreurs peuvent conduire à la non-détection de certains objets en mouvement dans ces zones. Dans le même temps, l’utilisation d’un facteur de contraste par zone peut conduire certains pixels situés hors de ces zones à rester trop sombres de sorte que certains objets en mouvement dans ces zones ne puissent pas être détectés par l’application d’un ensemble de fonctions de distribution Gaussienne.In addition, the use of a contrast factor can cause certain areas of the images to become too bright so that the pixels in these areas become saturated. Such saturation generates both a distortion of the brightness value of these pixels and of digital noise which can cause result errors when applying the set of Gaussian distribution functions to preprocessed images. Such errors can lead to the non-detection of certain moving objects in these areas. At the same time, the use of a contrast factor by area may cause some pixels outside these areas to remain too dark so that certain objects moving in these areas cannot be detected by the application of a set of Gaussian distribution functions.

L’invention a pour but de remédier au moins en partie à ces inconvénients en apportant une solution de prétraitement d’images permettant de détecter efficacement un objet en mouvement à partir d’un flux vidéo d’images représentant une zone au moins en partie éclairée.The object of the invention is to remedy these drawbacks at least in part by providing an image preprocessing solution making it possible to effectively detect a moving object from a video stream of images representing an area at least partly illuminated. .

Notamment, l’invention propose de réaliser un prétraitement des images permettant à la fois de limiter le bruit numérique et d’éviter une saturation trop importante des pixels des zones les plus lumineuses des images tout en augmentant le contraste des pixels des zones les plus sombres desdites images afin de rendre l’application d’un ensemble de fonctions de distribution Gaussienne efficace.In particular, the invention proposes to carry out a preprocessing of the images making it possible both to limit digital noise and to avoid excessive saturation of the pixels of the brightest areas of the images while increasing the contrast of the pixels of the darkest areas. said images in order to make the application of a set of Gaussian distribution functions efficient.

Dans ce but, l’invention se base sur deux aspects clés : l’utilisation d’un motif d’éclairage, délimitant une zone fixe éclairée représentée sur les images et correspondant à la projection d’une source lumineuse, afin d’appliquer un gradient de contraste aux pixels, et l’amélioration et l’adaptation de la dynamique de l’image à la scène acquise par la caméra, en limitant notamment la dynamique des pixels les plus lumineux pour qu’ils ne saturent pas.To this end, the invention is based on two key aspects: the use of a lighting pattern, delimiting a fixed illuminated area represented on the images and corresponding to the projection of a light source, in order to apply a contrast gradient to the pixels, and the improvement and adaptation of the image dynamics to the scene acquired by the camera, in particular by limiting the dynamics of the brightest pixels so that they do not saturate.

A cette fin, l’invention a tout d’abord pour objet un procédé de prétraitement d’une image d’un flux vidéo d’images acquises par une caméra vidéo pour la détection d’un objet en mouvement dans une zone éclairée par une source lumineuse à partir dudit flux vidéo d’images représentant ladite zone éclairée, ledit procédé étant remarquable en ce que le prétraitement comprend la modification du contraste de chaque pixel compris dans une zone délimitée par un motif d’éclairage prédéterminé, défini dans ladite image et représentant la zone éclairée par ladite source lumineuse, de manière inversement proportionnelle à l’éclairement de ladite zone éclairée par la source de lumière.To this end, the invention firstly relates to a method of preprocessing an image of a video stream of images acquired by a video camera for the detection of a moving object in an area illuminated by a light source from said video stream of images representing said illuminated area, said method being remarkable in that the preprocessing comprises modifying the contrast of each pixel included in an area delimited by a predetermined lighting pattern, defined in said image and representing the area illuminated by said light source, inversely proportional to the illumination of said area illuminated by the light source.

Par le terme « éclairement », on entend la luminosité ou l’intensité lumineuse ambiante de la zone éclairée telle qu’elle apparait (c’est-à-dire qu’elle est perçue) sur les images du flux, ledit éclairement dépendant de manière connue de la distance.By the term "illumination" is meant the ambient brightness or light intensity of the illuminated area as it appears (that is to say it is perceived) on the images of the flux, said illuminance depending on known way of distance.

Le procédé selon l’invention est particulièrement adapté pour traiter des images représentant un environnement peu lumineux, par exemple le soir ou la nuit. II permet avantageusement de modifier le contraste des pixels des images de manière adaptative selon l’éclairement de la zone éclairée afin d’homogénéiser l’image et permettre ainsi une détection efficace d’objets en mouvement sur les images du flux vidéo. Le procédé permet de modifier faiblement le contraste des pixels représentant des objets plus fortement éclairés tout en l’augmentant davantage pour les pixels représentant des objets plus faiblement éclairés. Le procédé permet notamment d’augmenter significativement le contraste des pixels dans les zones sombres de l’image, tout en limitant la saturation. Le procédé permet en particulier d’obtenir des images prétraitées semblables à des images acquises par une caméra vidéo qui aurait une sensibilité plus élevée, notamment par faible luminosité ambiante, ce qui réduit les coûts.The method according to the invention is particularly suitable for processing images representing a dim environment, for example in the evening or at night. It advantageously makes it possible to modify the contrast of the pixels of the images adaptively according to the illumination of the illuminated area in order to homogenize the image and thus allow efficient detection of moving objects on the images of the video stream. The method makes it possible to slightly modify the contrast of the pixels representing more brightly lit objects while increasing it more for the pixels representing more dimly lit objects. The method notably makes it possible to significantly increase the contrast of pixels in dark areas of the image, while limiting saturation. The method makes it possible in particular to obtain preprocessed images similar to images acquired by a video camera which would have a higher sensitivity, in particular in low ambient light, which reduces costs.

Le procédé est de préférence mis en œuvre pour chaque image du flux vidéo de sorte à permettre une détection efficace des objets en mouvement sur les images dudit flux.The method is preferably implemented for each image of the video stream so as to allow efficient detection of moving objects on the images of said stream.

Selon un aspect de l’invention, la modification du contraste des pixels est réalisée en calculant un facteur adaptatif pour chaque pixel.According to one aspect of the invention, the modification of the contrast of the pixels is carried out by calculating an adaptive factor for each pixel.

Selon un autre aspect de l’invention, le procédé comprend une étape préliminaire de détermination du motif d’éclairage permettant d’adapter le motif d’éclairage à la projection de la source lumineuse sur le sol, notamment lorsque celle-ci varie avec le temps.According to another aspect of the invention, the method comprises a preliminary step of determining the lighting pattern making it possible to adapt the lighting pattern to the projection of the light source on the ground, in particular when the latter varies with the time.

De préférence, le prétraitement comprend en outre la modification du contraste de chaque pixel compris hors de la zone éclairée délimitée par le motif d’éclairage prédéterminé, dite zone périphérique, de manière inversement proportionnelle à l’éclairement dans ladite zone périphérique. Ceci permet de peu modifier le contraste des pixels représentant des objets plus fortement éclairés tout en l’augmentant davantage pour les pixels représentant des objets plus faiblement éclairés.Preferably, the pretreatment further comprises modifying the contrast of each pixel included outside the illuminated zone delimited by the predetermined lighting pattern, called the peripheral zone, in a manner inversely proportional to the illumination in said peripheral zone. This makes it possible to slightly modify the contrast of the pixels representing more brightly lit objects while increasing it more for the pixels representing more dimly lit objects.

Avantageusement, le procédé comprend, antérieurement à la modification, une limitation de la saturation des pixels de l’image.Advantageously, the method comprises, prior to the modification, a limitation of the saturation of the pixels of the image.

Avantageusement encore, le procédé comprend, postérieurement à la limitation et antérieurement à la modification, un lissage temporel de l’image.Advantageously also, the method comprises, after the limitation and before the modification, a temporal smoothing of the image.

Selon un aspect de l’invention, le procédé comprend une étape préliminaire d’acquisition du flux d’images.According to one aspect of the invention, the method includes a preliminary step of acquiring the image stream.

De préférence, le procédé comprend en outre une étape de soustraction de l’arrière-plan représenté dans l’image prétraitée, une étape de post-traitement de l’image dont l’arrière-plan a été soustrait et une étape de détection d’un objet en mouvement représenté dans le flux d’images post-traitées.Preferably, the method further comprises a step of subtracting the background represented in the preprocessed image, a step of post-processing of the image from which the background has been subtracted and a step of detecting 'a moving object represented in the stream of post-processed images.

Dans un mode de réalisation particulier, le procédé comprend, postérieurement à la détection d’un objet en mouvement, une étape de suivi dudit l’objet dans les images du flux vidéo d’images.In a particular embodiment, the method comprises, after the detection of a moving object, a step of tracking said object in the images of the video image stream.

L’invention concerne aussi un dispositif de prétraitement d’une image d’un flux vidéo d’images acquises par une caméra vidéo pour la détection d’un objet en mouvement dans une zone éclairée par une source lumineuse à partir dudit flux vidéo d’images représentant ladite zone éclairée, ledit dispositif étant remarquable en ce qu’il comprend un module de prétraitement configuré pour modifier le contraste de chaque pixel compris dans une zone dite « éclairée » délimitée par un motif d’éclairage prédéterminé, défini dans ladite image et représentant la zone éclairée par ladite source lumineuse, de manière inversement proportionnelle à l’éclairement de ladite zone éclairée par la source de lumière.The invention also relates to a device for preprocessing an image of a video stream of images acquired by a video camera for the detection of a moving object in an area illuminated by a light source from said video stream. images representing said illuminated area, said device being remarkable in that it comprises a preprocessing module configured to modify the contrast of each pixel included in a so-called “illuminated” area delimited by a predetermined lighting pattern, defined in said image and representing the area illuminated by said light source, inversely proportional to the illumination of said area illuminated by the light source.

Dans une forme de réalisation, le dispositif comprend en outre un module de détermination du motif d’éclairage.In one embodiment, the device further comprises a module for determining the lighting pattern.

De préférence, le module de prétraitement est configuré pour, notamment pour chaque image du flux d’images, modifier le contraste de chaque pixel compris hors de la zone éclairée délimitée par le motif d’éclairage prédéterminé de manière inversement proportionnelle à l’éclairement par la source de lumière hors de la ladite zone. Autrement dit, le contraste des pixels est modifié de manière inversement proportionnelle à leur luminosité du bord du motif d’éclairage jusqu’aux bords de l’image.Preferably, the preprocessing module is configured to, in particular for each image of the image stream, modify the contrast of each pixel included outside the illuminated area delimited by the predetermined lighting pattern in a manner inversely proportional to the illumination by the light source outside of said area. In other words, the contrast of the pixels is modified inversely proportional to their brightness from the edge of the lighting pattern to the edges of the image.

Avantageusement, le module de prétraitement est configuré pour limiter la saturation des pixels de chacune des images du flux d’images.Advantageously, the preprocessing module is configured to limit the saturation of the pixels of each of the images in the image stream.

Avantageusement encore, le module de prétraitement est configuré pour réaliser un lissage temporel des facteurs de contraste à appliquer dans chacune des images du flux d’images.Advantageously also, the preprocessing module is configured to perform a temporal smoothing of the contrast factors to be applied in each of the images of the image stream.

D’autres caractéristiques et avantages de l’invention apparaîtront lors de la description qui suit faite en regard des figures annexées données à titre d’exemples non limitatifs et dans lesquelles des références identiques sont données à des objets semblables.Other characteristics and advantages of the invention will become apparent from the following description given with reference to the appended figures given by way of nonlimiting examples and in which identical references are given to similar objects.

- La figure 1 représente schématiquement une forme de réalisation du système selon l’invention dans lequel la source de lumière est un lampadaire équipé d’une caméra vidéo.- Figure 1 schematically shows an embodiment of the system according to the invention in which the light source is a floor lamp equipped with a video camera.

- La figure 2 illustre un mode de réalisation du procédé selon l’invention.- Figure 2 illustrates an embodiment of the method according to the invention.

- La figure 3 illustre un mode de réalisation préféré de l’étape de prétraitement du procédé selon l’invention.- Figure 3 illustrates a preferred embodiment of the pretreatment step of the method according to the invention.

- La figure 4A est une image représentant une zone filmée par une caméra montée sur un lampadaire éteint.- Figure 4A is an image representing an area filmed by a camera mounted on an extinguished lamp post.

- La figure 4B est une image représentant la zone de la figure 4A, le lampadaire étant allumé.- Figure 4B is an image representing the area of Figure 4A, the lamp being turned on.

- La figure 5A est une image générée par soustraction de l’image de la figure 4A à l’image de la figure 4B.- Figure 5A is an image generated by subtracting the image of Figure 4A from the image of Figure 4B.

- La figure 5B est une image générée par application d’un algorithme de seuil minimum à l’image de la figure 5A.- Figure 5B is an image generated by applying a minimum threshold algorithm to the image of Figure 5A.

- La figure 6A est une image générée par application d’un processus morphologique à l’image de la figure 5B.- Figure 6A is an image generated by applying a morphological process to the image of Figure 5B.

- La figure 6B représente l’image de la figure 6A sur laquelle a été déterminé un contour délimitant la zone éclairée par le lampadaire.- Figure 6B shows the image of Figure 6A on which has been determined a contour delimiting the area illuminated by the lamppost.

- La figure 7 est une image sur laquelle est représenté un motif d’éclairage de forme elliptique déterminé à partir du contour déterminé sur la figure 6B.- Figure 7 is an image on which is shown an elliptical lighting pattern determined from the contour determined in Figure 6B.

- La figure 8 est une image acquise par une caméra montée sur un lampadaire.- Figure 8 is an image acquired by a camera mounted on a lamp post.

- La figure 9 représente l’image de la figure 7 à laquelle a été appliqué un facteur adaptatif généré à partir du motif d’éclairage.- Figure 9 shows the image of Figure 7 to which has been applied an adaptive factor generated from the lighting pattern.

On a représenté schématiquement à la figure 1 une forme de réalisation du système 1 selon l’invention.Schematically shown in Figure 1 an embodiment of the system 1 according to the invention.

Le système 1 comprend un lampadaire 10 et un dispositif 20 de prétraitement d’images, notamment pour la détection d’un objet en mouvement dans un flux vidéo d’images. L’invention est décrite ci-après dans son application à un lampadaire 10 mais on notera qu’elle peut tout aussi bien s’appliquer à tout type de source lumineuse éclairant une zone dans laquelle on souhaite détecter des objets en mouvement.The system 1 comprises a lamppost 10 and a device 20 for image preprocessing, in particular for the detection of a moving object in a video image stream. The invention is described below in its application to a lamppost 10 but it should be noted that it can just as easily be applied to any type of light source illuminating an area in which it is desired to detect moving objects.

Par souci de clarté, l’invention sera décrite ci-après dans son application à un environnement peu lumineux, par exemple le soir ou la nuit.For the sake of clarity, the invention will be described below in its application to a dim environment, for example in the evening or at night.

Dans cet exemple, le lampadaire 10 comprend un poteau 100 sur lequel sont montés des moyens d’éclairage 110 et une caméra 120 vidéo.In this example, the lamppost 10 comprises a pole 100 on which are mounted lighting means 110 and a video camera 120.

Les moyens d’éclairage 110 constituent, lorsqu’ils sont en fonctionnement, une source lumineuse 110A permettant d’éclairer une partie de la zone située sous le lampadaire 10 et dont la projection sur le sol est appelée « zone éclairée » ZE. Cette zone éclairée ZE peut être délimitée par un motif dit « d’éclairage » ME comme cela sera décrit ci-après. A titre d’exemple, les moyens d’éclairage 110 peuvent se présenter par exemple sous la forme d’une ou plusieurs ampoules (filaires ou à LED), d’un néon, etc.The lighting means 110 constitute, when they are in operation, a light source 110A making it possible to illuminate a part of the area located under the lamppost 10 and the projection of which on the ground is called "illuminated area" ZE. This illuminated zone ZE can be delimited by a so-called “lighting” pattern ME as will be described below. For example, the lighting means 110 can be for example in the form of one or more bulbs (wired or LED), a neon, etc.

Comme illustrée sur la figure 1, la caméra 120 est montée sur la partie supérieure du poteau 100. Toujours en référence à la figure 1, la caméra 120 est agencée de manière à filmer la zone éclairée ZE (zone hachurée) par le lampadaire 10 ainsi qu’une zone périphérique ZP, par définition moins éclairée (zone grisée).As illustrated in FIG. 1, the camera 120 is mounted on the upper part of the post 100. Still with reference to FIG. 1, the camera 120 is arranged so as to film the illuminated zone ZE (hatched zone) by the lamp post 10 thus than a peripheral zone ZP, by definition less lit (gray area).

Le dispositif 20 est relié à la caméra 120 via un lien de communication L1, par exemple de type filaire ou sans fil (Wifi ou autre), pour collecter un flux d’images acquises par la caméra 120.The device 20 is connected to the camera 120 via a communication link L1, for example of the wired or wireless type (WiFi or other), to collect a stream of images acquired by the camera 120.

Le dispositif 20 permet notamment la détection d’un objet en mouvement dans la zone éclairée ZE par la source lumineuse 110A générée par les moyens d’éclairage 110 du lampadaire 10 à partir d’un flux d’images, représentant ladite zone éclairée ZE, acquises par la caméra 120.The device 20 allows in particular the detection of a moving object in the illuminated zone ZE by the light source 110A generated by the lighting means 110 of the lamppost 10 from a stream of images, representing said illuminated zone ZE, acquired by camera 120.

Le dispositif 20 comprend tout d’abord un module de prétraitement 210. Dans une forme de réalisation préférée, le dispositif 20 comprend en outre un module de soustraction 220, un module de post-traitement 230 et un module de détection 240 d’un objet en mouvement représenté dans le flux d’images post-traitées.The device 20 firstly comprises a pretreatment module 210. In a preferred embodiment, the device 20 further comprises a subtraction module 220, a post-processing module 230 and a module 240 for detecting an object in movement represented in the stream of post-processed images.

De plus, toujours dans cet exemple non limitatif, le dispositif 20 comprend en outre un module de détermination 200 du motif d’éclairage ME délimitant la zone éclairée ZE par la source de lumière 110A.In addition, still in this nonlimiting example, the device 20 further comprises a module 200 for determining the lighting pattern ME defining the area illuminated ZE by the light source 110A.

De préférence, ce module de détermination 200 peut détecter automatiquement le motif d’éclairage ME. Par exemple, une telle détection peut être effectuée automatiquement par l’acquisition de deux images par la caméra 120: une première acquisition en l’absence de source de lumière 110A (figure 4A) et une deuxième acquisition lorsque la source de lumière 110A est présente (figure 4B). En faisant la différence entre ces deux images (figure 5A), il est possible de retrouver la différence de luminosité de chaque pixel due à la source de lumière 110A. Le motif d’éclairage ME est alors défini (figure 7) par le biais d’opérations morphologiques (figures 6A et 6B) couplées à un seuillage adaptatif (figure 5B) réalisé sur la différence de luminosité entre les pixels des deux images.Preferably, this determination module 200 can automatically detect the lighting pattern ME. For example, such a detection can be performed automatically by the acquisition of two images by the camera 120: a first acquisition in the absence of light source 110A (FIG. 4A) and a second acquisition when the light source 110A is present (Figure 4B). By making the difference between these two images (FIG. 5A), it is possible to find the difference in brightness of each pixel due to the light source 110A. The lighting pattern ME is then defined (FIG. 7) by means of morphological operations (FIGS. 6A and 6B) coupled with an adaptive thresholding (FIG. 5B) carried out on the difference in brightness between the pixels of the two images.

De manière connue, les opérations morphologiques sont des filtres nonlinéaires qui peuvent s'appliquer tant aux images binaires qu'à celles à niveaux de gris. Elles peuvent notamment consister ici en une succession d’opérations de dilatation de l’image (permettant de combler les éléments manquants de l’image) et d’érosion de l’image (permettant de modifier la taille des objets pour qu’ils reviennent à leur taille d’origine). De telles opérations morphologiques étant connues en tant que telles, elles ne seront pas davantage détaillées ici.As is known, morphological operations are nonlinear filters which can be applied both to binary images and to those with gray levels. They can in particular consist here of a succession of operations of dilation of the image (making it possible to fill in the missing elements of the image) and of eroding the image (making it possible to modify the size of the objects so that they return at their original size). As such morphological operations are known as such, they will not be further detailed here.

En variante, ce motif d’éclairage ME peut avoir été déterminé à l’avance, par exemple de manière empirique ou manuellement si les conditions d’éclairage de la zone éclairée ZE sont connues ou spécifiées au préalable, grâce à une matrice normalisée de luminosité inverse, dont 0 correspond aux pixels le plus éclairés et 1 aux pixels le moins éclairés, et stocké dans une zone mémoire du dispositif 20.As a variant, this lighting pattern ME may have been determined in advance, for example empirically or manually if the lighting conditions of the illuminated zone ZE are known or specified beforehand, by means of a standardized brightness matrix inverse, of which 0 corresponds to the most lit pixels and 1 to the least lit pixels, and stored in a memory area of the device 20.

Le module de prétraitement 210 est configuré pour prétraiter les images du flux d’images acquis par la caméra 120. Plus précisément, selon l’invention, le module de prétraitement 210 est configuré pour modifier le contraste de chaque pixel de la zone éclairée ZE de manière inversement proportionnelle à l’éclairage (c’est-à-dire l’intensité lumineuse) de la source lumineuse 110A, telle qu’il parait sur les images dans la zone éclairée ZE.The preprocessing module 210 is configured to preprocess the images of the image stream acquired by the camera 120. More precisely, according to the invention, the preprocessing module 210 is configured to modify the contrast of each pixel of the illuminated area ZE of inversely proportional to the lighting (that is to say the light intensity) of the light source 110A, as it appears on the images in the illuminated zone ZE.

Dans une forme de réalisation, le module de prétraitement 210 est en outre configuré pour limiter la modification du contraste des pixels les plus lumineux représentant, sur les images, la zone périphérique ZP afin de limiter leur saturation.In one embodiment, the preprocessing module 210 is further configured to limit the modification of the contrast of the brightest pixels representing, on the images, the peripheral zone ZP in order to limit their saturation.

Le module de prétraitement 210 est aussi configuré pour réaliser un lissage temporel de chacune des images du flux d’images.The preprocessing module 210 is also configured to perform a time smoothing of each of the images of the image stream.

Le module de soustraction 220 est configuré pour soustraire l’arrière-plan représenté dans chacune des images prétraitées afin de différencier les pixels qui appartiennent à l’arrière-plan de ceux qui appartiennent au premier-plan. Les pixels appartenant au premier-plan sont des pixels dont la luminosité a fortement changée, qui peuvent donc être associés la plupart du temps à des objets en mouvement.The subtraction module 220 is configured to subtract the background represented in each of the pretreated images in order to differentiate the pixels which belong to the background from those which belong to the foreground. The pixels belonging to the foreground are pixels whose brightness has greatly changed, which can therefore be associated most of the time with moving objects.

Le module de post-traitement 230 est configuré pour traiter chacune des images du flux dont l’arrière-plan a été soustrait afin de réduire le bruit et regrouper les pixels qui appartiennent au premier-plan dans des groupes de pixels représentant des objets compacts afin de pouvoir détecter les objets en mouvement dans les images. Un tel module de post-traitement 230 étant connu en soi, il ne sera pas davantage détaillé ici.The post-processing module 230 is configured to process each of the images of the stream from which the background has been subtracted in order to reduce the noise and to group the pixels which belong to the foreground into groups of pixels representing compact objects in order to to be able to detect moving objects in images. Since such a post-processing module 230 is known per se, it will not be further detailed here.

Le module de détection 240 permet de détecter le ou les objets en mouvement dans les images en appliquant aux images post-traitées un ensemble de fonctions et algorithmes, les plus importants étant le suivi des détections et la classification desdites détections afin de connaître le type d’usager et limiter les fausses détections. Un tel module de détection 240 étant connu en soi, il ne sera pas davantage détaillé ici.The detection module 240 makes it possible to detect the object or objects in motion in the images by applying to post-processed images a set of functions and algorithms, the most important being the monitoring of detections and the classification of said detections in order to know the type of '' and limit false detections. Since such a detection module 240 is known per se, it will not be further detailed here.

L’invention va maintenant être décrite dans sa mise en œuvre en référence aux figures 2 et 3 de procédé.The invention will now be described in its implementation with reference to Figures 2 and 3 of the process.

Tout d’abord, dans une étape préliminaire E0, le module de détermination 200 détermine le motif d’éclairage ME défini dans les images d’un flux d’images capturé préalablement par la caméra 120 et le stocke dans une zone mémoire (non représentée) du dispositif 20. En variante, ce motif peut être prédéterminé selon le type de source lumineuse 110A et stocké dans la zone mémoire.First of all, in a preliminary step E0, the determination module 200 determines the lighting pattern ME defined in the images of an image stream previously captured by the camera 120 and stores it in a memory area (not shown ) of the device 20. As a variant, this pattern can be predetermined according to the type of light source 110A and stored in the memory area.

Comme illustré à la figure 1, le motif d’éclairage ME délimite la zone éclairée ZE correspondant à la projection de lumière sur le sol définie par la source lumineuse 11 OA générée par les moyens d’éclairage 110. Dans l’exemple ci-après, le motif d’éclairage ME est de forme elliptique, ce qui correspond à la projection sur un sol horizontal de la lumière émise par une ampoule montée sur le lampadaire 10.As illustrated in FIG. 1, the lighting pattern ME delimits the illuminated zone ZE corresponding to the projection of light onto the ground defined by the light source 11 OA generated by the lighting means 110. In the example below , the lighting pattern ME is elliptical in shape, which corresponds to the projection onto a horizontal floor of the light emitted by a bulb mounted on the lamppost 10.

Afin de mettre en oeuvre le procédé selon l’invention, la caméra 120 acquière tout d’abord un flux d’images dans une étape E1 que le dispositif 20 reçoit via le lien de communication L1 dans une étape E2.In order to implement the method according to the invention, the camera 120 firstly acquires a stream of images in a step E1 that the device 20 receives via the communication link L1 in a step E2.

Le dispositif 20 va ensuite procéder à une succession d’étapes sur chacune des images de la pluralité du flux d’images : une étape E2 de prétraitement, une étape E3 de soustraction de l’arrière-plan, une étape E4 de post-traitement et une étape E5 de détection.The device 20 will then proceed to a succession of steps on each of the images of the plurality of image streams: a step E2 of preprocessing, a step E3 of subtraction of the background, a step E4 of postprocessing and a step E5 of detection.

L’étape E2 de prétraitement a notamment pour but de déterminer un facteur de contraste adaptatif et comprend une pluralité de sous-étapes successives réalisées pour chacune des images de la pluralité du flux d’images, illustrées à la figure 3.The purpose of the preprocessing step E2 is in particular to determine an adaptive contrast factor and comprises a plurality of successive substeps performed for each of the images in the plurality of the image stream, illustrated in FIG. 3.

Tout d’abord, dans une sous-étape E21, le module de traitement 210 procède à une limitation de la saturation des pixels de l’image. Afin d’éviter la saturation, on définit tout d’abord en tant que paramètre un seuil de saturation indiquant le pourcentage maximum toléré de pixels saturés dans une image. Ce seuil est dépendant de la mise en œuvre du système 1 et doit être paramétré au préalable. Ce seuil de saturation permet de limiter le facteur de contraste adaptatif à une valeur appelée facteur maximum admissible FMaxi (pour la ième image du flux).First of all, in a sub-step E21, the processing module 210 proceeds to limit the saturation of the pixels of the image. In order to avoid saturation, a saturation threshold is first defined as a parameter indicating the maximum tolerated percentage of saturated pixels in an image. This threshold is dependent on the implementation of system 1 and must be configured beforehand. This saturation threshold makes it possible to limit the adaptive contrast factor to a value called maximum admissible factor FMaxi (for the i th image of the flux).

La détermination de cette valeur peut par exemple être réalisée en comptant le nombre de pixels les plus brillants de l’image afin de déterminer ceux qui satureraient. Pour ce faire, l’histogramme de luminosité des pixels de l’image peut tout d’abord être déterminé, cet histogramme représentant les percentiles des pixels en fonction de leur luminosité (connu en soi). Puis, partant du dernier percentile (le 255ème pour une image codée sur 8 bits), le nombre de pixels les plus lumineux est ajouté pour chaque percentile jusqu’à atteindre le seuil de saturation.The determination of this value can for example be carried out by counting the number of brightest pixels in the image in order to determine those which would saturate. To do this, the brightness histogram of the pixels of the image can first of all be determined, this histogram representing the percentiles of the pixels as a function of their brightness (known per se). Then, starting from the last percentile (the 255th for an image coded on 8 bits), the number of brightest pixels is added for each percentile until reaching the saturation threshold.

Le nombre de valeurs de luminosité (255 pour une image codée sur 8 bits) est alors divisé par le numéro du dernier percentile atteint avant de dépasser le seuil de saturation afin d’obtenir le facteur maximum de contraste admissible permettant d’éviter la saturation d’un nombre de pixels supérieur au seuil de saturation. Si le dernier percentile atteint avant de dépasser le seuil de saturation est le plus petit (c’est-à-dire si le facteur maximum admissible est égal à 1), cela veut dire que l’image courante contient déjà plus de pixels saturés que le seuil de saturation. Dans ce cas, l’image courant n’est pas prétraitée et l’ensemble de fonctions de distributions Gaussiennes sont appliquées directement sur ladite image courant non-prétraitée.The number of brightness values (255 for an image coded on 8 bits) is then divided by the number of the last percentile reached before exceeding the saturation threshold in order to obtain the maximum admissible contrast factor making it possible to avoid saturation d 'a number of pixels greater than the saturation threshold. If the last percentile reached before exceeding the saturation threshold is the smallest (i.e. if the maximum admissible factor is equal to 1), this means that the current image already contains more saturated pixels than the saturation threshold. In this case, the current image is not preprocessed and the set of Gaussian distribution functions are applied directly to said current image not pretreated.

Ensuite, dans une sous-étape E22, le module de prétraitement 210 procède à une sous-étape de lissage temporel de l’image qui permet de rendre l’image plus stable dans le temps. Cette étape permet d’obtenir un système plus stable, où les modifications du contraste des pixels effectuées par le module de prétraitement 210 ne génèrent pas de changements brusques de luminosité d’une image à la suivante. Comme le système de détection est basé sur une soustraction de fond, la luminosité des pixels est modélisée avec des distributions statistiques Gaussiennes. Alors, il est nécessaire d’éviter l’introduction des changements artificiels de luminosité brusques. A cette fin, pour chaque image, le facteur maximum de contraste admissible est modulé dans le temps pour atténuer les changements de luminosité des pixels qui pourraient perturber les modèles statistiques utilisés par l’ensemble de fonctions de distributions Gaussiennes. Le facteur lissé FLi obtenu par lissage exponentiel pour la i®m® image du flux est donné par :Then, in a sub-step E22, the preprocessing module 210 proceeds to a temporal smoothing sub-step of the image which makes it possible to make the image more stable over time. This step makes it possible to obtain a more stable system, where the changes in the contrast of the pixels made by the preprocessing module 210 do not generate sudden changes in brightness from one image to the next. As the detection system is based on a background subtraction, the pixel brightness is modeled with statistical Gaussian distributions. So it is necessary to avoid the introduction of sudden artificial changes in brightness. To this end, for each image, the maximum admissible contrast factor is modulated over time to attenuate the changes in pixel brightness which could disturb the statistical models used by the set of Gaussian distribution functions. The smoothed factor FLi obtained by exponential smoothing for the i® m ® image of the flux is given by:

FLi = (1 - a) x FLi-i + a x FMaxi où a est le facteur de lissage compris entre 0 et 1, FL^ est le facteur lissé de la (i-1 )èm® image du flux (l’image précédent la ièm® image dans le flux d’image) et FMaxt est le facteur maximum admissible de la ièm® image du flux.FLi = (1 - a) x FLi-i + ax FMaxi where a is the smoothing factor between 0 and 1, FL ^ is the smoothing factor of the (i-1) èm ® image of the flux (the previous image the i èm ® image in the image stream) and FMaxt is the maximum admissible factor of the i èm ® image in the stream.

Ensuite, dans une sous-étape E23, le module de traitement 210 modifie le contraste de chaque pixel de manière inversement proportionnelle à l’éclairage de la zone éclairée ZE afin de définir un facteur de pixel Fp.Then, in a sub-step E23, the processing module 210 modifies the contrast of each pixel in a manner inversely proportional to the lighting of the illuminated area ZE in order to define a pixel factor F p .

Dans le cas d’un lampadaire 10 dont la source lumineuse 110A se projette sur le sol sous la forme d’une ellipse, le motif d’éclairage peut être défini grâce à l’équation : (^+(4^où A est l’axe semi-majeur, B est l’axe semi-mineur, (x, y) sont les coordonnées d’un pixel dans l’image et (Cx, Cy) sont les coordonnées du centre de l’ellipse dans un repère en deux dimensions lié à l’image (ayant par exemple pour origine le pixel situé dans le coin supérieure gauche de l’image).In the case of a lamppost 10 whose light source 110A projects onto the ground in the form of an ellipse, the lighting pattern can be defined using the equation: (^ + (4 ^ where A is l 'semi-major axis, B is the semi-minor axis, (x, y) are the coordinates of a pixel in the image and (Cx, Cy) are the coordinates of the center of the ellipse in a coordinate system two dimensions linked to the image (for example originating from the pixel located in the upper left corner of the image).

Ainsi, on peut définir un facteur de pixel Fp dont la valeur vaut 0 au centre de l’ellipse et augmente en allant sur son bord où elle atteint la valeur de 1.Thus, we can define a pixel factor F p whose value is 0 at the center of the ellipse and increases by going on its edge where it reaches the value of 1.

Dans ce mode de réalisation préférée, l’inverse de l’équation de l’ellipse est ensuite utilisé du bord du motif jusqu’aux bords de l’image pour calculer le facteur de pixel qui décroit ainsi du bord de l’ellipse jusqu’aux bords de l’image où il atteint à nouveau la valeur 0, cela permettant notamment de réduire la saturation des zones les plus lumineuses situées hors de la zone d’éclairage délimitée par le motif d’éclairage.In this preferred embodiment, the inverse of the ellipse equation is then used from the edge of the pattern to the edges of the image to calculate the pixel factor which decreases from the edge of the ellipse to at the edges of the image where it again reaches the value 0, this in particular making it possible to reduce the saturation of the brightest areas situated outside the lighting area delimited by the lighting pattern.

Le facteur de pixel Fp est ainsi calculé dans cet exemple avec l’équation suivante :The pixel factor F p is thus calculated in this example with the following equation:

Figure FR3062505A1_D0003

Un exemple de masque résultant de l’application de ce facteur de pixel à une image capturée par la caméra 120 (illustrée à la figure 8) est donné à la figure 9.An example of a mask resulting from the application of this pixel factor to an image captured by the camera 120 (illustrated in FIG. 8) is given in FIG. 9.

En pratique, pour chaque pixel de l’image :In practice, for each pixel of the image:

- on calcule un facteur de pixel Fp à partir des coordonnées (x, y) du pixel dans l’image et on ajoute 1 pour que ce facteur de pixel Fp soit inférieur à 1 (il est alors supérieur ou égal à 1 et inférieur ou égale à 2),- we calculate a pixel factor F p from the coordinates (x, y) of the pixel in the image and we add 1 so that this pixel factor F p is less than 1 (it is then greater than or equal to 1 and less than or equal to 2),

- on détermine ensuite le facteur adaptatif FA comme étant le maximum entre la valeur 1 et le minimum entre le facteur maximum admissible FMaxi et le facteur lissé FLt multiplié par le facteur de pixel Fp.- the adaptive factor FA is then determined as being the maximum between the value 1 and the minimum between the maximum admissible factor FMaxi and the smoothed factor FLt multiplied by the pixel factor F p .

- on multiplie le pixel par le facteur adaptatif FA ainsi déterminé (étape E24).the pixel is multiplied by the adaptive factor FA thus determined (step E24).

On réalise ensuite, dans une étape E3, la soustraction de l’arrière-plan de l’image afin de segmenter les pixels en deux catégories : ceux qui appartiennent au fond et sont donc des objets statiques, et ceux qui n’appartiennent pas au fond et sont donc des objets en mouvements : objets dynamiques. Un algorithme utilisé peut, par exemple, être l’algorithme « Mixture of Gaussians » connue de l’homme du métier.Then, in a step E3, the background of the image is subtracted in order to segment the pixels into two categories: those which belong to the background and are therefore static objects, and those which do not belong to the background and are therefore moving objects: dynamic objects. An algorithm used may, for example, be the "Mixture of Gaussians" algorithm known to those skilled in the art.

Un post-traitement, connu en soi, peut ensuite être réalisé dans une étape E4. A partir de l’image segmentée, des opérations morphologiques se succèdent : d’abord une dilatation, par exemple avec un masque de 3 x 3, puis une érosion avec un masque de 5 x 5 et finalement encore une dilatation avec un masque de 3 x 3. Les tailles des masques peuvent être ajustées selon la taille des images (les exemples étant donnés ici pour une image de 1280 x 800 pixels). Finalement, un algorithme de détection de petits groupes de pixels lumineux (connus sous le nom de blobs en langue anglaise) peut être utilisé pour extraire lesdits pixels représentant des objets compacts.Post-processing, known per se, can then be carried out in a step E4. From the segmented image, morphological operations follow one another: first a dilation, for example with a mask of 3 x 3, then an erosion with a mask of 5 x 5 and finally still a dilation with a mask of 3 x 3. The mask sizes can be adjusted according to the size of the images (the examples given here for an image of 1280 x 800 pixels). Finally, an algorithm for detecting small groups of light pixels (known as blobs in English) can be used to extract said pixels representing compact objects.

Dans une étape E5, on détecte les objets en mouvements représentés dans le flux d’images, par exemple un piéton P. En utilisant les groupes de pixels (blobs) extraits à l’étape E4, un algorithme de classement (connu en soi) peut être utilisé pour réaliser la détection des objets selon les caractéristiques souhaitées.In a step E5, the moving objects represented in the image stream are detected, for example a pedestrian P. By using the groups of pixels (blobs) extracted in step E4, a classification algorithm (known per se) can be used to perform object detection according to the desired characteristics.

Dans un mode de réalisation particulier, le dispositif 10 peut être configuré en outre pour réaliser le suivi d’un objet détecté dans le flux d’images dans une étape E6. Dans ce but, le dispositif 10 peut utiliser un algorithme de suivi (connu en soi), basé par exemple sur un filtre de Kalman.In a particular embodiment, the device 10 can be further configured to track an object detected in the image stream in a step E6. For this purpose, the device 10 can use a tracking algorithm (known per se), based for example on a Kalman filter.

L’invention permet avantageusement de prétraiter les images acquises par la caméra 120 en adaptant le contraste de manière adaptative afin de détecter efficacement des objets en mouvement de à partir d’un flux vidéo d’images de manière aisée et rapide.The invention advantageously makes it possible to preprocess the images acquired by the camera 120 by adapting the contrast adaptively in order to effectively detect moving objects from a video stream of images in an easy and rapid manner.

Claims (10)

REVENDICATIONS 1. Procédé de prétraitement d’une image d’un flux vidéo d’images acquises par une caméra vidéo (120) pour la détection d’un objet en mouvement dans une zone éclairée (ZE) par une source lumineuse (11 OA) à partir dudit flux vidéo d’images représentant ladite zone éclairée (ZE), ledit procédé étant caractérisé en ce que le prétraitement (E2) comprend la modification (E24) du contraste de chaque pixel compris dans une zone délimitée par un motif d’éclairage (ME) prédéterminé, défini dans ladite image et représentant la zone éclairée (ZE) par ladite source lumineuse (11 OA), de manière inversement proportionnelle à l’éclairement de ladite zone éclairée (ZE) par la source de lumière (110A).1. Method for preprocessing an image of a video stream of images acquired by a video camera (120) for the detection of a moving object in a zone illuminated (ZE) by a light source (11 OA) at from said video stream of images representing said illuminated area (ZE), said method being characterized in that the preprocessing (E2) comprises modifying (E24) the contrast of each pixel included in an area delimited by a lighting pattern ( ME) predetermined, defined in said image and representing the area illuminated (ZE) by said light source (11 OA), inversely proportional to the illumination of said illuminated area (ZE) by the light source (110A). 2. Procédé selon la revendication 1, comprenant une étape préliminaire (EO) de détermination du motif d’éclairage (ME).2. Method according to claim 1, comprising a preliminary step (EO) of determining the lighting pattern (ME). 3. Procédé selon l’une des revendications précédentes, dans lequel le prétraitement (E2) comprend en outre la modification (E24) du contraste de chaque pixel compris hors de la zone éclairée (ZE) délimitée par le motif d’éclairage (ME) prédéterminé de manière inversement proportionnelle à l’éclairement par la source de lumière (11 OA) hors de la ladite zone éclairée (ZE).3. Method according to one of the preceding claims, in which the preprocessing (E2) further comprises the modification (E24) of the contrast of each pixel included outside the illuminated zone (ZE) delimited by the lighting pattern (ME) predetermined inversely proportional to the illumination by the light source (11 OA) outside said illuminated zone (ZE). 4. Procédé selon l’une des revendications précédentes, comprenant, antérieurement à la modification (E24), une limitation (E21 ) de la saturation des pixels de l’image.4. Method according to one of the preceding claims, comprising, prior to the modification (E24), a limitation (E21) of the saturation of the pixels of the image. 5. Procédé selon la revendication précédente, comprenant, postérieurement à la limitation (E21) et antérieurement à la modification (E24), un lissage (E23) temporel de l’image.5. Method according to the preceding claim, comprising, after the limitation (E21) and before the modification (E24), a temporal smoothing (E23) of the image. 6. Dispositif (20) de prétraitement d’une image d’un flux vidéo d’images acquises par une caméra vidéo (120) pour la détection d’un objet en mouvement dans une zone éclairée (ZE) par une source lumineuse (110A) à partir dudit flux vidéo d’images représentant ladite zone éclairée (ZE), ledit dispositif (20) étant caractérisé en ce qu’il comprend un module de prétraitement (210) configuré pour modifier le contraste de chaque pixel compris dans une zone dite « éclairée » (ZE) délimitée par un motif d’éclairage (ME) prédéterminé, défini dans ladite image et représentant la zone éclairée (ZE) par ladite source lumineuse (110A), de manière inversement proportionnelle à l’éclairement de ladite zone éclairée (ZE) par la source de lumière (110A).6. Device (20) for preprocessing an image of a video stream of images acquired by a video camera (120) for the detection of a moving object in a zone illuminated (ZE) by a light source (110A ) from said video stream of images representing said illuminated area (ZE), said device (20) being characterized in that it comprises a preprocessing module (210) configured to modify the contrast of each pixel included in a so-called area "Illuminated" (ZE) delimited by a predetermined lighting pattern (ME), defined in said image and representing the area illuminated (ZE) by said light source (110A), inversely proportional to the illumination of said illuminated area (ZE) by the light source (110A). 7. Dispositif (20) selon la revendication précédente, comprenant en outre un module de détermination (200) du motif d’éclairage (ME).7. Device (20) according to the preceding claim, further comprising a module (200) for determining the lighting pattern (ME). 8. Dispositif (20) selon l’une des revendications 6 et 7, dans lequel le module de prétraitement (210) est configuré pour modifier le contraste de chaque pixel compris hors de la zone éclairée (ZE) délimitée par le motif d’éclairage (ME) prédéterminé de manière inversement proportionnelle à l’éclairement par la source de lumière (11 OA) hors de la ladite zone éclairée (ZE).8. Device (20) according to one of claims 6 and 7, wherein the preprocessing module (210) is configured to modify the contrast of each pixel included outside the illuminated area (ZE) delimited by the lighting pattern (ME) predetermined inversely proportional to the illumination by the light source (11 OA) outside of said illuminated zone (ZE). 9. Dispositif (20) selon l’une des revendications 6 à 8, dans lequel le module de prétraitement (210) est configuré pour limiter la saturation des pixels de chacune des9. Device (20) according to one of claims 6 to 8, in which the preprocessing module (210) is configured to limit the saturation of the pixels of each of the 5 images du flux d’images.5 images from the image stream. 10. Dispositif (20) selon la revendication précédente, dans lequel le module de prétraitement (210) est configuré pour réaliser un lissage temporel des facteurs de contraste à appliquer dans chacune des images du flux d’images.10. Device (20) according to the preceding claim, in which the preprocessing module (210) is configured to perform a time smoothing of the contrast factors to be applied in each of the images of the image stream. 1 /51/5
FR1750676A 2017-01-27 2017-01-27 METHOD OF DETECTION OF A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES Active FR3062505B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1750676A FR3062505B1 (en) 2017-01-27 2017-01-27 METHOD OF DETECTION OF A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750676 2017-01-27
FR1750676A FR3062505B1 (en) 2017-01-27 2017-01-27 METHOD OF DETECTION OF A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES

Publications (2)

Publication Number Publication Date
FR3062505A1 true FR3062505A1 (en) 2018-08-03
FR3062505B1 FR3062505B1 (en) 2020-10-02

Family

ID=58347682

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1750676A Active FR3062505B1 (en) 2017-01-27 2017-01-27 METHOD OF DETECTION OF A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES

Country Status (1)

Country Link
FR (1) FR3062505B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040257454A1 (en) * 2002-08-16 2004-12-23 Victor Pinto Techniques for modifying image field data
US20070262235A1 (en) * 2006-05-15 2007-11-15 Shimon Pertsel Compensating for Non-Uniform Illumination of Object Fields Captured by a Camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040257454A1 (en) * 2002-08-16 2004-12-23 Victor Pinto Techniques for modifying image field data
US20070262235A1 (en) * 2006-05-15 2007-11-15 Shimon Pertsel Compensating for Non-Uniform Illumination of Object Fields Captured by a Camera

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. KORPI-ANTTILA: "Automatic Colour Enhancement and Scene Change Detection of Digital Video", 1 January 2003 (2003-01-01), XP055379479, Retrieved from the Internet <URL:https://pdfs.semanticscholar.org/5e27/9d802f745bc76c6b982fa9fa1402e264ccf6.pdf> [retrieved on 20170608] *
JEFFREY W KAELI ET AL: "Illumination and Attenuation Correction Techniques for Underwater Robotic Optical Imaging Platforms", 1 January 2014 (2014-01-01), XP055379471, Retrieved from the Internet <URL:https://www.whoi.edu/cms/files/kaeli_joe14_InReview_183164.pdf> [retrieved on 20170608] *

Also Published As

Publication number Publication date
FR3062505B1 (en) 2020-10-02

Similar Documents

Publication Publication Date Title
US11132771B2 (en) Bright spot removal using a neural network
EP3616161B1 (en) Image-processing method for removing light zones
WO2016011889A1 (en) Method and device for overexposed photography
US9123141B2 (en) Ghost artifact detection and removal in HDR image processing using multi-level median threshold bitmaps
WO2016097520A1 (en) Method for detecting a defect on a surface of a tyre
EP2457379A1 (en) Method for estimating a defect in an image-capturing system, and associated systems
FR3019924A1 (en) METHOD FOR DETECTING POINTS OF INTEREST IN A DIGITAL IMAGE
WO2018109372A1 (en) Method for digital image processing
WO2023125750A1 (en) Image denoising method and apparatus, and storage medium
EP2622324A2 (en) Method and device for detecting fog at night
FR3062223A1 (en) DETECTING OBSTACLES IN THE ENVIRONMENT OF A MOTOR VEHICLE BY PROCESSING IMAGES
FR3062505A1 (en) METHOD FOR DETECTING A MOVING OBJECT FROM A VIDEO STREAM OF IMAGES
FR2740220A1 (en) METHOD FOR THE AUTOMATIC DETECTION OF EXPERTISABLE ZONES IN IMAGES OF MECHANICAL PARTS
EP2756483B1 (en) Method and system for acquiring and processing images for the detection of motion
FR3048104A1 (en) METHOD AND DEVICE FOR CAPTURING IMAGES OF A VEHICLE
CA3174807A1 (en) Method and device for document imaging
FR3115144A1 (en) Image processing method
FR2864298A1 (en) METHOD AND SYSTEM FOR REDUCING FLASH OVEREXPOSURE TO IMPROVE THE QUALITY OF DIGITAL IMAGES
CN113222870A (en) Image processing method, device and equipment
WO2019166720A1 (en) Dynamic detection of stray light in a digital image
US11282175B2 (en) Sample imaging and image deblurring
EP3428851A1 (en) Method for processing an image
FR3055267A1 (en) DEVICE FOR CONTROLLING A LIGHT PROJECTOR OF A VEHICLE, LIGHTING DEVICE AND ASSOCIATED METHOD
Ubhi et al. Enhancement of context by image fusion
FR3120257A3 (en) Method for controlling an automotive lighting device

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180803

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8