WO2022002583A1 - Method for generating at least one pervasive detection of a broad source - Google Patents

Method for generating at least one pervasive detection of a broad source Download PDF

Info

Publication number
WO2022002583A1
WO2022002583A1 PCT/EP2021/066127 EP2021066127W WO2022002583A1 WO 2022002583 A1 WO2022002583 A1 WO 2022002583A1 EP 2021066127 W EP2021066127 W EP 2021066127W WO 2022002583 A1 WO2022002583 A1 WO 2022002583A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
module
image
segmentation
elementary
Prior art date
Application number
PCT/EP2021/066127
Other languages
French (fr)
Inventor
Dominique MALTESE
Original Assignee
Safran Electronics & Defense
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran Electronics & Defense filed Critical Safran Electronics & Defense
Publication of WO2022002583A1 publication Critical patent/WO2022002583A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for generating at least one pervasive detection of an image-based broad source, comprising the successive steps of: - from at least one basic detection of the broad source, generating a segmentation mask associated with the detection, - generating at least one segmentation region such that each generated segmentation region is defined so as to include: either a single segmentation mask or several segmentation masks which overlap with one another, - determining, for each generated segmentation region, a pervasive detection.

Description

Méthode de génération d'au moins une détection généralisée d'une source large Method for generating at least one generalized detection of a large source
L'invention concerne une méthode de génération d'une détection généralisée d'une source large présente sur une image initiale par traitement de ladite image ou de génération de plusieurs détections généralisées, chaque détection généralisée se rapportant à une source large distincte sur l'image initiale par traitement de ladite image. The invention relates to a method for generating a generalized detection of a wide source present in an initial image by processing said image or generating several generalized detections, each generalized detection relating to a distinct wide source on the image. initial by processing said image.
ARRIERE PLAN DE L'INVENTION BACKGROUND OF THE INVENTION
Dans le domaine de la marine militaire il est connu d'avoir recours à des systèmes d'acquisition et de traitement d'au moins une image pour cibler des objets comme par exemple des navires de surface. In the field of the military navy, it is known to have recourse to systems for acquiring and processing at least one image in order to target objects such as, for example, surface ships.
La figure 1 illustre une architecture possible d'un système existant. Un tel système comporte différents modules : un module de détermination des détections 101, un module de fusion des détections 120 et un module de classification et/ou pistage des détections fusionnées 103. Figure 1 illustrates a possible architecture of an existing system. Such a system comprises different modules: a module for determining the detections 101, a module for merging the detections 120 and a module for classifying and / or tracking the merged detections 103.
Dans les faits, le module de détermination des détections 101 peut comprendre deux blocs : In fact, the detection determination module 101 can comprise two blocks:
- l'un 104 pour les sources larges, encore appelée source étendue (c'est-à-dire que la source est représentée par au moins une dizaine de pixels sur l'image), et - one 104 for wide sources, also called extended source (i.e. the source is represented by at least ten pixels on the image), and
- l'autre 105 pour les sources dites ponctuelles (c'est- à-dire que la source est représentée par quelques pixels au maximum sur l'image). - the other 105 for so-called point sources (ie the source is represented by a few pixels at most in the image).
Chaque bloc 104, 105 peut mettre en œuvre un algorithme qui prend comme hypothèse que le fond de l'image est gaussien et est donc caractérisé par au moins deux paramètres que sont la « moyenne » et la « variance ». Ainsi l'algorithme peut évaluer le ou les critères suivants : Each block 104, 105 can implement an algorithm which assumes that the background of the image is Gaussian and is therefore characterized by at least two parameters which are the “mean” and the “variance”. Thus the algorithm can evaluate the following criteria (s):
- une moyenne du fond entourant un objet sur l'image (la moyenne du fond sera appelée « ImB » par la suite) i.e. le niveau moyen des pixels constituant le fond entourant un objet ; - an average of the background surrounding an object on the image (the average of the background will be called “I m B” hereafter) ie the average level of the pixels constituting the background surrounding an object;
- une variance du bruit dudit fond (par la suite l'écart- type du fond sera noté « sB » et sa variance « sB 2 »). - a variance of the noise of said background (subsequently the standard deviation of the background will be denoted "s B " and its variance "s B 2 ").
Par exemple, l'algorithme détermine le niveau moyen des pixels constituant un objet (ledit niveau moyen sera appelé « ImT » par la suite). Alternativement, l'algorithme impose ImT à la valeur du pixel central de l'objet. For example, the algorithm determines the average level of the pixels constituting an object (said average level will be called “I m T” hereafter). Alternatively, the algorithm imposes I m T on the value of the central pixel of the object.
Puis l'algorithme estime le rapport signal sur bruit (appelé par la suite « SNR ») par la formule SNR = (ImT - ImB)/ oB Then the algorithm estimates the signal to noise ratio (hereinafter called “SNR”) by the formula SNR = (I m T - I m B) / o B
En cas de gestion des contrastes positifs In case of management of positive contrasts
Ou en variante selon la formule (en cas de gestion des contrastes négatifs) : Or as a variant according to the formula (in case of management of negative contrasts):
SNR = |ImT - ImB|/ oB SNR = | I m T - I m B | / o B
A partir de la valeur de SNR et d'une valeur Thl de seuil nominal, valeur prédéterminée à partir de performances de détection et/ou de tolérance de fausses alarmes : Based on the SNR value and a nominal threshold Thl value, a predetermined value based on detection performance and / or false alarm tolerance:
- si SNR est inférieur à Thl alors il n'y a pas de détection,- if SNR is less than Thl then there is no detection,
- si SNR ³ Thl alors il y a détection et le bloc 104, 105 fournit en sortie la position de la détection et/ou une ou plusieurs informations caractéristiques de la détection (morphologie, entropie...). - If SNR ³ Th1 then there is detection and the block 104, 105 outputs the position of the detection and / or one or more information characteristic of the detection (morphology, entropy, etc.).
Selon une variante, l'algorithme est basé sur une segmentation par champs de Markov : l'algorithme travaille ainsi sur l'image par itération successives pour obtenir des zones homogènes modélisables par des gaussiennes dont il analyse ensuite les contours pour en obtenir les détections. Quel que soit l'algorithme employé, un problème récurrent est la mauvaise analyse des sources larges. Ainsi, il arrive régulièrement que le système finisse par déduire d'une image qu'il existe plusieurs détections pour une même source large. Cela nuit bien entendu au bon dénombrement des sources mais perturbe également le traitement du ou des informations liées aux déductions notamment lorsque l'on souhaite pister une source particulière ce qui nuit à la performance de 1'ensemble. According to one variant, the algorithm is based on segmentation by Markov fields: the algorithm thus works on the image by successive iterations to obtain homogeneous zones that can be modeled by Gaussians, the contours of which it then analyzes to obtain their detections. Whatever algorithm is used, a recurring problem is the poor analysis of broad sources. Thus, it often happens that the system ends up deducing from an image that there are several detections for the same large source. This of course impairs the correct counting of sources but also disrupts the processing of the information (s) linked to the deductions, in particular when it is desired to track a particular source which adversely affects the performance of the assembly.
OBJET DE L'INVENTION OBJECT OF THE INVENTION
Un but de l'invention est de proposer une méthode limitant un risque de multi-détections d'une même source large présente sur une image. An aim of the invention is to propose a method limiting a risk of multiple detections of the same large source present in an image.
RESUME DE L’INVENTION SUMMARY OF THE INVENTION
En vue de la réalisation de ce but, on propose selon l'invention une méthode de génération d'au moins une détection généralisée d'une source large présente sur une image comportant les étapes successives de : With a view to achieving this aim, according to the invention there is proposed a method for generating at least one generalized detection of a wide source present in an image comprising the successive steps of:
- à partir d'au moins une détection élémentaire de ladite source large, générer un masque de segmentation associé à ladite détection, - from at least one elementary detection of said wide source, generating a segmentation mask associated with said detection,
- générer au moins une région de segmentation telle que chaque région de segmentation générée soit définie de sorte à englober : soit un unique masque de segmentation, soit plusieurs masques de segmentation qui se recoupent entre eux, - generate at least one segmentation region such that each segmentation region generated is defined so as to include: either a single segmentation mask, or several segmentation masks which overlap with each other,
- déterminer pour chaque région de segmentation générée une détection généralisée. - determining for each segmentation region generated a generalized detection.
De la sorte, l'invention permet une fusion dédiée aux sources larges. In this way, the invention allows a fusion dedicated to wide sources.
Lorsque l'invention est employée dans un système d'acquisition et de traitement d'au moins une image pour cibler des objets, l'invention limite ainsi un risque d'obtenir deux cibles pour une même source large. L'invention permet donc d'améliorer le dénombrement de cibles. L'invention permet également de limiter les erreurs dans le traitement ultérieur de l'image et/ou de la cible comme par exemple au niveau d'un module de pistage de ladite cible. When the invention is used in a system for acquiring and processing at least one image in order to target objects, the invention thus limits a risk of obtaining two targets for the same large source. The invention therefore makes it possible to improve the count of targets. The invention also makes it possible to limit the errors in the subsequent processing of the image and / or of the target, for example at the level of a module for tracking said target.
De manière plus générale, l'invention permet d'améliorer la détection d'une cible, la stabilité de poursuite d'une cible, la stabilité de dénombrement de cibles, la stabilité de la classification et/ou identification des cibles ... L'invention s'avère ainsi relativement performante. En particulier un dispositif mettant en œuvre l'invention s'avère relativement performant, notamment en termes de fausses alarmes (ou Fausses Alarmes). More generally, the invention makes it possible to improve the detection of a target, the stability of tracking a target, the stability of the count of targets, the stability of the classification and / or identification of the targets, etc. The invention thus proves to be relatively efficient. In particular, a device implementing the invention proves to be relatively efficient, in particular in terms of false alarms (or false alarms).
De façon avantageuse, l'invention peut rapidement et aisément être implantée dans des dispositifs existants. L'invention est donc peu coûteuse à implémenter. Advantageously, the invention can quickly and easily be implemented in existing devices. The invention is therefore inexpensive to implement.
En outre, l'invention n'alourdit pas excessivement le temps de calcul en cas d'implémentation dans un dispositif existant. In addition, the invention does not excessively increase the computation time in the event of implementation in an existing device.
Pour la présente demande, on rappelle qu'une source large (ou source étendue) est une source représentée par au moins une dizaine de pixels sur une image et qui s'oppose ainsi à la notion de source ponctuelle représentée par au maximum quelques pixels sur une image. For the present application, it is recalled that a wide source (or extended source) is a source represented by at least ten pixels on an image and which is thus opposed to the notion of point source represented by at most a few pixels on an image. a picture.
Optionnellement on détermine un histogramme cumulé sur une portion de l'image initiale centrée sur la position de la détection élémentaire de source large considérée. Optionnellement on détermine un seuil local de détection basé sur des niveaux de gris des pixels de ladite portion en seuillant l'histogramme cumulé par un seuil intermédiaire de valeur prédéterminée. Optionally, a cumulative histogram is determined on a portion of the initial image centered on the position of the elementary wide source detection considered. Optionally, a local detection threshold based on the gray levels of the pixels of said portion is determined by thresholding the cumulative histogram by an intermediate threshold of predetermined value.
Optionnellement le seuil intermédiaire a une valeur comprise entre 80 et 90%. Optionally, the intermediate threshold has a value between 80 and 90%.
Optionnellement l'image initiale est seuillée en niveaux de gris par le seuil local de détection afin d'obtenir une première image présentant une ou plusieurs segmentations associées à la détection élémentaire de source large. Optionnellement on dilate et/ou on érode la première image pour obtenir une deuxième image. Optionally, the initial image is thresholded in gray levels by the local detection threshold in order to obtain a first image exhibiting one or more segmentations associated with the elementary detection of a wide source. Optionally, the first image is dilated and / or eroded to obtain a second image.
Optionnellement on labélise la première image ou la deuxième image pour extraire le au moins un masque de segmentation. Optionnellement on crée une nouvelle image incluant le au moins un masque de segmentation et labélise ladite image pour extraire la au moins une région de segmentation. Optionnellement on calcule une position de la au moins une détection généralisée de la source large associée à la au moins une région de segmentation. Optionally, the first image or the second image is labeled in order to extract the at least one segmentation mask. Optionally we create a new image including the au minus one segmentation mask and labels said image to extract the at least one segmentation region. Optionally, a position of the at least one generalized detection of the wide source associated with the at least one segmentation region is calculated.
Optionnellement on considère que la position de la au moins une détection généralisée de la source large est le barycentre de l'ensemble des pixels constituant la région de segmentation associée, pondérés par leur niveau de gris. L'invention concerne également un dispositif permettant de mettre en œuvre la méthode précitée. Optionally, it is considered that the position of the at least one generalized detection of the wide source is the barycenter of all the pixels constituting the associated segmentation region, weighted by their gray level. The invention also relates to a device making it possible to implement the aforementioned method.
L'invention concerne également un système optronique comprenant un dispositif tel que précité. The invention also relates to an optronic system comprising a device as mentioned above.
L'invention concerne également un véhicule marin comprenant un système optronique tel que précité. The invention also relates to a marine vehicle comprising an optronic system as mentioned above.
D'autres caractéristiques et avantages de l'invention ressortiront à la lecture de la description qui suit d'une mise en œuvre particulière de l'invention. Other characteristics and advantages of the invention will emerge on reading the following description of a particular implementation of the invention.
BREVE DESCRIPTION DES DESSINS BRIEF DESCRIPTION OF THE DRAWINGS
La figure 1 a déjà été décrite en relation avec l'art antérieur de l'invention. FIG. 1 has already been described in relation to the prior art of the invention.
Par ailleurs, l'invention sera mieux comprise à la lumière de la description qui suit en référence aux figures annexées parmi lesquelles : Furthermore, the invention will be better understood in the light of the description which follows with reference to the appended figures, among which:
La figure 2 illustre schématiquement en partie un système permettant une mise en œuvre particulière de l'invention, ledit système comprenant un dispositif de traitement d'images ; FIG. 2 schematically illustrates in part a system allowing a particular implementation of the invention, said system comprising an image processing device;
La figure 3 est une représentation schématique d'un premier bloc d'un troisième module du dispositif de traitement d'images illustré à la figure 2; FIG. 3 is a schematic representation of a first block of a third module of the image processing device illustrated in FIG. 2;
La figure 4 est une représentation schématique d'une image traitée lors d'un premier échelon par le premier bloc illustré à la figure 3 ; La figure 5 est une représentation schématique d'un deuxième bloc du troisième module du dispositif de traitement d'images illustré à la figure 2; FIG. 4 is a schematic representation of an image processed during a first step by the first block illustrated in FIG. 3; FIG. 5 is a schematic representation of a second block of the third module of the image processing device illustrated in FIG. 2;
La figure 6 est une représentation schématique d'une image binaire générée par le deuxième bloc représenté à la figureFIG. 6 is a schematic representation of a binary image generated by the second block represented in FIG.
5; 5;
La figure 7 est une représentation schématique d'une autre image binaire générée par le deuxième bloc représenté à la figure 5. Figure 7 is a schematic representation of another binary image generated by the second block shown in Figure 5.
DESCRIPTION DETAILLEE DE L'INVENTIONDETAILED DESCRIPTION OF THE INVENTION
En référence, à la figure 2, un système permettant une mise en œuvre particulière de l'invention va être à présent décrit. Un tel système est par exemple un système optronique. On rappelle qu'un système optronique s'appuie à la fois sur de l'optique et de l'électronique pour remplir sa ou ses fonctions. With reference to FIG. 2, a system allowing a particular implementation of the invention will now be described. Such a system is for example an optronic system. It will be recalled that an optronic system relies on both optics and electronics to fulfill its function (s).
Dans le cas présent, le système optronique comporte au moins un élément de prise d'images (type capteur optique) ainsi qu'un dispositif de traitement desdites images 1 afin de permettre la détection de cibles. De préférence, le système comprend également un ou plusieurs modules agencés en aval du dispositif de traitement d'images 1 comme par exemple un module de classification et/ou identification desdites cibles, un module de poursuite desdites cibles, une conduite de tir électro-optique ...Par exemple, le système comprend un module de classification des cibles 2. In the present case, the optronic system comprises at least one image-taking element (optical sensor type) as well as a device for processing said images 1 in order to allow the detection of targets. Preferably, the system also comprises one or more modules arranged downstream of the image processing device 1 such as, for example, a module for classifying and / or identifying said targets, a module for tracking said targets, an electro-optical firing line. ... For example, the system includes a target classification module 2.
Optionnellement, les images acquises par l'élément de prise d'images sont des images infrarouges. Optionally, the images acquired by the imaging element are infrared images.
En outre, les images acquises par l'élément de prise d'images présentent un fond monomode. En variante, les images acquises par l'élément de prise d'images présentent un fond multimodal (i.e. texturé). Further, the images acquired by the imaging element have a single-mode background. As a variant, the images acquired by the imaging element have a multimodal (i.e. textured) background.
Dans le cas présent, le système est agencé sur un véhicule marin (tel qu'un navire de surface ou encore un sous-marin). Le système est par exemple un système optronique de veille marine. In the present case, the system is arranged on a marine vehicle (such as a surface ship or even a submarine). The system is, for example, an optronic marine watch system.
Le dispositif de traitement d'images 1 est par exemple un calculateur, un contrôleur, un ordinateur ... incorporant différents modules qui vont être décrits par la suite. Chaque module peut par exemple être mis en œuvre par un circuit logique reprogrammable (tel qu'un circuit FPGA) implanté dans le dispositif de traitement d'images 1. The image processing device 1 is for example a computer, a controller, a computer, etc. incorporating various modules which will be described below. Each module can for example be implemented by a reprogrammable logic circuit (such as an FPGA circuit) installed in the image processing device 1.
Le dispositif de traitement d'images 1 comporte un premier module 3 de détections de sources ponctuelles et un deuxième module 4 de détections élémentaires de sources larges. Lesdites sources sont dans le cas présent des objets de surfaces tels que des navires de surface et/ou bien des aéronefs. The image processing device 1 comprises a first module 3 for detecting point sources and a second module 4 for elementary detections of wide sources. Said sources are in the present case surface objects such as surface ships and / or aircraft.
De façon connue en soi, la fonction du premier module 3 est de segmenter chaque image afin d'obtenir des détections des sources ponctuelles et la fonction du deuxième module 4 est de segmenter chaque image afin d'obtenir des détections élémentaires des sources larges. Par exemple chaque module 3, 4 détecte sur chaque image les points d'intérêts par évaluation du SNR comme décrit dans la partie « Arrière-plan technologique de l'invention ». Ces points d'intérêts correspondent à des points « contrastés » ou encore des points « de saillance » soit des points « chauds » si le traitement des images se base sur un contraste positif ou des points « froids » si le traitement des images se base sur un contraste négatif. In a manner known per se, the function of the first module 3 is to segment each image in order to obtain detections of the point sources and the function of the second module 4 is to segment each image in order to obtain elementary detections of the wide sources. For example, each module 3, 4 detects the points of interest on each image by evaluating the SNR as described in the section “Technological background of the invention”. These points of interest correspond to “contrasting” points or even “salience” points, that is to say “hot” points if the image processing is based on positive contrast or “cold” points if the image processing is based on positive contrast. on a negative contrast.
Le premier module 3 et le deuxième module 4 sont bien connus de l'art antérieur et ne seront pas davantage détaillés ici. On retient qu'en entrée du premier module 3 et du deuxième module 4 on a une image initiale acquise par le capteur optique et en sortie du premier module 3 on récupère des détections de sources ponctuelles et en sortie du deuxième module 4 des détections élémentaires de sources larges. The first module 3 and the second module 4 are well known from the prior art and will not be further detailed here. We retain that at the input of the first module 3 and of the second module 4 there is an initial image acquired by the optical sensor and at the output of the first module 3 we recover point source detections and at the output of the second module 4 elementary detections of wide sources.
Le dispositif de traitement d'images 1 comporte un troisième module 5 de fusion des détections élémentaires de sources larges. Ce troisième module 5 est donc agencé en aval du deuxième module 4 de manière à avoir en entrée les détections élémentaires de sources larges déterminées par le troisième module 4. The image processing device 1 comprises a third module 5 for merging the elementary detections of sources wide. This third module 5 is therefore arranged downstream of the second module 4 so as to have as input the elementary detections of large sources determined by the third module 4.
En référence à la figure 3, le troisième module 5 comprend un premier bloc 11 calculant à partir desdites détections élémentaires de sources larges, des masques de segmentation associés à chacune desdites détections. With reference to FIG. 3, the third module 5 comprises a first block 11 calculating from said elementary detections of wide sources, segmentation masks associated with each of said detections.
De préférence, le premier bloc 11 ne conserve des informations transmises par le deuxième module 4 que la position des détections de sources larges (positions exprimées en ligne-colonne). Preferably, the first block 11 keeps information transmitted by the second module 4 only the position of the detections of large sources (positions expressed in row-column).
Optionnellement le premier bloc 11 réalise la boucle suivante. Optionally, the first block 11 carries out the following loop.
Début de la boucle. Beginning of the loop.
Pour chacune des détections élémentaires de source large fournie par le deuxième module 4r les différents échelons suivants sont mis en œuvre. For each of the elementary broad source detections provided by the second module 4 r, the following different steps are implemented.
Selon un premier stade d'un premier échelon, le premier bloc 11 détermine un histogramme cumulé sur une portion de l'image initiale centrée sur la position de la détection élémentaire de source large considérée. Cette portion de l'image initiale est de forme et de dimensions prédéterminées identiques à toutes les détections élémentaires de sources larges. Par exemple la portion de l'image est un rectangle. La figure 4 représente une telle portion d'image. Quant à l'histogramme cumulé, il est une représentation locale de la répartition des niveaux de gris (encore appelés « intensités ») des pixels autour de la position de détection élémentaire de source large considérée. Un histogramme cumulé associé à une détection élémentaire de source large considérée peut donc être totalement différent de celui évalué pour une autre détection de source large pourtant appartenant à la même source large. According to a first stage of a first step, the first block 11 determines an accumulated histogram on a portion of the initial image centered on the position of the elementary wide source detection considered. This portion of the initial image is of predetermined shape and dimensions identical to all the elementary detections of large sources. For example the portion of the image is a rectangle. FIG. 4 represents such an image portion. As for the cumulative histogram, it is a local representation of the distribution of the gray levels (also called “intensities”) of the pixels around the elementary detection position of the wide source considered. A cumulative histogram associated with an elementary wide source detection considered can therefore be totally different from that evaluated for another wide source detection which nevertheless belongs to the same large source.
On effectue ainsi au cours du premier stade une analyse locale des niveaux de gris autour de chaque détection élémentaire de source large considérée extraite de l'image initiale. An analysis is thus carried out during the first stage. local gray levels around each elementary detection of a considered wide source extracted from the initial image.
Puis, lors d'un deuxième stade du premier échelon, le premier bloc 11 détermine un seuil local de détection Thp basé sur les niveaux de gris des pixels de la portion de l'image en seuillant 1'histogramme cumulé par un seuil intermédiaire en pourcentage Th_% de valeur prédéterminée. Then, during a second stage of the first step, the first block 11 determines a local detection threshold Thp based on the gray levels of the pixels of the portion of the image by thresholding the cumulative histogram by an intermediate threshold in percentage. Th_% of predetermined value.
Optionnellement, on choisit Th_% a une valeur comprise entre 80 et 90%. Par exemple on choisit Th_% à 85%. Ceci signifie que l'on cherche à ne conserver que 15% des pixels présents dans la portion de l'image, indépendamment de leurs positions dans ladite portion. Pour chaque portion de l'image initiale associée à une détection élémentaire de source large, le seuil local de détection Thp dépend de Th_% et de 1'histogramme cumulé : ledit seuil local de détection Thp va donc dépendre directement du voisinage local de la détection élémentaire de source large associée et va être différent d'une portion à une autre. Optionally, Th_% is chosen to have a value between 80 and 90%. For example we choose Th_% to 85%. This means that one seeks to keep only 15% of the pixels present in the portion of the image, independently of their positions in said portion. For each portion of the initial image associated with an elementary detection of a large source, the local detection threshold Thp depends on Th_% and on the cumulative histogram: said local detection threshold Thp will therefore depend directly on the local neighborhood of the detection. elementary wide source associated and will be different from one portion to another.
Lors d'un deuxième échelon, l'image initiale est à son tour seuillée en niveaux de gris (alors qu'au niveau du premier module 3 et du deuxième module 4 l'image initiale était seuillée en SNR) par le seuil local de détection Thp. During a second step, the initial image is in turn thresholded in gray levels (while at the level of the first module 3 and of the second module 4 the initial image was thresholded in SNR) by the local detection threshold Thp.
On obtient ainsi une image binaire I2p présentant une ou plusieurs segmentations associées à la détection élémentaire de source large. An I2p binary image is thus obtained having one or more segmentations associated with the elementary detection of a wide source.
On note que le seuil en niveau local de détection Thp est propre à chaque détection élémentaire de source large de sorte que les différentes images binaires I2p associée chacune à l'une des détections élémentaires de sources larges sont différentes les uns des autres. It is noted that the local level detection threshold Thp is specific to each elementary detection of a wide source so that the different binary images I2p each associated with one of the elementary detections of wide sources are different from each other.
On effectue ainsi une segmentation locale autour de chacune des détections élémentaires de sources larges après analyse de la répartition des niveaux de gris autour desdites détections élémentaires de sources larges. La segmentation effectuée dans le troisième module 5 est donc plus fine que dans le deuxième module 4 grâce notamment au recours à 1'histogramme cumulé. Optionnellement, le premier bloc 11 dilate et/ou érode l'image binaire I2p pour : supprimer des segmentations isolées, par exemple si lesdites segmentations sont trop petites et/ou incohérentes au vu des autres segmentations ; et/ou regrouper des segmentations proches entre elles.A local segmentation is thus carried out around each of the elementary detections of large sources. after analysis of the distribution of the gray levels around said elementary detections of large sources. The segmentation carried out in the third module 5 is therefore finer than in the second module 4 thanks in particular to the use of the cumulative histogram. Optionally, the first block 11 expands and / or erodes the binary image I2p in order to: remove isolated segmentations, for example if said segmentations are too small and / or inconsistent in view of the other segmentations; and / or group together segmentations that are close to one another.
A cet effet, le premier bloc s'appuie sur des critères prédéterminés pour définir une « petite » segmentation, une segmentation « incohérente », une segmentation « isolée », des segmentations « proches » ... Par exemple pour les segmentations « proches », le premier bloc peut s'appuyer sur un critère de proximité exprimé en distance ligne-colonne . For this purpose, the first block is based on predetermined criteria to define a “small” segmentation, an “incoherent” segmentation, an “isolated” segmentation, “close” segmentations ... For example for “close” segmentations. , the first block can be based on a proximity criterion expressed in row-column distance.
On obtient ainsi une image binaire I3p présentant une segmentation principale (et de préférence qui est la seule segmentation de ladite image binaire I3p) associée à la détection élémentaire de source large. A binary image I3p is thus obtained having a main segmentation (and preferably which is the only segmentation of said binary image I3p) associated with the elementary detection of a wide source.
Ladite segmentation principale inclut préférentiellement la détection élémentaire de source large. En outre ladite segmentation principale est choisie de sorte à être la segmentation la plus importante en termes de superficie qui inclut la détection élémentaire de source large.Said main segmentation preferably includes elementary broad source detection. In addition, said main segmentation is chosen so as to be the largest segmentation in terms of area which includes elementary wide source detection.
De préférence, le premier bloc 11 labélise l'image binaire I3p pour extraire une zone dans l'image binaire I3p associée à la détection élémentaire de source large. De préférence, ladite zone est définie de manière à contenir la segmentation principale sans inclure d'autres segmentations de l'image binaire I3p. Ladite zone est également appelée « masque de segmentation » par la suite. Preferably, the first block 11 labels the binary image I3p to extract an area in the binary image I3p associated with the elementary detection of a wide source. Preferably, said zone is defined so as to contain the main segmentation without including other segmentations of the binary image I3p. Said zone is also called “segmentation mask” hereinafter.
De préférence, le masque de segmentation suit les contours de la segmentation principale et présente une superficie supérieure mais la plus proche possible de ladite segmentation principale. Preferably, the segmentation mask follows the contours of the main segmentation and has an area greater than but as close as possible to said main segmentation.
Le masque de segmentation est donc avantageusement d'une superficie plus importante que la détection élémentaire de source large tout en étant associé à ladite source large. On assure ainsi une meilleure segmentation avec le troisième module 5 qu'à l'issue du deuxième module 4. Une image (de même dimensions que l'image initiale) comprenant ledit masque de segmentation peut ainsi être générée. Une telle image est notée image binaire I4p. Les autres zones de l'image binaire I3p sont ainsi considérées comme étant inintéressantes ce qui est logique puisque le seuil de détection local Thp n'a pas de sens pour ces autres zones, le seuil de détection local Thp ayant étant évalué localement autour de la détection élémentaire de la source large. The segmentation mask is therefore advantageously of a larger area than the elementary wide source detection while being associated with said wide source. Better segmentation is thus ensured with the third module 5 than at the end of the second module 4. An image (of the same dimensions as the initial image) comprising said segmentation mask can thus be generated. Such an image is denoted binary image I4p. The other areas of the binary image I3p are thus considered to be uninteresting, which is logical since the local detection threshold Thp does not make sense for these other areas, the local detection threshold Thp having been evaluated locally around the elementary detection of the wide source.
Fin de la boucle End of the loop
La sortie du premier bloc 11 fournit ainsi un masque de segmentation pour chaque détection élémentaire de source large transmise en entrée du premier bloc 11. The output of the first block 11 thus provides a segmentation mask for each elementary detection of a wide source transmitted at the input of the first block 11.
De préférence, si le premier bloc 11 ne peut déterminer un masque de segmentation pour au moins l'une des détections élémentaires de sources larges, le premier bloc 11 fournit en sortie une zone de segmentation associée à ladite détection élémentaire de source large qui a été déterminée par le deuxième module 4. De la sorte, on ne perd pas de détection élémentaire de source large à travers le premier bloc 11. Preferably, if the first block 11 cannot determine a segmentation mask for at least one of the elementary wide source detections, the first block 11 outputs a segmentation zone associated with said elementary wide source detection which has been determined by the second module 4. In this way, elementary detection of a wide source is not lost through the first block 11.
Optionnellement, si la segmentation principale n'inclut pas la détection élémentaire de source large (par exemple à cause de l'érosion et/ou de la dilatation), on recherche une segmentation annexe dans le voisinage de ladite détection élémentaire de source large, segmentation qui inclurait ladite détection. Le voisinage est par exemple une zone de 3 pixels par 3 pixels centrée sur la détection élémentaire de source large (ou un pixel central de ladite détection élémentaire de source large). Le masque de segmentation correspondant sera alors défini vis-à-vis de cette segmentation annexe (et non de la segmentation principale). Si aucune segmentation annexe ne peut être déterminée alors, comme indiqué ci-dessus, on considère que le premier bloc 11 ne peut déterminer un masque de segmentation pour cette détection élémentaire de source large et le premier bloc 11 fournit en sortie une zone de segmentation associée à ladite détection élémentaire de source large qui a été déterminée par le deuxième module 4. Le troisième module 5 comprend également un deuxième bloc 12 agencé en aval du premier blocOptionally, if the main segmentation does not include the elementary broad source detection (for example because of erosion and / or dilation), an ancillary segmentation is sought in the vicinity of said elementary broad source detection, segmentation which would include said detection. The neighborhood is for example an area of 3 pixels by 3 pixels centered on the elementary detection wide source (or a central pixel of said elementary wide source detection). The corresponding segmentation mask will then be defined with respect to this annex segmentation (and not to the main segmentation). If no additional segmentation can be determined then, as indicated above, it is considered that the first block 11 cannot determine a segmentation mask for this elementary wide source detection and the first block 11 outputs an associated segmentation zone to said elementary detection of a large source which has been determined by the second module 4. The third module 5 also comprises a second block 12 arranged downstream of the first block
11 et recevant de celui-ci les masques de segmentation et/ou les images I4p (et éventuellement des zones de segmentation associées à une ou plusieurs détections élémentaires de sources larges, zones élémentaires qui ont été déterminées par le deuxième module 4 et/ou des images comprenant de telles zones) pour fournir en sortie des détections généralisées de sources larges. 11 and receiving therefrom the segmentation masks and / or the I4p images (and possibly segmentation zones associated with one or more elementary detections of large sources, elementary zones which have been determined by the second module 4 and / or images comprising such areas) to output generalized detections of wide sources.
A cet effet, et selon un premier échelon, le deuxième blocFor this purpose, and according to a first step, the second block
12 crée une image binaire 14 qui est en réalité l'union de l'ensemble des images binaires I4p (et optionnellement des zones de segmentation calculées par le deuxième module 4 et/ou des images comprenant de telles zones). 12 creates a binary image 14 which is in reality the union of all the binary images I4p (and optionally of the segmentation zones calculated by the second module 4 and / or of the images comprising such zones).
Par exemple, l'image binaire 14 est créée de la manière suivante : For example, binary image 14 is created as follows:
- pour chaque pixel appartenant à un masque de segmentation dans une image I4p (et optionnellement à une zone de segmentation calculée par le deuxième module 12), le deuxième bloc met à 1 la valeur du pixel ayant la même position ligne-colonne dans l'image binaire 14 ; - for each pixel belonging to a segmentation mask in an I4p image (and optionally to a segmentation area calculated by the second module 12), the second block sets to 1 the value of the pixel having the same row-column position in the binary image 14;
- si plusieurs masques de segmentation (et optionnellement une zone de segmentation calculée par le deuxième module 12) incluent le même pixel, la valeur du pixel correspondant dans l'image binaire 14 est maintenue à 1 ; - sinon la valeur du pixel de l'image binaire 14 est pris égale à 0. - if several segmentation masks (and optionally a segmentation zone calculated by the second module 12) include the same pixel, the value of the corresponding pixel in the binary image 14 is maintained at 1; - otherwise the value of the pixel of binary image 14 is taken equal to 0.
Un exemple d'image binaire 14 est visible à la figure 6. Selon un deuxième échelon, le deuxième bloc 12 labélise l'image binaire 14 pour extraire des régions de segmentation dans l'image binaire 14 qui sont indépendantes entre elles et pour associer en conséquence les masques de segmentation qui se recoupent, les masques de segmentation se recoupant formant ainsi conjointement une même région de segmentation. Le deuxième bloc 12 constitue ainsi une (ou plusieurs) région (s) de segmentation regroupant (chacune) les masques de segmentation associés aux différentes détections élémentaires d'une même source large. An example of binary image 14 is visible in FIG. 6. According to a second step, second block 12 labels binary image 14 to extract segmentation regions in binary image 14 which are independent from one another and to associate in Consequently, the segmentation masks which overlap, the segmentation masks overlapping thus jointly forming the same segmentation region. The second block 12 thus constitutes one (or more) segmentation region (s) grouping (each) the segmentation masks associated with the different elementary detections of the same broad source.
Un exemple d'image binaire 14 labellisée est visible à la figure 7. An example of labeled binary image 14 is visible in Figure 7.
On retient que chaque région de segmentation est définie de sorte à englober : We retain that each segmentation region is defined so as to include:
- soit un unique masque de segmentation, - either a single segmentation mask,
- soit plusieurs masques de segmentation qui se recoupent entre eux. - or several segmentation masks which overlap with each other.
De préférence, la région de segmentation suit les contours de la (ou des) masque(s) de segmentation associé(s) et présente une superficie supérieure mais la plus proche possible dudit masque (ou du recoupement desdits masques). Par ailleurs, on peut ainsi définir une détection généralisée de la source large associée à chaque région de segmentation. Cette définition se fait ici au cours d'un troisième échelon. Optionnellement , le deuxième bloc 12 considère que la position de ladite détection générale est le barycentre de l'ensemble des pixels constituant la région de segmentation associée, pondérés par leur niveau de gris. Le deuxième bloc peut à cet effet employer la formule suivante :
Figure imgf000015_0001
avec
Preferably, the segmentation region follows the contours of the associated segmentation mask (s) and has an area greater than but as close as possible to said mask (or to the overlap of said masks). Furthermore, it is thus possible to define a generalized detection of the broad source associated with each segmentation region. This definition is made here during a third level. Optionally, the second block 12 considers that the position of said general detection is the barycenter of all the pixels constituting the associated segmentation region, weighted by their gray level. The second block can use the following formula for this:
Figure imgf000015_0001
with
X = le numéro de la colonne (ou de la ligne) considérée de la région de segmentation, i = un pixel de la région de segmentation, level = le niveau de gris du pixel considéré, et X = the number of the considered column (or row) of the segmentation region, i = a pixel of the segmentation region, level = the gray level of the pixel considered, and
Mask = l'ensemble des pixels constituant ladite région de segmentation . Mask = the set of pixels constituting said segmentation region.
Ainsi, le deuxième bloc 12 fournit à sa sortie (qui correspond également ici à celle du troisième module 5) les détections généralisées de sources larges et en particulier leurs positions. Thus, the second block 12 provides at its output (which also corresponds here to that of the third module 5) the generalized detections of large sources and in particular their positions.
Ces détections généralisées de sources larges sont ainsi définies de sorte à regrouper des détections élémentaires de sources larges associées à une même source large par le deuxième module. These generalized detections of large sources are thus defined so as to group together elementary detections of large sources associated with the same large source by the second module.
De façon avantageuse, ces détections généralisées de sources larges sont en outre plus affinées que les détections élémentaires de sources larges en ce qui concerne leurs caractéristiques morphologiques (position, contour ...) Advantageously, these generalized detections of large sources are also more refined than the elementary detections of large sources with regard to their morphological characteristics (position, contour, etc.)
En référence de nouveau à la figure 2, le dispositif de traitement d'images 1 comporte un quatrième module 6 de fusion des détections généralisées de sources larges générées par le troisième module 5 avec les détections de sources ponctuelles générées par le premier module 3. Ce quatrième module 6 est donc agencé en aval du premier module 3 et du troisième module 5. With reference again to FIG. 2, the image processing device 1 comprises a fourth module 6 for merging the generalized detections of wide sources generated by the third module 5 with the detections of point sources generated by the first module 3. This fourth module 6 is therefore arranged downstream of the first module 3 and of the third module 5.
Le quatrième module 6 fonctionne comme un module de fusion source large - source ponctuelle de l'art antérieur (à la différence que les données d'entrées du quatrième module 6 seront donc les détections généralisées de sources larges provenant du troisième module 5 et non plus les détections élémentaires de sources larges générées par le deuxième module 4) de sorte qu'il ne sera pas détaillé ici. The fourth module 6 operates as a wide source - point source merging module of the prior art (with the difference that the input data of the fourth module 6 will therefore be the generalized detections of wide sources coming from the third module 5 and no longer the elementary detections of large sources generated by the second module 4) so that it will not be detailed here.
On récupère en sortie du quatrième module 6 (qui correspond également ici à la sortie du dispositif de traitement d'images 1) les cibles qui seront ensuite traitées par le reste du système. At the output of the fourth module 6 (which also corresponds here to the output of the image processing device 1), the targets are recovered which will then be processed by the rest of the system.
On a ainsi proposé un dispositif de traitement d'images 1 comprenant deux modules 4, 5 dédiés à la détection et à la segmentation des sources larges. Le deuxième module 4 permet la détection et la segmentation des points d'intérêt sur lesquels se focaliser puis le troisième module 5 effectue une analyse locale d'histogramme cumulé autour de tous les points d'intérêts fournis par le deuxième module 4. Le troisième module 5 permet en conséquence d'adapter le seuil local de détection pour chacun des points d'intérêts et d'obtenir des masques de segmentations associés auxdits points d'intérêts (plus finement segmentés que si l'on se contentait d'avoir recours au deuxième module 4), masques qui sont ensuite fusionnés par critère de proximité, afin d'élaborer une détection unique par source large. An image processing device 1 has thus been proposed comprising two modules 4, 5 dedicated to the detection and segmentation of wide sources. The second module 4 allows the detection and the segmentation of the points of interest on which to focus then the third module 5 performs a local analysis of cumulative histogram around all the points of interest provided by the second module 4. The third module 5 consequently makes it possible to adapt the local detection threshold for each of the points of interest and to obtain segmentation masks associated with said points of interest (more finely segmented than if one were satisfied to have recourse to the second module 4), masks which are then merged by proximity criterion, in order to develop a single detection by wide source.
Plus généralement, on a ainsi proposé un dispositif de traitement d'images 1 se basant sur une segmentation des sources larges contrôlée par critères multi-statistiques locaux dans le but de leur associer une unique détection.More generally, an image processing device 1 has thus been proposed which is based on a segmentation of large sources controlled by local multi-statistical criteria with the aim of associating them with a single detection.
De façon avantageuse, le deuxième module 4 et le troisième module 5 sont relativement indépendants. Advantageously, the second module 4 and the third module 5 are relatively independent.
Ainsi le deuxième module 4 peut être relativement rustique et/ou un module déjà existant de l'art antérieur. Thus the second module 4 can be relatively rustic and / or an already existing module of the prior art.
Le recours au doublon deuxième module 4 - troisième moduleThe use of duplicate second module 4 - third module
5 évite donc avantageusement au troisième module 5 d'avoir recours à un processus complexe de segmentation autour de la source large puisque le troisième module 5 prend directement en entrée les détections élémentaires de sources larges fournies par le deuxième module 4 (qui est un module relativement rustique) qui lui indique ainsi les zones à privilégier pour la segmentation. 5 therefore advantageously avoids the third module 5 having to resort to a complex process of segmentation around the wide source since the third module 5 takes as input directly the elementary detections of wide sources supplied by the second module 4 (which is a relatively rustic) which thus indicates to him the zones to be privileged for the segmentation.
De la même façon, le premier module 3 et le quatrième moduleLikewise, the first module 3 and the fourth module
6 peuvent être des modules déjà existants de l'art antérieur. Le troisième module 5 peut ainsi aisément être implanté dans des dispositifs de traitement d'images existants de l'art antérieur. Le troisième module 5 améliore donc les performances du dispositif de traitement d'images 1 et donc du système. 6 can be already existing modules of the prior art. The third module 5 can thus easily be installed in existing image processing devices of the prior art. The third module 5 therefore improves the performance of the image processing device 1 and therefore of the system.
Le dispositif de traitement d'images 1 ainsi décrit améliore la segmentation des sources larges et leur dénombrement tout en maintenant l'exigence de taux de fausses alarmes acceptable (taux lié au deuxième module 4). De façon avantageuse le dispositif de traitement d'images 1 ainsi décrit peut même réduire ce taux de fausses alarmes grâce aux regroupements des multi-détections sur les sources (ce qui peut permettre d'écarter des détections non voulues telles que par exemple des vagues sur la mer, des bords de nuages....). The image processing device 1 thus described improves the segmentation of large sources and their counting while maintaining the requirement for an acceptable false alarm rate (rate linked to the second module 4). Advantageously, the image processing device 1 thus described can even reduce this false alarm rate thanks to the groupings of the multiple detections on the sources (which can make it possible to rule out unwanted detections such as, for example, waves on the sources. the sea, edges of clouds ....).
Bien entendu l'invention n'est pas limitée à la mise en œuvre décrite et on pourra y apporter des variantes de réalisation sans sortir du cadre de l'invention. Of course, the invention is not limited to the implementation described and it is possible to provide variant embodiments without departing from the scope of the invention.
En particulier, l'invention est applicable à de nombreuses autres applications que le domaine maritime militaire. L'invention pourra ainsi être appliquée dans le domaine civil, dans le domaine militaire, au domaine terrestre, au domaine aéronautique, au domaine aéroporté, au domaine des transports de manière générale ... In particular, the invention is applicable to many applications other than the military maritime field. The invention can thus be applied in the civil field, in the military field, in the land field, in the aeronautical field, in the airborne field, in the field of transport in general ...
On pourra également, en complément ou en remplacement, travailler dans d'autres bandes de longueurs d'ondes que l'infrarouge et par exemple dans le visible. It is also possible, in addition or as a replacement, to work in bands of wavelengths other than infrared and for example in the visible.
On pourra de la même façon avoir recours à différents types de capteurs optiques : caméra (infrarouge, visible ...) ; radar (radar à synthèse d'ouverture usuellement désigné par l'acronyme anglais SAR, radar à ouverture latérale ...) ; ...In the same way, different types of optical sensors can be used: camera (infrared, visible, etc.); radar (synthetic aperture radar usually designated by the acronym SAR, side-opening radar, etc.); ...
Le troisième module pourra être différent de ce qui a été indiqué et par exemple remplir des fonctions supplémentaires. Ainsi si une région segmentée et/ou un masque de segmentation est incohérent (par exemple en termes de morphologie) , le troisième module pourra décider d'associer à la ou aux détections élémentaires de sources larges les caractéristiques (notamment la position) fournies par le deuxième module. La détection de l'incohérence peut par exemple se baser sur l'un ou plusieurs des paramètres suivants : nombre obtenu de pixels dans la région segmentée et/ou le masque de segmentation sur nombre total de pixels, tailles maximales permises en largeur et hauteur prédéterminées dans la région segmentée et/ou le masque de segmentation, rapport largeur sur hauteur dans la région segmentée et/ou le masque de segmentation ... The third module may be different from what has been indicated and for example fulfill additional functions. Thus if a segmented region and / or a segmentation mask is inconsistent (for example in terms of morphology), the third module may decide to associate the elementary detection (s) of large sources with the characteristics (in particular the position) provided by the second module. Detection of inconsistency can for example be based on one or more of the following parameters: obtained number of pixels in the segmented region and / or the segmentation mask on the total number of pixels, maximum sizes allowed in predetermined width and height in the segmented region and / or the segmentation mask, width to height ratio in the segmented region and / or the segmentation mask ...

Claims

REVENDICATIONS
1. Méthode de génération d'au moins une détection généralisée d'une source large présente sur une image initiale comportant les étapes successives de : 1. Method for generating at least one generalized detection of a large source present on an initial image comprising the successive steps of:
- à partir d'au moins une détection élémentaire de ladite source large, générer un masque de segmentation associé à ladite détection, - from at least one elementary detection of said wide source, generating a segmentation mask associated with said detection,
- générer au moins une région de segmentation telle que chaque région de segmentation générée soit définie de sorte à englober : soit un unique masque de segmentation, soit plusieurs masques de segmentation qui se recoupent entre eux, - generate at least one segmentation region such that each segmentation region generated is defined so as to include: either a single segmentation mask, or several segmentation masks which overlap with each other,
- déterminer pour chaque région de segmentation générée une détection généralisée. - determining for each segmentation region generated a generalized detection.
2. Méthode selon la revendication 1, dans laquelle on détermine un histogramme cumulé sur une portion de l'image initiale centrée sur la position de la détection élémentaire de source large considérée. 2. Method according to claim 1, in which a cumulative histogram is determined on a portion of the initial image centered on the position of the elementary wide source detection considered.
3. Méthode selon la revendication 2, dans laquelle on détermine un seuil local de détection basé sur des niveaux de gris des pixels de ladite portion en seuillant 1'histogramme cumulé par un seuil intermédiaire de valeur prédéterminée. 3. Method according to claim 2, in which a local detection threshold is determined based on the gray levels of the pixels of said portion by thresholding the cumulative histogram by an intermediate threshold of predetermined value.
4. Méthode selon la revendication 3 dans laquelle le seuil intermédiaire a une valeur comprise entre 80 et 90%. 4. Method according to claim 3, in which the intermediate threshold has a value of between 80 and 90%.
5. Méthode selon l'une des revendications 3 à 4, dans laquelle l'image initiale est seuillée en niveaux de gris par le seuil local de détection afin d'obtenir une première image présentant une ou plusieurs segmentations associées à la détection élémentaire de source large. 5. Method according to one of claims 3 to 4, in which the initial image is thresholded in gray levels by the local detection threshold in order to obtain a first image exhibiting one or more segmentations associated with the elementary source detection. large.
6. Méthode selon la revendication 5, dans laquelle on dilate et/ou on érode la première image pour obtenir une deuxième image. 6. Method according to claim 5, in which the first image is dilated and / or eroded to obtain a second image.
7. Méthode selon la revendication 5 ou la revendication 6, dans laquelle on labélise la première image ou la deuxième image pour extraire le au moins un masque de segmentation. 7. Method according to claim 5 or claim 6, in which the first image or the second image is labeled in order to extract the at least one segmentation mask.
8. Méthode selon l'une des revendications 1 à 7 dans laquelle on crée une nouvelle image incluant le au moins un masque de segmentation et labélise ladite image pour extraire la au moins une région de segmentation. 8. Method according to one of claims 1 to 7, in which a new image is created including the at least one segmentation mask and the said image is labeled in order to extract the at least one segmentation region.
9. Méthode selon l'une des revendications 1 à 8 dans laquelle on calcule une position de la au moins une détection généralisée de la source large associée à la au moins une région de segmentation. 9. Method according to one of claims 1 to 8, in which a position of the at least one generalized detection of the wide source associated with the at least one segmentation region is calculated.
10. Méthode selon la revendication 9 dans laquelle on considère que la position de la au moins une détection généralisée de la source large est le barycentre de l'ensemble des pixels constituant la région de segmentation associée, pondérés par leur niveau de gris. 10. Method according to claim 9, in which the position of the at least one generalized detection of the wide source is considered to be the barycenter of all the pixels constituting the associated segmentation region, weighted by their gray level.
11. Dispositif de traitement d'images permettant de mettre en œuvre la méthode selon l'une des revendications 1 à 10, le dispositif comprenant un premier module (3) de détections de sources ponctuelles, un deuxième module (4) de détections élémentaires de sources larges, un troisième module (5) de fusion de détections élémentaires de sources larges générée par le deuxième module et un quatrième module (6) de fusion de détections généralisées de sources larges générées par le troisième module avec les détections de sources ponctuelles générées par le premier module. 11. Image processing device making it possible to implement the method according to one of claims 1 to 10, the device comprising a first module (3) for point source detection, a second module (4) for elementary detection of wide sources, a third module (5) for merging elementary detections of large sources generated by the second module and a fourth module (6) for merging generalized detections of large sources generated by the third module with the detections of point sources generated by the first module.
12. Système optronique comprenant un dispositif selon la revendication 11. 12. An optronic system comprising a device according to claim 11.
13. Véhicule marin comprenant un système optronique selon la revendication 12. 13. Marine vehicle comprising an optronic system according to claim 12.
PCT/EP2021/066127 2020-06-29 2021-06-15 Method for generating at least one pervasive detection of a broad source WO2022002583A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2006797 2020-06-29
FR2006797A FR3112012A1 (en) 2020-06-29 2020-06-29 Method for generating at least one generalized detection of a large source

Publications (1)

Publication Number Publication Date
WO2022002583A1 true WO2022002583A1 (en) 2022-01-06

Family

ID=73013557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/066127 WO2022002583A1 (en) 2020-06-29 2021-06-15 Method for generating at least one pervasive detection of a broad source

Country Status (2)

Country Link
FR (1) FR3112012A1 (en)
WO (1) WO2022002583A1 (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
P RAJU RATNA DANIEL ET AL: "Image Segmentation by using Histogram Thresholding", INTERNATIONAL JOURNAL OF COMPUTER SCIENCE ENGINEERING AND TECHNOLOGY, vol. 2, no. 1, 1 January 2012 (2012-01-01), pages 776 - 779, XP055371818 *
RAI RAJESH KUMAR ET AL: "International Journal of Emerging Technology and Advanced Engineering Underwater Image Segmentation using CLAHE Enhancement and Thresholding", vol. 2, no. 1, 1 January 2012 (2012-01-01), pages 118 - 123, XP055786016, Retrieved from the Internet <URL:https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.414.3930&rep=rep1&type=pdf> *
YAN BO ET AL: "An Efficient Extended Targets Detection Framework Based on Sampling and Spatio-Temporal Detection", vol. 19, no. 13, 1 July 2019 (2019-07-01), pages 2912, XP055786011, Retrieved from the Internet <URL:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6651372/pdf/sensors-19-02912.pdf> DOI: 10.3390/s19132912 *

Also Published As

Publication number Publication date
FR3112012A1 (en) 2021-12-31

Similar Documents

Publication Publication Date Title
Zhang et al. Image segmentation based on 2D Otsu method with histogram analysis
US9158985B2 (en) Method and apparatus for processing image of scene of interest
Creusot et al. Real-time small obstacle detection on highways using compressive RBM road reconstruction
EP2275971B1 (en) Method of obstacle detection for a vehicle
Wicaksono et al. Speed estimation on moving vehicle based on digital image processing
EP3200153B1 (en) Method for detecting targets on the ground and in motion, in a video stream acquired with an airborne camera
Crouzil et al. Automatic vehicle counting system for traffic monitoring
Khan et al. An intelligent monitoring system of vehicles on highway traffic
EP1792278B1 (en) Method for detecting and tracking punctual targets, in an optoelectronic surveillance system
CN111950498A (en) Lane line detection method and device based on end-to-end instance segmentation
Sonth et al. Vehicle speed determination and license plate localization from monocular video streams
WO2022002583A1 (en) Method for generating at least one pervasive detection of a broad source
Nguyen et al. Fast traffic sign detection under challenging conditions
Kim Detection of traffic signs based on eigen-color model and saliency model in driver assistance systems
FR2704668A1 (en) Apparatus for tracking road vehicles from an aerial platform
Ghahremani et al. Cascaded CNN method for far object detection in outdoor surveillance
Ha et al. Robust reflection detection and removal in rainy conditions using LAB and HSV color spaces
EP3709049B1 (en) Radar processing system and related noise reduction method
Akkala et al. Lens adhering contaminant detection using spatio-temporal blur
Mishra et al. Detection of Moving Vehicle in Foggy Environment using Google's Firebase Platform.
FR3038760A1 (en) DETECTION OF OBJECTS BY PROCESSING IMAGES
Lee et al. Close range vehicle detection and tracking by vehicle lights
EP0457414B1 (en) Object detection device in an image sequence
Barnes Improved signal to noise ratio and computational speed for gradient-based detection algorithms
Kundu et al. Speed limit sign recognition using MSER and artificial neural networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21731207

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21731207

Country of ref document: EP

Kind code of ref document: A1