FR3112012A1 - Method for generating at least one generalized detection of a large source - Google Patents

Method for generating at least one generalized detection of a large source Download PDF

Info

Publication number
FR3112012A1
FR3112012A1 FR2006797A FR2006797A FR3112012A1 FR 3112012 A1 FR3112012 A1 FR 3112012A1 FR 2006797 A FR2006797 A FR 2006797A FR 2006797 A FR2006797 A FR 2006797A FR 3112012 A1 FR3112012 A1 FR 3112012A1
Authority
FR
France
Prior art keywords
detection
module
segmentation
image
broad
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2006797A
Other languages
French (fr)
Inventor
Maltese Dominique
Dominique MALTESE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Electronics and Defense SAS
Original Assignee
Safran Electronics and Defense SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran Electronics and Defense SAS filed Critical Safran Electronics and Defense SAS
Priority to FR2006797A priority Critical patent/FR3112012A1/en
Priority to PCT/EP2021/066127 priority patent/WO2022002583A1/en
Publication of FR3112012A1 publication Critical patent/FR3112012A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Abstract

L’invention concerne une méthode de génération d’au moins une détection généralisée d’une source large présente sur une image comportant les étapes successives de : - à partir d’au moins une détection élémentaire de ladite source large, générer un masque de segmentation associé à ladite détection, - générer au moins une région de segmentation telle que chaque région de segmentation générée soit définie de sorte à englober : soit un unique masque de segmentation, soit plusieurs masques de segmentation qui se recoupent entre eux, - déterminer pour chaque région de segmentation générée une détection généralisée. FIGURE DE L’ABREGE: Fig. 2The invention relates to a method for generating at least one generalized detection of a broad source present in an image comprising the successive steps of: - from at least one elementary detection of said broad source, generating a segmentation mask associated with said detection, - generate at least one segmentation region such that each generated segmentation region is defined so as to encompass: either a single segmentation mask, or several overlapping segmentation masks, - determine for each region segmentation generated generalized detection. FIGURE OF THE ABRIDGE: Fig. 2

Description

Méthode de génération d’au moins une détection généralisée d’une source largeMethod for generating at least one generalized detection of a large source

L’invention concerne une méthode de génération d’une détection généralisée d’une source large présente sur une image initiale par traitement de ladite image ou de génération de plusieurs détections généralisées, chaque détection généralisée se rapportant à une source large distincte sur l’image initiale par traitement de ladite image.The invention relates to a method for generating a generalized detection of a broad source present on an initial image by processing said image or for generating several generalized detections, each generalized detection relating to a distinct broad source on the image initial by processing said image.

ARRIERE PLAN DE L’INVENTIONBACKGROUND OF THE INVENTION

Dans le domaine de la marine militaire il est connu d’avoir recours à des systèmes d’acquisition et de traitement d’au moins une image pour cibler des objets comme par exemple des navires de surface.In the field of the navy, it is known to have recourse to systems for acquiring and processing at least one image to target objects such as, for example, surface ships.

La illustre une architecture possible d’un système existant. Un tel système comporte différents modules : un module de détermination des détections 101, un module de fusion des détections 120 et un module de classification et/ou pistage des détections fusionnées 103.There illustrates a possible architecture of an existing system. Such a system comprises different modules: a module for determining detections 101, a module for merging detections 120 and a module for classifying and/or tracking merged detections 103.

Dans les faits, le module de détermination des détections 101 peut comprendre deux blocs :In fact, the detection determination module 101 can comprise two blocks:

  • l’un 104 pour les sources larges, encore appelée source étendue (c’est-à-dire que la source est représentée par au moins une dizaine de pixels sur l’image), etone 104 for large sources, also called extended source (i.e. the source is represented by at least ten pixels on the image), and
  • l’autre 105 pour les sources dites ponctuelles (c’est-à-dire que la source est représentée par quelques pixels au maximum sur l’image).the other 105 for so-called point sources (i.e. the source is represented by a few pixels at most in the image).

Chaque bloc 104, 105 peut mettre en œuvre un algorithme qui prend comme hypothèse que le fond de l’image est gaussien et est donc caractérisé par au moins deux paramètres que sont la « moyenne » et la « variance ». Ainsi l’algorithme peut évaluer le ou les critères suivants :Each block 104, 105 can implement an algorithm which assumes that the background of the image is Gaussian and is therefore characterized by at least two parameters which are the “average” and the “variance”. Thus the algorithm can evaluate the following criterion(s):

  • une moyenne du fond entourant un objet sur l’image (la moyenne du fond sera appelée « ImB » par la suite) i.e. le niveau moyen des pixels constituant le fond entourant un objet ;an average of the background surrounding an object in the image (the average of the background will be called “I m B” below), ie the average level of the pixels constituting the background surrounding an object;
  • une variance du bruit dudit fond (par la suite l’écart-type du fond sera noté « σB» et sa variance « σB 2»).a variance of the noise of said background (subsequently the standard deviation of the background will be denoted “σ B ” and its variance “σ B 2 ”).

Par exemple, l’algorithme détermine le niveau moyen des pixels constituant un objet (ledit niveau moyen sera appelé « ImT » par la suite). Alternativement, l’algorithme impose ImT à la valeur du pixel central de l’objet.For example, the algorithm determines the average level of the pixels constituting an object (said average level will be called “I m T” below). Alternatively, the algorithm imposes I m T on the value of the central pixel of the object.

Puis l’algorithme estime le rapport signal sur bruit (appelé par la suite « SNR ») par la formuleThen the algorithm estimates the signal to noise ratio (hereinafter called "SNR") by the formula

SNR = (ImT - ImB)/ σB SNR = (I m T - I m B)/ σ B

En cas de gestion des contrastes positifsIn case of management of positive contrasts

Ou en variante selon la formule (en cas de gestion des contrastes négatifs) :Or alternatively according to the formula (in case of management of negative contrasts):

SNR = |ImT - ImB|/ σB SNR = |I m T - I m B|/ σ B

A partir de la valeur de SNR et d’une valeur Th1 de seuil nominal, valeur prédéterminée à partir de performances de détection et/ou de tolérance de fausses alarmes :Based on the SNR value and a nominal threshold value Th1, value predetermined based on detection performance and/or false alarm tolerance:

- si SNR est inférieur à Th1 alors il n’y a pas de détection,- if SNR is less than Th1 then there is no detection,

- si SNR ≥ Th1 alors il y a détection et le bloc 104, 105 fournit en sortie la position de la détection et/ou une ou plusieurs informations caractéristiques de la détection (morphologie, entropie…).- if SNR ≥ Th1 then there is detection and the block 104, 105 outputs the position of the detection and/or one or more information characteristic of the detection (morphology, entropy, etc.).

Selon une variante, l’algorithme est basé sur une segmentation par champs de Markov : l’algorithme travaille ainsi sur l’image par itération successives pour obtenir des zones homogènes modélisables par des gaussiennes dont il analyse ensuite les contours pour en obtenir les détections.According to a variant, the algorithm is based on a segmentation by Markov fields: the algorithm thus works on the image by successive iterations to obtain homogeneous zones that can be modeled by Gaussians, the contours of which it then analyzes to obtain detections.

Quel que soit l’algorithme employé, un problème récurrent est la mauvaise analyse des sources larges. Ainsi, il arrive régulièrement que le système finisse par déduire d’une image qu’il existe plusieurs détections pour une même source large.Regardless of the algorithm used, a recurring problem is poor analysis of broad sources. Thus, it regularly happens that the system ends up deducing from an image that there are several detections for the same broad source.

Cela nuit bien entendu au bon dénombrement des sources mais perturbe également le traitement du ou des informations liées aux déductions notamment lorsque l’on souhaite pister une source particulière ce qui nuit à la performance de l’ensemble.This of course harms the proper counting of sources but also disrupts the processing of information related to deductions, especially when one wishes to track a particular source, which affects the performance of the whole.

OBJET DE L’INVENTIONOBJECT OF THE INVENTION

Un but de l’invention est de proposer une méthode limitant un risque de multi-détections d’une même source large présente sur une image.An object of the invention is to propose a method limiting a risk of multiple detections of the same broad source present on an image.

En vue de la réalisation de ce but, on propose selon l’invention une méthode de génération d’au moins une détection généralisée d’une source large présente sur une image comportant les étapes successives de :With a view to achieving this goal, according to the invention, a method is proposed for generating at least one generalized detection of a broad source present on an image comprising the successive steps of:

  • à partir d’au moins une détection élémentaire de ladite source large, générer un masque de segmentation associé à ladite détection,from at least one elementary detection of said broad source, generate a segmentation mask associated with said detection,
  • générer au moins une région de segmentation telle que chaque région de segmentation générée soit définie de sorte à englober :generate at least one segmentation region such that each generated segmentation region is defined to encompass:

soit un unique masque de segmentation,either a single segmentation mask,

soit plusieurs masques de segmentation qui se recoupent entre eux,either several segmentation masks that overlap with each other,

  • déterminer pour chaque région de segmentation générée une détection généralisée.determining for each segmentation region generated a generalized detection.

De la sorte, l’invention permet une fusion dédiée aux sources larges.In this way, the invention allows a fusion dedicated to large sources.

Lorsque l’invention est employée dans un système d’acquisition et de traitement d’au moins une image pour cibler des objets, l’invention limite ainsi un risque d’obtenir deux cibles pour une même source large.When the invention is used in a system for acquiring and processing at least one image to target objects, the invention thus limits the risk of obtaining two targets for the same broad source.

L’invention permet donc d’améliorer le dénombrement de cibles. L’invention permet également de limiter les erreurs dans le traitement ultérieur de l’image et/ou de la cible comme par exemple au niveau d’un module de pistage de ladite cible.The invention therefore makes it possible to improve the counting of targets. The invention also makes it possible to limit errors in the subsequent processing of the image and/or of the target, for example at the level of a module for tracking said target.

De manière plus générale, l’invention permet d’améliorer la détection d’une cible, la stabilité de poursuite d’une cible, la stabilité de dénombrement de cibles, la stabilité de la classification et/ou identification des cibles ...More generally, the invention makes it possible to improve the detection of a target, the tracking stability of a target, the stability of counting targets, the stability of the classification and/or identification of targets, etc.

L’invention s’avère ainsi relativement performante. En particulier un dispositif mettant en œuvre l’invention s’avère relativement performant, notamment en termes de fausses alarmes (ou Fausses Alarmes).The invention thus proves to be relatively effective. In particular, a device implementing the invention proves to be relatively efficient, in particular in terms of false alarms (or False Alarms).

De façon avantageuse, l’invention peut rapidement et aisément être implantée dans des dispositifs existants.Advantageously, the invention can quickly and easily be implemented in existing devices.

L’invention est donc peu coûteuse à implémenter.The invention is therefore inexpensive to implement.

En outre, l’invention n’alourdit pas excessivement le temps de calcul en cas d’implémentation dans un dispositif existant.Furthermore, the invention does not excessively increase the calculation time in the event of implementation in an existing device.

Pour la présente demande, on rappelle qu’une source large (ou source étendue) est une source représentée par au moins une dizaine de pixels sur une image et qui s’oppose ainsi à la notion de source ponctuelle représentée par au maximum quelques pixels sur une image.For the present application, it is recalled that a broad source (or extended source) is a source represented by at least ten pixels on an image and which thus opposes the notion of a point source represented by a maximum of a few pixels on a picture.

Optionnellement on détermine un histogramme cumulé sur une portion de l’image initiale centrée sur la position de la détection élémentaire de source large considérée.Optionally, a cumulative histogram is determined on a portion of the initial image centered on the position of the elementary detection of the wide source considered.

Optionnellement on détermine un seuil local de détection basé sur des niveaux de gris des pixels de ladite portion en seuillant l’histogramme cumulé par un seuil intermédiaire de valeur prédéterminée.Optionally, a local detection threshold is determined based on gray levels of the pixels of said portion by thresholding the accumulated histogram by an intermediate threshold of predetermined value.

Optionnellement le seuil intermédiaire a une valeur comprise entre 80 et 90%.Optionally, the intermediate threshold has a value between 80 and 90%.

Optionnellement l’image initiale est seuillée en niveaux de gris par le seuil local de détection afin d’obtenir une première image présentant une ou plusieurs segmentations associées à la détection élémentaire de source large.Optionally, the initial image is thresholded in gray levels by the local detection threshold in order to obtain a first image presenting one or more segmentations associated with the elementary broad source detection.

Optionnellement on dilate et/ou on érode la première image pour obtenir une deuxième image.Optionally, the first image is dilated and/or eroded to obtain a second image.

Optionnellement on labélise la première image ou la deuxième image pour extraire le au moins un masque de segmentation.Optionally, the first image or the second image are labeled to extract the at least one segmentation mask.

Optionnellement on crée une nouvelle image incluant le au moins un masque de segmentation et labélise ladite image pour extraire la au moins une région de segmentation.Optionally, a new image is created including the at least one segmentation mask and said image is labeled to extract the at least one segmentation region.

Optionnellement on calcule une position de la au moins une détection généralisée de la source large associée à la au moins une région de segmentation.Optionally, a position of the at least one generalized detection of the broad source associated with the at least one segmentation region is calculated.

Optionnellement on considère que la position de la au moins une détection généralisée de la source large est le barycentre de l’ensemble des pixels constituant la région de segmentation associée, pondérés par leur niveau de gris.Optionally, the position of the at least one generalized detection of the broad source is considered to be the barycenter of all the pixels constituting the associated segmentation region, weighted by their gray level.

L’invention concerne également un dispositif permettant de mettre en œuvre la méthode précitée.The invention also relates to a device making it possible to implement the aforementioned method.

L’invention concerne également un système optronique comprenant un dispositif tel que précité.The invention also relates to an optronic system comprising a device as mentioned above.

L’invention concerne également un véhicule marin comprenant un système optronique tel que précité.The invention also relates to a marine vehicle comprising an optronic system as mentioned above.

D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description qui suit d’une mise en œuvre particulière de l’invention.Other characteristics and advantages of the invention will become apparent on reading the following description of a particular implementation of the invention.

La figure a déjà été décrite en relation avec l’art antérieur de l’invention. The figure has already been described in relation to the prior art of the invention.

Par ailleurs, l’invention sera mieux comprise à la lumière de la description qui suit en référence aux figures annexées parmi lesquelles :Furthermore, the invention will be better understood in the light of the following description with reference to the appended figures, including:

la illustre schématiquement en partie un système permettant une mise en œuvre particulière de l’invention, ledit système comprenant un dispositif de traitement d’images ; there schematically illustrates in part a system allowing a particular implementation of the invention, said system comprising an image processing device;

la est une représentation schématique d’un premier bloc d’un troisième module du dispositif de traitement d’images illustré à la ; there is a schematic representation of a first block of a third module of the image processing device illustrated in ;

la est une représentation schématique d’une image traitée lors d’un premier échelon par le premier bloc illustré à la ; there is a schematic representation of an image processed during a first step by the first block illustrated in ;

la est une représentation schématique d’un deuxième bloc du troisième module du dispositif de traitement d’images illustré à la ; there is a schematic representation of a second block of the third module of the image processing device illustrated in ;

la est une représentation schématique d’une image binaire générée par le deuxième bloc représenté à la ; there is a schematic representation of a binary image generated by the second block shown in ;

la est une représentation schématique d’une autre image binaire générée par le deuxième bloc représenté à la . there is a schematic representation of another binary image generated by the second block shown in .

DESCRIPTION DETAILLEE DE L’INVENTIONDETAILED DESCRIPTION OF THE INVENTION

En référence, à la , un système permettant une mise en œuvre particulière de l’invention va être à présent décrit. Un tel système est par exemple un système optronique. On rappelle qu’un système optronique s’appuie à la fois sur de l’optique et de l’électronique pour remplir sa ou ses fonctions.With reference to the , a system allowing a particular implementation of the invention will now be described. Such a system is for example an optronic system. It is recalled that an optronic system relies on both optics and electronics to fulfill its function(s).

Dans le cas présent, le système optronique comporte au moins un élément de prise d’images (type capteur optique) ainsi qu’un dispositif de traitement desdites images 1 afin de permettre la détection de cibles. De préférence, le système comprend également un ou plusieurs modules agencés en aval du dispositif de traitement d’images 1 comme par exemple un module de classification et/ou identification desdites cibles, un module de poursuite desdites cibles, une conduite de tir électro-optique … Par exemple, le système comprend un module de classification des cibles 2.In the present case, the optronic system comprises at least one image pickup element (optical sensor type) as well as a device for processing said images 1 in order to allow the detection of targets. Preferably, the system also comprises one or more modules arranged downstream of the image processing device 1 such as for example a module for classifying and/or identifying said targets, a tracking module for said targets, an electro-optical firing control …For example, the system includes a target classification module 2.

Optionnellement, les images acquises par l’élément de prise d’images sont des images infrarouges.Optionally, the images acquired by the image pickup element are infrared images.

En outre, les images acquises par l’élément de prise d’images présentent un fond monomode. En variante, les images acquises par l’élément de prise d’images présentent un fond multimodal (i.e. texturé).In addition, the images acquired by the imaging element have a monomode background. As a variant, the images acquired by the image pickup element have a multimodal (i.e. textured) background.

Dans le cas présent, le système est agencé sur un véhicule marin (tel qu’un navire de surface ou encore un sous-marin).In the present case, the system is arranged on a marine vehicle (such as a surface ship or even a submarine).

Le système est par exemple un système optronique de veille marine.The system is for example an optronic marine watch system.

Le dispositif de traitement d’images 1 est par exemple un calculateur, un contrôleur, un ordinateur … incorporant différents modules qui vont être décrits par la suite. Chaque module peut par exemple être mis en œuvre par un circuit logique reprogrammable (tel qu’un circuit FPGA) implanté dans le dispositif de traitement d’images 1.The image processing device 1 is for example a calculator, a controller, a computer, etc. incorporating various modules which will be described later. Each module can for example be implemented by a reprogrammable logic circuit (such as an FPGA circuit) implanted in the image processing device 1.

Le dispositif de traitement d’images 1 comporte un premier module 3 de détections de sources ponctuelles et un deuxième module 4 de détections élémentaires de sources larges. Lesdites sources sont dans le cas présent des objets de surfaces tels que des navires de surface et/ou bien des aéronefs.The image processing device 1 comprises a first module 3 for point source detections and a second module 4 for elementary detections of broad sources. Said sources are in the present case surface objects such as surface ships and/or even aircraft.

De façon connue en soi, la fonction du premier module 3 est de segmenter chaque image afin d’obtenir des détections des sources ponctuelles et la fonction du deuxième module 4 est de segmenter chaque image afin d’obtenir des détections élémentaires des sources larges. Par exemple chaque module 3, 4 détecte sur chaque image les points d’intérêts par évaluation du SNR comme décrit dans la partie « Arrière-plan technologique de l’invention ». Ces points d’intérêts correspondent à des points « contrastés » ou encore des points « de saillance » soit des points « chauds » si le traitement des images se base sur un contraste positif ou des points « froids » si le traitement des images se base sur un contraste négatif.In a manner known per se, the function of the first module 3 is to segment each image in order to obtain detections of point sources and the function of the second module 4 is to segment each image in order to obtain elementary detections of large sources. For example each module 3, 4 detects on each image the points of interest by evaluation of the SNR as described in the part “Technological background of the invention”. These points of interest correspond to "contrasted" points or even "salience" points, i.e. "hot" points if the image processing is based on positive contrast or "cold" points if the image processing is based on a negative contrast.

Le premier module 3 et le deuxième module 4 sont bien connus de l’art antérieur et ne seront pas davantage détaillés ici.The first module 3 and the second module 4 are well known from the prior art and will not be further detailed here.

On retient qu’en entrée du premier module 3 et du deuxième module 4 on a une image initiale acquise par le capteur optique et en sortie du premier module 3 on récupère des détections de sources ponctuelles et en sortie du deuxième module 4 des détections élémentaires de sources larges.It is noted that at the input of the first module 3 and of the second module 4 there is an initial image acquired by the optical sensor and at the output of the first module 3 detections of point sources are recovered and at the output of the second module 4 elementary detections of broad sources.

Le dispositif de traitement d’images 1 comporte un troisième module 5 de fusion des détections élémentaires de sources larges. Ce troisième module 5 est donc agencé en aval du deuxième module 4 de manière à avoir en entrée les détections élémentaires de sources larges déterminées par le troisième module 4.The image processing device 1 comprises a third module 5 for merging the elementary detections of large sources. This third module 5 is therefore arranged downstream of the second module 4 so as to have as input the elementary detections of wide sources determined by the third module 4.

En référence à la , le troisième module 5 comprend un premier bloc 11 calculant à partir desdites détections élémentaires de sources larges, des masques de segmentation associés à chacune desdites détections.With reference to the , the third module 5 comprises a first block 11 calculating from said elementary detections of wide sources, segmentation masks associated with each of said detections.

De préférence, le premier bloc 11 ne conserve des informations transmises par le deuxième module 4 que la position des détections de sources larges (positions exprimées en ligne-colonne).Preferably, the first block 11 retains information transmitted by the second module 4 only the position of the detections of large sources (positions expressed in line-column).

Optionnellement le premier bloc 11 réalise la boucle suivante.Optionally the first block 11 carries out the following loop.

Début de la boucle.Beginning of the loop.

Pour chacune des détectionsFor each of the detections élémentaireelementary s de source large fournie par le deuxième modules of wide source provided by the second module 44 , les différents, the different échelonsrungs suivants sont mis en œuvre.following are implemented.

Selon un premier stade d’un premier échelon, le premier bloc 11 détermine un histogramme cumulé sur une portion de l’image initiale centrée sur la position de la détection élémentaire de source large considérée. Cette portion de l’image initiale est de forme et de dimensions prédéterminées identiques à toutes les détections élémentaires de sources larges. Par exemple la portion de l’image est un rectangle. La représente une telle portion d’image. Quant à l’histogramme cumulé, il est une représentation locale de la répartition des niveaux de gris (encore appelés « intensités ») des pixels autour de la position de détection élémentaire de source large considérée. Un histogramme cumulé associé à une détection élémentaire de source large considérée peut donc être totalement différent de celui évalué pour une autre détection de source large pourtant appartenant à la même source large.According to a first stage of a first level, the first block 11 determines a cumulative histogram on a portion of the initial image centered on the position of the elementary detection of wide source considered. This portion of the initial image is of predetermined shape and dimensions identical to all the elementary detections of wide sources. For example the portion of the image is a rectangle. There represents such a portion of an image. As for the cumulative histogram, it is a local representation of the distribution of the levels of gray (also called “intensities”) of the pixels around the position of elementary detection of wide source considered. A cumulative histogram associated with an elementary detection of broad source considered can therefore be totally different from that evaluated for another detection of broad source yet belonging to the same broad source.

On effectue ainsi au cours du premier stade une aThus, during the first stage, a nalyse locale des niveaux de gris autour de chaque détectionlocal analysis of gray levels around each detection élémentaireelementary de source large considéréewidely considered source extraite detaken from l’image initialethe initial image ..

Puis, lors d’un deuxième stade du premier échelon, le premier bloc 11 détermine un seuil local de détection Thp basé sur les niveaux de gris des pixels de la portion de l’image en seuillant l’histogramme cumulé par un seuil intermédiaire en pourcentage Th_% de valeur prédéterminée.Then, during a second stage of the first level, the first block 11 determines a local detection threshold Thp based on the gray levels of the pixels of the portion of the image by thresholding the cumulative histogram by an intermediate threshold in percentage Th_% of predetermined value.

Optionnellement, on choisit Th_% a une valeur comprise entre 80 et 90%. Par exemple on choisit Th_% à 85%. Ceci signifie que l’on cherche à ne conserver que 15% des pixels présents dans la portion de l’image, indépendamment de leurs positions dans ladite portion.Pour chaque portion de l’image initiale associée à une détection élémentaire de source large , le seuil local de détection Thp pend de Th_% et de l’histogramme cumulé : ledit seuil local de détection Thp va donc dépendre directement du voisinage local de la détection élémentaire de source large associé e et va être différent d’une portion à une autre . Optionally, we choose Th_% has a value between 80 and 90%. For example, Th_% is chosen at 85%. This means that it is sought to retain only 15% of the pixels present in the portion of the image, independently of their positions in said portion. For each portion of the initial image associated with a broad source elementary detection , the local detection threshold Thp depends on Th_% and the cumulative histogram : said local detection threshold Thp will therefore depend directly on the local neighborhood of the Elementary wide source detection associated e and will be different from one portion to another .

Lors d’un deuxième échelon, l’image initiale est à son tour seuillée en niveaux de gris (alors qu’au niveau du premier module 3 et du deuxième module 4 l’image initiale était seuillée en SNR) par le seuil local de détection Thp.During a second step, the initial image is in turn thresholded in gray levels (whereas at the level of the first module 3 and of the second module 4 the initial image was thresholded in SNR) by the local detection threshold thp.

On obtient ainsi une image binaire I2p présentant une ou plusieurs segmentations associées à la détection élémentaire de source large.A binary image I2p is thus obtained presenting one or more segmentations associated with the elementary broad source detection.

On note que le seuil en niveau local de détectionWe note that the threshold at the local level of detection ThpThp est propre à chaque détection élémentaire de source large de sorteis specific to each broad source elementary detection so quethat les différentes images binaires I2p associée chacune à l’une des détections élémentaires de sources larges sont différentes les uns des autres.the different I2p binary images each associated with one of the elementary detections of large sources are different from each other.

On effectue ainsi une segmentation locale autour de chacune des détectionsA local segmentation is thus performed around each of the detections élémentaires de sources largeselements from broad sources après analyse de la répartition des niveaux de grisafter analysis of the distribution of gray levels autour desdites détectionsaround said detections élémentaires de sources largwide source elements es. Lare. I a segmentation effectuée dans le troisième modulea segmentation performed in the third module 55 est donc plus fine que dans le deuxième moduleis therefore finer than in the second module 44 grâce notamment authanks in particular to recours à l’histogramme cumulé.use of the cumulative histogram.

Optionnellement, le premier bloc 11 dilate et/ou érode l’image binaire I2p pour :Optionally, the first block 11 expands and/or erodes the binary image I2p for:

  • supprimer des segmentations isolées, par exemple si lesdites segmentations sont trop petites et/ou incohérentes au vu des autres segmentations ; et/oudelete isolated segmentations, for example if said segmentations are too small and/or inconsistent in view of the other segmentations; and or
  • regrouper des segmentations proches entre elles.group close segmentations together.

A cet effet, le premier bloc s’appuie sur des critères prédéterminés pour définir une « petite » segmentation, une segmentation « incohérente », une segmentation « isolée », des segmentations « proches » … Par exemple pour les segmentations « proches », le premier bloc peut s’appuyer sur un critère de proximité exprimé en distance ligne-colonne.To this end, the first block is based on predetermined criteria to define a "small" segmentation, an "incoherent" segmentation, an "isolated" segmentation, "close" segmentations... For example for "close" segmentations, the first block can be based on a proximity criterion expressed in row-column distance.

On obtient ainsi une image binaire I3p présentant une segmentation principale (et de préférence qui est la seule segmentation de ladite image binaire I3p) associée à la détection élémentaire de source large.A binary image I3p is thus obtained having a main segmentation (and preferably which is the only segmentation of said binary image I3p) associated with the elementary broad source detection.

Ladite segmentation principale inclut préférentiellement la détection élémentaire de source large. En outre ladite segmentation principale est choisie de sorte à être la segmentation la plus importante en termes de superficie qui inclut la détection élémentaire de source large.Said main segmentation preferably includes the broad source elementary detection. Furthermore, said main segmentation is chosen so as to be the most important segmentation in terms of area which includes the broad source elementary detection.

De préférence, le premier bloc 11 labélise l’image binaire I3p pour extraire une zone dans l’image binaire I3p associée à la détection élémentaire de source large. De préférence, ladite zone est définie de manière à contenir la segmentation principale sans inclure d’autres segmentations de l’image binaire I3p. Ladite zone est également appelée « masque de segmentation » par la suite.Preferably, the first block 11 labels the binary image I3p to extract a zone in the binary image I3p associated with the elementary wide source detection. Preferably, said zone is defined so as to contain the main segmentation without including other segmentations of the I3p binary image. Said zone is also called “segmentation mask” below.

De préférence, le masque de segmentation suit les contours de la segmentation principale et présente une superficie supérieure mais la plus proche possible de ladite segmentation principale.Preferably, the segmentation mask follows the contours of the main segmentation and has a larger area but as close as possible to said main segmentation.

Le masque de segmentation est donc avantageusement d’une superficie plus importante que la détection élémentaire de source large tout en étant associé à ladite source large. On assure ainsi une meilleure segmentation avec le troisième module 5 qu’à l’issue du deuxième module 4.The segmentation mask therefore advantageously has a larger area than the broad source elementary detection while being associated with said broad source. This ensures better segmentation with the third module 5 than at the end of the second module 4.

Une image (de même dimensions que l’image initiale) comprenant ledit masque de segmentation peut ainsi être générée. Une telle image est notée image binaire I4p.An image (of the same dimensions as the initial image) comprising said segmentation mask can thus be generated. Such an image is denoted binary image I4p.

Les autres zones de l’image binaire I3p sont ainsi considérées comme étant inintéressantes ce qui est logique puisque le seuil de détection local Thp n’a pas de sens pour ces autres zones, le seuil de détection local Thp ayant étant évalué localement autour de la détection élémentaire de la source large.The other zones of the binary image I3p are thus considered as being uninteresting, which is logical since the local detection threshold Thp has no meaning for these other zones, the local detection threshold Thp having been evaluated locally around the elementary detection of the wide source.

Fin de la boucleEnd of the loop

La sortie du premier bloc 11 fournit ainsi un masque de segmentation pour chaque détection élémentaire de source large transmise en entrée du premier bloc 11.The output of the first block 11 thus provides a segmentation mask for each elementary wide source detection transmitted at the input of the first block 11.

De préférence, si le premier bloc 11 ne peut déterminer un masque de segmentation pour au moins l’une des détections élémentaires de sources larges, le premier bloc 11 fournit en sortie une zone de segmentation associée à ladite détection élémentaire de source large qui a été déterminée par le deuxième module 4. De la sorte, on ne perd pas de détection élémentaire de source large à travers le premier bloc 11.Preferably, if the first block 11 cannot determine a segmentation mask for at least one of the elementary broad source detections, the first block 11 outputs a segmentation zone associated with said elementary broad source detection which has been determined by the second module 4. In this way, elementary wide source detection is not lost through the first block 11.

Optionnellement, si la segmentation principale n’inclut pas la détection élémentaire de source large (par exemple à cause de l’érosion et/ou de la dilatation), on recherche une segmentation annexe dans le voisinage de ladite détection élémentaire de source large, segmentation qui inclurait ladite détection. Le voisinage est par exemple une zone de 3 pixels par 3 pixels centrée sur la détection élémentaire de source large (ou un pixel central de ladite détection élémentaire de source large). Le masque de segmentation correspondant sera alors défini vis-à-vis de cette segmentation annexe (et non de la segmentation principale). Si aucune segmentation annexe ne peut être déterminée alors, comme indiqué ci-dessus, on considère que le premier bloc 11 ne peut déterminer un masque de segmentation pour cette détection élémentaire de source large et le premier bloc 11 fournit en sortie une zone de segmentation associée à ladite détection élémentaire de source large qui a été déterminée par le deuxième module 4. Le troisième module 5 comprend également un deuxième bloc 12 agencé en aval du premier bloc 11 et recevant de celui-ci les masques de segmentation et/ou les images I4p (et éventuellement des zones de segmentation associées à une ou plusieurs détections élémentaires de sources larges, zones élémentaires qui ont été déterminées par le deuxième module 4 et/ou des images comprenant de telles zones) pour fournir en sortie des détections généralisées de sources larges.Optionally, if the main segmentation does not include the elementary broad source detection (for example because of erosion and/or dilation), an additional segmentation is sought in the vicinity of said elementary broad source detection, segmentation which would include said detection. The neighborhood is for example a zone of 3 pixels by 3 pixels centered on the elementary broad source detection (or a central pixel of said elementary broad source detection). The corresponding segmentation mask will then be defined vis-à-vis this additional segmentation (and not the main segmentation). If no annex segmentation can be determined then, as indicated above, it is considered that the first block 11 cannot determine a segmentation mask for this elementary detection of wide source and the first block 11 outputs an associated segmentation zone to said elementary broad source detection which has been determined by the second module 4. The third module 5 also comprises a second block 12 arranged downstream of the first block 11 and receiving from the latter the segmentation masks and/or the I4p images (and possibly segmentation zones associated with one or more elementary detections of broad sources, elementary zones which have been determined by the second module 4 and/or images comprising such zones) to provide generalized detections of broad sources as output.

A cet effet, et selon un premier échelon, le deuxième bloc 12 crée une image binaire I4 qui est en réalité l’union de l’ensemble des images binaires I4p (et optionnellement des zones de segmentation calculées par le deuxième module 4 et/ou des images comprenant de telles zones).To this end, and according to a first level, the second block 12 creates a binary image I4 which is in reality the union of all the binary images I4p (and optionally of the segmentation zones calculated by the second module 4 and/or images including such areas).

Par exemple, l’image binaire I4 est créée de la manière suivante :For example, the binary image I4 is created as follows:

  • pour chaque pixel appartenant à un masque de segmentation dans une image I4p (et optionnellement à une zone de segmentation calculée par le deuxième module 12), le deuxième bloc met à 1 la valeur du pixel ayant la même position ligne-colonne dans l’image binaire I4 ;for each pixel belonging to a segmentation mask in an I4p image (and optionally to a segmentation zone calculated by the second module 12), the second block sets to 1 the value of the pixel having the same row-column position in the image binary I4;
  • si plusieurs masques de segmentation (et optionnellement une zone de segmentation calculée par le deuxième module 12) incluent le même pixel, la valeur du pixel correspondant dans l’image binaire I4 est maintenue à 1 ;if several segmentation masks (and optionally a segmentation zone calculated by the second module 12) include the same pixel, the value of the corresponding pixel in the binary image I4 is maintained at 1;
  • sinon la valeur du pixel de l’image binaire I4 est pris égale à 0.otherwise the value of the pixel of the binary image I4 is taken equal to 0.

Un exemple d’image binaire I4 est visible à la .An example of an I4 binary image is visible at .

Selon un deuxième échelon, le deuxième bloc 12 labélise l’image binaire I4 pour extraire des régions de segmentation dans l’image binaire I4 qui sont indépendantes entre elles et pour associer en conséquence les masques de segmentation qui se recoupent, les masques de segmentation se recoupant formant ainsi conjointement une même région de segmentation.According to a second step, the second block 12 labels the binary image I4 to extract segmentation regions in the binary image I4 which are independent of each other and to consequently associate the segmentation masks which overlap, the segmentation masks overlapping thus jointly forming the same region of segmentation.

Le deuxième bloc 12 constitue ainsi une (ou plusieurs) région(s) de segmentation regroupant (chacune) les masques de segmentation associés aux différentes détections élémentaires d’une même source large.The second block 12 thus constitutes one (or more) segmentation region(s) grouping together (each) the segmentation masks associated with the various elementary detections of the same broad source.

Un exemple d’image binaire I4 labellisée est visible à la .An example of a labeled I4 binary image is visible at .

On retient que chaque région de segmentation est définie de sorte à englober :We note that each segmentation region is defined in such a way as to encompass:

  • soit un unique masque de segmentation,either a single segmentation mask,
  • soit plusieurs masques de segmentation qui se recoupent entre eux.or several segmentation masks which overlap with one another.

De préférence, la région de segmentation suit les contours de la (ou des) masque(s) de segmentation associé(s) et présente une superficie supérieure mais la plus proche possible dudit masque (ou du recoupement desdits masques).Preferably, the segmentation region follows the contours of the associated segmentation mask(s) and has a larger area but as close as possible to said mask (or to the overlapping of said masks).

Par ailleurs, on peut ainsi définir une détection généralisée de la source large associée à chaque région de segmentation.Moreover, it is thus possible to define a generalized detection of the broad source associated with each segmentation region.

Cette définition se fait ici au cours d’un troisième échelon.This definition is made here during a third level.

Optionnellement, le deuxième bloc 12 considère que la position de ladite détection générale est le barycentre de l’ensemble des pixels constituant la région de segmentation associée, pondérés par leur niveau de gris. Le deuxième bloc peut à cet effet employer la formule suivante :Optionally, the second block 12 considers that the position of said general detection is the barycenter of all the pixels constituting the associated segmentation region, weighted by their gray level. The second block can use the following formula for this purpose:

avecwith

X = le numéro de la colonne (ou de la ligne) considérée de la région de segmentation,X = the number of the column (or row) considered in the segmentation region,

i = un pixel de la région de segmentation,i = a pixel of the segmentation region,

level = le niveau de gris du pixel considéré, etlevel = the gray level of the considered pixel, and

Mask = l’ensemble des pixels constituant ladite région de segmentation.Mask = the set of pixels constituting said segmentation region.

Ainsi, le deuxième bloc 12 fournit à sa sortie (qui correspond également ici à celle du troisième module 5) les détections généralisées de sources larges et en particulier leurs positions.Thus, the second block 12 provides at its output (which here also corresponds to that of the third module 5) the generalized detections of wide sources and in particular their positions.

Ces détections généralisées de sources larges sont ainsi définies de sorte à regrouper des détections élémentaires de sources larges associées à une même source large par le deuxième module.These generalized detections of broad sources are thus defined so as to group elementary detections of broad sources associated with the same broad source by the second module.

De façon avantageuse, ces détections généralisées de sources larges sont en outre plus affinées que les détections élémentaires de sources larges en ce qui concerne leurs caractéristiques morphologiques (position, contour …)Advantageously, these generalized detections of large sources are moreover more refined than the elementary detections of large sources with regard to their morphological characteristics (position, contour, etc.)

En référence de nouveau à la , le dispositif de traitement d’images 1 comporte un quatrième module 6 de fusion des détections généralisées de sources larges générées par le troisième module 5 avec les détections de sources ponctuelles générées par le premier module 3. Ce quatrième module 6 est donc agencé en aval du premier module 3 et du troisième module 5.With reference again to the , the image processing device 1 comprises a fourth module 6 for merging the generalized detections of large sources generated by the third module 5 with the detections of point sources generated by the first module 3. This fourth module 6 is therefore arranged downstream of the first module 3 and the third module 5.

Le quatrième module 6 fonctionne comme un module de fusion source large – source ponctuelle de l’art antérieur (à la différence que les données d’entrées du quatrième module 6 seront donc les détections généralisées de sources larges provenant du troisième module 5 et non plus les détections élémentaires de sources larges générées par le deuxième module 4) de sorte qu’il ne sera pas détaillé ici.The fourth module 6 operates like a prior art broad source-point source fusion module (with the difference that the input data of the fourth module 6 will therefore be the generalized detections of broad sources coming from the third module 5 and no longer the elementary detections of broad sources generated by the second module 4) so that it will not be detailed here.

On récupère en sortie du quatrième module 6 (qui correspond également ici à la sortie du dispositif de traitement d’images 1) les cibles qui seront ensuite traitées par le reste du système.At the output of the fourth module 6 (which here also corresponds to the output of the image processing device 1), the targets are recovered which will then be processed by the rest of the system.

On a ainsi proposé un dispositif de traitement d’images 1 comprenant deux modules 4, 5 dédiés à la détection et à la segmentation des sources larges. Le deuxième module 4 permet la détection et la segmentation des points d’intérêt sur lesquels se focaliser puis le troisième module 5 effectue une analyse locale d’histogramme cumulé autour de tous les points d’intérêts fournis par le deuxième module 4. Le troisième module 5 permet en conséquence d’adapter le seuil local de détection pour chacun des points d’intérêts et d’obtenir des masques de segmentations associés auxdits points d’intérêts (plus finement segmentés que si l’on se contentait d’avoir recours au deuxième module 4), masques qui sont ensuite fusionnés par critère de proximité, afin d’élaborer une détection unique par source large.An image processing device 1 comprising two modules 4, 5 dedicated to the detection and segmentation of large sources has thus been proposed. The second module 4 allows the detection and segmentation of the points of interest on which to focus then the third module 5 performs a local analysis of the cumulative histogram around all the points of interest provided by the second module 4. The third module 5 therefore makes it possible to adapt the local detection threshold for each of the points of interest and to obtain segmentation masks associated with said points of interest (more finely segmented than if one were content to use the second module 4), masks which are then merged by proximity criterion, in order to develop a single detection by wide source.

Plus généralement, on a ainsi proposé un dispositif de traitement d’images 1 se basant sur une segmentation des sources larges contrôlée par critères multi-statistiques locaux dans le but de leur associer une unique détection.More generally, an image processing device 1 has been proposed based on a segmentation of large sources controlled by local multi-statistical criteria with the aim of associating them with a single detection.

De façon avantageuse, le deuxième module 4 et le troisième module 5 sont relativement indépendants.Advantageously, the second module 4 and the third module 5 are relatively independent.

Ainsi le deuxième module 4 peut être relativement rustique et/ou un module déjà existant de l’art antérieur.Thus the second module 4 can be relatively rustic and/or an already existing module of the prior art.

Le recours au doublon deuxième module 4 - troisième module 5 évite donc avantageusement au troisième module 5 d’avoir recours à un processus complexe de segmentation autour de la source large puisque le troisième module 5 prend directement en entrée les détections élémentaires de sources larges fournies par le deuxième module 4 (qui est un module relativement rustique) qui lui indique ainsi les zones à privilégier pour la segmentation.The use of the second module 4 - third module 5 duplicate therefore advantageously avoids the third module 5 having to resort to a complex process of segmentation around the broad source since the third module 5 takes directly as input the elementary detections of broad sources provided by the second module 4 (which is a relatively rustic module) which thus indicates to it the zones to be favored for the segmentation.

De la même façon, le premier module 3 et le quatrième module 6 peuvent être des modules déjà existants de l’art antérieur.Similarly, the first module 3 and the fourth module 6 can be already existing modules of the prior art.

Le troisième module 5 peut ainsi aisément être implanté dans des dispositifs de traitement d’images existants de l’art antérieur.The third module 5 can thus easily be installed in existing image processing devices of the prior art.

Le troisième module 5 améliore donc les performances du dispositif de traitement d’images 1 et donc du système.The third module 5 therefore improves the performance of the image processing device 1 and therefore of the system.

Le dispositif de traitement d’images 1 ainsi décrit améliore la segmentation des sources larges et leur dénombrement tout en maintenant l’exigence de taux de fausses alarmes acceptable (taux lié au deuxième module 4). De façon avantageuse le dispositif de traitement d’images 1 ainsi décrit peut même réduire ce taux de fausses alarmes grâce aux regroupements des multi-détections sur les sources (ce qui peut permettre d’écarter des détections non voulues telles que par exemple des vagues sur la mer, des bords de nuages….).The image processing device 1 thus described improves the segmentation of large sources and their counting while maintaining the requirement for an acceptable false alarm rate (rate linked to the second module 4). Advantageously, the image processing device 1 thus described can even reduce this rate of false alarms thanks to the groupings of the multi-detections on the sources (which can make it possible to rule out unwanted detections such as for example waves on the sea, edges of clouds….).

Bien entendu l'invention n'est pas limitée à la mise en œuvre décrite et on pourra y apporter des variantes de réalisation sans sortir du cadre de l'invention.Of course, the invention is not limited to the implementation described and variant embodiments may be added thereto without departing from the scope of the invention.

En particulier, l’invention est applicable à de nombreuses autres applications que le domaine maritime militaire. L’invention pourra ainsi être appliquée dans le domaine civil, dans le domaine militaire, au domaine terrestre, au domaine aéronautique, au domaine aéroporté, au domaine des transports de manière générale …In particular, the invention is applicable to many other applications than the military maritime field. The invention can thus be applied in the civil field, in the military field, in the land field, in the aeronautical field, in the airborne field, in the field of transport in general, etc.

On pourra également, en complément ou en remplacement, travailler dans d’autres bandes de longueurs d’ondes que l’infrarouge et par exemple dans le visible.It is also possible, in addition or as a replacement, to work in other wavelength bands than infrared and for example in the visible.

On pourra de la même façon avoir recours à différents types de capteurs optiques : caméra (infrarouge, visible …) ; radar (radar à synthèse d’ouverture usuellement désigné par l’acronyme anglais SAR, radar à ouverture latérale …) ; …In the same way, we can use different types of optical sensors: camera (infrared, visible, etc.); radar (synthetic aperture radar usually designated by the English acronym SAR, side aperture radar, etc.); …

Le troisième module pourra être différent de ce qui a été indiqué et par exemple remplir des fonctions supplémentaires. Ainsi si une région segmentée et/ou un masque de segmentation est incohérent (par exemple en termes de morphologie), le troisième module pourra décider d’associer à la ou aux détections élémentaires de sources larges les caractéristiques (notamment la position) fournies par le deuxième module. La détection de l’incohérence peut par exemple se baser sur l’un ou plusieurs des paramètres suivants : nombre obtenu de pixels dans la région segmentée et/ou le masque de segmentation sur nombre total de pixels, tailles maximales permises en largeur et hauteur prédéterminées dans la région segmentée et/ou le masque de segmentation, rapport largeur sur hauteur dans la région segmentée et/ou le masque de segmentation …The third module may be different from what has been indicated and for example fulfill additional functions. Thus if a segmented region and/or a segmentation mask is inconsistent (for example in terms of morphology), the third module may decide to associate with the elementary detection(s) of large sources the characteristics (in particular the position) provided by the second module. The detection of the inconsistency can for example be based on one or more of the following parameters: obtained number of pixels in the segmented region and/or the segmentation mask on total number of pixels, maximum sizes allowed in predetermined width and height in the segmented region and/or the segmentation mask, width to height ratio in the segmented region and/or the segmentation mask...

Claims (13)

Méthode de génération d’au moins une détection généralisée d’une source large présente sur une image initiale comportant les étapes successives de :
- à partir d’au moins une détection élémentaire de ladite source large, générer un masque de segmentation associé à ladite détection,
- générer au moins une région de segmentation telle que chaque région de segmentation générée soit définie de sorte à englober :
soit un unique masque de segmentation,
soit plusieurs masques de segmentation qui se recoupent entre eux,
- déterminer pour chaque région de segmentation générée une détection généralisée.
Method for generating at least one generalized detection of a broad source present on an initial image comprising the successive steps of:
- from at least one elementary detection of said broad source, generate a segmentation mask associated with said detection,
- generate at least one segmentation region such that each generated segmentation region is defined so as to encompass:
either a single segmentation mask,
either several segmentation masks that overlap with each other,
- determining for each segmentation region generated a generalized detection.
Méthode selon la revendication 1, dans laquelle on détermine un histogramme cumulé sur une portion de l’image initiale centrée sur la position de la détection élémentaire de source large considérée.Method according to claim 1, in which a cumulated histogram is determined on a portion of the initial image centered on the position of the elementary detection of wide source considered. Méthode selon la revendication 2, dans laquelle on détermine un seuil local de détection basé sur des niveaux de gris des pixels de ladite portion en seuillant l’histogramme cumulé par un seuil intermédiaire de valeur prédéterminée.Method according to claim 2, in which a local detection threshold is determined based on gray levels of the pixels of said portion by thresholding the accumulated histogram by an intermediate threshold of predetermined value. Méthode selon la revendication 3 dans laquelle le seuil intermédiaire a une valeur comprise entre 80 et 90%.Method according to Claim 3, in which the intermediate threshold has a value of between 80 and 90%. Méthode selon l’une des revendications 3 à 4, dans laquelle l’image initiale est seuillée en niveaux de gris par le seuil local de détection afin d’obtenir une première image présentant une ou plusieurs segmentations associées à la détection élémentaire de source large.Method according to one of Claims 3 to 4, in which the initial image is thresholded in gray levels by the local detection threshold in order to obtain a first image exhibiting one or more segmentations associated with the broad source elementary detection. Méthode selon la revendication 5, dans laquelle on dilate et/ou on érode la première image pour obtenir une deuxième image.Method according to claim 5, in which the first image is expanded and/or eroded to obtain a second image. Méthode selon la revendication 5 ou la revendication 6, dans laquelle on labélise la première image ou la deuxième image pour extraire le au moins un masque de segmentation.Method according to Claim 5 or Claim 6, in which the first image or the second image is labeled in order to extract the at least one segmentation mask. Méthode selon l’une des revendications 1 à 7 dans laquelle on crée une nouvelle image incluant le au moins un masque de segmentation et labélise ladite image pour extraire la au moins une région de segmentation.Method according to one of Claims 1 to 7, in which a new image is created including the at least one segmentation mask and the said image is labeled in order to extract the at least one segmentation region. Méthode selon l’une des revendications 1 à 8 dans laquelle on calcule une position de la au moins une détection généralisée de la source large associée à la au moins une région de segmentation.Method according to one of Claims 1 to 8, in which a position of the at least one generalized detection of the broad source associated with the at least one segmentation region is calculated. Méthode selon la revendication 9 dans laquelle on considère que la position de la au moins une détection généralisée de la source large est le barycentre de l’ensemble des pixels constituant la région de segmentation associée, pondérés par leur niveau de gris.Method according to claim 9, in which it is considered that the position of the at least one generalized detection of the broad source is the barycenter of all the pixels constituting the associated segmentation region, weighted by their gray level. Dispositif de traitement d’images permettant de mettre en œuvre la méthode selon l’une des revendications 1 à 10, le dispositif comprenant un premier module (3) de détections de sources ponctuelles, un deuxième module (4) de détections élémentaires de sources larges, un troisième module (5) de fusion de détections élémentaires de sources larges générée par le deuxième module et un quatrième module (6) de fusion de détections généralisées de sources larges générées par le troisième module avec les détections de sources ponctuelles générées par le premier module.Image processing device making it possible to implement the method according to one of Claims 1 to 10, the device comprising a first module (3) for detecting point sources, a second module (4) for elementary detection of broad sources , a third module (5) for merging elementary detections of broad sources generated by the second module and a fourth module (6) for merging generalized detections of broad sources generated by the third module with the detections of point sources generated by the first module. Système optronique comprenant un dispositif selon la revendication 11.Optronic system comprising a device according to claim 11. Véhicule marin comprenant un système optronique selon la revendication 12.Marine vehicle comprising an optronic system according to claim 12.
FR2006797A 2020-06-29 2020-06-29 Method for generating at least one generalized detection of a large source Pending FR3112012A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2006797A FR3112012A1 (en) 2020-06-29 2020-06-29 Method for generating at least one generalized detection of a large source
PCT/EP2021/066127 WO2022002583A1 (en) 2020-06-29 2021-06-15 Method for generating at least one pervasive detection of a broad source

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2006797 2020-06-29
FR2006797A FR3112012A1 (en) 2020-06-29 2020-06-29 Method for generating at least one generalized detection of a large source

Publications (1)

Publication Number Publication Date
FR3112012A1 true FR3112012A1 (en) 2021-12-31

Family

ID=73013557

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2006797A Pending FR3112012A1 (en) 2020-06-29 2020-06-29 Method for generating at least one generalized detection of a large source

Country Status (2)

Country Link
FR (1) FR3112012A1 (en)
WO (1) WO2022002583A1 (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
P RAJU RATNA DANIEL ET AL: "Image Segmentation by using Histogram Thresholding", INTERNATIONAL JOURNAL OF COMPUTER SCIENCE ENGINEERING AND TECHNOLOGY, vol. 2, no. 1, 1 January 2012 (2012-01-01), pages 776 - 779, XP055371818 *
RAI RAJESH KUMAR ET AL: "International Journal of Emerging Technology and Advanced Engineering Underwater Image Segmentation using CLAHE Enhancement and Thresholding", vol. 2, no. 1, 1 January 2012 (2012-01-01), pages 118 - 123, XP055786016, Retrieved from the Internet <URL:https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.414.3930&rep=rep1&type=pdf> *
YAN BO ET AL: "An Efficient Extended Targets Detection Framework Based on Sampling and Spatio-Temporal Detection", SENSORS, vol. 19, no. 13, 1 July 2019 (2019-07-01), pages 2912, XP055786011, Retrieved from the Internet <URL:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6651372/pdf/sensors-19-02912.pdf> DOI: 10.3390/s19132912 *

Also Published As

Publication number Publication date
WO2022002583A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
EP2795580B1 (en) Method of estimating optical flow on the basis of an asynchronous light sensor
US9953244B2 (en) Apparatus and method for single look main lobe and sidelobe discrimination in spectral domain images
CN108090911B (en) Near-shore ship segmentation method for optical remote sensing image
Wicaksono et al. Speed estimation on moving vehicle based on digital image processing
EP3200153B1 (en) Method for detecting targets on the ground and in motion, in a video stream acquired with an airborne camera
Fayaz et al. Underwater image restoration: A state‐of‐the‐art review
EP1785966B1 (en) Evaluation process, by a motor vehicle, of the characteristics of a frontal element
EP1792278B1 (en) Method for detecting and tracking punctual targets, in an optoelectronic surveillance system
Khan et al. An intelligent monitoring system of vehicles on highway traffic
EP3387619B1 (en) Detection and monitoring of rails in a video stream
EP0769760B1 (en) Method of automatically detecting evaluation zones in images of mechanical parts
FR3112012A1 (en) Method for generating at least one generalized detection of a large source
EP3915040A1 (en) Method for determining a confidence score for a target in surroundings of a vehicle
CN111222470A (en) Visible light remote sensing image ship detection method based on multivariate Gaussian distribution and PCANet
FR2704668A1 (en) Apparatus for tracking road vehicles from an aerial platform
Ghahremani et al. Cascaded CNN method for far object detection in outdoor surveillance
EP2943935B1 (en) Estimation of the movement of an image
CN112734745B (en) Unmanned aerial vehicle thermal infrared image heating pipeline leakage detection method fusing GIS data
EP3709049B1 (en) Radar processing system and related noise reduction method
Ha et al. Robust reflection detection and removal in rainy conditions using LAB and HSV color spaces
FR3070768A1 (en) METHOD FOR AUTOMATIC CLASSIFICATION OF A TARGET VESSEL AND RADAR SYSTEM THEREOF
Gandikota et al. Pixel Noise Localization Algorithm for Indian Satellite Data Quality Control: A Novel Approach
EP0457414B1 (en) Object detection device in an image sequence
Johnson et al. A novel visualization and tracking framework for analyzing the inter/intra cloud pattern formation to study their impact on climate
Lima et al. Adaptive method for segmentation of vehicles through local threshold in the gaussian mixture model

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211231

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4