FR3127295A1 - Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture - Google Patents

Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture Download PDF

Info

Publication number
FR3127295A1
FR3127295A1 FR2109952A FR2109952A FR3127295A1 FR 3127295 A1 FR3127295 A1 FR 3127295A1 FR 2109952 A FR2109952 A FR 2109952A FR 2109952 A FR2109952 A FR 2109952A FR 3127295 A1 FR3127295 A1 FR 3127295A1
Authority
FR
France
Prior art keywords
under test
image
target
imagette
thumbnail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2109952A
Other languages
English (en)
Other versions
FR3127295B1 (fr
Inventor
Tristan Porges
Joan Broussolle
David SFEZ Thierry
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR2109952A priority Critical patent/FR3127295B1/fr
Publication of FR3127295A1 publication Critical patent/FR3127295A1/fr
Application granted granted Critical
Publication of FR3127295B1 publication Critical patent/FR3127295B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

Procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture L’invention concerne un procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour chaque image sous test fournie par le radar, les étapes suivantes : - détection (32) de cible(s) en parcourant l’image sous test ; - pour chaque cible, extraction (34) d’une imagette sous test correspondant à une partie de l’image sous test de taille inférieure à celle de l’image sous test, - pour chaque imagette sous test, à partir d’imagettes d’apprentissage représentatives de classes de cibles préalablement détectées et identifiées, identification (38) de la cible détectée, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette d’apprentissage, et préalablement à l’identification, application (42) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et d’apprentissage. Figure pour l'abrégé : Figure 2

Description

Procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture
La présente invention concerne un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture, un produit programme d’ordinateur, un support d’information et un dispositif associé.
L’invention se situe dans le domaine de l’identification automatique de cible(s) ATR (de l’anglaisAutomatic Target Recognition) en imagerie de radar à synthèse d’ouverture SAR (de l’anglaisSynthetic-Aperture radar). Une telle identification consiste classiquement à identifier, à partir d’une base de données d’apprentissage répertoriant des cibles préalablement détectées sur une image SAR (i.e. une image fournie par un radar à synthèse d’ouverture), la classe d’appartenance de la cible de l’image sous test, chaque image SAR correspondant à une représentation bidimensionnelle d’une scène selon un axe azimutal et un axe de distance correspondant à l’axe de visée radar, l’axe azimutal et l’axe de distance étant orthogonaux.
Les techniques classiques d’ATR supposent que l’axe de distance, correspondant à l’axe de visée radar, est orienté de la même manière dans les images de la base de données d’apprentissage et les images sous test, ce qui permet à un objet imagé à plusieurs reprises au même angle de présentation d’avoir des signatures similaires dans le repère (X, Y) de l’image SAR.
Cependant, toute variation de l’orientation de l’axe de visée radar, dans les repères respectifs des images de la base de données d’apprentissage et des images sous test, génère une baisse significative des performances d’identification, et en pratique l’orientation de ces axes dans le repère de l’image est choisie arbitrairement lors de la formation de l’image SAR, et sont propres à correspondre directement aux axes X-Y (ou Y-X) de l’image mais pas toujours, notamment lorsqu’une image est formée avec pour convention la direction du Nord géographique pour l’axe Y. Dans un tel cas de figure, les axes azimut et distance sont alors propres à être orientés suivant un angle quelconque dans l’image.
Pour y remédier, deux types de prétraitement sont actuellement proposés, à savoir d’une part, une réorientation et un recalage rigoureux de toutes les images de la base de données d’apprentissage et de chaque image sous test de telle sorte que chaque pixel de cible corresponde sur toutes ces images au même point physique de chacune de ces cibles, ce qui implique une estimation précise de chaque cible nécessitant, une détermination complexe et rigoureuse du centre et de l’angle d’orientation de chaque cible (notamment de son arête principale lorsqu’elle est visible) par rapport à l’axe de visée radar, et une perte de performance d’identification en cas d’erreurs liées à l’estimation du centre des cibles et/ou à leur angle d’orientation et/ou en cas d’erreurs d’interpolation du processus de rotation de l’image. Un tel recalage, manuel ou automatique, consiste à estimer l’orientation de la cible par rapport à l’axe de visée radar et à effectuer une rotation de cet angle, par exemple : en détourant la cible puis en déterminant son centre et l’orientation de son arrête principale quand elle est visible, ou en incluant la cible dans un rectangle englobant puis en déterminer le centre et l’orientation de son grand côté, ou encore en déterminant le centre et l’orientation de l’axe principale d’énergie des pixels de la cible. Lorsqu’il est manuel, un tel recalage requiert temps et ressources en personnels formés à l’exploitation des images SAR, ce qui de fait l’exclut d’application industrielle nécessitant des processus automatiques.
L’autre type de prétraitement d’image SAR repose sur une réorientation de l’image sous test, de sorte que l’orientation de l’axe de visée radar, dans le repère associé à cette image sous test, coïncide parfaitement avec l’axe de visée des images d’apprentissage dans leur repère respectif associé. En effet, l’orientation de l’axe de visée est fixée a posteriori au moment de formation de l’image SAR selon une convention arbitraire par chaque opérateur formateur d’une image SAR, une image SAR étant par exemple formée selon une première convention où l’axe X correspond à l’axe azimut, et l’axe Y correspond à l’axe distance, ou selon une deuxième convention où l’axe X correspond à l’axe nord-sud géographique, et l’axe Y correspond à l’axe est-ouest géographique, ou toute autre possibilité. Par ailleurs, dans le cas d’images SAR uniquement acquises et préalablement formées, les paramètres de prises de vues sont propres à être inconnus ou mal renseignés. De plus, si les images sont orientées dans un repère géographique, nord/sud par exemple, l’orientation de l’axe de visée radar sera différent sur chaque image SAR issue d’une même source. Aussi, la direction de visée doit être estimée, puis compensée par une rotation de sorte que l’éclairement apparaisse comme provenant d’une unique direction pour l’ensemble des images, mais il n’est pas toujours possible de déterminer a posteriori avec une grande précision l’orientation de l’axe de visée radar dans l’image tel qu’indiqué par Y. Jiang et al., dans le document intitulé «Pose estimation based on exploration of geometrical information in SAR images» (2016 IEEE Radar Conference (RadarConf), Philadelphia, PA, 2016, pp. 1-4, doi: 10.1109/RADAR.2016.7485084.
Ces deux types de prétraitement imposent par ailleurs des contraintes notamment pour la réalisation de la base de données d’apprentissage comprenant généralement des images, issues de différentes campagnes de vol effectuées avec différents capteurs, et formées avec des conventions différentes, l’information exacte de l’angle d’orientation de la cible par rapport à l’axe de visée radar étant, selon le cas, connue avec précision ou à l’inverse totalement inconnue. De plus, pour l’image SAR sous test acquise lors d’une mission aéroportée, par principe, ni la cible observée, ni son orientation ne sont connues lors de l’étape d’ATR.
En outre, ces deux types de traitement sont également rendus complexes par les phénomènes d’occultation et d’angle de vue propres au radar à synthèse d’ouverture SAR, la cible étant éclairée uniquement par le radar à synthèse d’ouverture une grande partie de celle-ci est propre à être cachée ou non visible sur l’image SAR résultante, ce qui rend complexe l’estimation au pixel près de la limite entre cible et ombre et donc la détermination précise du centre et de l’orientation de la cible. En effet, une même cible imagée sous deux axes de visées radar différents présente une variation de signature du fait du changement de l’angle d’éclairement.
Un des buts de l’invention est de s’affranchir de ces deux types de traitement et des contraintes de réalisation associées en proposant une technique permettant de lever la contrainte précitée sur l’orientation des cibles et/ou de l’axe de visée radar dans les images SAR d’apprentissage de même que dans les images SAR sous test.
À cet effet, l’invention a pour objet un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour chaque image sous test fournie par le radar à synthèse d’ouverture, les étapes suivantes :
- détection de cible(s) en parcourant l’image sous test ;
- pour chaque cible détectée au sein de l’image sous test, extraction d’une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, identification de la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
le procédé comprenant en outre, préalablement à ladite étape d’identification, une étape d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
Avantageusement, le procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture est ainsi insensible aux différences de rotations appliquées lors de l’acquisition des images SAR d’apprentissage de même que des images SAR sous test, ce qui simplifie leur traitement tout en améliorant les performances d’identification, et facilite la formation d’une base de données d’apprentissage.
Le procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture peut également présenter une ou plusieurs des caractéristiques ci-dessous, prises indépendamment ou selon toutes les combinaisons techniquement envisageables :
- la transformation spatiale correspond à la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage ;
- la transformation de Fourier est une transformée de Fourier rapide ;
- l’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage comprend le calcul du module de la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette ;
- le procédé comprend en outre une étape de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ladite étape de suppression étant préalable à l’étape d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage ;
- la suppression de fouillis est mise en œuvre par seuillage prédéterminé ;
- la suppression de fouillis est mise en œuvre par application d’un taux de fausse alarme constant prédéterminé.
Selon un autre aspect, l’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture tel que défini ci-dessus.
Selon un autre aspect, l’invention concerne également un support d’information sur lequel sont stockées des instructions logicielles configurées pour mettre en œuvre un tel procédé lorsque les instructions logicielles sont exécutées par un processeur.
Selon un autre aspect, l’invention concerne un dispositif d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour traiter chaque image sous test fournie par le radar à synthèse d’ouverture :
- module de détection configuré pour détecter au moins une cible en parcourant l’image sous test ;
- un module d’extraction, configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- un module d’identification configuré pour identifier, pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
le dispositif comprenant en outre un module d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, configuré pour appliquer la transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, préalablement au traitement mis en œuvre par le module d’identification
D’autres caractéristiques et avantages de l’invention ressortiront de la description qui en est donnée ci-dessous, à titre indicatif et nullement limitatif, en référence aux figures annexées, parmi lesquelles :
la illustre schématiquement un dispositif d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon un mode de réalisation de l’invention ;
la est un schéma synoptique de comparaison des principales étapes d’un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon un mode de réalisation de l’invention avec un procédé classique ;
la illustre l’étape optionnelle de suppression de fouillis mise en œuvre selon un mode de réalisation de l’invention.
La illustre schématiquement un dispositif électronique 10 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon un mode de réalisation de l’invention.
Un tel dispositif électronique 10 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprend tout d’abord, pour traiter chaque image sous test fournie par le radar à synthèse d’ouverture un module de détection 12 configuré pour détecter au moins une cible en parcourant l’image sous test.
De plus, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module d’extraction 14, configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test.
En outre, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module d’identification 16 configuré pour identifier, pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage.
De manière spécifique à l’invention, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend en outre un module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, configuré pour appliquer ladite transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, préalablement au traitement mis en œuvre par le module d’identification 16.
Plus précisément, par la suite on entend par « transformation spatiale invariante en rotation et/ou en translation » une transformation dont la sortie est invariante par translation et/ou rotation de l’objet imagé dans l’image d’entrée.
Enfin en complément optionnel, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module optionnel 20, représenté en pointillés, de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ce module optionnel 20 étant configuré pour mettre en œuvre une étape optionnelle de suppression S, illustrée ultérieurement par les figures 2 et 3, préalablement au traitement mis en œuvre par le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
Dans l’exemple de la , le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend une unité de traitement d’informations 22 formée par exemple d’une mémoire 24 et d’un processeur 26 associé à la mémoire 24.
Dans l’exemple de la , le module de détection 12, le module d’extraction 14, le module d’identification 16, le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement le module de suppression 20 de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutables par le processeur 26. La mémoire 24 du dispositif électronique d’identification 10 automatique de cible(s) selon la présente invention est alors apte à stocker un logiciel de détection, un logiciel d’extraction, un logiciel d’identification, un logiciel d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement un logiciel de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage. Le processeur 26 est alors apte à exécuter chacun des logiciels parmi le logiciel de détection, le logiciel d’extraction, le logiciel d’identification, le logiciel d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement le logiciel de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage.
En variante non représentée, le module de détection 12, le module d’extraction 14, le module d’identification 16, le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement le module de suppression 20 de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gate Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Application Specific Integrated Circuit).
Lorsque le dispositif électronique d’identification 10 automatique de cible(s) selon la présente invention est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, il est en outre apte à être enregistré sur un support d’information, non représenté, lisible par ordinateur. Le support d’information lisible par ordinateur est par exemple, un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support d’information lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.
Chaque module du dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention est décrit par la suite décrit plus en détail.
En particulier, le module de détection 12 configuré pour détecter au moins une cible en parcourant l’image sous test est propre à mettre classiquement en œuvre une phase de détection automatique de cible) ATD (de l’anglaisAutomatic Target Recognition).
Le module d’extraction 14, configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test, découpe classiquement autour de chaque cible détectée par le module de détection 12 une imagette sur laquelle un algorithme d’ATR (de l’anglaisAutomatic Target Recognition) est utilisé via le module d’identification 16.
Plus précisément, le module d’identification 16 est propre à mettre en œuvre des algorithmes de classification issus de la littérature, tel que l’algorithme des k plus proches voisins KNN (de l’anglaisk-nearest neighbors algorithm), une analyse en composantes principales PCA (de l’anglaisPrincipal Component Analysis), une technique d’apprentissage basée sur des machines à vecteurs de support SVM (de l’anglaisSupport Vector Machine), une technique d’apprentissage à base de réseaux de neurones, etc.
Plus précisément, pour toutes les cibles à identifier, une base de données d’apprentissage, recensant des images de chaque cible sous différents angles de présentation par rapport à l’axe de visée radar, est utilisée.
Le module d’identification 16, propre à mettre en œuvre algorithme de classification, notamment parmi les algorithmes précités ci-dessus, détermine ensuite quelle cible de la base de données d’apprentissage est la plus proche de la cible sous test en calculant classiquement une métrique de ressemblance entre les classes de la base de données et l’image sous test, et dispose optionnellement d’une classe de rejet permettant de « classer » la cible lorsqu’elle n’est pas dans la base de données d’apprentissage ou que la cible n’est pas identifiée avec une confiance suffisante par l’algorithme de classification utilisé.
Le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage permet spécifiquement, selon la présente invention, d’effectuer le traitement d’identification mis en œuvre par le module d’identification 16, que ce soit en phase d’apprentissage ou de test, non pas sur les images SAR directement, mais sur des descriptions (i.e. images) invariantes en rotation et/ou en translation de ces images.
En effet, Les images SAR ont la particularité de ne pas présenter d’isotropie angulaire, c’est-à-dire que deux images SAR d’une même scène prises à deux angles de visées différents ne peuvent pas s’identifier à une rotation près. En effet, malgré le fait que de telles images SAR d’une même scène aient l’apparence d’une vue de dessus, de telles images SAR sont prises de manière rasante et la rétrodiffusion des objets capturés au moyen de telles images SAR dépend fortement de leur angle de présentation par rapport à l’axe de visée du radar.
Plus précisément, comme illustré par la suite en relation avec la , la transformation spatiale mise en œuvre spécifiquement par le module d’application 18, à chaque imagette sous test et à chaque imagette d’apprentissage, correspond à la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage.
La transformée de Radon, notée R, transforme une rotation en translation. Autrement dit, les spectres de Radon de deux images identiques ayant subi une rotation l’une par rapport à l’autre, seront identiques à une translation près sur l’axe horizontal de l’image. Cette translation résiduelle, dont le facteur dépend de l’angle de rotation de l’image, est, selon la présente invention, propre à être éliminée par application d’une transformée de Fourier sur les lignes de l’image considérée.
Selon un aspect particulier, la transformation de Fourier est une transformée de Fourier rapide.
Par ailleurs, en complément facultatif, le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage est également propre à mettre en œuvre le calcul du module de la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette.
En effet, le module de la transformée de Fourier d’une image subissant une translation est invariant, si bien que le terme de translation n’apparaît qu’à travers un terme de phase.
Ainsi, en notant I l’imagette sous test ou encore l’imagette d’apprentissage,, la transformée de Radon de l’imagette etla transformée de Fourier de ses lignes (i.e. monodimensionnelle), la propriété suivante est obtenue :
où une rotation d’angle appelée « imrotate » d’une imagette initiale I correspond à un déphasage de de la transformée de Fourier de l’imagette. L’utilisation du module de cette transformation est donc insensible aux rotations appliquées à l’imagette initiale, en particulier pour une image/imagette à support infini.
Aussi, en complément facultatif selon la présente invention, comme indiqué précédemment, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module optionnel 20, représenté en pointillés, de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ce module optionnel 20 étant configuré pour mettre en œuvre une étape optionnelle de suppression S, illustrée ultérieurement par les figures 2 et 3, préalablement au traitement mis en œuvre par le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage. Une telle étape optionnelle de suppression S est propre à être mise en œuvre en présence d’images brutes, eta fortiorid’imagette(s) à support borné, c’est-à-dire présentant une taille limitée.
Le module optionnel 20 de suppression de fouillis est ainsi configuré pour limiter le support de l’image avant application de la transformation spatiale invariante en rotation et/ou en translation appliquée à chaque imagette. En particulier, lorsque la transformation spatiale invariante en rotation et/ou en translation correspond à la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette, le module optionnel 20 de suppression de fouillis permet d’éviter que le fenêtrage choisi pour l’imagette n’ait un impact sur la transformée de Radon.
Selon une première variante, le module optionnel 20 de suppression de fouillis met en œuvre une telle suppression de fouillis par seuillage prédéterminé.
Selon une autre variante, le module optionnel 20 de suppression de fouillis met en œuvre une telle suppression de fouillis par application d’un taux de fausse alarme constant prédéterminé TFAC.
Tout autre variante de suppression de fouillis connue est propre à être utilisée.
Après suppression de fouillis, le module optionnel 20 de suppression de fouillis est propre à fournir en sortie une imagette propre à être considérée comme circulaire correspondant à une cible entourée de pixels à valeur nulles. Autrement dit, les nuisances dues au fenêtrage de l’imagette sont éliminées via ledit module optionnel 20 de suppression de fouillis tel qu’illustré par la suite en relation avec la .
La illustre tout d’abord les principales étapes d’un procédé classique 30 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture.
Plus précisément, un tel procédé classique 30 comprend pour chaque image SAR sous test fournie par le radar à synthèse d’ouverture, les étapes suivantes :
- détection 32 de cible(s) en parcourant l’image sous test ;
- pour chaque cible détectée au sein de l’image sous test, extraction 34 d’une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- une étape 36 de réorientation et recalage rigoureux de toutes les images de la base de données d’apprentissage et de chaque image sous test de telle sorte que chaque pixel de ou de réorientation de l’image sous test de sorte que l’orientation de l’axe de visée radar, dans le repère associé à cette image sous test, coïncide parfaitement avec l’axe de visée des images d’apprentissage dans leur repère respectif associé ;
- pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, identification 38 de la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage.
En comparaison à ce procédé classique 30 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture, la illustre les principales étapes d’un procédé 40 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon un mode de réalisation de l’invention. Selon le procédé 40 de la présente invention propre à être mis en œuvre par le dispositif 10 électronique d’identification précédemment décrit en relation avec la , l’étape 36 classique de réorientation est spécifiquement remplacée par l’étape 42 d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
Selon le mode de réalisation de la , le procédé 40 d’identification automatique de cible(s) selon la présente invention comprend en outre optionnellement (représentée en pointillés), une étape S de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, la mise en œuvre de ladite étape de suppression S étant préalable à l’étape d’application 42 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, telle que décrite précédemment en relation avec la . Une telle étape S de suppression de fouillis étant propre à être mise en œuvre par un seuillage prédéterminé selon une première variante et/ou par application d’un taux de fausse alarme constant prédéterminé selon une autre variante.
Puis, selon le mode de réalisation de la , l’étape d’application 42 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage comprend tout d’abord l’application d’une transformée de Radon 44 de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage, suivie de l’application d’une transformée de Fourier 46 (appliquée au résultat de la transformée de Radon 44), puis du calcul 48 du module de la transformation spatiale combinée résultant de la transformée de Fourier 46 appliquée à la transformée de Radon 44 de chaque imagette.
Ainsi, par rapport au procédé classique 30, le procédé 40 mis en œuvre selon la présente invention permet de ne pas avoir à estimer l’orientation des cibles dans les images d’apprentissage et de test, ou de ne pas avoir à estimer l’orientation de l’axe de visée radar dans les images d’apprentissage et de test, et en conséquence d’améliorer les performances de reconnaissance de cible(s) (i.e. d’identification) lorsque la réorientation des images n’est pas possible ou lorsque l’orientation de l’angle de visée radar est inconnu.
Pour illustrer cette amélioration de performances, des comparaisons entre le procédé classique 30 et le procédé 40 selon la présente invention ont été notamment menées sur des images issues de la base de données MSTAR (de l’anglaisMoving Stationary Target Acquisition and Recognition) correspondant à une base de données publique d'images SAR, collectées par le Sandia National Laboratory (SNL) et le Wright Patterson Air Force Laboratory, et dont l’axe de visée radar est orienté de manière identique tel qu’indiqué par O. Kechagias-Stamatis et al., dans le document intitulé «SAR Automatic Target Recognition based on Convolutional Neural Networks» (2017) 10.1049/cp.2017.0437. Cette base de données publique est utilisée à titre de référence par la communauté scientifique pour comparer les différents systèmes de traitement SAR.
Les images de cette base de données ont été acquises en bande X (10 GHz) et sont d’une résolution de l’ordre de 30 cm. La base de données est constituée d’images de dix véhicules différents : 2S1 (véhicule blindé à chenille armé d'un canon), BMP2, BRDM2, BTR70, BTR60, D7, T62, T72, ZIL131 et ZSU234, tous imagés à des orientations variant entre 0° et 360° par rapport à l’axe de visée du radar et à des angles de sites de 15° et de 17°, les données obtenues à l'angle de site 15° constituant généralement les données de référence (i.e. données d'apprentissage), tandis que les données obtenues à 17°, indépendantes des premières constituent généralement les données de test.
Pour chaque cible et pour chaque angle de site, le nombre d’images disponibles (à différentes orientations) varie entre 195 et 275 ce qui correspond à un pas angulaire moyen d’environ 1,5°. La position de l’ombre du véhicule dans les images permet de vérifier que l’angle de visée radar est orienté suivant le même axe (vertical du bas vers le haut) dans le repère (X,Y) de toutes les images de la base de données.
Les comparaisons entre le procédé classique 30 et le procédé 40 selon la présente invention ont été réalisés sur une partie de cette base de données MSTAR limitées à cinq véhicules (i.e. cibles), au lieu des dix précédemment cités, à savoir les véhicules 2S1, BMP2, BRDM2, BTR70, BTR60, pour chacun desquels 180 images de 70 par 70 pixels ont été prélevées des bases de données à 15° et 17° d’angle de site afin de garantir une pas angulaire régulier de 2° sur 360° pour l’angle d’orientation de chaque cible (i.e. véhicule), ce qui revient à une partie de cette base de données MSTAR comprenant 5x180=900 images, pour la base d’apprentissage (cibles à angle de site 15°) comme pour la base d’images de test (cibles à angle de site 17°).
avec le procédé classique 30 avec le procédé classique 30 avec le procédé 40 selon la présente invention
2S1 79,3 69,9 80 ,3
BMP2 83 ,3 53,8 82,5
BRDM2 81,6 54,8 82,1
BTR70 77,3 45,8 69,3
BTR60 79,6 37,1 68,6
Le tableau 1 ci-dessous représente le taux de bonne identification sur l’ensemble des images des cinq cibles testées obtenus, d’une part selon un procédé d’identification classique 30, basé sur une identification par classification basée sur une analyse en composantes principales PCA, dans le cas optimal (orientation de l’axe de visée radar identique dans les images d’apprentissage et de test : θ=0°) puis en appliquant une rotation de 30° sur les images de test afin de simuler un écart de 30° de l’orientation de l’axe de visée radar entre les images (θ=30°), et d’autre part en utilisant le procédé 40 selon la présente invention :
Ces résultats montrent qu’une rotation de 30° fait chuter considérablement les performances de reconnaissance obtenues en utilisant le procédé 30 d’identification classique ce qui met en évidence le caractère critique et les effets d’une mauvaise orientation de cibles et/ou de l’axe de visée radar lorsqu’une approche d’identification classique est mise en œuvre, alors que le procédé 40 selon la présente invention permet de s’affranchir de la contrainte de la réorientation des images, ou cibles, ou axe de visée radar, et cela avec un taux de bonne identification supérieur pour une rotation de 30°.
La illustre l’effet de l’étape optionnelle de suppression S de fouillis mise en œuvre selon un mode de réalisation de l’invention, l’image 50 correspondant à une image SAR sans suppression de fouillis, et l’image 52 représentant le résultat de l’application de la suppression de fouillis à l’image 50.
L’homme du métier comprendra que l’invention ne se limite pas aux modes de réalisation décrits, ni aux exemples particuliers de la description, les modes de réalisation et les variantes mentionnées ci-dessus étant propres à être combinés entre eux pour générer de nouveaux modes de réalisation de l’invention.
La présente invention propose ainsi une solution pour rendre robuste le procédé d’ATR à l’orientation de l’axe de visée radar dans les repères (X, Y) des images SAR d’apprentissage et de test, et permet, notamment d’obtenir une performance supérieure à celle obtenue classiquement.
Sans l’invention, pour une même orientation des cibles dans l’image, les signatures radar des cibles testées ne correspondent pas à la signature des cibles d’apprentissage et il est donc nécessaire de disposer de l’information de la position de l’axe de visée. Avec l’utilisation de l’invention, la notion d’orientation de la cible dans l’image n’a plus d’importance et seules les signatures radar sont prises en compte.

Claims (10)

  1. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour chaque image sous test fournie par le radar à synthèse d’ouverture, les étapes suivantes :
    - détection (32) de cible(s) en parcourant l’image sous test ;
    - pour chaque cible détectée au sein de l’image sous test, extraction (34) d’une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
    - pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, identification (38) de la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
    caractérisé en ce que le procédé comprend en outre, préalablement à ladite étape d’identification (38), une étape (42) d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
  2. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 1, dans lequel la transformation spatiale correspond à la transformation spatiale combinée résultant d’une transformée de Fourier (46) appliquée à la transformée de Radon (44) de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage.
  3. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 2, dans lequel la transformation de Fourier (46) est une transformée de Fourier rapide.
  4. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 2 ou 3, dans lequel l’application (42) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage comprend le calcul (48) du module de la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette.
  5. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon l’une quelconque des revendications précédentes comprenant en outre une étape (S) de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ladite étape de suppression (S) étant préalable à l’étape d’application (42) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
  6. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 5, dans lequel la suppression (S) de fouillis est mise en œuvre par seuillage prédéterminé.
  7. Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 5, dans lequel la suppression (S) de fouillis est mise en œuvre par application d’un taux de fausse alarme constant prédéterminé.
  8. Produit programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon l’une quelconque des revendications précédentes.
  9. Support d’information sur lequel sont stockées des instructions logicielles configurées pour mettre en œuvre un procédé selon l’une quelconque des revendications précédentes lorsque les instructions logicielles sont exécutées par un processeur.
  10. Dispositif (10) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour traiter chaque image sous test fournie par le radar à synthèse d’ouverture :
    - module de détection (12) configuré pour détecter au moins une cible en parcourant l’image sous test ;
    - un module d’extraction (14), configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
    - un module d’identification (16) configuré pour identifier, pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
    caractérisé en ce que le dispositif comprend en outre un module d’application (18) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, configuré pour appliquer la transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, préalablement au traitement mis en œuvre par le module d’identification.
FR2109952A 2021-09-22 2021-09-22 Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture Active FR3127295B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2109952A FR3127295B1 (fr) 2021-09-22 2021-09-22 Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2109952A FR3127295B1 (fr) 2021-09-22 2021-09-22 Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture
FR2109952 2021-09-22

Publications (2)

Publication Number Publication Date
FR3127295A1 true FR3127295A1 (fr) 2023-03-24
FR3127295B1 FR3127295B1 (fr) 2023-11-10

Family

ID=79270480

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2109952A Active FR3127295B1 (fr) 2021-09-22 2021-09-22 Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture

Country Status (1)

Country Link
FR (1) FR3127295B1 (fr)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Pose estimation based on exploration of geometrical information in SAR images", 2016 IEEE RADAR CONFÉRENCE (RADARCONF, 2016, pages 1 - 4
COOKE TRISTROM: "Detection and Classification of Objects in Synthetic Aperture Radar Imagery", 1 February 2006 (2006-02-01), pages 1 - 206, XP055915727, Retrieved from the Internet <URL:https://apps.dtic.mil/sti/pdfs/ADA449712.pdf> [retrieved on 20220426] *
LIPING HU ET AL: "Automatic target recognition based on SAR images and Two-Stage 2DPCA features", SYNTHETIC APERTURE RADAR, 2007. APSAR 2007. 1ST ASIAN AND PACIFIC CONFERENCE ON, 1 January 2007 (2007-01-01), pages 801 - 805, XP055915720, ISBN: 978-1-4244-1187-0, DOI: 10.1109/APSAR.2007.4418731 *
R O. KECHAGIAS-STAMATIS ET AL., SAR AUTOMATIC TARGET RECOGNITION BASED ON CONVOLUTIONAL NEURAL NETWORKS, 2017
YE WENXING ET AL: "A rotation-invariant transform for target detection in SAR images", PROC. SPIE 6970, ALGORITHMS FOR SYNTHETIC APERTURE RADAR IMAGERY XV, vol. 6970, 15 April 2008 (2008-04-15), pages 1 - 11, XP055915733, DOI: 10.1117/12.777305 *

Also Published As

Publication number Publication date
FR3127295B1 (fr) 2023-11-10

Similar Documents

Publication Publication Date Title
EP2549434B1 (fr) Procédé de modélisation de bâtiments à partir d&#39;une image géoréférencée
EP2724203B1 (fr) Génération de données de carte
WO2011048302A1 (fr) Procede, programme d&#39;ordinateur et dispositif de suivi hybride de representations d&#39;objets, en temps reel, dans une sequence d&#39;images
EP2275971A1 (fr) Procédé de détection d&#39;un obstacle pour véhicule automobile
EP3200153B1 (fr) Procédé de détection de cibles au sol et en mouvement dans un flux vidéo acquis par une caméra aéroportée
EP3359978B1 (fr) Methode de traitement d&#39;une image radar de type sar et methode de detection de cible associee
FR3055421A1 (fr) Detection coherente multivisee de changements
EP2275970A1 (fr) Procédé de détection d&#39;un obstacle pour véhicule automobile
WO2018185104A1 (fr) Procede d&#39;estimation de pose, dispositif, systeme et programme d&#39;ordinateur associes
FR3086434A1 (fr) Procede et systeme de controle non destructif d&#39;une piece aeronautique par recalage de contour
EP2517152B1 (fr) Procede de classification d&#39;objets dans un systeme de veille par imagerie
EP3311333B1 (fr) Appariement d&#39;images d&#39;articles postaux avec des descripteurs de singularites du champ de gradient
EP2294441A1 (fr) Procede de detection d&#39;un objet dans une scene comportant des artefacts
WO2012117210A1 (fr) Procédé et système pour estimer une similarité entre deux images binaires
FR3127295A1 (fr) Procédé d&#39;identification automatique de cible(s) au sein d&#39;image(s) fournie(s) par un radar a synthèse d&#39;ouverture
EP2513592B1 (fr) Procede de designation d&#39;une cible pour un armement a guidage terminal par imagerie
FR3050300A1 (fr) Procede et dispositif de detection automatique de zones de pollution sur une surface d&#39;eau
FR2950451A1 (fr) Algorithme de detection des points de contour dans une image
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l&#39;image d&#39;une scene routiere
WO2017005930A1 (fr) Détection d&#39;objets par traitement d&#39;images
EP3999865A1 (fr) Procede de determination de parametres d&#39;etalonnage extrinseques d&#39;un systeme de mesure
Zhu et al. Ground target classification from sar image with the pixel complement for target shape
FR3072931A1 (fr) Procede de traitement de donnees pour systeme d&#39;aide a la conduite d&#39;un vehicule et systeme d&#39;aide a la conduite associe
FR2978269A1 (fr) Procede de mise en correspondance de plusieurs images associees a des referencements geographiques incoherents
FR3025683A1 (fr) Procede et dispositif d&#39;estimation de parametres d&#39;egalisation d&#39;image numerique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230324

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4