FR3127295A1 - Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture - Google Patents
Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture Download PDFInfo
- Publication number
- FR3127295A1 FR3127295A1 FR2109952A FR2109952A FR3127295A1 FR 3127295 A1 FR3127295 A1 FR 3127295A1 FR 2109952 A FR2109952 A FR 2109952A FR 2109952 A FR2109952 A FR 2109952A FR 3127295 A1 FR3127295 A1 FR 3127295A1
- Authority
- FR
- France
- Prior art keywords
- under test
- image
- target
- imagette
- thumbnail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012360 testing method Methods 0.000 claims abstract description 127
- 230000009466 transformation Effects 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000013519 translation Methods 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 229910052704 radon Inorganic materials 0.000 claims description 14
- SYUHGPGVQRZVTB-UHFFFAOYSA-N radon atom Chemical compound [Rn] SYUHGPGVQRZVTB-UHFFFAOYSA-N 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 230000001629 suppression Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 238000007796 conventional method Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 102100024506 Bone morphogenetic protein 2 Human genes 0.000 description 3
- 101000762366 Homo sapiens Bone morphogenetic protein 2 Proteins 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000321453 Paranthias colonus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009304 pastoral farming Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9027—Pattern recognition for feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture L’invention concerne un procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour chaque image sous test fournie par le radar, les étapes suivantes : - détection (32) de cible(s) en parcourant l’image sous test ; - pour chaque cible, extraction (34) d’une imagette sous test correspondant à une partie de l’image sous test de taille inférieure à celle de l’image sous test, - pour chaque imagette sous test, à partir d’imagettes d’apprentissage représentatives de classes de cibles préalablement détectées et identifiées, identification (38) de la cible détectée, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette d’apprentissage, et préalablement à l’identification, application (42) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et d’apprentissage. Figure pour l'abrégé : Figure 2
Description
La présente invention concerne un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture, un produit programme d’ordinateur, un support d’information et un dispositif associé.
L’invention se situe dans le domaine de l’identification automatique de cible(s) ATR (de l’anglaisAutomatic Target Recognition) en imagerie de radar à synthèse d’ouverture SAR (de l’anglaisSynthetic-Aperture radar). Une telle identification consiste classiquement à identifier, à partir d’une base de données d’apprentissage répertoriant des cibles préalablement détectées sur une image SAR (i.e. une image fournie par un radar à synthèse d’ouverture), la classe d’appartenance de la cible de l’image sous test, chaque image SAR correspondant à une représentation bidimensionnelle d’une scène selon un axe azimutal et un axe de distance correspondant à l’axe de visée radar, l’axe azimutal et l’axe de distance étant orthogonaux.
Les techniques classiques d’ATR supposent que l’axe de distance, correspondant à l’axe de visée radar, est orienté de la même manière dans les images de la base de données d’apprentissage et les images sous test, ce qui permet à un objet imagé à plusieurs reprises au même angle de présentation d’avoir des signatures similaires dans le repère (X, Y) de l’image SAR.
Cependant, toute variation de l’orientation de l’axe de visée radar, dans les repères respectifs des images de la base de données d’apprentissage et des images sous test, génère une baisse significative des performances d’identification, et en pratique l’orientation de ces axes dans le repère de l’image est choisie arbitrairement lors de la formation de l’image SAR, et sont propres à correspondre directement aux axes X-Y (ou Y-X) de l’image mais pas toujours, notamment lorsqu’une image est formée avec pour convention la direction du Nord géographique pour l’axe Y. Dans un tel cas de figure, les axes azimut et distance sont alors propres à être orientés suivant un angle quelconque dans l’image.
Pour y remédier, deux types de prétraitement sont actuellement proposés, à savoir d’une part, une réorientation et un recalage rigoureux de toutes les images de la base de données d’apprentissage et de chaque image sous test de telle sorte que chaque pixel de cible corresponde sur toutes ces images au même point physique de chacune de ces cibles, ce qui implique une estimation précise de chaque cible nécessitant, une détermination complexe et rigoureuse du centre et de l’angle d’orientation de chaque cible (notamment de son arête principale lorsqu’elle est visible) par rapport à l’axe de visée radar, et une perte de performance d’identification en cas d’erreurs liées à l’estimation du centre des cibles et/ou à leur angle d’orientation et/ou en cas d’erreurs d’interpolation du processus de rotation de l’image. Un tel recalage, manuel ou automatique, consiste à estimer l’orientation de la cible par rapport à l’axe de visée radar et à effectuer une rotation de cet angle, par exemple : en détourant la cible puis en déterminant son centre et l’orientation de son arrête principale quand elle est visible, ou en incluant la cible dans un rectangle englobant puis en déterminer le centre et l’orientation de son grand côté, ou encore en déterminant le centre et l’orientation de l’axe principale d’énergie des pixels de la cible. Lorsqu’il est manuel, un tel recalage requiert temps et ressources en personnels formés à l’exploitation des images SAR, ce qui de fait l’exclut d’application industrielle nécessitant des processus automatiques.
L’autre type de prétraitement d’image SAR repose sur une réorientation de l’image sous test, de sorte que l’orientation de l’axe de visée radar, dans le repère associé à cette image sous test, coïncide parfaitement avec l’axe de visée des images d’apprentissage dans leur repère respectif associé. En effet, l’orientation de l’axe de visée est fixée a posteriori au moment de formation de l’image SAR selon une convention arbitraire par chaque opérateur formateur d’une image SAR, une image SAR étant par exemple formée selon une première convention où l’axe X correspond à l’axe azimut, et l’axe Y correspond à l’axe distance, ou selon une deuxième convention où l’axe X correspond à l’axe nord-sud géographique, et l’axe Y correspond à l’axe est-ouest géographique, ou toute autre possibilité. Par ailleurs, dans le cas d’images SAR uniquement acquises et préalablement formées, les paramètres de prises de vues sont propres à être inconnus ou mal renseignés. De plus, si les images sont orientées dans un repère géographique, nord/sud par exemple, l’orientation de l’axe de visée radar sera différent sur chaque image SAR issue d’une même source. Aussi, la direction de visée doit être estimée, puis compensée par une rotation de sorte que l’éclairement apparaisse comme provenant d’une unique direction pour l’ensemble des images, mais il n’est pas toujours possible de déterminer a posteriori avec une grande précision l’orientation de l’axe de visée radar dans l’image tel qu’indiqué par Y. Jiang et al., dans le document intitulé «Pose estimation based on exploration of geometrical information in SAR images» (2016 IEEE Radar Conference (RadarConf), Philadelphia, PA, 2016, pp. 1-4, doi: 10.1109/RADAR.2016.7485084.
Ces deux types de prétraitement imposent par ailleurs des contraintes notamment pour la réalisation de la base de données d’apprentissage comprenant généralement des images, issues de différentes campagnes de vol effectuées avec différents capteurs, et formées avec des conventions différentes, l’information exacte de l’angle d’orientation de la cible par rapport à l’axe de visée radar étant, selon le cas, connue avec précision ou à l’inverse totalement inconnue. De plus, pour l’image SAR sous test acquise lors d’une mission aéroportée, par principe, ni la cible observée, ni son orientation ne sont connues lors de l’étape d’ATR.
En outre, ces deux types de traitement sont également rendus complexes par les phénomènes d’occultation et d’angle de vue propres au radar à synthèse d’ouverture SAR, la cible étant éclairée uniquement par le radar à synthèse d’ouverture une grande partie de celle-ci est propre à être cachée ou non visible sur l’image SAR résultante, ce qui rend complexe l’estimation au pixel près de la limite entre cible et ombre et donc la détermination précise du centre et de l’orientation de la cible. En effet, une même cible imagée sous deux axes de visées radar différents présente une variation de signature du fait du changement de l’angle d’éclairement.
Un des buts de l’invention est de s’affranchir de ces deux types de traitement et des contraintes de réalisation associées en proposant une technique permettant de lever la contrainte précitée sur l’orientation des cibles et/ou de l’axe de visée radar dans les images SAR d’apprentissage de même que dans les images SAR sous test.
À cet effet, l’invention a pour objet un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour chaque image sous test fournie par le radar à synthèse d’ouverture, les étapes suivantes :
- détection de cible(s) en parcourant l’image sous test ;
- pour chaque cible détectée au sein de l’image sous test, extraction d’une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, identification de la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
le procédé comprenant en outre, préalablement à ladite étape d’identification, une étape d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
Avantageusement, le procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture est ainsi insensible aux différences de rotations appliquées lors de l’acquisition des images SAR d’apprentissage de même que des images SAR sous test, ce qui simplifie leur traitement tout en améliorant les performances d’identification, et facilite la formation d’une base de données d’apprentissage.
Le procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture peut également présenter une ou plusieurs des caractéristiques ci-dessous, prises indépendamment ou selon toutes les combinaisons techniquement envisageables :
- la transformation spatiale correspond à la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage ;
- la transformation de Fourier est une transformée de Fourier rapide ;
- l’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage comprend le calcul du module de la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette ;
- le procédé comprend en outre une étape de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ladite étape de suppression étant préalable à l’étape d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage ;
- la suppression de fouillis est mise en œuvre par seuillage prédéterminé ;
- la suppression de fouillis est mise en œuvre par application d’un taux de fausse alarme constant prédéterminé.
Selon un autre aspect, l’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture tel que défini ci-dessus.
Selon un autre aspect, l’invention concerne également un support d’information sur lequel sont stockées des instructions logicielles configurées pour mettre en œuvre un tel procédé lorsque les instructions logicielles sont exécutées par un processeur.
Selon un autre aspect, l’invention concerne un dispositif d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour traiter chaque image sous test fournie par le radar à synthèse d’ouverture :
- module de détection configuré pour détecter au moins une cible en parcourant l’image sous test ;
- un module d’extraction, configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- un module d’identification configuré pour identifier, pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
le dispositif comprenant en outre un module d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, configuré pour appliquer la transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, préalablement au traitement mis en œuvre par le module d’identification
D’autres caractéristiques et avantages de l’invention ressortiront de la description qui en est donnée ci-dessous, à titre indicatif et nullement limitatif, en référence aux figures annexées, parmi lesquelles :
La illustre schématiquement un dispositif électronique 10 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon un mode de réalisation de l’invention.
Un tel dispositif électronique 10 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprend tout d’abord, pour traiter chaque image sous test fournie par le radar à synthèse d’ouverture un module de détection 12 configuré pour détecter au moins une cible en parcourant l’image sous test.
De plus, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module d’extraction 14, configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test.
En outre, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module d’identification 16 configuré pour identifier, pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage.
De manière spécifique à l’invention, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend en outre un module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, configuré pour appliquer ladite transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, préalablement au traitement mis en œuvre par le module d’identification 16.
Plus précisément, par la suite on entend par « transformation spatiale invariante en rotation et/ou en translation » une transformation dont la sortie est invariante par translation et/ou rotation de l’objet imagé dans l’image d’entrée.
Enfin en complément optionnel, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module optionnel 20, représenté en pointillés, de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ce module optionnel 20 étant configuré pour mettre en œuvre une étape optionnelle de suppression S, illustrée ultérieurement par les figures 2 et 3, préalablement au traitement mis en œuvre par le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
Dans l’exemple de la , le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend une unité de traitement d’informations 22 formée par exemple d’une mémoire 24 et d’un processeur 26 associé à la mémoire 24.
Dans l’exemple de la , le module de détection 12, le module d’extraction 14, le module d’identification 16, le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement le module de suppression 20 de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutables par le processeur 26. La mémoire 24 du dispositif électronique d’identification 10 automatique de cible(s) selon la présente invention est alors apte à stocker un logiciel de détection, un logiciel d’extraction, un logiciel d’identification, un logiciel d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement un logiciel de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage. Le processeur 26 est alors apte à exécuter chacun des logiciels parmi le logiciel de détection, le logiciel d’extraction, le logiciel d’identification, le logiciel d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement le logiciel de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage.
En variante non représentée, le module de détection 12, le module d’extraction 14, le module d’identification 16, le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, et optionnellement le module de suppression 20 de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gate Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Application Specific Integrated Circuit).
Lorsque le dispositif électronique d’identification 10 automatique de cible(s) selon la présente invention est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, il est en outre apte à être enregistré sur un support d’information, non représenté, lisible par ordinateur. Le support d’information lisible par ordinateur est par exemple, un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support d’information lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.
Chaque module du dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention est décrit par la suite décrit plus en détail.
En particulier, le module de détection 12 configuré pour détecter au moins une cible en parcourant l’image sous test est propre à mettre classiquement en œuvre une phase de détection automatique de cible) ATD (de l’anglaisAutomatic Target Recognition).
Le module d’extraction 14, configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test, découpe classiquement autour de chaque cible détectée par le module de détection 12 une imagette sur laquelle un algorithme d’ATR (de l’anglaisAutomatic Target Recognition) est utilisé via le module d’identification 16.
Plus précisément, le module d’identification 16 est propre à mettre en œuvre des algorithmes de classification issus de la littérature, tel que l’algorithme des k plus proches voisins KNN (de l’anglaisk-nearest neighbors algorithm), une analyse en composantes principales PCA (de l’anglaisPrincipal Component Analysis), une technique d’apprentissage basée sur des machines à vecteurs de support SVM (de l’anglaisSupport Vector Machine), une technique d’apprentissage à base de réseaux de neurones, etc.
Plus précisément, pour toutes les cibles à identifier, une base de données d’apprentissage, recensant des images de chaque cible sous différents angles de présentation par rapport à l’axe de visée radar, est utilisée.
Le module d’identification 16, propre à mettre en œuvre algorithme de classification, notamment parmi les algorithmes précités ci-dessus, détermine ensuite quelle cible de la base de données d’apprentissage est la plus proche de la cible sous test en calculant classiquement une métrique de ressemblance entre les classes de la base de données et l’image sous test, et dispose optionnellement d’une classe de rejet permettant de « classer » la cible lorsqu’elle n’est pas dans la base de données d’apprentissage ou que la cible n’est pas identifiée avec une confiance suffisante par l’algorithme de classification utilisé.
Le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage permet spécifiquement, selon la présente invention, d’effectuer le traitement d’identification mis en œuvre par le module d’identification 16, que ce soit en phase d’apprentissage ou de test, non pas sur les images SAR directement, mais sur des descriptions (i.e. images) invariantes en rotation et/ou en translation de ces images.
En effet, Les images SAR ont la particularité de ne pas présenter d’isotropie angulaire, c’est-à-dire que deux images SAR d’une même scène prises à deux angles de visées différents ne peuvent pas s’identifier à une rotation près. En effet, malgré le fait que de telles images SAR d’une même scène aient l’apparence d’une vue de dessus, de telles images SAR sont prises de manière rasante et la rétrodiffusion des objets capturés au moyen de telles images SAR dépend fortement de leur angle de présentation par rapport à l’axe de visée du radar.
Plus précisément, comme illustré par la suite en relation avec la , la transformation spatiale mise en œuvre spécifiquement par le module d’application 18, à chaque imagette sous test et à chaque imagette d’apprentissage, correspond à la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage.
La transformée de Radon, notée R, transforme une rotation en translation. Autrement dit, les spectres de Radon de deux images identiques ayant subi une rotation l’une par rapport à l’autre, seront identiques à une translation près sur l’axe horizontal de l’image. Cette translation résiduelle, dont le facteur dépend de l’angle de rotation de l’image, est, selon la présente invention, propre à être éliminée par application d’une transformée de Fourier sur les lignes de l’image considérée.
Selon un aspect particulier, la transformation de Fourier est une transformée de Fourier rapide.
Par ailleurs, en complément facultatif, le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage est également propre à mettre en œuvre le calcul du module de la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette.
En effet, le module de la transformée de Fourier d’une image subissant une translation est invariant, si bien que le terme de translation n’apparaît qu’à travers un terme de phase.
Ainsi, en notant I l’imagette sous test ou encore l’imagette d’apprentissage,, la transformée de Radon de l’imagette etla transformée de Fourier de ses lignes (i.e. monodimensionnelle), la propriété suivante est obtenue :
où une rotation d’angle appelée « imrotate » d’une imagette initiale I correspond à un déphasage de de la transformée de Fourier de l’imagette. L’utilisation du module de cette transformation est donc insensible aux rotations appliquées à l’imagette initiale, en particulier pour une image/imagette à support infini.
Aussi, en complément facultatif selon la présente invention, comme indiqué précédemment, le dispositif électronique 10 d’identification automatique de cible(s) selon la présente invention comprend un module optionnel 20, représenté en pointillés, de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ce module optionnel 20 étant configuré pour mettre en œuvre une étape optionnelle de suppression S, illustrée ultérieurement par les figures 2 et 3, préalablement au traitement mis en œuvre par le module d’application 18 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage. Une telle étape optionnelle de suppression S est propre à être mise en œuvre en présence d’images brutes, eta fortiorid’imagette(s) à support borné, c’est-à-dire présentant une taille limitée.
Le module optionnel 20 de suppression de fouillis est ainsi configuré pour limiter le support de l’image avant application de la transformation spatiale invariante en rotation et/ou en translation appliquée à chaque imagette. En particulier, lorsque la transformation spatiale invariante en rotation et/ou en translation correspond à la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette, le module optionnel 20 de suppression de fouillis permet d’éviter que le fenêtrage choisi pour l’imagette n’ait un impact sur la transformée de Radon.
Selon une première variante, le module optionnel 20 de suppression de fouillis met en œuvre une telle suppression de fouillis par seuillage prédéterminé.
Selon une autre variante, le module optionnel 20 de suppression de fouillis met en œuvre une telle suppression de fouillis par application d’un taux de fausse alarme constant prédéterminé TFAC.
Tout autre variante de suppression de fouillis connue est propre à être utilisée.
Après suppression de fouillis, le module optionnel 20 de suppression de fouillis est propre à fournir en sortie une imagette propre à être considérée comme circulaire correspondant à une cible entourée de pixels à valeur nulles. Autrement dit, les nuisances dues au fenêtrage de l’imagette sont éliminées via ledit module optionnel 20 de suppression de fouillis tel qu’illustré par la suite en relation avec la .
La illustre tout d’abord les principales étapes d’un procédé classique 30 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture.
Plus précisément, un tel procédé classique 30 comprend pour chaque image SAR sous test fournie par le radar à synthèse d’ouverture, les étapes suivantes :
- détection 32 de cible(s) en parcourant l’image sous test ;
- pour chaque cible détectée au sein de l’image sous test, extraction 34 d’une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- une étape 36 de réorientation et recalage rigoureux de toutes les images de la base de données d’apprentissage et de chaque image sous test de telle sorte que chaque pixel de ou de réorientation de l’image sous test de sorte que l’orientation de l’axe de visée radar, dans le repère associé à cette image sous test, coïncide parfaitement avec l’axe de visée des images d’apprentissage dans leur repère respectif associé ;
- pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, identification 38 de la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage.
En comparaison à ce procédé classique 30 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture, la illustre les principales étapes d’un procédé 40 d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon un mode de réalisation de l’invention. Selon le procédé 40 de la présente invention propre à être mis en œuvre par le dispositif 10 électronique d’identification précédemment décrit en relation avec la , l’étape 36 classique de réorientation est spécifiquement remplacée par l’étape 42 d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
Selon le mode de réalisation de la , le procédé 40 d’identification automatique de cible(s) selon la présente invention comprend en outre optionnellement (représentée en pointillés), une étape S de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, la mise en œuvre de ladite étape de suppression S étant préalable à l’étape d’application 42 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, telle que décrite précédemment en relation avec la . Une telle étape S de suppression de fouillis étant propre à être mise en œuvre par un seuillage prédéterminé selon une première variante et/ou par application d’un taux de fausse alarme constant prédéterminé selon une autre variante.
Puis, selon le mode de réalisation de la , l’étape d’application 42 d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage comprend tout d’abord l’application d’une transformée de Radon 44 de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage, suivie de l’application d’une transformée de Fourier 46 (appliquée au résultat de la transformée de Radon 44), puis du calcul 48 du module de la transformation spatiale combinée résultant de la transformée de Fourier 46 appliquée à la transformée de Radon 44 de chaque imagette.
Ainsi, par rapport au procédé classique 30, le procédé 40 mis en œuvre selon la présente invention permet de ne pas avoir à estimer l’orientation des cibles dans les images d’apprentissage et de test, ou de ne pas avoir à estimer l’orientation de l’axe de visée radar dans les images d’apprentissage et de test, et en conséquence d’améliorer les performances de reconnaissance de cible(s) (i.e. d’identification) lorsque la réorientation des images n’est pas possible ou lorsque l’orientation de l’angle de visée radar est inconnu.
Pour illustrer cette amélioration de performances, des comparaisons entre le procédé classique 30 et le procédé 40 selon la présente invention ont été notamment menées sur des images issues de la base de données MSTAR (de l’anglaisMoving Stationary Target Acquisition and Recognition) correspondant à une base de données publique d'images SAR, collectées par le Sandia National Laboratory (SNL) et le Wright Patterson Air Force Laboratory, et dont l’axe de visée radar est orienté de manière identique tel qu’indiqué par O. Kechagias-Stamatis et al., dans le document intitulé «SAR Automatic Target Recognition based on Convolutional Neural Networks» (2017) 10.1049/cp.2017.0437. Cette base de données publique est utilisée à titre de référence par la communauté scientifique pour comparer les différents systèmes de traitement SAR.
Les images de cette base de données ont été acquises en bande X (10 GHz) et sont d’une résolution de l’ordre de 30 cm. La base de données est constituée d’images de dix véhicules différents : 2S1 (véhicule blindé à chenille armé d'un canon), BMP2, BRDM2, BTR70, BTR60, D7, T62, T72, ZIL131 et ZSU234, tous imagés à des orientations variant entre 0° et 360° par rapport à l’axe de visée du radar et à des angles de sites de 15° et de 17°, les données obtenues à l'angle de site 15° constituant généralement les données de référence (i.e. données d'apprentissage), tandis que les données obtenues à 17°, indépendantes des premières constituent généralement les données de test.
Pour chaque cible et pour chaque angle de site, le nombre d’images disponibles (à différentes orientations) varie entre 195 et 275 ce qui correspond à un pas angulaire moyen d’environ 1,5°. La position de l’ombre du véhicule dans les images permet de vérifier que l’angle de visée radar est orienté suivant le même axe (vertical du bas vers le haut) dans le repère (X,Y) de toutes les images de la base de données.
Les comparaisons entre le procédé classique 30 et le procédé 40 selon la présente invention ont été réalisés sur une partie de cette base de données MSTAR limitées à cinq véhicules (i.e. cibles), au lieu des dix précédemment cités, à savoir les véhicules 2S1, BMP2, BRDM2, BTR70, BTR60, pour chacun desquels 180 images de 70 par 70 pixels ont été prélevées des bases de données à 15° et 17° d’angle de site afin de garantir une pas angulaire régulier de 2° sur 360° pour l’angle d’orientation de chaque cible (i.e. véhicule), ce qui revient à une partie de cette base de données MSTAR comprenant 5x180=900 images, pour la base d’apprentissage (cibles à angle de site 15°) comme pour la base d’images de test (cibles à angle de site 17°).
|
|
|
|
2S1 | 79,3 | 69,9 | 80 ,3 |
BMP2 | 83 ,3 | 53,8 | 82,5 |
BRDM2 | 81,6 | 54,8 | 82,1 |
BTR70 | 77,3 | 45,8 | 69,3 |
BTR60 | 79,6 | 37,1 | 68,6 |
Le tableau 1 ci-dessous représente le taux de bonne identification sur l’ensemble des images des cinq cibles testées obtenus, d’une part selon un procédé d’identification classique 30, basé sur une identification par classification basée sur une analyse en composantes principales PCA, dans le cas optimal (orientation de l’axe de visée radar identique dans les images d’apprentissage et de test : θ=0°) puis en appliquant une rotation de 30° sur les images de test afin de simuler un écart de 30° de l’orientation de l’axe de visée radar entre les images (θ=30°), et d’autre part en utilisant le procédé 40 selon la présente invention :
Ces résultats montrent qu’une rotation de 30° fait chuter considérablement les performances de reconnaissance obtenues en utilisant le procédé 30 d’identification classique ce qui met en évidence le caractère critique et les effets d’une mauvaise orientation de cibles et/ou de l’axe de visée radar lorsqu’une approche d’identification classique est mise en œuvre, alors que le procédé 40 selon la présente invention permet de s’affranchir de la contrainte de la réorientation des images, ou cibles, ou axe de visée radar, et cela avec un taux de bonne identification supérieur pour une rotation de 30°.
La illustre l’effet de l’étape optionnelle de suppression S de fouillis mise en œuvre selon un mode de réalisation de l’invention, l’image 50 correspondant à une image SAR sans suppression de fouillis, et l’image 52 représentant le résultat de l’application de la suppression de fouillis à l’image 50.
L’homme du métier comprendra que l’invention ne se limite pas aux modes de réalisation décrits, ni aux exemples particuliers de la description, les modes de réalisation et les variantes mentionnées ci-dessus étant propres à être combinés entre eux pour générer de nouveaux modes de réalisation de l’invention.
La présente invention propose ainsi une solution pour rendre robuste le procédé d’ATR à l’orientation de l’axe de visée radar dans les repères (X, Y) des images SAR d’apprentissage et de test, et permet, notamment d’obtenir une performance supérieure à celle obtenue classiquement.
Sans l’invention, pour une même orientation des cibles dans l’image, les signatures radar des cibles testées ne correspondent pas à la signature des cibles d’apprentissage et il est donc nécessaire de disposer de l’information de la position de l’axe de visée. Avec l’utilisation de l’invention, la notion d’orientation de la cible dans l’image n’a plus d’importance et seules les signatures radar sont prises en compte.
Claims (10)
- Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour chaque image sous test fournie par le radar à synthèse d’ouverture, les étapes suivantes :
- détection (32) de cible(s) en parcourant l’image sous test ;
- pour chaque cible détectée au sein de l’image sous test, extraction (34) d’une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, identification (38) de la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
caractérisé en ce que le procédé comprend en outre, préalablement à ladite étape d’identification (38), une étape (42) d’application d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage. - Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 1, dans lequel la transformation spatiale correspond à la transformation spatiale combinée résultant d’une transformée de Fourier (46) appliquée à la transformée de Radon (44) de chaque imagette, chaque imagette correspondant à une imagette sous test ou à une imagette d’apprentissage.
- Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 2, dans lequel la transformation de Fourier (46) est une transformée de Fourier rapide.
- Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 2 ou 3, dans lequel l’application (42) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage comprend le calcul (48) du module de la transformation spatiale combinée résultant d’une transformée de Fourier appliquée à la transformée de Radon de chaque imagette.
- Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon l’une quelconque des revendications précédentes comprenant en outre une étape (S) de suppression de fouillis au sein de chaque imagette sous test et au sein de chaque imagette d’apprentissage, ladite étape de suppression (S) étant préalable à l’étape d’application (42) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage.
- Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 5, dans lequel la suppression (S) de fouillis est mise en œuvre par seuillage prédéterminé.
- Procédé (40) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon la revendication 5, dans lequel la suppression (S) de fouillis est mise en œuvre par application d’un taux de fausse alarme constant prédéterminé.
- Produit programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture selon l’une quelconque des revendications précédentes.
- Support d’information sur lequel sont stockées des instructions logicielles configurées pour mettre en œuvre un procédé selon l’une quelconque des revendications précédentes lorsque les instructions logicielles sont exécutées par un processeur.
- Dispositif (10) d’identification automatique de cible(s) au sein d’image(s) fournie(s) par un radar à synthèse d’ouverture comprenant, pour traiter chaque image sous test fournie par le radar à synthèse d’ouverture :
- module de détection (12) configuré pour détecter au moins une cible en parcourant l’image sous test ;
- un module d’extraction (14), configuré pour extraire, pour chaque cible détectée au sein de l’image sous test, une imagette sous test correspondant à une partie de l’image sous test comprenant la cible détectée, ladite partie étant de taille inférieure à la taille de l’image sous test,
- un module d’identification (16) configuré pour identifier, pour chaque imagette sous test, à partir d’une base d’apprentissage comprenant une pluralité d’imagettes d’apprentissage représentatives d’une pluralité de classes de cibles préalablement détectées et identifiées, la cible détectée au sein de l’imagette sous test, par calcul d’une métrique de ressemblance entre ladite imagette sous test et chaque imagette de la base d’apprentissage,
caractérisé en ce que le dispositif comprend en outre un module d’application (18) d’une même transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, configuré pour appliquer la transformation spatiale invariante en rotation et/ou en translation à chaque imagette sous test et à chaque imagette d’apprentissage, préalablement au traitement mis en œuvre par le module d’identification.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2109952A FR3127295B1 (fr) | 2021-09-22 | 2021-09-22 | Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2109952A FR3127295B1 (fr) | 2021-09-22 | 2021-09-22 | Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture |
FR2109952 | 2021-09-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3127295A1 true FR3127295A1 (fr) | 2023-03-24 |
FR3127295B1 FR3127295B1 (fr) | 2023-11-10 |
Family
ID=79270480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2109952A Active FR3127295B1 (fr) | 2021-09-22 | 2021-09-22 | Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3127295B1 (fr) |
-
2021
- 2021-09-22 FR FR2109952A patent/FR3127295B1/fr active Active
Non-Patent Citations (5)
Title |
---|
"Pose estimation based on exploration of geometrical information in SAR images", 2016 IEEE RADAR CONFÉRENCE (RADARCONF, 2016, pages 1 - 4 |
COOKE TRISTROM: "Detection and Classification of Objects in Synthetic Aperture Radar Imagery", 1 February 2006 (2006-02-01), pages 1 - 206, XP055915727, Retrieved from the Internet <URL:https://apps.dtic.mil/sti/pdfs/ADA449712.pdf> [retrieved on 20220426] * |
LIPING HU ET AL: "Automatic target recognition based on SAR images and Two-Stage 2DPCA features", SYNTHETIC APERTURE RADAR, 2007. APSAR 2007. 1ST ASIAN AND PACIFIC CONFERENCE ON, 1 January 2007 (2007-01-01), pages 801 - 805, XP055915720, ISBN: 978-1-4244-1187-0, DOI: 10.1109/APSAR.2007.4418731 * |
R O. KECHAGIAS-STAMATIS ET AL., SAR AUTOMATIC TARGET RECOGNITION BASED ON CONVOLUTIONAL NEURAL NETWORKS, 2017 |
YE WENXING ET AL: "A rotation-invariant transform for target detection in SAR images", PROC. SPIE 6970, ALGORITHMS FOR SYNTHETIC APERTURE RADAR IMAGERY XV, vol. 6970, 15 April 2008 (2008-04-15), pages 1 - 11, XP055915733, DOI: 10.1117/12.777305 * |
Also Published As
Publication number | Publication date |
---|---|
FR3127295B1 (fr) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2549434B1 (fr) | Procédé de modélisation de bâtiments à partir d'une image géoréférencée | |
EP2724203B1 (fr) | Génération de données de carte | |
WO2011048302A1 (fr) | Procede, programme d'ordinateur et dispositif de suivi hybride de representations d'objets, en temps reel, dans une sequence d'images | |
EP2275971A1 (fr) | Procédé de détection d'un obstacle pour véhicule automobile | |
EP3200153B1 (fr) | Procédé de détection de cibles au sol et en mouvement dans un flux vidéo acquis par une caméra aéroportée | |
EP3359978B1 (fr) | Methode de traitement d'une image radar de type sar et methode de detection de cible associee | |
FR3055421A1 (fr) | Detection coherente multivisee de changements | |
EP2275970A1 (fr) | Procédé de détection d'un obstacle pour véhicule automobile | |
WO2018185104A1 (fr) | Procede d'estimation de pose, dispositif, systeme et programme d'ordinateur associes | |
FR3086434A1 (fr) | Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour | |
EP2517152B1 (fr) | Procede de classification d'objets dans un systeme de veille par imagerie | |
EP3311333B1 (fr) | Appariement d'images d'articles postaux avec des descripteurs de singularites du champ de gradient | |
EP2294441A1 (fr) | Procede de detection d'un objet dans une scene comportant des artefacts | |
WO2012117210A1 (fr) | Procédé et système pour estimer une similarité entre deux images binaires | |
FR3127295A1 (fr) | Procédé d'identification automatique de cible(s) au sein d'image(s) fournie(s) par un radar a synthèse d'ouverture | |
EP2513592B1 (fr) | Procede de designation d'une cible pour un armement a guidage terminal par imagerie | |
FR3050300A1 (fr) | Procede et dispositif de detection automatique de zones de pollution sur une surface d'eau | |
FR2950451A1 (fr) | Algorithme de detection des points de contour dans une image | |
FR3083352A1 (fr) | Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere | |
WO2017005930A1 (fr) | Détection d'objets par traitement d'images | |
EP3999865A1 (fr) | Procede de determination de parametres d'etalonnage extrinseques d'un systeme de mesure | |
Zhu et al. | Ground target classification from sar image with the pixel complement for target shape | |
FR3072931A1 (fr) | Procede de traitement de donnees pour systeme d'aide a la conduite d'un vehicule et systeme d'aide a la conduite associe | |
FR2978269A1 (fr) | Procede de mise en correspondance de plusieurs images associees a des referencements geographiques incoherents | |
FR3025683A1 (fr) | Procede et dispositif d'estimation de parametres d'egalisation d'image numerique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20230324 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |