FR2923024A1 - Procede de detection d'une cible - Google Patents

Procede de detection d'une cible Download PDF

Info

Publication number
FR2923024A1
FR2923024A1 FR0707561A FR0707561A FR2923024A1 FR 2923024 A1 FR2923024 A1 FR 2923024A1 FR 0707561 A FR0707561 A FR 0707561A FR 0707561 A FR0707561 A FR 0707561A FR 2923024 A1 FR2923024 A1 FR 2923024A1
Authority
FR
France
Prior art keywords
pixel
size
zone
pixels
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0707561A
Other languages
English (en)
Other versions
FR2923024B1 (fr
Inventor
Jean-Yves Dufour
Michel Prenat
Nadege Lemperiere
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR0707561A priority Critical patent/FR2923024B1/fr
Priority to EP08841102A priority patent/EP2203871A1/fr
Priority to US12/739,469 priority patent/US20110001823A1/en
Priority to CA2704037A priority patent/CA2704037A1/fr
Priority to PCT/EP2008/064436 priority patent/WO2009053461A1/fr
Publication of FR2923024A1 publication Critical patent/FR2923024A1/fr
Application granted granted Critical
Publication of FR2923024B1 publication Critical patent/FR2923024B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de détection d'une cible dans une scène comportant :une étape d'acquisition d'images numériques de la scène au moyen d'un capteur, ces images comportant des pixels,puis pour chaque pixel :- une étape d'estimation de l'arrière plan du pixel,- une étape d'estimation du rapport signal sur bruit du pixel,- une étape de décision par seuillage de ce rapport signal sur bruit pour déterminer si le pixel est un pixel de la cible.L'étape d'estimation de l'arrière-plan du pixel est basée sur la sélection pour chaque pixel, d'une zone dite de voisinage, centrée autour du pixel, cette zone respectant un critère d'uniformité prédéterminé et la taille de cette zone étant la plus proche possible d'une taille maximale prédéterminée.

Description

PROCEDE DE DETECTION D'UNE CIBLE Le domaine de l'invention est celui des systèmes de surveillance. Un système de surveillance a pour fonction de détecter et suivre des cibles pénétrant dans une zone de surveillance. Le problème crucial de la détection de cible dans une séquence vidéo est de trouver un critère désigné critère de détection qui permet de décider pour chaque image comportant des pixels, quels sont les pixels d'une cible. Le choix de ce critère conduit à des performances de détection définies en fonction du couple probabilité de détection - probabilité de fausse alarme.
On rappelle que la probabilité de détection est la probabilité pour un pixel d'une cible d'être considéré comme probablement celui d'une cible ; la probabilité de fausse alarme est la probabilité pour un pixel d'un objet non menaçant d'être sélectionné comme étant probablement celui d'une cible. Dans les systèmes de surveillance de cibles aériennes, on utilise généralement des images acquises dans les longueurs d'onde de l'infrarouge car elles offrent un bon critère de détection dans la mesure où la plupart des cibles sont propulsées et fournissent donc un signal IR élevé. Ce signal s'exprime de la façon suivante selon qu'une cible est présente ou non dans le pixel correspondant.
Smenace ù `cible + Sarrièreùplan _F Sbruit Ssansùmenace = Sarrièreùplan + Sbruit
où Scible est le signal de la cible, Sarrière-plan le signal de l'arrière-plan du pixel (appelé aussi le fond), 25 Sbruit un échantillon aléatoire du bruit du capteur. Le critère de détection pour des images IR est donné par le S/B du signal IR spécifique de la cible. Le rapport signal sur bruit d'une cible est donné par: 6(Sbruit 30 où a (S bruit) est l'écart-type du bruit du capteur. = Scib(e RSBmenace Selon cette définition, une cible possède donc un rapport signal sur bruit non nul, alors qu'un objet du fond possède un rapport signal sur bruit nul. Ce critère peut donc servir à séparer les cibles du fond par simple seuillage. Un estimateur du rapport signal sur bruit en un pixel donné peut 5 être obtenu à partir du signal collecté dans ce pixel par : U(Sbruit ) OÙ <Sarrière-plant est le signal estimé de Sarrière-pian• On obtient donc : >= Smenace ù < Sarrièreùplan > Scible f Sarrièreùplan ù < Sarrièreùplan > +Sbruit < RSBmenace < RSB >_ Ssansùmenace ù < Sarrièreùplan _ Sarrièreùplan ù < Sarrièreùplan > +Sbruit sansùmenace La qualité de l'estimateur est très liée à la qualité de l'estimateur de l'arrière plan de la cible. Cependant, mérne si cette estimation est parfaite, 15 il reste un terme de bruit qui peut faire : • qu'un pixel non menaçant ait un RSB non nul à cause de la réalisation de bruit sur le pixel courant, induisant ainsi une fausse alarme, • qu'un pixel menaçant ait un RSB inférieur à celui prévu, voire inférieur à celui du seuil, induisant ainsi une non détection d'une cible. 20 Une méthode de détection de cibles ponctuelles dans la bande spectrale de l'infrarouge est donc d'estimer en chaque pixel son rapport signal sur bruit, puis de décider que le pixel est une cible si ce rapport signal sur bruit estimé dépasse un seuil fixé. Le problème reste donc de trouver une bonne estimation de 25 l'arrière-plan du pixel étudié alors qu'il est mélangé au signal de la cible dans le signal infrarouge du pixel étudié. II est connu d'estimer le signal de l'arrière-plan en considérant la moyenne d'un arrière-plan de taille fixée, c'est-à-dire la moyenne d'un nombre fixe de pixels uniformément localisés autour du pixel étudié. Cette 30 méthode ne prend pas en compte le biais résultant de l'estimation statistique du signal de l'arrière- plan sur un nombre réduit de pixels. Enfin, cette < RSB >= Sû < Sarrièreùplan 10 6(Sbruit ) 6(Sbruit 6(Sbruit 6(Sbruit méthode s'applique mal à la caractérisation de l'arrière-plan de scènes complexes : si l'arrière-plan estimé contient de l'information qui ne correspond pas à l'arrière-plan réel du pixel étudié, l'estimation du signal de l'arrière-plan est entachée d'erreur. Cet inconvénient est illustré figure 1 dans laquelle sont représentés deux pixels étudiés la et lb, ainsi que les arrière-plans 2a et 2b correspondants qui ont la même taille fixe, en l'occurrence 7 x 7 pixels. L'un de ces arrière-plans 2a coupe une frontière 3 qui matérialise la séparation entre les arrière-plans 2a et 2b, cet arrière-plan 2a n'est donc pas uniforme.
Cela se traduit éventuellement par une mauvaise estimation du S/B des pixels conduisant à une augmentation de la probabilité de fausse alarme et donc à une réduction des performances.
La solution proposée est d'utiliser autour du pixel étudié, une zone (ou arrière-plan) dite zone de voisinage, dont la taille est adaptée à la complexité de la scène locale. Cette taille est calculée en utilisant un critère d'uniformité pour sélectionner localement la plus grande zone quasi-uniforme pour l'estimation de l'arrière-plan. On est alors ramené à l'analyse d'un arrière-plan quasi-uniforme, c'est-à-dire à un problème classique d'estimation de biais. Ceci est illustré figure 2. La taille de la zone de voisinage 2a du pixel la est plus petite ( 3 x 3 pixels) que celle (2b) du pixel 1 b (9 x 9 pixels), le pixel la étant plus proche de la frontière 3 que le pixel lb. Dans le cas limite du pixel 1c, la zone de voisinage est réduite à ce pixel puisqu'il se situe sur la frontière 3. Plus précisément, l'invention a pour objet un procédé de détection d'une cible dans une scène comportant - une étape d'acquisition d'images numériques de la scène au moyen d'un capteur, ces images comportant des pixels, 30 puis pour chaque pixel : - une étape d'estimation de l'arrière plan du pixel, une étape d'estimation du rapport signal sur bruit du pixel, - une étape de décision par seuillage de ce rapport signal sur bruit pour déterminer si le pixel est un pixel de la cible.
Il est principalement caractérisé en ce que l'étape d'estimation de l'arrière-plan du pixel est basée sur la sélection pour chaque pixel, d'une zone dite de voisinage, centrée autour dudit pixel, cette zone respectant un critère d'uniformité prédéterminé et la taille de cette zone étant la plus proche possible d'une taille maximale prédéterminée. On obtient ainsi une estimation non biaisée pour un grand arrière-plan quasi-uniforme. Pour des pixels étudiés proches des limites d'un arrière-plan complexe, la taille de la zone de voisinage est réduite : le biais de l'estimation est cependant très inférieur à celui qui résulterait de l'inclusion de ces limites dans l'estimation de l'arrière-plan. Selon une caractéristique de l'invention, la sélection de la zone de voisinage est basée sur le calcul d'un plan d'intensité centré autour dudit pixel et dont l'écart-type du résidu est inférieur à un seuil prédéterminé Su. Selon une caractéristique de l'invention, la sélection de la zone de voisinage comprend les étapes suivantes consistant à : - A) calculer les paramètres du plan d'intensité le plus proche, - B) calculer un terme lié à l'écart type du résidu dudit plan, - C) lorsque ce terme atteint un seuil prédéterminé Su, la taille de la zone est retenue, sinon les étapes A, B et C sont réitérées à partir d'une taille de zone modifiée. Selon une caractéristique de l'invention, le plan d'intensité le plus proche est calculé par la méthode des moindres carrés. La taille prédéterminée est par exemple la taille maximale et dans l'étape C, la taille de la zone modifiée est une taille réduite.
Selon une caractéristique de l'invention, dans l'étape A, l'un des paramètres est calculé à partir de l'intensité moyenne de ladite zone. Selon un mode de réalisation de l'invention, la zone de voisinage, centrée autour du pixel, exclut ledit pixel. L'invention décrite effectue de façon optimale la détection de cibles qui n'occupent qu'un pixel. Selon une caractéristique de l'invention, avant l'étape d'estimation de l'arrière-plan pour chaque pixel, une étape de changement de l'échelle des pixels intervient, c'est-à-dire qu'un bloc de q x q anciens pixels (ou pixels d'origine) devient un nouveau pixel, q étant un entier supérieur ou égal à 2. Cela permet de détecter les cibles qui occupent plus de un pixel d'origine, par moyennage par blocs de l'image jusqu'à ramener les cibles que l'on veut détecter à n'occuper qu'un nouveau pixel. L'invention a aussi pour objet un système de détection d'une cible dans une scène, comportant un capteur d'images numériques de la scène, une unité de traitement des images, caractérisé en ce que l'unité de traitement comprend des moyens de mise en oeuvre du procédé selon l'une des revendications précédentes.
D'autres caractéristiques et avantages de l'invention apparaîtront 10 à la lecture de la description détaillée qui suit, faite à titre d'exemple non limitatif et en référence aux dessins annexés dans lesquels : la figure 1 déjà décrite illustre le problème posé par des arrière- plans de taille fixe, la figure 2 illustre la solution proposée par l'invention à savoir des 15 zones de voisinage de taille adaptée, la figure 3 est un organigramme des différentes étapes d'un exemple de déroulement du procédé selon l'invention, la figure 4 illustre schématiquement l'application du procédé selon l'invention à un pixel étudié, 20 la figure 5 représente schématiquement un système de détection selon l'invention. D'une figure à l'autre, les mêmes éléments sont repérés par les mêmes références.
25 Selon l'invention, l'étape d'estimation des pixels de l'arrière-plan de la cible est basée sur la sélection pour chaque pixel de l'image, d'une zone dite de voisinage, centrée autour du pixel : cette zone est la plus grande zone uniforme possible. Une zone est uniforme lorsqu'elle respecte un critère d'uniformité prédéterminé, en l'occurrence lorsqu'elle peut être ajustée par 30 un plan d'intensité dont l'écart- type ou plus précisément l'écart-type du résidu, est inférieur à un seuil prédéterminé. Ce seuil est par exemple égal à l'écart-type du bruit du capteur multiplié par un coefficient déterminé. Le plan d'intensité calculé est celui qui approche au mieux la distribution des intensités dans les pixels de la zone considérée. On calcule également 35 I"'écart-type" du plan d'intensité le plus proche, ou plus précisément "écart- type du résidu", qui est la racine carrée de la moyenne des carrés des écarts entre, pour chaque pixel de la zone, l'intensité dans ce pixel et l'intensité du plan d'intensité le plus proche dans ce pixel.. Un autre critère d'uniformité consiste par exemple à seuiller les moments d'ordre n de la distribution locale d'intensité des pixels, ou encore à constituer l'histogramme des pixels du voisinage sélectionné et à le corréler avec une distribution de probabilité gaussienne. La solution retenue l'a été pour sa faible complexité algorithmique ; elle est plus adaptée à un fonctionnement temps réel.
On va décrire la sélection de cette zone en relation avec l'organigramme de la figure 3. Pour chaque pixel de l'image, désigné premier pixel ou pixel suivant , une zone de taille N x N pixels est choisie autour de ce pixel (étape 10). Selon un premier mode de réalisation on choisit à chaque itération de réduire la taille de la zone et l'on sélectionne la première zone rencontrée qui satisfait un critère d'uniformité. Dans ce cas, la taille de la zone choisie à la première itération est la plus grande possible. Dans l'exemple de la figure, la taille maximale de la zone est Nm x Nm pixels avec Nm tel que : • Nm est impair • Nm est inférieur ou égal à N M = 11 • Il existe une zone de taille Nm x Nm pixels incluse dans l'image traitée et centrée autour du pixel étudié, ce qui permet de traiter le cas des pixels situés à la périphérie de l'image, c'est-à-dire ceux qui n'ont pas de voisinage de taille 11x11 pixels totalement inclus dans l'image.
N M x N M = 11 x 11 pixels correspond donc à la plus grande de toutes les zones qui seront testées. N étant fixé, s'enchaînent alors plusieurs étapes. L'étape 20 consiste à calculer l'intensité moyenne de cette zone. Selon un mode de réalisation de l'invention, le pixel étudié est inclus 30 dans la zone de voisinage. L'intensité moyenne m est alors donnée par la formule : m = E I(x,y) / N2 I(x,y) étant l'intensité d'un pixel de coordonnées x, y, la somme des intensités étant calculée sur la zone considérée, elle est donc indicée par les coordonnées x et y des pixels de cette zone, et N2 étant le nombre de pixels de la zone considérée. N2 est égal à Ne, x N, pour la 1 ère zone. Selon un autre mode de réalisation de l'invention, le pixel étudié est exclus de la zone de voisinage. L'intensité moyenne m est alors donnée par la formule : m = E I(x,y) / (N2-1) L'étape suivante (étape 30) consiste à calculer un plan d'intensité Pour cela, chaque pixel se voit attribuer un couple de coordonnées (x,y) selon la loi suivante : - Le voisin de droite d'un pixel de coordonnées (x,y) a pour coordonnées (x+1,y). - Le voisin inférieur d'un pixel de coordonnées (x,y) a pour coordonnées (x,y+1). Il suffit ensuite de fixer les coordonnées (x,y) de n'importe quel point du voisinage, de manière arbitraire, pour ensuite pouvoir constituer un pavage du voisinage propre à l'estimation du plan local. II s'agit donc de trouver le plan d'intensité défini par les paramètres a,b et c, et tel que I(x,y) soit le plus proche possible de ax + by + c en tout point du pavage ci dessus. Ces paramètres sont estimés par exemple par une résolution au sens des moindres carrés. On pourrait également utiliser des méthodes plus complexes comme les moindres carrés pondérés qui permettent d 'exclure automatiquement les points aberrants du voisinage de l'estimation du plan. Cependant, pour des raisons de temps de calcul, on choisit dans cette description de s'en tenir à la résolution au sens des moindres carrés. Des valeurs estimées des paramètres a, b et c, soit ae, be et ce, sont calculées de façon à ce que la somme D= E (I(x,y) ù (ax+by+c))2 qui est une fonction de a, b et c, soit minimale pour a = ae, b = be et c = ce, cette somme étant calculée sur la zone de voisinage. D est la somme sur les pixels de ladite zone des carrés des différences pour chaque pixel entre son intensité et celle d'un plan d'intensité donné. Ceci est obtenu en résolvant le systèrne suivant. bD/ba = 0, bD/bb = 0, ÔD/ôc = 0, où le symbole ô désigne la dérivée partielle, soit E [ (I(x,Y) ù (ae x+be Y+Ce)) . (-x) ] = 0 [ (I(x,Y) ù (ae x+be Y+Ce)) . (-y) ] = 0 [ (I(x,Y) ù (ae x+ be Y+ce)) . (-1) ] = 0 qui conduit à un système de trois équations linéaires en ae, be et ce, soit de façon mathématique : ( ae, be, ce ) = argmin a,b,c D(a,b,c) où argmin a,b,c d'une fonction f(a,b,c) désigne le triplet de valeurs de a,b,c qui 10 minimise f.
Une particularité intéressante est que, si le pixel central de la zone de voisinage a reçu les coordonnées (0,0), alors le coefficient c du plan estimé, soit ce , est égal à l'intensité moyenne dans le voisinage, m, définie à l'étape 15 20, car dans ce cas, on a E(x) = E(y) = O. ce est alors calculé par la formule simple : Ce=EI(x,y)/N2 ou ce:=El(x,y)/(N2ù1) selon que le pixel étudié est inclus dans la zone ou exclus de la zone. Alors le système de trois équations linéaires se réduit à un système de 20 deux équations linéaires en ae et be que l'on peut réécrire sous la forme : ae E(x2) + be E(xy) = [ x I(x,y) ] aeE(xy)+beE(y2)=E[yI(x,Y)]
Par exemple, les intensités respectives des pixels d'une zone de 3 x 3 25 pixels centrée sur le pixel de coordonnées (0,0) sont : I(-1,1), 1(0,1), 1(1,1), l(-1,0), 1(0,0), ... 1(-1,-1). Les coefficients ae, be et ce du plan d'intensité le plus proche étant déterminés, l'étape suivante (étape 40) consiste à calculer l'écart type du résidu c'est-à-dire min a,b,c (D) = D (ae, be, ce) puis l'écart-type du résidu a r = 30 (Dmin/N2)1'2 ou a r = (Dmin/(N2-1))hl2 selon que le pixel étudié est inclus dans la zone ou exclus de la zone. L'étape suivante (étape 50), celle du test d'uniformité, est alors appliquée. Elle consiste à comparer l'écart type du résidu a r à un seuil prédéterminé Su (seuil pour le test d'uniformité) ; ce seuil est un paramètre 35 réglable, il est par exemple égal à l'écart-type du bruit du capteur multiplié par un coefficient déterminé de façon telle qu'une image constituée uniquement du bruit du capteur soit analysée comme uniforme avec une probabilité proche de 1. Si l'écart-type du résidu (ou plus généralement un terme lié à l'écart type du résidu), est supérieur au seuil (a, > Su), cela signifie que l'arrière-plan n'est pas uniforme sur cette zone de voisinage. La taille de la zone est alors réduite, et les étapes 20, 30, 40 et 50 sont réitérées tant que le critère d'uniformité n'est pas atteint. On a par exemple N x N = 9 x 9 pour la 2è zone (2è itération) sur un pixel avec une valeur initiale de N égale à 11 (Nm = 11).
Si l'écart-type du résidu est inférieur ou égal au seuil (a, <_ Su), cela signifie que l'arrière-plan est uniforme sur cette zone de voisinage qui devient la zone sélectionnée. Plus généralement, on choisit comme valeur de N M, toute valeur impaire supérieure à 1. La valeur N M = 11 est la valeur en dessous de laquelle les performances se détériorent significativement, alors que le gain en performance lorsqu'on augmente N M devient négligeable au-dessus de 11. Pour un meilleur compromis performances / temps de calcul, on choisit : NM= 11. Selon un autre mode de réalisation, on choisit à chaque itération 20 d'augmenter la taille de la zone, en prenant alors une taille de zone initiale de 3 x 3 pixels et en sélectionnant la dernière zone rencontrée telle que : - cette zone soit entièrement incluse dans l'image - sa taille ne dépasse pas Nm x Nm pixels - elle satisfasse le critère d'uniformité. 25 Comme indiqué précédemment, le calcul du rapport signal sur bruit estimé pour le pixel étudié répond à la formule :
RSB >= Sù arrièreùplan >
30 où < S arrière-plan > est la valeur estimée de l'arrière plan au niveau du pixel étudié (de coordonnées xc, yc), soit <Sarrière-pjan> =aexc+beyc+Ce et où a (S bruit) est l'écart-type du bruit du capteur. Le numérateur de < RSB > est donc égal à a(Sbruit ) 1 (Xc, Yc) - < S arrière-plan > = I (Xc, Yc) ù (ae Xc + be Yc + Ce)
Ce rapport signal sur bruit estimé est comparé à un seuil Sd (seuil pour la détection, étape 70). S'il est plus grand en valeur absolue, le pixel étudié (xc,yc) est marqué comme correspondant à une cible potentielle (étape 80) ; dans le cas contraire, il est éliminé de la suite du traitement, et ne sera pas considéré comme une cible potentielle. Puis l'on passe à un autre pixel à étudier. Lorsque aucune zone de voisinage uniforme ne peut être sélectionnée, c'est-à-dire lorsque la zone est réduite au pixel étudié, cela signifie que ce pixel est probablement localisé sur une limite (comme le pixel 1c figure 2) et il est alors identifié comme tel. Le traitement spécifique de ce type de pixel ne fait pas partie du procédé objet de cette demande de brevet. On a représenté figure 4 une zone de l'image autour d'un pixel 1 représentatif de la cible. Cette figure illustre le cas où la zone initiale compte 11 x 11 pixels et la zone uniforme 2 qui est la 5è zone sélectionnée, compte 3 x 3 pixels. L'analyse du voisinage regroupe les étapes 20, 30 et 40. La sélection du fond uniforme maximal regroupe l'étape 50 et le rebouclage éventuel sur la taille du voisinage.
L'invention décrite jusqu'à présent effectue la détection de cibles qui n'occupent qu'un pixel. Une adaptation possible de l'invention permet de détecter les cibles de taille supérieure au pixel, par moyennage par blocs de l'image (dits 'nouveaux pixels') jusqu'à ramener les cibles que l'on veut détecter à n'occuper qu'un nouveau pixel.
Si par exemple l'on connaît seulement la taille maximale des cibles à détecter, on peut ainsi analyser consécutivement des images moyennées par blocs 2 x 2, 3 x 3,... jusqu'à p x p, ce qui revient à dézoomer l'image, c'est-à-dire à changer l'échelle du repère O,x,y de l'image : un bloc de q x q anciens pixels devient un nouveau pixel, q étant un entier supérieur ou égal à 2 et pouvant aller jusqu'au nombre p qui correspond à la taille maximale des cibles à détecter. Cette étape intervient avant l'ensemble des étapes d'estimation de l'arrière plan décrites précédemment et qui conduisent à décréter si le pixel correspond à une cible potentielle. On peut ensuite fusionner les pixels détectés (qui ont a priori des 35 tailles différentes) par un algorithme de connexité.
Un système de détection selon l'invention représenté figure 5 comporte un capteur d'images numériques 100 et une unité de traitement 200 de ces images qui comprend des moyens classiques de mise en oeuvre du procédé décrit.

Claims (9)

REVENDICATIONS
1. Procédé de détection d'une cible dans une scène comportant : une étape d'acquisition d'images numériques de la scène au moyen d'un capteur, ces images comportant des pixels, puis pour chaque pixel : une étape d'estimation de l'arrière plan du pixel, une étape d'estimation du rapport signal sur bruit du pixel, - une étape de décision par seuillage de ce rapport signal sur bruit pour déterminer si le pixel est un pixel de la cible, caractérisé en ce que l'étape d'estimation de l'arrière-plan du pixel est basée sur la sélection pour chaque pixel, d'une zone dite de voisinage, centrée autour du pixel, cette zone respectant un critère d'uniformité prédéterminé et la taille de cette zone étant la plus proche possible d'une taille maximale prédéterminée.
2. Procédé selon la revendication précédente, caractérisé en ce que la sélection de la zone de voisinage est basée sur le calcul d'un plan d'intensité centré autour dudit pixel et dont l'écart type du résidu est inférieur à un seuil prédéterminé Su.
3. Procédé selon la revendication précédente, caractérisé en ce que la sélection de la zone de voisinage comprend les étapes suivantes consistant à : - A) calculer les paramètres du plan d'intensité le plus proche d'une zone de taille prédéterminée, - B) calculer un terme lié à l'écart-type du résidu de ce plan, - C) lorsque ce terme atteint un seuil prédéterminé, la taille de la zone est retenue, sinon les étapes A, B et C sont réitérées à partir d'une taille de zone modifiée.
4. Procédé selon la revendication précédente, caractérisé en ce que le plan d'intensité le plus proche est calculé par la méthode des moindres carrés.
5. Procédé selon l'une des revendications 3 ou 4, caractérisé en ce que dans l'étape A, l'un des paramètres est calculé à partir de l'intensité moyenne de la zone de taille prédéterminée.
6. Procédé selon l'une des revendications 3 à 5, caractérisé en ce que la taille prédéterminée est la taille maximale et en ce que dans l'étape C, la taille de zone modifiée est une taille réduite. 10
7. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend, avant l'étape d'estimation de l'arrière plan pour chaque pixel, une étape de changement de l'échelle des pixels c'est-à- dire qu'un bloc de q x q anciens pixels devient un nouveau pixel, q étant un entier supérieur ou égal à 2. 15
8. Procédé selon l'une des revendications précédentes, caractérisé en ce que la zone de voisinage centré autour du pixel, exclut ledit pixel.
9. Système de détection d'une cible dans une scène, comportant un 20 capteur (100) d'images numériques de la scène, une unité (200) de traitement des images, caractérisé en ce que l'unité de traitement comprend des moyens de mise en oeuvre du procédé selon l'une des revendications précédentes.5
FR0707561A 2007-10-26 2007-10-26 Procede de detection d'une cible Active FR2923024B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR0707561A FR2923024B1 (fr) 2007-10-26 2007-10-26 Procede de detection d'une cible
EP08841102A EP2203871A1 (fr) 2007-10-26 2008-10-24 Procede de detection d'une cible
US12/739,469 US20110001823A1 (en) 2007-10-26 2008-10-24 Method for Detecting a Target
CA2704037A CA2704037A1 (fr) 2007-10-26 2008-10-24 Procede de detection d'une cible
PCT/EP2008/064436 WO2009053461A1 (fr) 2007-10-26 2008-10-24 Procede de detection d'une cible

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0707561A FR2923024B1 (fr) 2007-10-26 2007-10-26 Procede de detection d'une cible

Publications (2)

Publication Number Publication Date
FR2923024A1 true FR2923024A1 (fr) 2009-05-01
FR2923024B1 FR2923024B1 (fr) 2010-08-13

Family

ID=39734148

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0707561A Active FR2923024B1 (fr) 2007-10-26 2007-10-26 Procede de detection d'une cible

Country Status (5)

Country Link
US (1) US20110001823A1 (fr)
EP (1) EP2203871A1 (fr)
CA (1) CA2704037A1 (fr)
FR (1) FR2923024B1 (fr)
WO (1) WO2009053461A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955190A1 (fr) * 2010-01-14 2011-07-15 Astrium Sas Procede de detection d'une cible dans une image acquise depuis un vehicule survolant un corps celeste

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUE029105T2 (en) * 2011-12-12 2017-02-28 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for estimating target size
WO2013102797A1 (fr) 2012-01-06 2013-07-11 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Système et procédé pour détecter des cibles dans des applications de surveillance maritime
JP6171727B2 (ja) * 2013-08-23 2017-08-02 ブラザー工業株式会社 画像処理装置、シート、コンピュータプログラム
JP5923670B2 (ja) * 2013-09-27 2016-05-24 富士フイルム株式会社 撮像装置及び撮像方法
CN108614998B (zh) * 2018-04-09 2022-03-08 北京理工大学 一种单像素红外目标检测方法
FR3095541B1 (fr) * 2019-04-24 2021-09-24 Safran Electronics & Defense Procede de detection de cibles
CN110838125B (zh) * 2019-11-08 2024-03-19 腾讯医疗健康(深圳)有限公司 医学图像的目标检测方法、装置、设备、存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2875626A1 (fr) * 2004-09-21 2006-03-24 Thales Sa Procede de detection et de pistage de cibles ponctuelles, dans un systeme de surveillance optronique

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2599855B1 (fr) * 1979-06-15 1988-10-14 Thomson Csf Dispositif de levee d'ambiguite de distance et de vitesse plus particulierement utilise associe a un recepteur radar du type doppler, et radar le comportant
FR2599853B1 (fr) * 1981-05-15 1989-03-31 Thomson Csf Procede de levee d'ambiguite en distance dans un radar pulse doppler, dispositif pour sa mise en oeuvre et radar comportant un tel dispositif
FR2599854B1 (fr) * 1982-12-17 1988-10-14 Thomson Csf Procede de mesure de la distance ambigue et radar doppler a impulsions mettant en oeuvre un tel procede
FR2629922B1 (fr) * 1982-12-30 1990-10-12 Thomson Csf Procede de traitement instantane du bruit de scintillation angulaire et recepteur radar monopulse de poursuite mettant en oeuvre un tel procede
US5341142A (en) * 1987-07-24 1994-08-23 Northrop Grumman Corporation Target acquisition and tracking system
FR2665597B1 (fr) * 1990-07-31 1995-11-17 Thomson Trt Defense Procede et dispositif de localisation en temps reel de contours rectilignes dans une image numerisee, notamment pour la reconnaissance de formes dans un traitement d'analyse de scene.
US5390133A (en) * 1992-09-30 1995-02-14 Martin Marietta Corporation Image processor for target detection and tracking
US5850298A (en) * 1994-03-22 1998-12-15 Ricoh Company, Ltd. Image processing device eliminating background noise
US6909436B1 (en) * 1999-10-27 2005-06-21 The Board Of Supervisors Of Louisiana State University And Agrigultural & Mechanical College Radiologist workstation
US7483551B2 (en) * 2004-02-24 2009-01-27 Lockheed Martin Corporation Method and system for improved unresolved target detection using multiple frame association
FR2897163B1 (fr) * 2006-02-08 2008-04-11 Thales Sa Procede de geo-localisation d'une ou plusieurs cibles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2875626A1 (fr) * 2004-09-21 2006-03-24 Thales Sa Procede de detection et de pistage de cibles ponctuelles, dans un systeme de surveillance optronique

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955190A1 (fr) * 2010-01-14 2011-07-15 Astrium Sas Procede de detection d'une cible dans une image acquise depuis un vehicule survolant un corps celeste
EP2360621A1 (fr) * 2010-01-14 2011-08-24 Astrium Sas Procédé de détection d'une cible dans une image acquise depuis un véhicule survolant un corps céleste

Also Published As

Publication number Publication date
CA2704037A1 (fr) 2009-04-30
FR2923024B1 (fr) 2010-08-13
WO2009053461A1 (fr) 2009-04-30
US20110001823A1 (en) 2011-01-06
EP2203871A1 (fr) 2010-07-07

Similar Documents

Publication Publication Date Title
FR2923024A1 (fr) Procede de detection d&#39;une cible
EP0054598B1 (fr) Procédé d&#39;inspection et de tri automatique d&#39;objets présentant des configurations avec des tolérances dimensionnelles fixes et équipement de mise en oeuvre
EP2930659B1 (fr) Procédé de détection de points d&#39;intérêt dans une image numérique
WO2018109372A1 (fr) Procédé de traitement d&#39;image numérique
JP2012235443A (ja) マシンビジョンシステムのためのノイズ低減技術
FR2805429A1 (fr) Procede de controle de la qualite numeriques distribuees par detection de faux contours
FR3047578A1 (fr) Procede d&#39;estimation de parametres de signaux contenus dans une bande de frequences
EP1995693A1 (fr) Procédé de détection d&#39;un objet en mouvement dans un flux d&#39;images
FR2924514A1 (fr) Correction de bruit d&#39;image.
EP0926625A1 (fr) Procédé de traitement d&#39;image incluant des étapes de filtrage spatio-temporel du bruit et appareil d&#39;imagerie médicale mettant en oeuvre ce procédé
WO1992006558A1 (fr) Procede de mesure du bruit dans une image video active et dispositif pour la mise en ×uvre du procede
EP0410826B1 (fr) Procédé itératif d&#39;estimation de mouvement, entre une image de référence et une image courante, et dispositif pour la mise en oeuvre de ce procédé
FR2940492A1 (fr) Procede d&#39;estimation de mouvement multi-resolutions
WO2019166720A1 (fr) Détection dynamique de lumière parasite dans une image numérique
FR2978274A1 (fr) Procede de traitement differencie de zones d&#39;une image
EP4020978B1 (fr) Procede d&#39;etalonnage d&#39;une matrice de photodetecteurs, dispositif d&#39;etalonnage et systeme d&#39;imagerie associes
EP2939179B1 (fr) Procédé de segmentation d&#39;une image d&#39;un oeil et dispositif associé
EP3963539B1 (fr) Procede et dispositif pour retirer la remanence dans une image infrarouge d&#39;une scene changeante
EP3963540B1 (fr) Procede et dispositif pour retirer la remanence dans une image infrarouge d&#39;une scene statique
WO2018015654A1 (fr) Procede et dispositif d&#39;aide a la navigation d&#39;un vehicule
FR3057692A1 (fr) Procede et systeme electronique de detection d&#39;une cible, programme d&#39;ordinateur associe
EP4386449A1 (fr) Obtention d&#39;une carte de profondeur
FR3103940A1 (fr) Procédé et dispositif de traitement d’images
WO2018178104A1 (fr) Procédé et dispositif d&#39;acquisition et de restitution d&#39;images numériques avec une dynamique étendue
FR3025683A1 (fr) Procede et dispositif d&#39;estimation de parametres d&#39;egalisation d&#39;image numerique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16

PLFP Fee payment

Year of fee payment: 17