FR2721124A1 - Procédé d'acquisition d'une cible dans une séquence d'images. - Google Patents
Procédé d'acquisition d'une cible dans une séquence d'images. Download PDFInfo
- Publication number
- FR2721124A1 FR2721124A1 FR9407248A FR9407248A FR2721124A1 FR 2721124 A1 FR2721124 A1 FR 2721124A1 FR 9407248 A FR9407248 A FR 9407248A FR 9407248 A FR9407248 A FR 9407248A FR 2721124 A1 FR2721124 A1 FR 2721124A1
- Authority
- FR
- France
- Prior art keywords
- sep
- target
- sequence
- image
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
L'invention concerne un procédé d'acquisition d'une cible fixe dans une séquence d'images. Le procédé comprend au moins une étape de détermination d'un point invariant temporel dans la séquence d'images, la cible étant située dans une zone réduite de l'image autour du point invariant, et une étape de recherche de la cible dans la zone réduite. Application: acquisition autonome de cibles par missiles à imagerie.
Description
La présente invention concerne un procédé d'acquisition d'une cible dans une séquence d'images. Elle s'applique notamment à l'acquisition autonome de cibles fixes par un missile à imagerie.
La phase d'acquisition d'une cible par un missile à imagerie débute généralement lorsque le capteur embarqué, un capteur infrarouge par exemple, est capable de former une image de la cible. Le processus d'acquisition se poursuit en guidage inertiel jusqu'à la localisation de la cible dans l'image par l'autodirecteur. Le guidage prend en compte à partir de cet instant les mesures d'écartométrie successives délivrées par l'autodirecteur pour amener la munition jusqu'à l'impact. Durant la séquence en guidage inertiel pur, la trajectoire suivie est le plus généralement rectiligne à hauteur de vol constante et la ligne de visée est continûment pilotée pour que, dans des conditions nominales, la cible soit toujours au centre de l'image.
Cependant, les erreurs de position et d'attitude entachant les données inertielles font que malgré ce pilotage de la ligne de visée, la cible n'est pas toujours au centre de l'image mais à une position inconnue dans l'image.
Des modèles de la cible et de la scène, extérieurs aux données du programme de la trajectoire nominale peuvent être utilisés pour localiser la cible. Toutefois, s'il est demandé de lever toutes les ambiguïtés de localisation, des modèles précis, donc compliqués, sont exigés. II en résulte alors des temps de calcul très longs.
Le but de l'invention est notamment de permettre précisément la localisation d'une cible de façon économique du point de vue temps de calcul, notamment en réalisant dans une première étape une prélocalisation de la cible, des moyens de localisation habituels pouvant par exemple être utilisés pour localiser précisément la cible dans le domaine de prélocalisation.
A cet effet, l'invention a pour objet un procédé d'acquisition d'une cible par un capteur dans une séquence d'images successives, caractérisé en ce qu'il comprend au moins une étape de détermination d'un point invariant temporel dans la séquence d'images, la cible étant située dans une zone réduite de l'image autour du point invariant et une étape de recherche de la cible dans la zone réduite.
L'invention a pour principaux avantages qu'elle permet d'appliquer les techniques classiques de reconnaissance de forme, qu'elle permet de réduire la complexité de modèles de cibles et de scènes à élaborer lors de préparation de missions, qu'elle n'exploite pas d'autres données que celles du programme de la trajectoire nominale et qu'elle est simple à mettre en oeuvre.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description qui suit faite en regard de dessins annexés qui représentent:
- La figure 1, un organigramme du procédé selon l'invention;
- La figure 2, deux axes de visée d'une cible;
- La figure 3, une illustration en partie d'un exemple de détermination d'un point invariant temporel dans une séquence d'images.
- La figure 1, un organigramme du procédé selon l'invention;
- La figure 2, deux axes de visée d'une cible;
- La figure 3, une illustration en partie d'un exemple de détermination d'un point invariant temporel dans une séquence d'images.
La figure 1 illustre par un organigramme le procédé selon l'invention. Dans une première étape 1, un point invariant temporel dans une séquence d'images est déterminé. Cette première étape permet de réaliser une prélocalisation de la cible et donc de réduire le domaine de recherche de cette dernière. La déposante a en effet découvert l'existence d'un point invariant temporel dans une séquence d'images successives et le fait que la cible se situe au voisinage de ce point invariant.Le procédé selon l'invention exploite le fait que compte tenu de la trajectoire en palier, c'est-à-dire à hauteur de vol constante, et du pilotage particulier de la ligne de visée, c'est-à-dire un pilotage où on essaie de fixer toujours le même point, il existe pour une séquence d'images donnée, même en cas d'erreurs sur les estimations essentielles de position et d'attitude, un point du sol qui est quasiment toujours à la même place dans chacune des images de la séquence et le fait que la cible se situe dans une zone réduite de l'image définie autour de ce point invariant temporel. Dans de nombreux cas, le point invariant est d'ailleurs la cible elle-même. La première étape suffit alors à localiser cette dernière.
La première étape 1 peut être suivie d'une deuxième étape 2 de localisation de la cible dans une zone réduite centrée sur le point invariant.
Cette localisation peut être réalisée par toutes méthodes classiques ou autres. En effet, une fois la prélocalisation acquise, les techniques classiques de reconnaissance de formes notamment peuvent être appliquées avec une grande robustesse et une grande rapidité car la faible dynamique de recherche diminue les risques d'ambiguïté et les calculs nécessaires.
La suite de la description montre notamment l'existence d'un point invariant et un exemple de recherche de ce dernier.
La figure 2 présente deux positions de l'axe de visée 21, 22 liés à deux point MI, M2 de position du capteur et situés sur un palier d'altitude 23. La ligne de visée est continûment pilotée pour que, dans des conditions nominales, la cible C apparaisse au centre de l'image 24. Les erreurs de position et d'attitude font que la cible n'apparaît pas toujours au centre mais à un endroit inconnu de l'image 24.
Les erreurs de position sont appelées par la suite:
- erreur de cavalement pour l'erreur suivant l'axe de la trajectoire;
- erreur d'embardée pour l'erreur suivant un axe perpendiculaire à la trajectoire et parallèle au sol;
- erreur de pilonnement pour l'erreur suivant un axe perpendiculaire à la trajectoire et perpendiculaire au sol.
- erreur de cavalement pour l'erreur suivant l'axe de la trajectoire;
- erreur d'embardée pour l'erreur suivant un axe perpendiculaire à la trajectoire et parallèle au sol;
- erreur de pilonnement pour l'erreur suivant un axe perpendiculaire à la trajectoire et perpendiculaire au sol.
Les erreurs d'attitude sont appelées par la suite:
- erreur d'assiette pour l'erreur sur l'angle de l'axe de visée, c'est-à-dire l'axe optique du capteur, avec la trajectoire dans le plan vertical de ceíle-ci;
- erreur de gisement pour l'angle que fait l'axe de visée avec la trajectoire dans le plan horizontal;
- erreur de gîte pour l'angle de rotation parasite de l'image autour de l'axe de visée.
- erreur d'assiette pour l'erreur sur l'angle de l'axe de visée, c'est-à-dire l'axe optique du capteur, avec la trajectoire dans le plan vertical de ceíle-ci;
- erreur de gisement pour l'angle que fait l'axe de visée avec la trajectoire dans le plan horizontal;
- erreur de gîte pour l'angle de rotation parasite de l'image autour de l'axe de visée.
Dès que ces erreurs ne sont pas toutes nulles, la cible n'est pas constamment au centre de l'image durant la séquence, même si elle peut passer temporairement par cette position. Cependant, pour une séquence d'images prises lors de l'approche en palier, les calculs et expériences réalisés par la déposante ont montré qu'il existe un point du sol qui se projette toujours à la même place, généralement différente de la cible mais proche dans les images de la séquence. Pour le prouver, il est commode d'étudier séparément les effets des erreurs d'attitude et de position puis d'étudier les effets de la combinaison de ces erreurs. La durée d'une séquence étant très courte, de l'ordre de quelques secondes, il est justifié de faire l'hypothèse que ces erreurs ne varient pas pendant la durée de la séquence.
Les erreurs d'attitude ne modifient pas la gerbe perspective des conditions de prise de vue nominales qui conduisent à garder la cible au centre de l'image. Ces erreurs ont alors simplement pour effet, dans le cas de petits angles, de modifier le centre du repère image, par des erreurs d'assiette ou de gisement, ou la direction de ce repère, par des erreurs de gîte. En conséquence, si les seules erreurs commises sont des erreurs d'attitude, la cible est toujours un point fixe dans les images de la séquence, mais ce point n'est généralement plus au centre de l'image. Pour les erreurs d'attitude seules, le point invariant est la cible elle-même.
Une erreur de cavalement, constante durant la séquence, a pour effet de maintenir au centre de l'image un point fixe de la scène qui n'est pas la cible mais qui est à une distance au sol de celles égale à l'erreur commise.
Une erreur de pilonnement, constante durant la séquence, a pour effet de faire converger les directions successives de l'axe de visée en un point virtuel A qui est au-dessus ou en-dessous du sol, suivant le sens de l'erreur et qui est à la verticale de la cible. Si D est le point de la trajectoire à égale distance du point de début de séquence et du point de fin de séquence, la déposante a vérifié qu'il existe un cercle C tangent en D à la trajectoire et passant par le point virtuel A précité. Ce cercle coupe le sol en un point B. De tous les points du cercle C, le segment AB est vu sous un angle constant puisque le cercle C est en effet l'arc capable du segment AB pour cet angle. Or, lorsque le point D est suffisamment éloigné de la cible, le cercle reste très proche de la trajectoire horizontale sur un intervalle de longueur assez important. Pour une séquence de durée limitée mais qui peut être d'autant plus longue qu'elle se place loin de la cible, il y a donc en cas d'erreur de pilonnement seule, un point, le point B précité, qui a quasiment la même position dans les images de la séquence. Cette position peut être par exemple déterminée en utilisant la définition de l'arc capable.
Une erreur d'embardée, constante durant la séquence, a pour effet de tenir fixe au centre des images d'une séquence un point du sol différent de la cible et écarté latéralement de celle-ci de la valeur de l'erreur.
Les six erreurs ci-dessus se combinent dans la réalité de manière pratiquement indépendante, au moins au premier ordre près. Les erreurs de position conduisent à un point invariant temporel dans la séquence différent de la cible et les erreurs d'attitude conduisent à déplacer ce point dans l'image. La propriété d'invariance temporelle de la position d'un point de la scène dans la séquence d'images est donc établie, pourvu toutefois que les erreurs d'attitude soient de petits angles, ce qui est généralement le cas, et que la durée de la séquence soit convenablement choisie, notamment dans des limites assez larges quant à l'erreur de pilonnement.
Des méthodes classiques permettant de déterminer le mouvement entre deux ou plusieurs images peuvent être appliquées à la recherche du point invariant bien qu'habituellement ces méthodes ne soient pas destinées à cet objectif puisque le point invariant n'est pas recherché.
Une première méthode peut utiliser par exemple le calcul du flot optique. Le flot optique correspond au champ des vitesses instantanées des points de l'image. II ne peut donc être calculé qu'entre des images très voisines. Le calcul fait généralement appel aux dérivées spatiales et à la dérivée temporelle du signal en tous les points de l'image. Les dérivées spatiales sont calculées sur le voisinage d'un point, la dérivée temporelle est liée à la différence du signal entre le même point de deux images consécutives. Si le calcul des dérivées spatiales est limité au premier ordre, pour que le mouvement soit identifiable son amplitude doit être inférieure à un pixel, c'est-à-dire à un élément d'image.
Une deuxième méthode peut utiliser par exemple le calcul du champ des vecteurs déplacement. Le champ des vecteurs déplacement peut être calculé entre deux images même éloignées. Le calcul nécessite en général la recherche dans chacune des images d'un certain nombre de points d'intérêt et l'appariement des points d'intérêt d'une image avec ceux de l'image suivante, le champ des vecteurs déplacement se déduisant de ces appariements. Une fois connu le champ des vitesses ou champ des vecteurs déplacement, le point invariant est aisément identifiable. Ce point a une vitesse ou un déplacement nul ou minimum.
Quoique les méthodes ci-dessus soient applicables, elles présentent certaines limitations. Une première limitation consiste par exemple dans le fait qu'à haute fréquence, ces méthodes ne peuvent plus être appliquées à cause du grand nombre de calculs qui ne peuvent plus être effectués à partir d'une haute cadence donnée.
Selon l'invention, une méthode peut être appliquée. Cette méthode utilise le fait que seul le point invariant est recherché et qu'il n'est pas nécessaire d'établir le déplacement des autres points. D'image à image, le mouvement du point invariant doit être très faible, inférieur notamment à une fraction de pixel. Le signal dans l'image la plus récente doit donc être très proche de ce qu'il est dans l'image la plus ancienne. Plus exactement, ce signal doit être à l'intérieur de la dynamique du signal de l'image ancienne dans un petit voisinage du point considéré, la taille du voisinage étant déterminée à partir de l'intervalle entre images de la séquence.
La figure 3 illustre en partie cette méthode de recherche du point invariant. En chaque point de l'image ancienne, la dynamique sur le voisinage est calculée, la taille du voisinage étant un paramètre à régler par exemple en fonction de la configuration. Dans l'exemple de la figure 3, un extrait d'image brute ou image ancienne 31 est représenté, chaque point étant représenté par son niveau d'intensité, un nombre à trois chiffres dans cet exemple d'illustration. La taille du voisinage est par exemple définie par un rayon de voisinage de 0,2 pixel. Ainsi, une deuxième image 32 présente alors la dynamique sur le voisinage d'un point de niveau d'intensité 140.Par exemple, un point voisin de niveau d'intensité 130 situé sur la même ligne définit dans la deuxième image 32 un point de niveau d'intensité:
140+0,2(130-140) = 138
Un point voisin, mais situé sur une diagonale définit un point d'intensité:
approximativement.
140+0,2(130-140) = 138
Un point voisin, mais situé sur une diagonale définit un point d'intensité:
approximativement.
Selon ce paramètre de voisinage de 0,2 pixel et les niveaux d'intensité de l'image brute, la dynamique sur le voisinage du point de niveau d'intensité 140 varie de 136 à 144.
Si le signal en ce même point, de niveau 140 par exemple, est à l'intérieur de cette dynamique, c'est-à-dire que le point à un déplacement inférieur à un seuil donné correspondant au voisinage prédéfini, ce point est considéré comme invariant pour le couple d'images, ancienne et nouvelle.
Cela définit un point invariant potentiel pour la séquence d'images.
Pour les différents couples d'images successives, I'intersection des ensembles des points invariants potentiels donne un ensemble réduit de points. Les points isolés de cet ensemble sont éliminés, par filtrage par exemple. Le point invariant est le centre de la tache restante la plus large.
Dans ce cas particulier des seules erreurs d'attitude, le point invariant donne la position de la cible dans l'image. Cette propriété est particulièrement intéressante car à grande distance de la cible, ce sont les erreurs d'attitude qui ont le plus d'effet sur le déplacement de la cible et le point invariant est donc alors très proche de la cible.
Dans le cas général, des erreurs de position se superposent aux erreurs d'attitude, ce qui fait que le point invariant n'est pas la cible recherchée. Cependant, la position de la cible par rapport à ce point est circonscrite à une petite portion d'image qui peut être calculée à l'avance en fonction des erreurs maximales possibles.
Dans le sens vertical, la zone réduite de localisation de la cible correspond par exemple à la distance maximale dans l'image entre la cible et le point invariant dans le sens vertical. Cette distance est maximale pour l'image la plus récente de la séquence car plus le capteur se rapproche de la cible, plus l'erreur est grande.
Dans le sens horizontal, la zone réduite correspond par exemple à la distance maximale dans l'image entre la cible et le point invariant dans le sens horizontal. Cette distance est maximale pour l'image la plus récente de la séquence. Elle peut notamment se calculer en fonction de l'erreur maximale d'embardée.
La taille de la zone réduite de localisation autour du point invariant étant définie par Sx dans le sens horizontal et Sy dans le sens vertical, Sx et Sy peuvent être par exemple définis par les relations qui suivent.
Sx n'est nul que si l'erreur d'embardée est nulle, car l'effet de l'erreur de gîte qui est du second ordre peut être négligé. La cible se trouve à la distance latérale EREMB du point fixe, cette distance se trouvant bomée par - MEREMB ou + MEREMB, où:
- EREMB représente l'erreur d'embardée;
- MEREMB représente le module de l'erreur maximale d'embardée.
- EREMB représente l'erreur d'embardée;
- MEREMB représente le module de l'erreur maximale d'embardée.
Sur la dernière image de la séquence, Sx peut donc être évalué comme l'empreinte sur l'image d'un segment horizontal de longueur 2 MEREMB. soit:
<tb> Sx <SEP> = <SEP> 2 <SEP> DIM
<tb> <SEP> fDy2 <SEP> +Z2
<tb> <SEP> V <SEP> tg <SEP> (DCH)
<tb>
où - DIM représente la demi-taille de l'image, en pixels par exemple;
- Df représente la distance horizontale nominale du capteur à la cible pour la dernière image de la séquence;
- Z représente la hauteur de vol nominale au-dessus du sol
- tg (DCH) représente la tangente du demi-champ DCH du capteur.
<tb> <SEP> fDy2 <SEP> +Z2
<tb> <SEP> V <SEP> tg <SEP> (DCH)
<tb>
où - DIM représente la demi-taille de l'image, en pixels par exemple;
- Df représente la distance horizontale nominale du capteur à la cible pour la dernière image de la séquence;
- Z représente la hauteur de vol nominale au-dessus du sol
- tg (DCH) représente la tangente du demi-champ DCH du capteur.
Dans un cas typique défini par:
- DCH = 4O
-Z = 300m 300m
- MEREMB = 90m
-Df= 3000m
Sx correspond à 44% de la largeur totale de l'image.
- DCH = 4O
-Z = 300m 300m
- MEREMB = 90m
-Df= 3000m
Sx correspond à 44% de la largeur totale de l'image.
En ce qui conceme Sy, Sy n'est nul que si les erreurs de pilonnement et de cavalement sont nulles, L'effet de l'erreur de gîte est là encore du second ordre et peut donc être négligé.
En l'absence d'erreur de cavalement, la distance notée XB de la cible au point invariant pour l'erreur de pilonnement notée ERPIL peut être donnée par la relation:
<tb> XB <SEP> =D--2 <SEP> (R <SEP> (Z+ERPIL))I
<tb>
où - D représente la distance horizontale à la cible du capteur à la position moyenne dans la séquence;
- Z représente la hauteur de vol nominale au-dessus du sol; D + Z
- R =
2Z
XB varie entre xl et x2 tels que:
<tb>
où - D représente la distance horizontale à la cible du capteur à la position moyenne dans la séquence;
- Z représente la hauteur de vol nominale au-dessus du sol; D + Z
- R =
2Z
XB varie entre xl et x2 tels que:
<tb> xl=D- <SEP> (Z <SEP> + <SEP> MERPIL))2 <SEP> ,Xl(O
<tb> x2 <SEP> = <SEP> D <SEP> - <SEP> R2(R <SEP> MERPIL))2 <SEP> ,x2 > O
<tb>
où MERPIL représente le module de l'erreur maximale de pilonnement.
<tb> x2 <SEP> = <SEP> D <SEP> - <SEP> R2(R <SEP> MERPIL))2 <SEP> ,x2 > O
<tb>
où MERPIL représente le module de l'erreur maximale de pilonnement.
En tenant compte de l'erreur maximale de cavalement, la distance de la cible au point invariant est comprise dans l'intervalle xx1 ou xx2 où:
xxl = xl - MERCAV
xx2 = x2 + MERCAV
où MERCAV représente le module de l'erreur maximale de cavalement.
xxl = xl - MERCAV
xx2 = x2 + MERCAV
où MERCAV représente le module de l'erreur maximale de cavalement.
tg et arctg représentant respectivement les fonctions tangente et arctangente, les autres termes ayant été définis précédemment.
Dans un cas typique défini par:
- DCH = 4
- D = 3250m, pour une séquence où la distance horizontale à la cible varie par exemple de 3500 à 3000m.
- DCH = 4
- D = 3250m, pour une séquence où la distance horizontale à la cible varie par exemple de 3500 à 3000m.
- Z = 300m
- MERPIL = 30m
- MERCAV = 90m -Df=3000m
Sy correspond à moins de 15% de la hauteur totale de l'image.
- MERPIL = 30m
- MERCAV = 90m -Df=3000m
Sy correspond à moins de 15% de la hauteur totale de l'image.
La zone réduite dans laquelle se situe la cible a pour dimensions
Sx horizontalement et Sy verticalement. Cette zone est centrée dans la dernière image de la séquence sur le point invariant trouvé. Une fois cette zone réduite définie, la cible peut être recherchée à l'intérieur de celle-ci par une méthode de reconnaissance de forme classique, appropriée.
Sx horizontalement et Sy verticalement. Cette zone est centrée dans la dernière image de la séquence sur le point invariant trouvé. Une fois cette zone réduite définie, la cible peut être recherchée à l'intérieur de celle-ci par une méthode de reconnaissance de forme classique, appropriée.
Avec les valeurs de Sx et Sy précédemment définies, il apparaît que la zone réduite, définie autour du point invariant et dans laquelle doit nécessairement se trouver la cible, correspond à moins de 10% de la surface totale de l'image. Cela entraîne une réduction des calculs de localisation de la cible d'au moins un facteur 10.
Les étapes d'acquisition d'une cible du procédé selon l'invention peuvent par exemple être mises en oeuvre par les sous-étapes suivantes:
- Déterminer les instants de début et de fin de la sous-séquence qui sera utilisée pour la recherche du point invariant. Ces instants sont définis pour que la propriété d'invariance soit respectée pour l'erreur maximale admissible de pilonnement;
- Déterminer le rayon du voisinage dans lequel l'homologue dans l'image suivante du point invariant d'une image de la séquence devra nécessairement se trouver. Ce rayon dépend des caractéristiques de la séquence et notamment de l'intervalle entre images;
- Rechercher le point invariant par la méthode exposée précédemment.Pour le premier couple d'images, L'image initiale est parcourue complètement et l'ensemble des points invariants potentiels dans l'image aval est à l'intérieur, bornes comprises par exemple, de la dynamique du voisinage défini sur l'image amont. Pour les couples suivants, il n'est pas nécessaire de parcourir la totalité de l'image amont, mais seulement les points qui sont encore, à ce stade des invariants potentiels.
- Déterminer les instants de début et de fin de la sous-séquence qui sera utilisée pour la recherche du point invariant. Ces instants sont définis pour que la propriété d'invariance soit respectée pour l'erreur maximale admissible de pilonnement;
- Déterminer le rayon du voisinage dans lequel l'homologue dans l'image suivante du point invariant d'une image de la séquence devra nécessairement se trouver. Ce rayon dépend des caractéristiques de la séquence et notamment de l'intervalle entre images;
- Rechercher le point invariant par la méthode exposée précédemment.Pour le premier couple d'images, L'image initiale est parcourue complètement et l'ensemble des points invariants potentiels dans l'image aval est à l'intérieur, bornes comprises par exemple, de la dynamique du voisinage défini sur l'image amont. Pour les couples suivants, il n'est pas nécessaire de parcourir la totalité de l'image amont, mais seulement les points qui sont encore, à ce stade des invariants potentiels.
- Par diverses opérations de filtrage, éliminer les points isolés et les artefacts de l'ensemble résultant des points invariants
- Rechercher la région connexe de plus grande surface dans l'ensemble des points invariants;
- Déterminer par exemple le centre de la région précédente qui est le point invariant et reporter ce point sur la dernière image de la séquence;
- Déterminer la taille de la zone réduite dans laquelle doit nécessairement se trouver la cible, ce calcul étant fait pour l'image la plus récente de la séquence;
- Positionner cette zone réduite sur la dernière image de la séquence;
- Rechercher la cible par une méthode de reconnaissance de forme appropriée dans la zone réduite ainsi déterminée.
- Rechercher la région connexe de plus grande surface dans l'ensemble des points invariants;
- Déterminer par exemple le centre de la région précédente qui est le point invariant et reporter ce point sur la dernière image de la séquence;
- Déterminer la taille de la zone réduite dans laquelle doit nécessairement se trouver la cible, ce calcul étant fait pour l'image la plus récente de la séquence;
- Positionner cette zone réduite sur la dernière image de la séquence;
- Rechercher la cible par une méthode de reconnaissance de forme appropriée dans la zone réduite ainsi déterminée.
Les étapes du procédé selon l'invention montrent que celui-ci n'exploite pas d'autres données que celles du programme de la trajectoire nominale et donc qu'il n'est pas nécessaire de disposer de données embarquées de modèles de la cible et de la scène pour parvenir notamment à la prélocalisation de la cible dans une zone réduite de l'image.
Le procédé selon l'invention permet aussi de réduire l'emprise et la complexité du modèle à élaborer lors de la préparation de mission puisque l'emprise du modèle peut être limitée au seul voisinage de la cible.
Claims (9)
- REVENDICATIONS1. Procédé d'acquisition d'une cible par un capteur dans une séquence d'images successives (24), caractérisé en ce qu'il comprend au moins une étape (1) de détermination d'un point invariant temporel dans la séquence d'images, la cible étant située dans une zone réduite de l'image autour du point invariant et une étape (2) de recherche de la cible dans la zone réduite.
- 2. Procédé selon la revendication 1, caractérisé en ce que la zone réduite est centrée sur le point invariant.
- 3. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la détermination du point invariant est réalisée par la recherche entre deux images successives de points invariants potentiels dont le déplacement est inférieur à un seuil donné et par intersection pour les couples d'images de la séquence des ensembles de points invariants potentiels déterminés pour chaque couple, les points isolés de l'intersection étant éliminés par filtrage et la région connexe de plus grande surface étant recherchée dans l'intersection, le point invariant étant situé dans cette région connexe.
- 4. Procédé selon la revendication 3, caractérisé en ce que le point invariant est situé sensiblement au centre de la région connexe de plus grande surface.
- 5. Procédé selon l'une quelconque des revendications 3 ou 4, caractérisé en ce que le seuil est fonction de l'intervalle entre les images de la séquence.
- 6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que le point invariant est recherché dans une sous-séquence d'image, les instants de début et de fin de la sous-séquence étant définis pour que le point invariant existe pour l'erreur maximale admissible de pilonnement dans la sous-séquence.
- 7. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la zone réduite est reportée sur la dernière image de la séquence;
- 8. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la longueur horizontale Sx de la zone réduite est définie par la relation suivante:- tg (DCH) représente la tangente du demi-champ DCH du capteur.- Z représente la hauteur de vol nominale au-dessus du sol- Df représente la distance horizontale nominale du capteur à la cible pour la dernière image de la séquence;- DIM représente la demi-taille d'une image;<tb><tb> <SEP> tg <SEP> (DCH)<tb> <SEP> Df2 <SEP> +Z2<tb> 5r=2DIM
- 9. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la longueur verticale Sy de la zone réduite est définie par la relation suivante:<tb> avec: :<tb> <SEP> tg <SEP> (DCN)<tb> S <SEP> DIX <SEP> -xl <SEP> - <SEP> MER( <SEP> ~ <SEP> x2 <SEP> + <SEP><tb> <SEP> tg <SEP> [=c,gS <SEP> xl <SEP> ERRA <SEP> - <SEP> + <SEP> Zctgf- MERCAV représente le module de l'erreur maximale de cavalement.- MERPIL représente le module de l'erreur maximale de pilonnement;- Df représente la distance horizontale nominale du capteur à la cible pour la dernière image de la séquence;- DIM représente la demi-taille d'une image;2Z- R =D + Z- Z représente la hauteur de vol nominale au-dessus du sol;où - D représente la distance horizontale à la cible du capteur à la position moyenne dans la séquence;<tb><tb> x2 <SEP> = <SEP> D <SEP> - <SEP> (Z <SEP> - <SEP> UR(zMERPLc))2<tb> xl <SEP> = <SEP> D <SEP> - <SEP> R-(z+MkRPLL))2
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9407248A FR2721124B1 (fr) | 1994-06-14 | 1994-06-14 | Procédé d'acquisition d'une cible dans une séquence d'images. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9407248A FR2721124B1 (fr) | 1994-06-14 | 1994-06-14 | Procédé d'acquisition d'une cible dans une séquence d'images. |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2721124A1 true FR2721124A1 (fr) | 1995-12-15 |
FR2721124B1 FR2721124B1 (fr) | 1996-07-12 |
Family
ID=9464183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR9407248A Expired - Fee Related FR2721124B1 (fr) | 1994-06-14 | 1994-06-14 | Procédé d'acquisition d'une cible dans une séquence d'images. |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2721124B1 (fr) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0385384A2 (fr) * | 1989-03-01 | 1990-09-05 | Siemens Aktiengesellschaft | Procédé de détection et de poursuite d'objets en mouvement dans une séquence d'images binaires avec un fond mouvant |
EP0390050A2 (fr) * | 1989-03-31 | 1990-10-03 | Honeywell Inc. | Méthode et appareil pour la détection de mouvement et la poursuite |
-
1994
- 1994-06-14 FR FR9407248A patent/FR2721124B1/fr not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0385384A2 (fr) * | 1989-03-01 | 1990-09-05 | Siemens Aktiengesellschaft | Procédé de détection et de poursuite d'objets en mouvement dans une séquence d'images binaires avec un fond mouvant |
EP0390050A2 (fr) * | 1989-03-31 | 1990-10-03 | Honeywell Inc. | Méthode et appareil pour la détection de mouvement et la poursuite |
Non-Patent Citations (2)
Title |
---|
BORGHYS D ET AL.: "Long Range Automatic Detection of Small Targets in Sequences of Noisy Thermal Images", CONFERENCE: SIGNAL AND DATA PROCESSING OF SMALL TARGETS 1994, vol. 2235, 5 April 1994 (1994-04-05), ORLANDO, FL, USA, pages 264 - 275 * |
GAMBOTTO J P: "Correspondence Analysis for Target Tracking in Infrared Images.", 7TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, vol. 1, 30 July 1984 (1984-07-30), MONTREAL, QUE., CANADA, pages 526 - 529 * |
Also Published As
Publication number | Publication date |
---|---|
FR2721124B1 (fr) | 1996-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2899332A1 (fr) | Dispositif de mesure de champ de visibilite pour vehicule et systeme d'assistance a la conduite pour vehicule | |
EP0650299B1 (fr) | Procédé de traitement des niveaux de luminance dans une image composite et système de traitement d'image appliquant ce procédé | |
FR2883826A1 (fr) | Appareil d'assistance a la conduite d'un vehicule | |
FR2685089A1 (fr) | Procede de detection automatique de particularites pour navigation avec sonar de balayage lateral, avec adaptation d'images sonar. | |
EP2924671A1 (fr) | Système de classification automatique de véhicules automobiles | |
WO2016156352A1 (fr) | Procede de determination d'une direction d'un objet a partir d'une image de l'objet | |
FR3062507A1 (fr) | Procede et dispositif pour l'etalonnage d'un systeme de perception comportant un ensemble de telemetres lidar | |
WO2014166986A1 (fr) | Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference | |
FR3096130A1 (fr) | Dispositif de reconnaissance de voies de circulation et procede de reconnaissance de voies de circulation | |
FR2858447A1 (fr) | Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications | |
EP2161677A1 (fr) | Procédé de détection d'un objet cible pour véhicule automobile | |
FR2721124A1 (fr) | Procédé d'acquisition d'une cible dans une séquence d'images. | |
EP2513592B1 (fr) | Procede de designation d'une cible pour un armement a guidage terminal par imagerie | |
FR3053554A1 (fr) | Procede de calibration rapide d'une camera de vehicule automobile | |
EP3776471B1 (fr) | Procédé pour la localisation d'une cible à partir d'un contour elliptique | |
FR2950451A1 (fr) | Algorithme de detection des points de contour dans une image | |
EP2000977B1 (fr) | Procédé de détection d'un véhicule | |
EP3504683B1 (fr) | Procédé de détermination de la pose de la tête d'un conducteur de véhicule | |
EP1371958B1 (fr) | Procédé et dispositif d'extraction de signature spectrale d'une cible ponctuelle | |
FR2938228A1 (fr) | Procede de mesure de distance au moyen d'une camera embarquee dans un vehicule automobile | |
FR2937775A1 (fr) | Procede de detection d'un objet cible pour vehicule automobile | |
EP1839009A2 (fr) | Missile equipe d'un autodirecteur comportant une antenne de radar a synthese d'ouverture et procede de guidage associe | |
FR2699666A1 (fr) | Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain. | |
EP3072110B1 (fr) | Procédé d'estimation du mouvement d'un objet | |
EP2877979B1 (fr) | Methode monocamera de determination d'une direction d'un solide |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
CD | Change of name or company name | ||
ST | Notification of lapse |