FR2736149A1 - Dispositif de reconnaissance et de poursuite d'objets - Google Patents

Dispositif de reconnaissance et de poursuite d'objets Download PDF

Info

Publication number
FR2736149A1
FR2736149A1 FR8911718A FR8911718A FR2736149A1 FR 2736149 A1 FR2736149 A1 FR 2736149A1 FR 8911718 A FR8911718 A FR 8911718A FR 8911718 A FR8911718 A FR 8911718A FR 2736149 A1 FR2736149 A1 FR 2736149A1
Authority
FR
France
Prior art keywords
objective
image
objectives
parameters
border
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8911718A
Other languages
English (en)
Other versions
FR2736149B1 (fr
Inventor
Nikolaus Schweyer
Fred Holick
Rudolf Pfefferle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Messerschmitt Bolkow Blohm AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Messerschmitt Bolkow Blohm AG filed Critical Messerschmitt Bolkow Blohm AG
Publication of FR2736149A1 publication Critical patent/FR2736149A1/fr
Application granted granted Critical
Publication of FR2736149B1 publication Critical patent/FR2736149B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

Dispositif pour la reconnaissance et la poursuite d'objets à partir d'éléments caractéristiques (par exemple un contour ou une signature) à partir desquels ils peuvent être identifiés à distance en vol devant un fond au moyen d'un capteur (1) formant une image et d'un circuit de traitement (2, 3, 4, 5) pour les signaux obtenus en vue d'une comparaison avec des signaux de référence préalablement mémorisés (11).

Description

DISPOSITIF DE RECONNAISSANCE ET DE POURSUITE D'OBJETS.
La présente invention a pour objet un dispositif permettant la reconnaissance de structures qui présentent au moins des portions rectilignes et présentent dans la zone de ces portions une confi- guration connue qui peut être mémorisée dans un calculateur de façon
à rendre identifiables la structure et/ou les objets.
On sait depuis longtemps utiliser la navigation inertielle dans des procédés de navigation afin de pouvoir diriger le vol d'approche vers une zone d'objectif déterminée. La précision n'est cependant généralement pas suffisante pour atteindre des objectifs ponctuels afin de les détruire d'un seul coup, en particulier lorsqu'il s'agit d'objectifs mobiles. Un tel vol d'approche en direction de l'objectif suppose toujours la localisation préalable de l'objectif ou la reconnaissance de l'objectif. Cela peut être réalisé d'une manière active ou passive au moyen de récepteurs, capteurs, caméras, etc. En général, le trajet à proximité de la zone de l'objectif est préalablement donné et un dispositif de recherche et de reconnaissance d'objectif n'est nécessaire que pour la fin du vol d'approche vers l'objectif. Dans l'électronique aérienne la plus récente, on cherche à profiter de la meilleure manière possible de la technique des ordinateurs comme cela est par exemple décrit dans la revue "Elektronik" du 15 Mai 1987 aux pages 8 et 9 o l'on utilise des cartes de navigation numérisées. Les cartes mémorisées sous forme numérique sont appelées par portions depuis la mémoire de l'ordinateur et comparées dans un dispositif de corrélation d'image avec l'image qui vient d'être prise et qui provient de ce que l'on appelle un "capteur de vision vers l'avant" ou d'une caméra de télévision. Ce principe de navigation peut également être utilisé pour la reconnaissance d'objectifs fixes, une image de l'objectif étant
embarquée et l'image captée étant comparée avec celle-ci.
Indépendamment du fait qu'il est nécessaire de disposer d'une capacité de mémoire considérable qui doit être intégrée dans un espace extrêemement réduit, l'ensemble devant fonctionner de manière fiable, il est en outre nécessaire de mettre à jour régulièrement les cartes c'est- à-dire de les actualiser, si l'on veut éviter toute erreur de reconnaissance de l'objectif. De plus, lors de vols d'approche vers l'objectif à basse altitude, il est nécessaire de disposer d'images effectives de l'objectif vues de chaque direction de vol désirée, tenant compte des conditions métérologiques et saisonnières. Un tel procédé de tramage ou de balayage est par exemple décrit dans la demande de brevet allemand 2 914 693. De tels procédés autorisent une grande précision mais sont cependant complexes dans leur mise en oeuvre et leur logistique. Il en est de même ou de manière similaire pour les prises de vues de référence et les comparaisons telles qu'elles sont décrites dans le brevet
allemand 3 110 691 et la demande de brevet allemand 3 427 020.
L'objet de la présente invention est de réaliser un dispositif de reconnaissance d'objectif qui puisse fonctionner sans la corrélation d'images réalisée entre chaque image complète de la carte
telle qu'elle est enregistrée et telle qu'elle est mémorisée.
Le dispositif selon la présente invention pour la reconnaissance et la poursuite d'objets à partir de caractéristiques telles que par exemple un contour ou une signature par lequel ces objets peuvent être identifiés à distance en vol par rapport à un fond, utilise un capteur d'image et un circuit de traitement pour les signaux ainsi obtenus en vue de leur comparaison avec des signaux de référence préalablement mémorisés. Selon l'invention, les signaux de sortie d'un capteur d'image de type connu, stabilisé en position, sont analysés en ce qui concerne les gradients de luminosité en vue de l'extraction de lignes de bordure. Des points de bordure sont sélectionnés à partir des valeurs extrêmes locales des gradients de luminosité au moyen de la formation adaptative de valeurs de seuil dans le circuit de traitement de signaux. Les points de bordure qui se trouvent alignés sont représentés par des valeurs extrêmes locales au moyen d'une transformation paramétrique (transformation de Hough), ces valeurs extrêmes représentant par leurs paramètres (par exemple la pente et la portion axiale) une portion de droite. Les paramètres mesurés sont comparés avec des paramètres de référence mémorisés en tenant compte des données de la trajectoire mesurée (telles que durée, distance parcourue, altitude, position de l'objectif, trajectoire) cette comparaison se faisant dans un calculateur d'exploitation et le résultat de la comparaison (position, direction de l'objectif) est retransmis à la sortie pour traitement ultérieur
et/ou visualisation.
Le signal de sortie du capteur est analysé dans une pluralité de sections individuelles d'image en ce qui concerne la luminosité moyenne et la variance. On calcule pour chaque section individuelle d'image d'une pluralité desdites sections, un histogramme des valeurs de gris des points de bordure. A partir des données ainsi obtenues en ce qui concerne la luminance moyenne, la variance et l'histogramme des valeurs de gris, on calcule pour chaque section d'image, deux valeurs de seuil qui distinguent les valeurs de luminance par trois mots clair/normal/foncé de façon à former l'image en une image à trois étages de valeur. Toutes les parties d'image désignées par "clair" ou "foncé" sont analysées grossièrement en ce qui concerne leur dimension, leur forme et leur position afin de déterminer s'il peut s'agir de l'objectif recherché ou si des objectifs possibles sont mélangés avec d'autres objets auquel cas les objectifs sont différenciés. Tous les objectifs possibles sont alors analysés avec précision en ce qui concerne leurs caractéristiques de forme, de position et d'orientation afin de déterminer s'il s'agit des objectifs
recherchés.
D'autres caractéristiques de l'invention sont mentionnées ci-après. La recherche des objectifs peut être commutée sur au moins deux degrés, de grossier à fin, l'étagement des paramètres étant
réduit lors de la détermination des valeurs extrêmes locales.
La précision de la recherche d'objectifs est augmentée en répétant chaque fois les étapes individuelles de recherche ou les pas de recherche sur une pluralité de sections individuelles
différentes d'images.
Après la comparaison des paramètres mesurés avec les paramètres mémorisés dans le circuit d'exploitation au moyen de calculateur, on procède à un examen de vraisemblance du résultat (recherche d'objectif) en particulier en ce qui concerne la dimension, l'éloignement, la position et le nombre des objets, de façon à permettre l'élimination, en particulier des objets
parasites.
Lors de l'extraction des bordures et/ou la sélection des points, on ne tient compte que des directions de bordure se trouvant dans une zone de tolérance prédéterminée autour d'une direction prévue. Le dispositif de reconnaissance d'objectif comprend un capteur de formation d'images, un circuit de traitement de signaux et un circuit d'exploitation comportant un calculateur pour la réalisation d'une analyse de valeurs de gris des signaux de sortie du capteur de formation d'images (par exemple une image de valeur de gris à 8 bits correspond à une image de gradient), le circuit de traitement de signaux comportant des dispositifs de génération de valeurs de seuil de luminosité de façon à réaliser dans le circuit d'exploitation de signaux une répartition sur trois valeurs clair/normal/foncé permettant la détermination d'un centre de gravité de surface et de caractéristiques de contour de l'objectif, en particulier par la formation de coordonnées de l'objectif et de ses points de contour, le calculateur déterminant, en vue de la reconnaissance de l'objectif après le repérage par interrogation des caractéristiques, s'il s'agit de l'objectif recherché selon un arbre de décision et en fonction de règles d'interrogations hiérarchiques, le signe de l'image de gradient obtenue pouvant également être évalué pour la détermination de la direction de l'objectif et le calculateur fournissant en plus d'une image binaire bordure et non bordure - les points de bordure se trouvant sur une ligne droite en particulier à partir d'une ou plusieurs sections d'image. L'invention prévoit également l'utilisation du dispositif de navigation pour la reconnaissance et la poursuite (pilotage) d'objets fixes au sol tels que ponts, antennes, hangars, polygones, prismes, sphères etc. comportant au moins en partie des éléments de
forme générale typique.
L'invention prévoit également l'utilisation du dispositif de reconnaissance d'objectif dans une installation de navigation pour
objet volant engagé contre des objectifs.
D'autres caractéristiques de l'invention ressortiront de la
description détaillée d'exemples de réalisation faite à l'aide des
dessins annexes et ce d'une manière nullement limitative.
L'avantage principal de l'invention réside dans le fait qu'une
description des paramètres caractéristiques suffit pour la
reconnaissance par exemple de structures analogues à des routes ou d'autres structures typiques, ces paramètres caractéristiques étant indépendants de l'heure ou de la saison ainsi que la direction de vent, ces paramètres pouvant être déduits aisément de cartes géographiques habituelles, le fait de disposer de cartes numérisées facilitant la détermination des paramètres, le procédé étant très fiable à l'encontre des perturbations (en raison des bordures manquantes). L'information primaire pour la reconnaissance de structures par exemple analogues à des routes ou autres avec des ponts réside dans les bordures. Les bordures et les non-bordures se différencient avec sécurité au moyen des différences de luminosité par exemple entre une route et le bord de la route, un fleuve et ses rives (environnement, tout terrain). Il suffit de disposer d'une bonne carte routière fournissant une indication préalable, une carte géographique numérisée n'étant pas indispensable. Il n'est donc plus nécessaire de prévoir les mémoires et les traitements importants des
corrélations d'images de type connu.
Dans le procédé selon l'invention et sa mise en oeuvre par le dispositif ou l'installation de l'invention des objets volants et/ou des capteurs sont préalablement dirigés vers un objectif conformément à la carte et dès qu'ils ont reconnu la zone de l'objectif - au moins de manière grossière -, le capteur est aligné avec précision et dirigé et avec lui l'objet volant qui se trouve ainsi piloté et télécommandé jusqu'à l'objectif à l'aide de la nouvelle installation
de navigation selon l'invention.
Ce système ne nécessite qu'un capteur d'image et une électronique de traitement d'image pour la reconnaissance de
l'objectif et le pilotage de l'objet volant jusqu'à l'objectif.
L'organisation de la mission pour l'objet volant est extrêmement simple et la mission peut être mise en oeuvre de façon autonome par le dispositif dans le cas de missions très simples par exemple le long d'une route prédéterminée que le capteur est capable de reconnattre. Bien entendu le nouveau dispositif n'est pas limité à la reconnaissance de routes et/ou d'objets mais il est également parfaitement adapté pour des installations ferroviaires, des terrains d'aviation, des pistes de décollage ou d'atterrissage ou autres pistes de roulement et il est capable de remplir les r8les qui sont entre autres décrits dans les documents précédemment mentionnés
(brevet allemand 31 10 691 et demande de brevet allemand 3 427 020).
En particulier des ponts, bordures, contours, véhicules de toutes sortes, colonnes de véhicules peuvent également être reconnus sur les routes ou les structures analogues à des routes comportent des lignes directives fixes. L'organisation de la mission comprend uniquement, en vue des instructions préalables, la détermination du type de route et de la trajectoire de vol qui permettent la déterminatnion du point de rencontre avec la route. La route ou l'installation analogue est déterminée et reconnue par la largeur préalablement connue de la route par exemple 6 mètres pour les routes normales et en incluant également dans le cas des autoroutes la largeur des bordures vertes etc., la reconnaissance étant faite par la direction et le moment d'apparition dans l'image. Il n'est cependant pas nécessaire de disposer d'images de la route recherchée. Il en est de même pour d'autres structures telles que des bâtiments ou d'autres objets
comportant des éléments caractéristiques.
L'invention sera bien comprise à l'étude de quelques modes de réalisation décrits à titre d'exemples non limitatif et illustrés par les dessins annexés sur lesquels: la figure la montre le contour possible d'un objet observé avec en pointillés le résultat après segmentation et en trait plein l'approximation pour l'analyse du contour; la figure lb montre des extraits réalisés par un capteur à visée vers l'avant lors du vol en vue de la segmentation et de l'exploitation; la figure 2 montre le résultat d'une transformation de Hough de type normal (2a) et de type complémentaire (2b) le signe des bordures étant pris en compte dans la transformation complémentaire; la figure 2c illustre le principe de la transformation de Hough pour la reconnaissance de droites (bordures) dans l'image; la figure 3 illustre un procédé d'analyse de bordures; la figure 4 montre un filtre pour le calcul du gradient sélectif en direction; la figure 5 illustre un corps volant muni d'une installation de reconnaissance d'objectif; et la figure 6 est un schéma bloc du dispositif pour la
reconnaissance et l'approche jusqu'à l'objectif.
Le système selon l'invention pour la reconnaissance d'objectifs et la poursuite de l'objectif travaille comme un système de poursuite de route avec un capteur infrarouge de formation d'image dans le corps volant, le capteur étant dirigé de manière oblique vers l'avant de façon que les ordres de pilotage arrivent en temps utile au corps volant. Le capteur infrarouge est stabilisé sur trois axes de sorte que, même lors de tonneaux, la route reste toujours dans le champ de
vision du capteur de façon à maintenir la commande.
Pour la mise en oeuvre, on suppose que le corps volant a été amené par un aéronef porteur et/ou un procédé de télécommande approprié dans le voisinage de la route désirée et qu.'un système de navigation par inertie et par paquets fournit la position et
l'altitude du corps volant.
Le système de poursuite de route selon l'invention comprend deux principaux constituants: - un système de captage;
- un dispositif de traitement de signaux.
Le système de capteur comprend le dispositif à image thermique, la stabilisation sur trois axes et leur électronique associée. Pour le fonctionnement, il est nécessaire de disposer d'une alimentation en courant électronique appropriée et d'azote sous pression pour le refroidissement du détecteur. Le signal d'image est disponible sous forme numérique. La commande du système de capteur ainsi que les informations en retour sur l'état du système sont réalisées par l'intermédiaire d'un dispositif de découpage en série. Le système de capteur est entièrement logé dans la fusée du corps volant. Le dispositif de traitement de signaux fournit des signaux de commande et de pilotage pour le corps volant à partir des images issues du système de capteur. Le dispositif de traitement de signaux avertit en outre de la présence et de la position de véhicules sur la route. La liaison avec le corps volant se fait par l'intermédiaire d'un dispositif de découpage. Par l'intermédiaire de ce dispositif sont transmises les données pour le pilotage du corps volant ainsi que pour la commande et le contr$le du système de poursuite de route. Le dispositif de traitement de signaux comprend en outre un dispositif de découpage vers l'extérieur par l'intermédiaire duquel est relié un appareil de service. Des tests automatiques peuvent ainsi être déclenchés ou questionnés par une station au sol. Un dispositif de découpage vidéo est également prévu pour l'enregistrement des images
sur un magnétoscope conventionnel.
On va maintenant décrire le déroulement typique de la mise en oeuvre du procédé de navigation et de pilotage vers l'objectif selon l'invention. Apres planification convenable de l'opération et enregistrement des données dans le corps volant, un aéronef de transport vient placer le corps volant (éventuellement plusieurs de ces corps) au voisinage de la zone de mise en oeuvre. A une distance de sécurité, le corps volant est déverrouillé et il commence son approche vers la route prédéterminée au moyen de son système de navigation par inertie (INS). A une distance appropriée du point de mise en oeuvre, le système de poursuite de route est activé. Une phase de recherche commence tout d'abord au cours de laquelle on recherche la route désirée. Au cours de cette phase, d'autres routes ou des structures analogues sont éliminées. Apres reconnaissance de la route, le corps volant est orienté vers la route et commence à suivre la route. Pendant cette phase on procède en continu simultanément à la recherche d'objectifs sur la route et leur
présence ou leur position est annoncée au corps volant.
L'invention comprend en particulier les caractéristiques particulières suivantes: - l'utilisation d'un capteur formant une image (télévision, infrarouge, radar, laser) qui représente la route recherchée sous la forme d'une bande c'est-à-dire avec deux bordures (discrimination géométrique suffisante) et fournit des images en continu (caméra CCD, caméra vidéo, appareil à images thermiques). - L'extraction des bordures se trouvant dans l'image par la détermination de gradients de luminosité avec la possibilité de
travailler sélectivement en direction.
- La sélection de points de bordure par la formation adaptative de valeurs de seuil et l'utilisation de valeurs extrêmes locales
des gradients de luminosité.
- L'utilisation d'une transformation de paramètres (transformation de Hough) sur les points de bordure sélectionnés d'une manière telle que des points de bordure alignés c'est-à-dire des portions de droite, soient représentés par les valeurs locales extrêmes dans le plan de la transformation (plan des paramètres), chaque valeur extrême correspondant exactement à une droite sur l'image. Ces coordonnées dans le plan des paramètres représentent deux paramètres décrivant une droite
c'est-à-dire la pente et une portion d'axe.
- La route recherchée est caractérisée par sa direction relative par rapport à l'objet volant (direction d'approche) et sa largeur ainsi que par le moment approximatif o elle apparait dans l'image (obtenu à partir de la position de zéro ou de la position absolue lors de l'utilisation d'un système de navigation). La direction, la largeur et l'instant d'apparition représentent les seules informations préalables nécessaires et peuvent être obtenues à partir de cartographies classiques simples. - A partir des informations préalables de direction et de largeur, on recherche dans le plan des paramètres, deux valeurs extrêmes correspondantes (droite dans l'image) qui remplissent au mieux les conditions de la route recherchée. On tient compte également du signe des bordures et de la déformation perspective étant donné que les bordures parallèles des routes sont représentées par deux bordures se rejoignant l'une l'autre. On utilise l'altitude du vol, la position du corps volant, les dimensions du champ d'observation et l'angle d'ouverture d'observation pour
le calcul de cette déformation.
- La reconnaissance de la route recherchée selon deux modalités a) un mode de recherche dans lequel on recherche avec un étagement grossier de paramètres une possibilité de route dans un domaine de prévision de grande dimension; b) un mode fin dans lequel la route possible trouvée est à nouveau analysée c'est-à-dire au moyen de plusieurs images avec un étagement fin de paramètres pour déterminer la
direction exacte et la largeur de la route.
- La poursuite de la route trouvée par la répétition des opérations précitées au moyen de plusieurs sections d'image lesquelles sont choisies de façon à recouvrir les deux bordures de la route au moyen d'une prévision de l'image immédiatement suivante en ce qui concerne sa taille et sa position. Le but du choix d'une pluralité de sections d'images est de permettre une poursuite plus sûre en cas de masquage plus important (la route est en général visible dans l'une des sections individuelles) et dans la possibilité de reconnaître des courbes ou de mieux
pouvoir extrapoler en cas de tracé curviligne.
- Détermination de la luminosité moyenne de la route ainsi que de
la variance.
- La segmentation de l'image dans la zone de la route localisée en utilisant les valeurs de gris de l'image originale ou également l'information sur la bordure de façon que les trois zones de valeur de gris, à savoir la luminosité de la route qui a été détectée, puissent être différenciées de toutes les zones plus
claires et plus foncées.
- La détermination des contours de tous les objets plus clairs ou
plus foncés que la route qui ont été obtenus par la segmentation.
- L'analyse des contours au moyen de caractéristiques de dimension et de forme telles que des objets mobiles se déplaçant sur des tracés connus ou des objets fixes au sol tels que les bâtiments comme des ponts, des antennes, des hangars et le rejet de tous les objets parasites. - La réalisation d'un examen de vraisemblance sur les objectifs et/ou les objets candidats par comparaison de leur dimension avec l'éloignement (qui peut être calculé à partir de l'altitude de vol, l'angle de visée et la position dans l'image) en tenant compte de la position sur la route et confirmation multiple lors
d'opérations répétées de reconnaissance d'autres images.
Comme représenté sur les dessins annexés, le corps volant visible par exemple sur figure 5 qui peut être commandé par un équipage ou être télécommandé, a reçu conformément à la mission planifiée (plan de vol) une instruction préalable ou une information concernant sa route, sa trajectoire, sa vitesse etc. grâce à quoi il
peut s'approcher jusque dans la zone approximative de l'objectif.
Lorsqu'il a atteint cette zone, ce qui résulte des données du système de navigation par inertie, le capteur 1 à vision avec l'avant commence à prendre des vues en continu et les extraits d'images individuelles sont conduits à un circuit d'exploitation qui comprend un extracteur de bordure 2, un sélecteur de points 3 et un transformateur de paramètres 4. Toutes les unités précitées sont reliées au calculateur 5 destiné à la reconnaissance d'objectifs en particulier d'objectifs analogues à des routes ainsi qu'à la poursuite. Ce calculateur réalise également la détermination de valeurs de seuil (deux valeurs de seuil) et une sélection de direction fournie à l'extracteur de bordure 2. Il détermine à partir des valeurs extrêmes dans le plan des paramètres si une structure de route se trouve contenue dans l'image qui correspond aux paramètres
de route enregistrés.
Les images prises par le capteur, ici des images de valeur de gris, sont également fournies à l'unité de segmentation 6 et/ou à une unité 7 pour la reconnaissance de la largeur de variation de la luminosité et à partir de l'une ou mieux des deux unités 6 et 7, on fournit à l'unité 8 les images à trois étagements de gris, à savoir plus clair/route/plus foncé, de la détermination du contour, on les analyse dans l'unité 9 et on procède à l'exploitation dans l'unité 10
qui réalise en outre les tests de vraisemblance.
Les unités 6 à 10 représentent les éléments principaux du circuit d'exploitation pour la reconnaissance de l'objectif, la reconnaissance de l'objectif en elle-même nécessitant comme élément essentiel supplémentaire le capteur 1 qui est monté dans le corps volant et disposé de façon à être stabilisé en position comme représenté sur la figure 5 de manière schématique. On notera que les paramètres de la route sont en outre fournis au calculateur 5 à partir de la mémoire 11. De plus, les informations concernant l'altitude de vol, le champ de vision et l'angle d'aspect sont introduites dans l'unité 10 et dans le calculateur 5. En ce qui concerne le dispositif de navigation, on procède en outre, après la détermination de la position des segments de route ainsi que des segments obliques (par exemple des croisements), à une comparaison de la disposition de ces segments les uns avec les autres par rapport au tracé de consigne enregistré dans la mémoire externe Il au moyen du traitement effectué dans les étapes 2 à 5. La position absolue sur le terrain est déterminée par cette comparaison qui est faite dans l'étape 5, le résultat étant fourni par une sortie appropriée au dispositif de pilotage du corps volant ou utilisé pour l'amélioration de la précision d'un système de navigation par inertie. Le pilotage d'un corps volant télécommandé par un système de navigation par inertie peut être fait par exemple selon le brevet allemand 36 22 064 et au moyen da l'installation qui se trouve décrite ou d'installations fonctionnant de façon analogue pour l'alignement d'un corps volant sur une position de référence et/ou une position de zéro ou position absolue prise comme point de départ pour les mesures
nécessaires ou souhaitées et/ou d'autres dispositions.

Claims (9)

REVENDICATIONS
1. Dispositif pour la reconnaissance et la poursuite d'objets à partir d'éléments caractéristiques (par exemple un contour ou une signature) à partir desquels ils peuvent être identifiés à distance en vol par rapport à un fond, au moyen d'un capteur formant une image et d'un circuit de traitement pour les signaux obtenus en vue d'une comparaison avec des signaux de référence préalablement mémorisés, caractérisé par la combinaison des caractéristiques suivantes: a) les signaux de sortie d'un capteur (1) de formation d'image stabilisé en position, sont analysés en ce qui concerne les gradients de luminosité qui s'y trouvent contenus en vue de l'extraction de lignes de bordure (2) de l'objet; b) des points de bordure sont sélectionnés (3) à partir des valeurs extrêmes locales des gradients de luminosité au moyen de la formation adaptative de valeurs de seuil dans le circuit de traitement de signaux; c) tous les points de bordure alignés sont représentés par des valeurs extrêmes locales au moyen d'un transformation de paramètres (4) (transformation de Hough), les valeurs extrêmes caractérisant par leurs paramètres (par exemple pente et segment d'axe) un segment de droite; d) les paramètres mesurés sont comparés avec des paramètres de référence mémorisés (11) en tenant compte des données de trajectoire mesurées (telles que durée, distance parcourue, altitude, position de l'objectif, trajectoire) cette comparaison étant faite dans un calculateur d'exploitation (5) et le résultat de la comparaison (position, direction de l'objectif) est retransmis à la sortie en vue d'un traitement ultérieur et/ou est visualisé; e) le signal de sortie du capteur (1) est analysé dans une pluralité de sections individuelles d'image en ce qui concerne la luminosité moyenne et la variance; f) on calcule, pour chaque section individuelle d'image d'une pluralité desdites sections, un histogramme des valeurs de gris des points de bordure; g) on calcule pour chaque section d'image deux valeurs de seuil à partir des données de e) et f) lesquelles distinguent les valeurs de luminosité par trois mots clair/normal/foncé et transforment ainsi l'image en une image à trois étages de valeur; h) toutes les parties d'image désignées par "clair" ou "foncé" sont analysées grossièrement en ce qui concerne leur dimension, leur forme et leur position afin de déterminer s'il s'agit des objectifs recherchés ou si des objectifs possibles sont mélangés avec d'autres objets et dans ce cas on procède à la séparation des objectifs; i) on analyse avec précision tous les objectifs possibles en ce qui concerne leurs caractéristiques de forme, de position et d'orientation afin de déterminer s'il s'agit des objectifs
recherchés.
2. Dispositif de reconnaissance d'objectif selon la revendication 1 caractérisé par le fait que la recherche des objectifs peut être commutée sur au moins deux degrés, de grossier à fin, l'étagement des paramètres étant réduit lors de la détermination
des valeurs extrêmes locales.
3. Dispositif de reconnaissance d'objectif selon les
revendications 1 ou 2, caractérisé par le fait que la précision de la
recherche d'objectifs est augmentée en répétant chaque fois les étapes individuelles de recherche ou les pas de recherche sur une
pluralité de sections individuelles différentes d'images.
4. Dispositif de reconnaissance d'objectif selon l'une
quelconque des revendications précédentes, caractérisé par le fait
qu'après la comparaison des paramètres mesurés avec les paramètres mémorisés dans le circuit d'exploitation au moyen du calculateur, on procède à un examen de vraisemblance du résultat (recherche d'objectif) en particulier en ce qui concerne la dimension, l'éloignement, la position et le nombre des objets, de façon à
permettre l'élimination, en particulier des objets parasites.
5. Dispositif de reconnaissance d'objectif selon l'une
quelconque des revendications précédentes, caractérisé par le fait
que lors de l'extraction des bordures et/ou la sélection des points, on ne tient compte que des directions de bordure se trouvant dans une
zone de tolérance prédéterminée autour d'une direction prévue.
6. Dispositif de reconnaissance d'objectif selon l'une
quelconque des revendications précédentes, caractérisé par le fait
que fait qu'il comprend un capteur de formation d'images, un circuit de traitement de signaux et un circuit d'exploitation comportant un calculateur pour la réalisation d'une analyse de valeurs de gris des signaux de sortie du capteur de formation d'images (par exemple une image de valeur de gris à 8 bits correspond à une image de gradient), le circuit de traitement de signaux comportant des dispositifs de génération de valeurs de seuil de luminosité de façon à réaliser dans le circuit d'exploitation de signaux une répartition sur trois valeurs clair/normal/foncé permettant la détermination d'un centre de gravité de surface et de caractéristiques de contour de l'objectif, en particulier par la formation de coordonnées de l'objectif et de ses points de contour, le calculateur déterminant, en vue de la reconnaissance de l'objectif après le repérage par interrogation des caractéristiques, s'il s'agit de l'objectif recherché selon un arbre de décision et en fonction de règles d'interrogations hiérarchiques, notamment par un traitement selon la revendication 1, le signe de l'image de gradient obtenue pouvant également être évalué pour la détermination de la direction de l'objectif et le calculateur
fournissant en plus d'une image binaire - bordure et non bordure -
les points de bordure se trouvant sur une ligne droite en particulier
à partir d'une ou plusieurs sections d'image.
7. Dispositif de navigation comportant un dispositif selon l'une
quelconque des revendications 1 à 6 pour la reconnaissance de
structures routières caractérisé par le fait que le calculateur traite les résultats obtenus dans le circuit d'exploitation par comparaison des paramètres mesurés avec les paramètres mémorisés en tenant compte des données de trajectoire mesurées d'une manière connue en elle-même afin de fournir des données/signaux pour la commande et le pilotage d'un corps volant en vue de la poursuite de
l'objectif.
8. Utilisation du dispositif de navigation selon la revendication 7 pour la reconnaissance et la poursuite (pilotage
d'objets au sol se déplaçant sur des tracés connus.
9. Utilisation du dispositif de navigation selon la revendication 7 pour la reconnaissance et la poursuite (pilotage) d'objets fixes au sol tels que ponts, antennes, hangars, polygones, prismes, sphères etc. comportant au moins en partie des éléments de
forme générale typique.
FR8911718A 1988-09-08 1989-09-07 Dispositif de reconnaissance et de poursuite d'objets Expired - Fee Related FR2736149B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE3830496A DE3830496C1 (de) 1988-09-08 1988-09-08 Vorrichtung zum Erkennen und Verfolgen von Objekten
US07/411,158 US5762292A (en) 1988-09-08 1989-09-11 Apparatus for identification and tracking of objects

Publications (2)

Publication Number Publication Date
FR2736149A1 true FR2736149A1 (fr) 1997-01-03
FR2736149B1 FR2736149B1 (fr) 2000-01-21

Family

ID=25871980

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8911718A Expired - Fee Related FR2736149B1 (fr) 1988-09-08 1989-09-07 Dispositif de reconnaissance et de poursuite d'objets

Country Status (5)

Country Link
US (1) US5762292A (fr)
DE (1) DE3830496C1 (fr)
FR (1) FR2736149B1 (fr)
GB (2) GB8914928D0 (fr)
SE (1) SE8902945D0 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010113A1 (fr) * 2005-07-20 2007-01-25 Eurocopter Procede de detection par telemetrie d’objets filaires suspendus
EP2367163A1 (fr) 2010-03-15 2011-09-21 Eurocopter Procédé et dispositif pour voler à l'aide d'un aéronef à basse altitude de manière sécurisée

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0899580A3 (fr) * 1997-08-29 2000-02-02 Kabushiki Kaisha Toshiba Système de localisation de cible et de guidage d'avion pour l'approche
US6355922B1 (en) * 1999-06-14 2002-03-12 Raytheon Company Imaging system and method for hardbody detection and sensor fixed artifact rejection
AU2001238478C1 (en) * 2000-02-15 2006-11-09 Id Biomedical Corporation Of Quebec Proteosome influenza vaccine
US8916809B2 (en) * 2003-08-12 2014-12-23 Omnitek Partners Llc Projectile having a window for transmitting power and/or data into the projectile interior
US7298867B2 (en) * 2004-02-20 2007-11-20 Lockheed Martin Corporation Component association tracker system and method
IL162032A (en) * 2004-05-17 2009-05-04 Rafael Advanced Defense Sys Optical target search accessory for bullet
DE102005049507B4 (de) 2005-09-19 2007-10-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Erzeugen eines Kombinationssignals sowie entsprechendes Verfahren und Computerprogramm zur Ausführung des Verfahrens
DE102006062061B4 (de) 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US7876925B2 (en) * 2007-03-28 2011-01-25 Honeywell International Inc. Runway segmentation using vertices detection
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102007054950B4 (de) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
US7826666B2 (en) * 2008-02-27 2010-11-02 Honeywell International Inc. Methods and apparatus for runway segmentation using sensor analysis
FR2954520B1 (fr) * 2009-12-18 2012-09-21 Thales Sa Procede de designation d'une cible pour un armement a guidage terminal par imagerie
US8344655B2 (en) * 2010-01-25 2013-01-01 Altman Stage Lighting Co., Inc. Power and data track lighting system
KR101733116B1 (ko) * 2010-12-10 2017-05-08 한국전자통신연구원 고속 스테레오 카메라를 이용한 구형 물체의 비행 정보 측정 시스템 및 방법
CN102354457B (zh) * 2011-10-24 2013-10-16 复旦大学 基于广义霍夫变换的交通信号灯位置检测方法
US8326831B1 (en) 2011-12-11 2012-12-04 Microsoft Corporation Persistent contextual searches
US8513580B1 (en) * 2012-06-26 2013-08-20 The United States Of America As Represented By The Secretary Of The Navy Targeting augmentation for short-range munitions
US8766975B2 (en) 2012-07-19 2014-07-01 Honeywell International Inc. Method of correlating images with terrain elevation maps for navigation
DE102017113799A1 (de) * 2017-06-22 2018-12-27 Connaught Electronics Ltd. Fahrassistenz für eine einspurige Straße
CN110082781B (zh) * 2019-05-20 2021-12-17 东北大学秦皇岛分校 基于slam技术与图像识别的火源定位方法及系统
RU2732916C1 (ru) * 2019-06-24 2020-09-24 Федеральное государственное казенное военное образовательное учреждение высшего образования "Ярославское высшее военное училище противовоздушной обороны" Министерства обороны Российской Федерации Комплексный обнаружитель прямолинейной траектории воздушного объекта в пространстве с использованием преобразования Хафа
WO2021056309A1 (fr) * 2019-09-26 2021-04-01 Beijing Didi Infinity Technology And Development Co., Ltd. Systèmes et procédés de détection de marquages routiers à partir d'une image d'intensité laser

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) * 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US4707647A (en) * 1986-05-19 1987-11-17 Gmf Robotics Corporation Gray scale vision method and system utilizing same
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3071765A (en) * 1950-08-11 1963-01-01 Gerald C Schutz Radar map guidance system
DE2914639A1 (de) * 1979-04-11 1980-10-23 Basf Ag Verfahren zum einsiegeln von streifenfoermigen brandschutzmaterialien
EP0005918B1 (fr) * 1979-05-09 1983-05-04 Hughes Aircraft Company Système de poursuite d'image
JPS5790294U (fr) * 1980-11-26 1982-06-03
DE3109702A1 (de) * 1981-03-13 1982-09-23 Mühlenfeld, Eike, Prof. Dr.-Ing., 3392 Clausthal-Zellerfeld "navigationsstuetzung durch einen kontursensor mit kartenvergleich"
DE3110691C2 (de) * 1981-03-19 1985-07-18 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Navigationssystem für lenkbare Flugkörper
US4700307A (en) * 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
US4881270A (en) * 1983-10-28 1989-11-14 The United States Of America As Represented By The Secretary Of The Navy Automatic classification of images
DE3427020A1 (de) * 1984-07-21 1986-01-23 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Navigations- und flugfuehrungsverfahren
GB2164427B (en) * 1984-09-10 1988-01-06 Nader Dadabhoy Daroga Missile control systems
DE3622064A1 (de) * 1986-07-01 1988-01-21 Messerschmitt Boelkow Blohm Einrichtung zur automatischen optischen azimut-ausrichtung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) * 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method
US4707647A (en) * 1986-05-19 1987-11-17 Gmf Robotics Corporation Gray scale vision method and system utilizing same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010113A1 (fr) * 2005-07-20 2007-01-25 Eurocopter Procede de detection par telemetrie d’objets filaires suspendus
FR2888944A1 (fr) * 2005-07-20 2007-01-26 Eurocopter France Procede de detection par telemetrie d'objets filaires suspendus
US7397548B2 (en) 2005-07-20 2008-07-08 Eurocopter Method of detecting suspended filamentary objects by telemetry
EP2367163A1 (fr) 2010-03-15 2011-09-21 Eurocopter Procédé et dispositif pour voler à l'aide d'un aéronef à basse altitude de manière sécurisée
US8392475B2 (en) 2010-03-15 2013-03-05 Eurocopter Method and a device for flying safely at low altitude in an aircraft

Also Published As

Publication number Publication date
SE8902945D0 (sv) 1989-09-07
GB8919202D0 (en) 1996-12-04
GB2305567B (en) 1998-01-07
DE3830496C1 (de) 1996-09-19
FR2736149B1 (fr) 2000-01-21
US5762292A (en) 1998-06-09
GB8914928D0 (en) 1996-11-27
GB2305567A (en) 1997-04-09

Similar Documents

Publication Publication Date Title
FR2736149A1 (fr) Dispositif de reconnaissance et de poursuite d'objets
Maddern et al. 1 year, 1000 km: The oxford robotcar dataset
CA2418243C (fr) Procede de guidage d'un aeronef en phase finale d'atterrissage et dispositif correspondant
US20070104354A1 (en) Remote sensing system capable of coregistering data from sensors potentially having unique perspectives
EP3657213B1 (fr) Procede d'apprentissage d'un reseau de neurones embarque dans un aeronef pour l'aide a l'atterrissage dudit aeronef et serveur pour la mise en oeuvre d'un tel procede
EP2378460A1 (fr) Dispositif d'assistance embarque au suivi d'une route aeroportuaire par un aeronef
WO2016156352A1 (fr) Procede de determination d'une direction d'un objet a partir d'une image de l'objet
EP3226062B1 (fr) Procede de representation synthetique d elements d'interet dans un systeme de visualisation pour aeronef
FR3062720A1 (fr) Systeme et procede d'aide a l'atterrissage d'un aeronef, et aeronef correspondant
FR3058233A1 (fr) Procede de superposition d'une image issue d'un capteur sur une image synthetique par la detection automatique de la limite de visibilite et systeme de visualision associe
EP2517152A1 (fr) Procede de classification d'objets dans un systeme de veille par imagerie
WO2021089539A1 (fr) Procede et dispositif d'aide a l'atterrissage d'aeronef en conditions de visibilite degradee
EP4115327B1 (fr) Procédé d'aide à la détection d'éléments, dispositif et plateforme associés
FR2642529A1 (fr) Procede et dispositif de mesure de la position d'un vehicule
EP0810496B1 (fr) Procédé et dispositif d'identification et de localisation d'objets fixes le long d'un trajet
Moore et al. Machine vision identification of airport runways with visible and infrared videos
Broggi et al. Artificial vision in extreme environments for snowcat tracks detection
EP0604252B1 (fr) Procédé d'aide au pilotage d'un aéronef volant à basse altitude
FR2987151A1 (fr) Systeme d'aide au sauvetage par helicoptere
EP4055349A1 (fr) Procede et dispositif de generation de donnees d'apprentissage pour machine d'intelligence artificielle pour l'aide a l'atterrissage d'aeronef
EP4086819A1 (fr) Procédé d'apprentissage d'une intelligence artificielle supervisée destinée à identifier un objet prédeterminé dans l'environnement d'un aéronef
Ehlers et al. Ultra high resolution remote sensing for urban information systems and 3D city modeling
WO2021037890A1 (fr) Procédé d'aide à la détection d'éléments, dispositif et plateforme associés
WO2021037963A1 (fr) Procédé d'aide à la détection d'éléments, dispositif et plateforme associés
FR2699666A1 (fr) Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain.

Legal Events

Date Code Title Description
CD Change of name or company name
CJ Change in legal form
CD Change of name or company name
TP Transmission of property
ST Notification of lapse