FR2726104A1 - Processeur de correlation - Google Patents

Processeur de correlation Download PDF

Info

Publication number
FR2726104A1
FR2726104A1 FR8509930A FR8509930A FR2726104A1 FR 2726104 A1 FR2726104 A1 FR 2726104A1 FR 8509930 A FR8509930 A FR 8509930A FR 8509930 A FR8509930 A FR 8509930A FR 2726104 A1 FR2726104 A1 FR 2726104A1
Authority
FR
France
Prior art keywords
during
data
stage
correlation
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8509930A
Other languages
English (en)
Other versions
FR2726104B1 (fr
Inventor
Christopher John Tucker
George Brown
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Allard Way Holdings Ltd
Original Assignee
GEC Avionics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEC Avionics Ltd filed Critical GEC Avionics Ltd
Publication of FR2726104A1 publication Critical patent/FR2726104A1/fr
Application granted granted Critical
Publication of FR2726104B1 publication Critical patent/FR2726104B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

Un processeur de corrélation est utilisé pour guider un véhicule aéroporté le long d'une trajectoire jusqu'à une destination prédéterminée, avec une haute précision. Le guidage se divise en trois stades distincts et, pendant chaque stade, la position du véhicule est vérifiée (12, 13) sur la base de l'adaptation de la vue de son environnement (4 à 7) avec des données de référence emmagasinées représentant les champs de vision attendus (9, 10, 11). Pendant le premier stade, dit de navigation, les données emmagasinées sont constituées par des aires prédéterminées du terrain. Pendant le deuxième stade, dit de détection, la destination s'acquière et, pendant le troisième stade, dit de ralliement, la vision de la destination en train d'approcher est utilisée comme données de référence emmagasinées.

Description

La présente invention concerne un processeur pouvant jouer différents
rôles à l'aide d'une structure matérielle commune. L'invention convient particulièrement pour guider le
passage d'un corps mobile au moyen de techniques de corrélation.
Des techniques de guidage radicalement différentes peuvent être utilisées à différents stades de guidage, et il a été proposé d'utiliser un mécanisme de commande spécialisé à chacun de ses différents stades. Un semblable ensemble pourrait être indûment
coûteux et encombrant.
L'invention vise à fournir un processeur perfectionné. Selon un premier aspect de l'invention, un processeur de corrélation permettant de guider un corps comporte un moyen ayant pour fonction, pendant une première phase du guidage, de corréler des données relatives à la scène vue, qui ont été rassemblées pendant le déplacement du corps et qui sont représentatives de l'environnement observé par le corps, avec des données emmagasinées prédéterminées qui sont représentatives d'un champ de vision attendu; ledit moyen ayant pour fonction, pendant une phase de guidage ultérieure, de corréler des données rassemblées pendant le déplacement du corps avec des données
extraites des données relatives à la scène vue qui ont été préa-
lablement rassemblées pendant le déplacement du corps; et un moyen qui, en fonction de la position du corps, fait passer la
commande du guidage du premier au deuxième stade de fonctionnement.
Selon un deuxième aspect de l'invention, un processeur de corrélation servant à guider un corps aéroporté le long d'une trajectoire comporte un moyen servant à accepter des données relatives à la scène vue et représentatives du terrain observé au-dessus duquel le corps passe; un moyen de corrélation ayant pour fonction, pendant une phase de navigation, de corréler des données extraites des données relatives à la scène vue avec des données extraites des données emmagasinées prédéterminées représentatives de scènes de terrain au-dessus desquelles le corps est censé passer; et un moyen utilisant les résultats de ladite corrélation pour faire naviguer ledit corps; un moyen servant à
détecter un point de destination et à reconfigurer le fonctionne-
ment dudit moyen de corrélation en vue d'une utilisation pendant une phase de ralliement suivante de sorte que ledit moyen de corrélation fonctionne, pendant la phase de ralliement, de façon à corréler des données extraites des données relatives à la scène
vue avec des données relatives à la scène vue qui ont été rassem-
blées préalablement pendant le déplacement du corps le long dudit trajet; un moyen utilisant le résultat de la corrélation effectué pendant la phase de ralliement pour guider le corps vers ladite destination. Selon un troisième aspect de l'invention, un processeur de corrélation servant à guider un corps le long d'une trajectoire en direction d'une destination comporte un moyen de corrélation ayant pour fonction, pendant une première phase de guidage, de corréler périodiquement des données relatives à une scène vue binaires, qui ont été rassemblées pendant le déplacement du corps et qui sont représentatives de son environnement, avec
des données binaires emmagasinées prédéterminées qui sont repré-
sentatives d'une partie d'un champ de vision attendu; et un moyen de corrélation ayant pour fonction, pendant une phase de guidage ultérieure du fonctionnement de corréler des données relatives
à une scène vue numériques à plusieurs niveaux qui ont été rassem-
blées pendant le déplacement du corps avec des données identiques
extraites des données préalablement rassemblées pendant le dépla-
cement du corps; et un moyen qui répond, pendant une phase de
guidage intermédiaire,à la détection de la destination dans l'envi-
ronnement observé en faisant passer le fonctionnement du moyen de
corrélation des données binaires aux données à plusieurs niveaux.
L'invention s'applique tout particulièrement à la navigation d'un véhicule aéroporté sur une distance relativement longue jusqu'à une destination spécifiée de manière précise le long d'ne trajectoire prédéterminée. Dans ce but, le déplacement du véhicule le long de la trajectoire et jusqu'à sa destination est divisé en trois stades distincts. Le première de ces stades peut être commodément le stade de navigation, qui convient pour guider avec précision le véhicule sur de très longues distances. Le stade de navigation se réalise sur la base de techniques de corrélation visant à faire concorder des scènes vues, c'est-à-dire que la scène relative au sol au-dessus duquel le véhicule vole est com- paree avec des données emmagasinées transportées par le véhicule et qui correspondent au terrain au-dessus duquel le véhicule est censé voler s'il maintient une course correcte. Dans ce but, le véhicule transporte une caméra optique ou infrarouge ou un moyen analogue, afin de produire des signaux vidéo représentatifs du champ de vision extérieur. En établissant périodiquement des
comparaisons entre la scène extérieure vue et la partie corres-
pondante des données embarquées, on détermine la position réelle du véhicule et on peut effectuer des corrections mineures sur le système de navigation de façon à maintenir la course voulue qui déplace le véhicule le long de la trajectoire prédéterminée. Ce
stade de navigation se poursuit jusqu'à ce que le véhicule aéro-
porté se trouve suffisamment près de la destination, ou cible, comme on peut commodément l'appeler, pour pouvoir avoir la cible dans son champ de vision. La cible est retrouvée pendant ce que
l'on appelle un stade de détection de cible.
Une fois la cible positivement identifiée, la commande de guidage est transmise à un troisième et dernier stade, qui est appelé le stade de ralliement. Dans le stade de ralliement, des champs de vision choisis de la cible identifiée sont retenus comme données de référence pendant la production successive de plusieurs champs de vision tandis que le corps se rapproche plus étroitement de la cible. Cette opération demande une capacité de traitement d'un type différent puisqu'il est nécessaire de retenir l'identité de la cible alors que sa forme et son orientation changent en relation avec le champ de vision
tandis que le véhicule approche et manoeuvre par rapport à elles.
De manière claire, pendant la phase de ralliement, il faut effec-
tuer une vérification continuelle et très rapide de la position du véhicule, même si les données représentant le champ de vision peuvent être relativement petites. Ceci est en opposition avec le
stade de navigation au cours duquel de très grandes quantités repré-
sentant un grand champ de vision sont traitées à intervalles relati-
vement peu fréquents.
La description suivante, conçue à titre d'illus-
tration de l'invention, vise à donner une meilleure compréhension de ses caractéristiques et avantages; elle s'appuie sur une figure unique représentant, de manière simplifiée, un processeur
selon l'invention.
Comme le montre la figure unique, il est supposé que le véhicule aéroporté est un véhicule qui mesure ses propres paramètres de vol, comme l'altitude, l'assiette et la vitesse pendant le vol. Ces paramètres sont délivrés à un processeur de commande spécialisé 1, dans le fonctionnement déterminé par un moniteur de système 2 qui utilise une mémoire de système 3 afin de jouer sur le vol du corps. Les trois éléments, à savoir le processeur de commande 1, le moniteur de système 2 et la mémoire de système 3, peuvent être de nature parfaitement classique. Le véhicule aéroporté contrôle son champ de vision typiquement au moyen d'un ensemble 4 de surveillance par caméras vidéo qui produit un signal vidéo traitéS, lequel est délivré via une interface de capteur 5 et un filtre 6 à une mémoire 7 de scène vue o il est temporairement emmagasiné. Ainsi, les données se rapportant à la scène extérieure au-dessus de laquelle le véhicule aéroporté vole sont introduites pédiodiquement dans la mémoire 7 de scène et sont
périodiquement comparées, sous commande d'un traducteur d'instruc-
tions 8, avec des données sélectionnées maintenues dans une mémoire
de référence 9.
Les données contenues dans la mémoire de réfé-
rence 9 sont extraites d'une mémoire de grande capacité 10 lorsque cela est nécessaire. Typiquement, la mémoire de grande capacité 10 contient toutes les scènes de référence possibles au-dessus desquelles le véhicule est susceptible de voler, et la scène de référence qui est adaptée à sa position réelle est extraite lorsque cela est nécessaire et est délivrée, via un processus géométrique 11, à la mémoire de référence 9 de façon qu'elle puisse être commodément
comparée avec le contenu correspondant de la mémoire de scène 7.
Le filtre 6 modifie les données entrantes de manière a identifier les traits géométriques remarquables, comme les croisements de
route, les canaux, les lignes de chemin de fer, les estuaires,etc.
Il effectue cela en détectant des "flancs" dans la configuration de données, un semblable filtre étant décrit dans la demande de brevet britannique n 8219081 déposéepar la demanderesse. Le processeur géométrique 11 a pour action de compenser les effets de l'altitude et de l'assiette du corps aéroporté. Il prend la forme décrite dans la demande de brevet britannique n 8219082
déposéepar la demanderesse. Ainsi, il peut effectuer une compen-
sation en ce qui concerne le grossissement et l'inclinaison angulaire par rapport au terrain au-dessus duquel il vole de façon que les données soient introduites dans la mémoire de référence 9 avec la grandeur et l'orientation qui correspondent à celles des données se trouvant dans la mémoire de scène. Le degré de similitude existant entre le contenu de la mémoire de scène 7 et celui de la mémoire de référence 9 est déterminé par un corrélateur 12 qui délivre son signal de sortie a un analyseur 13, lequel produit un signal représentatif du degré de similarité et
fixe la probabilité que le corps aéroporté se trouve à un empla-
cement particulier. La manière dont les données s'organisent
suivant un certain ordre de façon qu'elles puissent être trans-
mises à grande vitesse aux deux entrées du traducteur d'instruc-
tions est décrite dans la demande de brevet britannique 8319210
déposée par la demanderesse.
Pendant ce stade de fonctionnement, les données relatives a la scène vue et les données de référence se trouvent sous forme binaire, car la quantité de données à manipuler peut
être élevée puisqu'elles couvrent une aire géographique importante.
Des données binaires conviennent eminemment à l'identification de traits géographiques et distinctifs comme des croisements de routes
ou des lignes de chemin de fer.
Pendant le stade initial de la navigation, toutes les données introduites dans la mémoire de scène 7 sont extraites du système à caméras vidéo 4. De cette manière, il est possible de contr8ler le passage du véhicule aéroporté relativement à des repaires terrestres distinctifs. Ainsi, la mémoire à grande capacité 10 contient des données binaires préparées qui ont été assemblées avant le début du vol relativement aux croisements de routes,- croisements de chemins de fer, lacs et rivières, estuaires côtiers, et autres particularités distinctives, dans le format binaire. Selon la vitesse du véhicule aéroporté, les blocs d'information appropriés sont extraits à l'instant voulu et sont introduits dans la mémoire de référence 9 après modification afin de permettre une correction de l'orientation et de la hauteur du
véhicule aéroporté, comme précédemment indiqué. Ces données emma-
gasinées sont ensuite comparées avec les données en temps réel qui ont été introduites dans la mémoire de scène 7. Lorsqu'une partie de la mémoire de scène se révèle correspondre aux données
préemmagasinées, l'analyseur de corrélation indique que la posi-
tion réelle du véhicule aéroporté a été déterminée.
Toute légère erreur de position, c'est-à-
dire toute déviation par rapport à la trajectoire prédéterminée est compensée dans le signal de sortie du système de façon que la direction, la vitesse ou l'assiette du corps aéroporté soient légèrement mDodfiàs et que celui-ci soit dirigé vers la nouvelle
scène de référence désignée. Ce processus se poursuit, éventuel-
lement pendant plusieurs centaines de kilomètres, tandis que le véhicule aéroporté s'approche régulièrement de sa destination prédéterminée. L'écartement par rapport aux emplacements des scènes de référence est naturellement choisi en relation avec le degré de dérive de navigation pouvant se produire. Dans chaque cas, la taille de l'aire de référence et la grandeur du champ de vision en temps réel telles que déterminées par le signal vidéo
doivent être suffisantes pour autoriser une telle dérive de navi-
gation et pour permettre de retrouver la position actuelle si elle
s'écarte légèrement de la trajectoire de vol prédéterminée.
Ceci se poursuit jusqu'à ce que la destination, ou cible, apparaisse. à l'intérieur du champ de vision. Ainsi, un des blocs de la mémoire à grande capacité 10 sera constitué par la représentation de la cible telle qu'elle est vue par le véhicule aéroporté approchant. Apartirde la connaissance de la trajectoire de vol prévue et du temps de vol écoulé, on prévoit l'arrivée de la cible et le système de commande de guidage fonctionne dans son
deuxième stade, d'acquisition ou détection.
La cible peut être constituée par une confi-
guration géograpbique qui soit analogue aux données utilisées
pendant le stade de la navigation, mais, selon une autre possi-
bilité, la cible peut être un corps ou un bâtiment présentant une signature thermique distinctive. Dans ce dernier cas, on utilise un capteur à infrarouge regardant vers l'avant pour détecter la cible. A longue distance, aucune cible chaude n'apparaît commrne source ponctuelle de chaleur présentant un contraste élevé par comparaison avec son environnement et, c'est pourquoi, sa présence peut être soulignée par l'emploi d'une configuration filtrante appropriée. Ainsi, le filtre 6 peut être utilisé pour identifier une cible probable à longue portée pendant ce deuxième stade du guidage. A partir de la connaissance de la position estimée de la cible et de l'assiette du corps aéroporté, il est possible de rejeter les cibles incorrectes afin d'éviter de quitter le stade
de navigation sous l'effet de signaux de bruits parasites res-
semblant à la signature de la cible; il est souhaitable de con-
firmer que la cible est apparue au même point sur des blocs successifs, ou images successives, du système de détection optique
ou thermique.
Dès que la cible a été détectée, la commande
de guidage passe au troisième stade de fonctionnement et l'ana-
lyseur 13 calcule la position du centre de l'aire de la cible et détermine une trajectoire d'approche. Pendant le troisième stade, appelé ici le stade de ralliement, le corps doit suivre sa propre position en relation avec la cible tout en manoeuvrant pour l'atteindre. Pour faciliter ceci, on utilise un traitement de données à plusieurs niveaux, dans lequel on tire avantage de plusieurs niveaux de gris. Les signaux vidéo représentant une grande aire du terrain entourant la cible sont introduits dans la mémoire de scène en provenance du système de surveillance vidéo, et une aire plus petites également centrée sur le point visé de la cible, est transmise à la mémoire de référence 9 sous commande du traducteur d'instructions 8. Les deux ensembles de signaux
vidéo se trouvent dans le format à plusieurs niveaux, et le fonc-
tionnement du traducteur d'instructions et de l'analyseur de corrélation est beaucoup plus rapide, car tout écart mineur par rapport à la trajectoire de vol voulue doit être corrigé très
rapidement. Toutefois, puisque la taille de la scène est relati-
vement petite, ce traitement doit être effectué par le traducteur
d'instructions et l'analyseur de corrélation de manière extrême-
ment précise, même si l'on utilise des données à plusieurs bits.
Une telle organisation du traitement de corrélation est décrit dans la demande de brevet britannique n 8319209 déposée par la demanderesse. Pendant ce stade, l'analyseur de corrélation 13 détermine le déplacement de la cible par rapport au corps grâce à la détection de la position du pic de la signature thermique de la cible. Ceci produit en outre avantageusement des fonctions suivantes. (1) Améliorer un filtre de simple prédiction de façon que, lorsque l'on ne peut trouver la cible par le processus de
corrélation à l'intérieur du champ de visiondu système de surveil-
lance, sa position soit prédite sur la base des données dynamiques
précédentes de la cible. (2) Produire un signal d'erreur a desti-
nation du système de guidage du véhicule aéroporté. (3) Déterminer lorsque le contenu de la mémoire de référence est remise à jour par le transfert de données en provenance de la mémoire de scène,
ceci étant périodiquement nécessaire puisque, le véhicule aéro-
porté se rapproche de la cible, l'image croit dans le champ de vision et, si la mémoire n'était pas remise à jour, les données de référence ressembleraient de moins en moins à la cible réelle jusqu'à ce qu'il ne soit plus possible de la suivre. (4) Fournir des coordonnées relativement au centre de l'aire à introduire
dans la mémoire de scène pour le bloc suivant de fonctionnement.
Le signal d'erreur obtenu par le cadre de la fonction (2) est délivré au système de commande de vol afin de modifier la trajectoire de vol. Les paramètres de remise a jour de référence sont renvoyés au traducteur d'instruction, tandis que la position vraie ou prédite de la cible est renvoyée à l'inter- face du capteur afin que le champ de visione de surveillance soit déterminé. Le moniteur de système 2 a pour effet de superviser le fonctionnement de l'analyseur de corrélation 13, ainsi que son signal de sortie, et il configure de nouveau le processeur de façon que celui-ci soit conçu pour fonctionner successivement dans les trois stades de guidage distincts qui ont été décrits. De cette manière, il est possible de n'utiliser
qu'un nombre relativement petit de blocs de traitement pour réa-
liser les fonctions différentes, mais analogues,pendant le vol
du véhicule aéroporté. Chaque bloc présente une nature relative-
ment simple et directe, et les blocs principaux sont en tout cas
décrits dans les demandes de brevet précédemment mentionnées.
Bien entendu, l'homme de l'art sera en mesure
d'imaginer, à partir du dispositif dont la description vient d'être
donnée à titre simplement démonstratif et nullement limitatif, à diverses variantes et modifications ne sortant pas du cadre de l'invention.

Claims (3)

REVENDICATIONS
1. Processeur de corrélation, caractérisé en ce qu'il comporte un moyen (12, 13) qui a pour fonction, pendant un premier stade de guidage, de corréler des données relatives à une scène vue, qui ont été rassemblées pendant le déplacement du corps et qui sont représentatives de l'environnement observé, avec des données emmagasinées prédéterminées qui sont représentatives d'un champ de vision attendu; ledit moyen ayant pour fonction, pendant un autre stade de guidage, de corréler les données rassemblées pendant le déplacement du corps avec des données extraites des données relatives à la scène vue qui ont été préalablement rassemblées pendant le déplacement du corps; et un moyen (2,8) qui, en fonction de la position du corps, fait passer la commande du
guidage du premier stade au deuxième stade de fonctionnement.
2. Processeur de corrélation permettant de guider un corps
aéroporté le long d'une trajectoire, caractérisé en ce qu'il com-
porte un moyen (4 à 7) servant à recevoir des données relatives à une scène vue qui sont représentatives du terrain observé au-dessus duquel le corps; un moyen de corrélation (12,13) ayant pour fonction, pendant un stade de navigation, de corréler des données extraites des données relatives à la scène vue avec des données extraites de données emmagasinées prédéterminées représentatives de scènes du terrain audessus duquel le corps est censé passer; et un moyen (1 à 3, 9 à 11) utilisant les résultats de ladite corrélation pour faire naviguer ledit corps; un moyen (5,8,11) servant à détecter un emplacement de destination et permettant de reconfigurer le fonctionnement dudit moyen de corrélation pour l'utiliser pendant le stade de ralliement suivant de façon que ledit moyen de corrélation ait pour fonction, pendant le stade de ralliement, de corréler des données extraites des données relatives à la scène vue avec des données relatives à la scène vue qui ont été rassemblées préalablement pendant le déplacement
du corps le long de ladite trajectoire; et un moyen (2,8) uti-
lisant les résultats de la corrélation effectuée pendant la phase
de ralliement pour guider le corps jusqu'à ladite destination.
3. Processeur de corrélation permettant de guider un corps le long d'une trajectoire en direction d'une
destination, caractérisé en ce qu'il comporte un moyen de corré-
lation (12,13) ayant pour fonction, pendant un premier stade de guidage, de corréler périodiquement des données relatives à une
scène vue binaires, qui ont été rassemblées pendant le déplace-
ment du corps et qui sont représentatives de son environnement, avec des données binaires emmagasinées prédéterminées qui sont représentatives d'une partie d'un champ de vision attendu; et un moyen de corrélation (12,13) ayant pour fonction, pendant un stade de guidage suivant de corréler des données relatives à la scène vue numériques à plusieurs niveaux, qui ont été rassemblées pendant le déplacement du corps, avec des données analogues
extraites des données préalablement rassemblées pendant le dépla-
cement du corps; et un moyen (2) qui répond, pendant un stade de
guidage intermédiaire, à la détection de la destination de l'envi-
ronnement observé en faisant passer le fonctionnement du moyen de
corrélation des données binaires aux données à plusieurs niveaux.
FR8509930A 1984-06-29 1985-06-28 Processeur de correlation Expired - Fee Related FR2726104B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB8416616A GB2293067B (en) 1984-06-29 1984-06-29 Processor arrangement

Publications (2)

Publication Number Publication Date
FR2726104A1 true FR2726104A1 (fr) 1996-04-26
FR2726104B1 FR2726104B1 (fr) 1998-01-02

Family

ID=10563181

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8509930A Expired - Fee Related FR2726104B1 (fr) 1984-06-29 1985-06-28 Processeur de correlation

Country Status (6)

Country Link
US (1) US5564650A (fr)
DE (1) DE3523303C2 (fr)
FR (1) FR2726104B1 (fr)
GB (1) GB2293067B (fr)
IT (1) IT8548288A0 (fr)
NL (1) NL194282C (fr)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801970A (en) * 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US6079665A (en) * 1996-11-04 2000-06-27 Trw Inc. Hyperspectral air-to-air missile seeker
US5881969A (en) 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US6260759B1 (en) * 1998-08-11 2001-07-17 Northrop Grumman Corporation Method for tracking a target having substantially constrained movement
DE19849857C2 (de) 1998-10-29 2003-08-21 Eads Deutschland Gmbh Fernlenkverfahren für ein unbemanntes Luftfahrzeug
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen
DE10158666A1 (de) * 2001-11-28 2003-06-18 Lfk Gmbh Vorrichtung und Verfahren zur autarken Zielführung eines Flugkörpers mit Hilfe außerhalb des Zielpunktes liegender Orientierungsmerkmale
IL157098A (en) * 2003-07-24 2009-07-20 Rafael Advanced Defense Sys Spectral tracking of a target
US7512462B2 (en) * 2004-11-16 2009-03-31 Northrop Grumman Corporation Automatic contingency generator
JP2007033434A (ja) * 2005-06-20 2007-02-08 Denso Corp 車両用現在位置検出装置、及び車両制御装置
EP2479990A3 (fr) 2005-06-23 2013-01-23 Israel Aerospace Industries Ltd. Système et procédé de suivi d'objets en mouvement
CN1996194A (zh) * 2005-12-31 2007-07-11 清华大学 一种运动物体定位纠偏系统及其运动跟踪方法
US7970506B2 (en) * 2006-01-19 2011-06-28 Lockheed Martin Corporation System for maintaining communication between teams of vehicles
US8244455B2 (en) * 2008-09-09 2012-08-14 Honeywell International Inc. Apparatus and method for determining the position of a vehicle with respect to a terrain
DE102011010987A1 (de) * 2010-03-24 2011-09-29 Lfk-Lenkflugkörpersysteme Gmbh Navigationsverfahren für einen Flugkörper
US8525088B1 (en) * 2012-03-21 2013-09-03 Rosemont Aerospace, Inc. View-point guided weapon system and target designation method
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
EP2946361B1 (fr) 2013-01-15 2018-01-03 Israel Aerospace Industries Ltd. Suivi à distance d'objets
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
IL227982B (en) * 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
US11371806B2 (en) * 2019-08-05 2022-06-28 Bae Systems Information And Electronic Systems Integration Inc. Midbody camera/sensor navigation and automatic target recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2831825A1 (de) * 1978-07-20 1980-01-31 Licentia Gmbh Zielanflugverfahren fuer einen sich selbst lenkenden flugkoerper
DE3241896A1 (de) * 1982-11-12 1984-05-17 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Verfahren zur verbesserung der bildverarbeitung bei optronischen flugkoerpererfassungsgeraeten
GB2294171A (en) * 1983-07-15 1996-04-17 Marconi Avionics Signal processing arrangement

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
US3416752A (en) * 1966-03-23 1968-12-17 Martin Marietta Corp Correlation guidance system having multiple switchable field of view
US3943277A (en) * 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
GB1568058A (en) * 1975-11-21 1980-05-21 Emi Ltd Tracking and/or huidance systems
DE2914693C2 (de) * 1979-04-11 1982-05-27 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Vorrichtung zur Präzisionsnavigation
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
DE3011556C2 (de) * 1980-03-26 1984-08-02 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Flächennavigationsgerät für Luft- und/oder Wasserfahrzeuge
US4546433A (en) * 1981-07-04 1985-10-08 Gec Avionics Limited Arrangement for processing data in a two-dimensional array
GB2100956B (en) * 1981-07-04 1985-05-30 Marconi Avionics Data processing arrangement
US4602336A (en) * 1983-05-16 1986-07-22 Gec Avionics Limited Guidance systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2831825A1 (de) * 1978-07-20 1980-01-31 Licentia Gmbh Zielanflugverfahren fuer einen sich selbst lenkenden flugkoerper
DE3241896A1 (de) * 1982-11-12 1984-05-17 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Verfahren zur verbesserung der bildverarbeitung bei optronischen flugkoerpererfassungsgeraeten
GB2294171A (en) * 1983-07-15 1996-04-17 Marconi Avionics Signal processing arrangement

Also Published As

Publication number Publication date
NL8501822A (nl) 1996-10-01
NL194282B (nl) 2001-07-02
US5564650A (en) 1996-10-15
DE3523303C2 (de) 1998-03-12
GB2293067A8 (en) 1999-03-25
GB8416616D0 (en) 1995-11-22
FR2726104B1 (fr) 1998-01-02
DE3523303A1 (de) 1996-05-02
GB2293067B (en) 1996-07-10
GB2293067A (en) 1996-03-13
NL194282C (nl) 2001-11-05
IT8548288A0 (it) 1985-06-27

Similar Documents

Publication Publication Date Title
FR2726104A1 (fr) Processeur de correlation
EP1905643B1 (fr) Procédé de détermination anticipée d'un virage sur une portion de route et système associé
WO2016156352A1 (fr) Procede de determination d'une direction d'un objet a partir d'une image de l'objet
FR2734911A1 (fr) Procede et dispositif pour detecter le mouvement d'une cible et leurs applications
FR2468883A1 (fr) Systeme de navigation en surface pour aeronefs
FR2983799A1 (fr) Procede et dispositif de commande de l'emission lumineuse d'un projecteur de vehicule
FR3089038A1 (fr) Procede d’apprentissage d’un reseau de neurones embarque dans un aeronef pour l’aide a l’atterrissage dudit aeronef et serveur pour la mise en œuvre d’un tel procede
WO2008040896A2 (fr) Procédé de localisation d'un véhicule
EP2470971B1 (fr) Procédé et dispositif de guidage d'un véhicule par rapport a une caténaire
EP3656681A1 (fr) Dispositif et procede d'aide a l'atterrissage d'un aeronef par conditions de visibilite reduite
EP2862154B1 (fr) Regroupement de donnees attachees a des images
FR2729236A1 (fr) Guidage de robot par eclairage actif
WO2023094347A1 (fr) Système et procédé de navigation autonome base vision d'un satellite
FR2642529A1 (fr) Procede et dispositif de mesure de la position d'un vehicule
US11870968B2 (en) Systems and methods for an improved camera system using filters and machine learning to estimate depth
EP0056348B1 (fr) Procédé et dispositif de navigation par re-localisation d'un mobile sur une carte
WO2021009431A1 (fr) Procede de determination de parametres d'etalonnage extrinseques d'un systeme de mesure
FR2749419A1 (fr) Procede et dispositif d'identification et de localisation d'objets fixes le long d'un trajet
WO2023052448A1 (fr) Procédé de détection d'obstacles
US11624588B2 (en) Coded aperture seeker for navigation
EP3543654B1 (fr) Procédé et système d'aide à un opérateur pour élaborer un plan de vol d'un aéronef passant par un ensemble de zones de mission à couvrir
Waldemark et al. Pulse-coupled neural networks for cruise missile guidance and mission planning
FR2917824A3 (fr) Procede et dispositif de detection en temps reel de la position du soleil par rapport a un vehicule automobile
EP0785414A1 (fr) Procédé et dispositif pour déterminer un décalage entre la position effective et une position prescrite d'un aéronef
CN115979279A (zh) 数据推送方法和系统

Legal Events

Date Code Title Description
TP Transmission of property
CD Change of name or company name
ST Notification of lapse