FR2694411A1 - Dispositif de visualisation tri-dimensionnelle pour radar. - Google Patents

Dispositif de visualisation tri-dimensionnelle pour radar. Download PDF

Info

Publication number
FR2694411A1
FR2694411A1 FR9308430A FR9308430A FR2694411A1 FR 2694411 A1 FR2694411 A1 FR 2694411A1 FR 9308430 A FR9308430 A FR 9308430A FR 9308430 A FR9308430 A FR 9308430A FR 2694411 A1 FR2694411 A1 FR 2694411A1
Authority
FR
France
Prior art keywords
coordinate
terrain
information
image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9308430A
Other languages
English (en)
Other versions
FR2694411B1 (fr
Inventor
Yoshiyuki Katoh
Masatoshi Kameyama
Shigekichi Higo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of FR2694411A1 publication Critical patent/FR2694411A1/fr
Application granted granted Critical
Publication of FR2694411B1 publication Critical patent/FR2694411B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/20Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

En effectuant des opérations de rotation et de translation, une visualisation de radar convertit un signal de radar en des informations d'image de radar exprimées dans un système de coordonnées à trois dimensions avec des coordonnées horizontale, verticale et de profondeur relatives à un certain point de vue. Les informations de cible et de terrain sont converties dans le même système de coordonnées et combinées avec les informations d'image de radar, produisant une visualisation tridimensionnelle réaliste. Un découpage est réalisé dans la direction de la profondeur pour éliminer des parties de l'image de radar disposées derrière les images de cible ou de terrain. Les images de cible ou de terrain disposées derrière l'image de radar sont réduites en intensité mais pas supprimées. Une projection en perspective et des transformations de zoom peuvent également être effectuées.

Description

i
La présente invention concerne une visualisa-
tion de radar appropriée à l'utilisation dans un système
de contrôle de trafic aérien.
Les radars de contrôle de trafic aérien
utilisent généralement une visualisation du type indica-
teur panoramique (PPI), qui représente une vue plane
d'une zone circulaire avec l'antenne de radar au centre.
La position plane d'un avion est représentée sur la visualisation par un écho, souvent muni d'une étiquette constituée par une information alphanumérique générée par
ordinateur indiquant, par exemple, l'altitude de l'avion.
La visualisation peut également représenter la rétrodif-
fusion (désignée comme image de fond de radar ou fouillis radar) provenant du terrain, du temps, des oiseaux et
autres objets tels que motifs de piste.
Un désavantage de ce type de visualisation est que, étant donné que l'opérateur a seulement une vue plane en deux dimensions de la zone balayée par le radar,
il ou elle ne peut pas facilement distinguer des rela-
tions tridimensionnelles En particulier, même si
l'altitude peut être indiquée comme information asso-
ciée, il est difficile de voir les rapports d'altitudes entre différents avions d'un coup d'oeil, et presque impossible de visualiser les relations tridimensionnelles entre les avions, le terrain et l'image générale de fond
de radar.
Par conséquent, un but de la présente invention est de visualiser un signal de radar comme une image tridimensionnelle observée à partir d'un point
d 'observation particulier.
Un autre but de l 'invention est de représen-
ter des relations tridimensionnelles entre les avions,
et entre les avions et le terrain.
Un autre but de l'invention est aussi de représenter des relations de profondeur entre l'image générale de fond de radar d'une part et les avions et le
terrain d'autre part.
Un autre but de l'invention est encore de permettre aux avions et au terrain d'être distingués
facilement de l'image générale de fond de radar.
La présente invention traite un signal de radar pour obtenir des informations numériques comprenant des informations d'amplitude d'écho de radar et des informations de coordonnées polaires, les informations de coordonnées polaires comprenant un rayon, un angle d'élévation et un angle d'azimut Les informations de
coordonnées polaires sont alors converties en informa-
tions de coordonnées d' image de radar exprimées dans un système orthogonal de coordonnées à 'trois dimensions
ayant une coordonnée horizontale, une coordonnée verti-
cale et une coordonnée de profondeur Ce système de coordonnées orthogonal à trois dimensions représente la position par rapport à un certain point d'observation, pas nécessairement situé à l'antenne de radar Les informations d 'amplitude d' écho sont stockées comme informations d'image de radar dans un tampon d'image de
radar aux adresses correspondant à la coordonnée horizon-
tale et à la coordonnée verticale, et sont af fichées pour être visualisées sur une unité de visualisation aux
positions correspondant à ces adresses.
Pour visualiser des avions (désignés comme cibles) et le terrain, l'invention convertit ces informations dans le système précédent de coordonnées orthogonal à trois dimensions et stocke les informations d'image résultantes dans un tampon d'image de cible et de terrain aux adresses correspondant aux coordonnées horizontale et verticale, alors que les informations de coordonnée de profondeur sont stockées dans un tampon de coordonnées de profondeur Les informations de coordonnée de profondeur du terrain et de la cible stockées dans le tampon de coordonnées de profondeur sont comparées avec les informations de coordonnée de profondeur de l'image de radar, et les informations d'amplitude d'écho de radar ne sont pas stockées dans le tampon d'image de radar si leur coordonnée de profondeur dépasse la coordonnée de profondeur des informations de terrain et de cible à la même adresse Les informations d'image de terrain et de cible sont affichées et combinées par addition avec les informations d'image de radar stockées dans le tampon d'image de radar L'intensité de l'image de terrain et de cible est réduite proportionnellement à l'intensité de l'image de radar, de sorte que l'image de radar est visualisée de manière semi-transparente, permettant aux objets de terrain et de cible d'être vus même placés
derrière l'image de fond de radar.
La figure 1 est un schéma synoptique de la
visualisation de radar inventée.
La figure 2 représente un circuit pour effectuer une rotation et une translation des systèmes de coordonnées dans le générateur d'image de radar
tridimensionnelle de la figure 1.
La figure 3 est un schéma synoptique plus
détaillé du tampon d'image de radar de la figure 1.
La figure 4 est un schéma synoptique plus
détaillé du synthétiseur d'image vidéo de la figure 1.
La figure 5 représente le rapport entre
systèmes de coordonnées polaires et orthogonales.
La figure 6 représente comment des images sont combinées sur l'unité de visualisation de la figure La figure 7 représente un circuit pour
effectuer une projection en perspective et une transfor-
mation de zoom dans le générateur d'image de radar tridimensionnelle de la figure 1. L' invention va maintenant être décrite en référence aux dessins annexés Ces dessins sont destinés à donner un exemple de l'invention mais non à restreindre sa portée, qui doit être déterminée uniquement à partir
des revendications annexées.
En se référant à la figure 1, la visualisa-
tion de radar inventée fonctionne conjointement avec une antenne 1 et un récepteur 2, et comprend un circuit de traitement de signal de radar 8, un générateur d'image de radar tridimensionnelle 9, une unité automatique de
détection et de poursuite 10, un générateur d'informa-
tions de terrain 11, un générateur d'image tridimension-
nelle de terrain et de cible 12, une unité de traitement
centrale 13, un bus de données 14, un tampon de coordon-
nées de profondeur 15, un tampon d'image de radar 16, un tampon d'image de terrain et de cible 17, un synthétiseur
d'image vidéo 18 et une unité de visualisation 19.
L' antenne transmet des impulsions de radar et reçoit des échos réfléchis, que le récepteur 2 amplifie pour générer un signal de radar A partir de ce signal de radar, le circuit de traitement de signal de radar 8
génére des informations numériques comprenant des infor-
mations numériques d'amplitude d'écho et des informations de coordonnées polaires Les informations de coordonnées polaires comprennent une valeur de rayon (R), un angle d'azimut (A) et un angle d'élévation (E) La sortie du
circuit de traitement de signal de radar 8 indique l'am-
plitude des échos de radar à partir des points exprimés
dans ces coordonnées polaires.
Le générateur d' image de radar tridimension-
nelle 9 convertit les informations de coordonnées polaires délivrées par le circuit de traitement de signal de radar 8 en informations de coordonnées d'image de radar représentant la position par rapport à un certain point d'observation Les informations de coordonnées d'image de radar sont exprimées dans un système de coordonnées orthogonales à trois dimensions ayant une coordonnée horizontale (coordonnée en X), une coordonnée
verticale (coordonnée en Y) et une coordonnée de profon-
deur (coordonnée en Z) La sortie du générateur d'image de radar tridimensionnelle 9 indique l'amplitude des échos de radar à partir de points exprimés dans ce
système de coordonnées orthogonales à trois dimensions.
L' unité automatique de détection et poursuite 10 reçoit le signal de radar délivré par le récepteur 2 et extrait des informations sur les trajectoires d'objets
mobiles particuliers (cibles) Notamment, 1 'unité automa-
tique de détection et poursuite 10 identifie les avions
en mouvement et génère des informations de cible indi-
quant, par exemple, la position et la vitesse de chaque avion Le générateur d'informations de terrain 11 possède
une base de données dans laquelle sont stockées des in-
formations de position sur le terrain de l'arrière-plan
immobile Sous le contrôle de l'unité centrale de traite-
ment 13, l'unité automatique de détection et poursuite
et le générateur d'informations de terrain 11 transfè-
rent des informations de cible et de terrain au généra-
teur d'image tridimensionnelle de terrain et de cible 12
via le bus de données 14.
Le générateur d'image tridimensionnelle de terrain et de cible 12 convertit les informations de terrain et de cible reçues en provenance du générateur d'informations de terrain 11 et de l'unité automatique de détection et de poursuite 10 en informations de terrain et de cible tridimensionnelles exprimées en utilisant le système de coordonnées orthogonales (X-Y-Z) précité Les informations de cible provenant de l'unité
automatique de détection et de poursuite 10 sont conver-
ties, par exemple, en symboles an forme d'avion indiquant à la fois la position et la direction du vol La sortie du générateur d'image tridimensionnelle de terrain et de cible 12 comprend des valeurs d'image et des valeurs de coordonnée en Z pour des points spécifiés par leurs coordonnées en X et en Y Les valeurs d'image comprennent au moins des informations de luminance et peuvent également comprendre des informations de chrominance si
une visualisation en couleurs est utilisée.
Le tampon de coordonnée de profondeur 15 stocke temporairement les valeurs de coordonnée en Z délivrées par le générateur d'image tridimensionnelle de terrain et de cible 12, à des adresses déterminées par
les coordonnées en X et en Y correspondantes.
Le tampon d'image de radar 16 stocke des
informations d'amplitude d'écho délivrées par le généra-
teur d'image de radar tridimensionnelle 9 comme valeurs d'image, plus précisément comme valeurs de luminance, a des adresses déterminées par les coordonnées en X et en Y de l'écho Cependant, le tampon d'image de radar 16 ne stocke pas de valeurs d'image pour des échos dont les coordonnées en Z sont égales ou supérieures aux valeurs de coordonnées en Z correspondantes stockées dans le
tampon de coordonnée de profondeur 15.
Le tampon d'image de terrain et de cible 17 stocke les valeurs d'image de terrain et de cible délivrées par le générateur d'image tridimensionnelle de terrain et de cible 12 aux adresses déterminées par les coordonnées en X et en Y correspondantes Le synthétiseur d'image video 18 combine en les additionnant les valeurs d'image stockées dans le tampon d'image de radar 16 avec les valeurs d'image stockées dans le tampon d'image de terrain et de cible 17 pour générer une image vidéo qui est affichée sur une unité de visualisation 19, laquelle comprend, par exemple, un tube cathodique monochrome ou
en couleurs balayé par trames.
L'antenne 1, le récepteur 2, le circuit de traitement de signal radar 8, l'unité automatique de
détection et de poursuite 10, le générateur d'informa-
tions de terrain 11, l'unité centrale de traitement 13, le bus de données 14 et l'unité de visualisation 19 possèdent des structures bien connues qui ne seront pas décrites ici, pour éviter de rendre obscure 1 'invention avec des détails inutiles Des détails du générateur d'image de radar tridimensionnelle 9, du tampon d'image de radar 16 et du synthétiseur d'image vidéo 18 seront données ci- dessous Des détails du générateur d'image tridimensionnelle de terrain et de cible 12, du tampon de coordonnées de profondeur 15 et du tampon d'image de
terrain et de cible 17 seront omis car ils sont générale-
ment similaires aux détails du générateur d'image de radar tridimensionnelle 9 et du tampon d'image de radar
16 et apparaîtront évidents à l'homme de l'art.
En se référant à la figure 2, le générateur d'image de radar tridimensionnelle 9 comprend une ROM de cosinus 20, une ROM de sinus 21, une autre ROM de cosinus 22, une autre ROM de sinus 23, quatre multiplicateurs 24, , 26 et 27, un sélecteur de données 28, trois unités de multiplication-addition 29, 30 et 31, un fichier de registres 32, cinq registres à chevauchement 33 a à 33 e et quatre verrous 34 a à 34 d La ROM de cosinus 20 et la ROM de cosinus 22 sont des tables de référence identiques qui, lorsqu'elles reçoivent une valeur d'entrée comme adresse, génèrent des données de sortie donnant la valeur du cosinus La ROM de sinus 21 et la ROM de sinus 23 génèrent de la même manière le sinus de leur entrée (ROM
est une abréviation de mémoire morte) Les multiplica-
teurs, verrous et autres éléments à la figure 2 sont des
circuits numériques standards.
En se référant à la figure 3, le tampon d' image de radar 16 comprend un comparateur de profondeur 36, une mémoire d'image de radar 37, un contrôleur de mémoire 38 et un atténuateur 39 Le comparateur de profondeur 36 compare des valeurs de coordonnée en Z reçues en provenance du générateur d'image de radar tridimensionnelle 9 avec des valeurs de coordonnées en Z stockées dans le tampon de coordonnées de profondeur , et génére un signal d'activation si la coordonnée en Z reçue en provenance du générateur d' image de radar tridimensionnelle 9 est plus petite, ou si aucune coordonnée en Z n'est stockée à l'adresse correspondante dans le tampon de coordonnées de profondeur 15 Lorsqu'il est activé par ce signal d'activation, le contrôleur de mémoire 38 écrit les informations reçues en provenance du générateur d' image de radar tridimensionnelle 9 comme informations de luminance dans la mémoire d'image de radar tridimensionnelle 37, à une adresse déterminée par les coordonnées X et Y de l'écho Les informations stockées dans la mémoire d'image de radar 37 sont affichées dans un ordre d'adresse fixé pour générer des images de données d'image de radar appropriées à la
visualisation sur 1 'unité de visualisation 19 L'atténua-
teur 39 reçoit les informations d'image de radar déli-
vrées par la mémoire d'image de radar 37, atténue les valeurs d'image et écrit les valeurs d'image atténuées dans la mémoire d'image de radar 37 à la même adresse
avec un retard adéquat.
La mémoire d'image de radar 37 comprend, par exemple, un ou deux dispositifs de mémoire à double accès adaptés pour la lecture en série et l'écriture à accès aléatoire Les autres éléments de la figure 3 comprennent
des circuits numériques bien connus pour comparer, multi-
plier et écrire des données.
En se référant à la figure 4, le synthétiseur d'image vidéo 18 comprend une paire de registres 40 et 41, un registre d'adresses 42, une table de référence 43 et un convertisseur numérique/analogique 44 Le registre stocke des données d'image de huit bits V reçues en provenance du tampon d'image de radar 16 Le registre 41 stocke des données G d'image de terrain et de cible de
huit bits reçues en provenance du tampon d'image de ter-
rain et de cible 17 Le registre d'adresses 42 concatène les données de huit bits en provenance des registres 40 et 41 en une valeur de seize bits spécifiant une adresse dans la table de référence 43 La table de référence 43 délivre une donnée D de huit bits stockée à cette adresse
au convertisseur numérique/analogique 44 pour les conver-
tir en un signal analogique La table de référence 43 comprend un ou plusieurs dispositifs de mémoire stockant
des données qui vont être décrites plus loin.
Le fonctionnement de l'invention est expli-
qué ci-après.
L'antenne 1 transmet des impulsions de radar dans différentes directions en scrutant le ciel, par
exemple, dans un mouvement de balayage vertical ( "nod-
ding") En traitant les échos de retour, le récepteur 2 génére un signal de radar dont l'amplitude correspond à la force de l'écho Le signal de radar contient également des informations sur la direction, le rayon et
la vitesse de l'objet qui a produit l'écho: les informa-
tions de direction sont obtenues en mettant en corréla-
tion le signal de radar avec la direction de l'antenne, les informations de rayon en mesurant le temps de retard entre l'impulsion transmise et l'écho de retour, et les informations de vitesse en relevant le décalage de fréquence Doppler A partir des informations d' amplitude, de direction et de rayon contenues dans le signal de radar, le circuit de traitement de signal de radar 8 génére des informations numériques en donnant 1 'amplitude
des échos à partir des points exprimés dans des coordon-
nées polaires L'unité automatique de détection et de porsuite 10 analyse également des informations de vitesse pour identifier des cibles mobiles et délivre des
informations sur la position et la vitesse de ces cibles.
Des détails de ces opérations seront omises étant donné
qu'elles sont bien connues.
La figure 5 représente le système de coordon-
nées polaires utilisé par le circuit de traitement de signal de radar 8 par rapport à un système de coordonnées orthogonal avec l'origine à l'antenne de radar 1 Les trois axes du système de coordonnées orthogonal sont désignés par les lettres minuscules x, y et z, l'axe positif des x correspondant aux angles d'azimut (A) et d'élévation (E) de zéro, l'axe positif des y à un angle
d'azimut de quatre-vingt dix degrés et un angle d'éléva-
tion de zéro et l'axe positif des z à un angle d'azimut de quatre- vingt dix degrés et un angle d'élévation de zéro Les coordonnées en x, y et z sont par conséquent liées au rayon (R), à l'angle d'azimut (A) et à l'angle d'élévation (E) comme suit: x = R-cos E-cos A y = R-sin E z = R cos E sin A
Le générateur d'image de radar tridimension-
nelle 9 convertit le système de coordonnées R-E-A du circuit de traitement de signal de radar 8 dans le système de coordonnées x-y-z, puis effectue une autre transformation à partir du système de coordonnées x-y-z dans le système de coordonnées X-Y-Z qui représente la position par rapport à un point d'observation pas il nécessairement situé à l'antenne de radar 1 Cette transformation supplémentaire comprend une rotation et
une translation et peut également comprendre une projec-
tion en perspective et une transformation de zoom Pour le moment, seules la rotation et la translation seront décrites. Il est bien connu qu'une rotation et une translation peuvent être effectuées par une simple opération matricielle de la forme suivante: X m 1 m 2 m X 3 m 4 x y mil My 2 My 3 My 4 Y Z m 1 m 2 m 3 m 4 z Normalement ml et m Y 3 sont égaux à zéro et my 2 à l'unité, de sorte que l'axe des Y reste vertical par rapport au sol L'axe des X est l'axe horizontal et l'axe des Z est l'axe de profondeur Le système de coordonnées X-Y-Z représente ainsi le champ de vision d'un observateur regardant dans la direction de l'axe des Z positif, l'axe
des X positif s'étendant horizontalement vers sa droite.
En se référant de nouveau à la figure 2, le générateur d'image de radar tridimensionnelle 9 effectue
les transformations de coordonnées précitées comme suit.
A partir des angles d'élévation et d'azimut E et A, les ROM de cosinus et de sinus 20 à 23 génèrent cos E, sin E, cos A et sin A Ces valeurs et la valeur de rayon R sont
stockées dans les registres à chevauchement 33 a à 33 e.
Les multiplicateurs 24 à 27 multiplient ces valeurs pour
générer R cos E-cos A, R sin E et R cos E sin A, qui sont stoc-
kées dans les verrous 34 a à 34 c comme valeurs de x, y et z Des coefficients de matrice m,1 à m,4 sont stockés dans
le fichier de registres 32 et fournis dans un ordre ap-
proprié aux unités de multiplication et d'addition 29 à 31 Le sélecteur de données 28 alimente les unités de multiplication et d'addition 29 à 31 avec les valeurs de x, y et z et une valeur unitaire stockée dans le verrou 34 d dans un ordre correspondant de sorte que les unités de multiplication et d'addition 29 à 31 effectuent l'opé- ration matricielle précitée, générant ainsi les valeurs de coordonnées en X, Y et Z. L'unité centrale de traitement 13 à la figure 1 ordonne au générateur d'informations de terrain 11 de transférer des informations de terrain pour la zone vue par l'observateur précité dans le système de coordonnées X-Y-Z au générateur d'image tridimensionnelle de terrain et de cible 12 Le générateur d'image tridimensionnelle de terrain et de cible 12 convertit ces informations et les informations de cible reçues en provenance de l'unité
automatique de détection et de poursuite 10 dans le sys-
tème de coordonnées X-Y-Z De cette manière le générateur
d'image tridimensionnelle de terrain et de cible 12 gé-
nére des informations d'image de terrain et de cible par
rapport au point d'observation de l'observateur précité.
Pour améliorer de manière supplémentaire l'aspect tridimensionnel des informations de terrain et de cible, le générateur d'image tridimensionnelle de terrain et de
cible 12 peut ajouter des effets de couleur et d'ombres.
Le générateur d'image tridimensionnelle de terrain et de cible 12 stocke les valeurs d'image de terrain et de cible dans le tampon d'image de terrain et de cible 17 aux adresses correspondant à leurs coordonnées en X et en Y et les valeurs de coordonnées en Z dans le tampon
de coordonnées de profondeur 15 aux adresses correspon-
dant à leurs coordonnées en X et en Y. Lorsque des échos de radar sont reçus par l'antenne 1, le processus décrit à la figure 2 active le générateur d'image tridimensionnelle de radar 9 pour fournir l'amplitude d'écho et les coordonnées en X, Y et Z de l'écho au tampon d'image de radar 16 Le comparateur de profondeur 36 à la figure 3 compare les coordonnées en Z des échos de radar avec les coordonnées en Z
d'objets de cible et de terrain ayant les mêmes coordon-
nées en X et en Y Si la coordonnée en Z de l'écho de radar est plus petite, ou s'il n'y a aucun objet de terrain ou de cible aux mêmes coordonnées en X et en Y,
le comparateur de profondeur 36 envoit un signal d'acti-
vation au contrôleur de mémoire 38, ce qui entraîne le contrôleur de mémoire 38 à écrire la valeur d'amplitude d'écho dans la mémoire d'image de radar 37 à une adresse
correspondant aux coordonnées en X et en Y de l'écho.
La mémoire d'image de radar 37 stocke une image de radar représentant la rétrodiffusion provenant de tous les types d'image de fond de radar Cette image de radar exclut les échos provenant de cibles identifiées par l'unité automatique de détection et de poursuite 10 et du terrain connu par le générateur d'informations de terrain 11, qui possèdent des coordonnées en Z identiques aux coordonnées en Z dans le tampon de coordonnées de profondeur 15 Les échos provenant d'image de fond de radar disposée derrière des cibles et du terrain vus de l'origine du système de coordonnées X-Y-Z sont également
exclus car ils ont des coordonnées en Z plus grandes.
C'est-à-dire que l'image est découpée lorsque des cibles ou du terrain au premier plan sont présents Cette image est lue dans la mémoire d'images de radar 37 de manière
répétitive, à la cadence d'images de l'unité de visuali-
sation 19.
Etant donné que l'image affichée de la mémoire d'images de radar 37 est également atténuée par l'atténuateur 39 et réécrite à la même adresse, des échos de radar sont forcés de s'affaiblir à une certaine cadence sur la visualisation Ce taux d'affaiblissement est déterminé par le coefficient d'atténuation utilisé
par l'atténuateur 39 et la cadence à laquelle l'atténua-
tion est effectuée, ce qui peut être une fois par image ou une cadence plus lente Ces paramètres peuvent être réglés en fonction de la persistance désirée des échos visualisés. Le contrôleur de mémoire 38 peut être adapté de telle manière que lorsque de nouvelles informations sont écrites sur d'anciennes informations à la même adresse, les nouvelles informations remplacent les anciennes informations sans condition, ou les nouvelles informations remplacent les anciennes informations seulement si les nouvelles informations dépassent les anciennes, ou que les nouvelles informations sont combinées par une opération arithmétique avec les anciennes Ces modes de mise à jour peuvent être utilisés
de manière sélective pour empêcher la perte d'informa-
tions près du centre du système de coordonnées polaires,
o les échos ont tendance à être les plus nombreux.
Le même type d'élimination qui est effectuée dans le tampon d'images de radar 16 est également effectuée dans le tampon d'image de terrain et de cible 17, de sorte que lorsque des objets de terrain et de cible se recouvrent, le tampon d'image 17 stocke les données d'image pour l'objet ayant la coordonnée en Z la
plus petite Le signal d'activation qui commande l'élimi-
nation dans le tampon d'image de terrain et de cible 17 commande aussi le stockage des coordonnées en Z dans le tampon de coordonnées de profondeur 15, de sorte que le tampon de coordonnées de profondeur 15 contient toujours la coordonnée en Z de l'objet de terrain et de cible le plus proche à une adresse X-Y donnée L'image de terrain et de cible stockée le tampon d'image de terrain et de cible 17 est affichée à la cadence d'images de l'unité
de visualisation 19.
L' image de radar affichée provenant du tampon d'image de radar 16 est combinée avec l'image de terrain et de cible affichée provenant du tampon d image de
terrain et de cible 17 comme représenté à la figure 4.
La valeur V de luminance d'image de radar de huit bits à des coordonnées en X et en Y données est combinée avec la valeur G de luminance de terrain et de cible aux mêmes coordonnées en X et en Y pour obtenir une adresse de seize bits, et la valeur D de huit bits stockée à cette adresse dans la table de référence 43 est fournie au convertisseur numérique/analogique 44 S'agissant de quantités de huit bits, D, G et V prennent des valeurs jusqu'à 28 Soit v = V/28, g = G/28, et d = D/28, de sorte que d, g et v prennent des valeurs comprises entre zéro et l'unité Les valeurs de D stokées dans la table de référence 43 sont liées aux valeurs de V et de G de sorte que la relation suivante est valable: d = v + ( 1 v)g
C'est-à-dire que l'image de terrain et de cible est ajou-
tée à l'image de radar, mais que l'intensité de l'image de terrain et de cible est diminuée proportionnellement
à l'intensité de l'image de radar.
Par conséquent, l'image de radar semble être semi-trans-
parente Des objets de terrain et de cible disposés der-
rière l'image générale de fond de radar ne sont pas mas-
qués mais peuvent être vus à travers l'image de fond de radar à un degré plus ou moins important, en fonction de
l'intensité de l'image de fond de radar.
Les valeurs stockées dans la table de référence 43 n'ont pas besoin de se conformer exactement à la formule donnée ci-dessus Par exemple, elles peuvent
être modifiées pour incorporer une correction de gamma. Dans tous les cas, le calcul complet étant préstocké dans la table de
référence 43, des valeurs de D peuvent être
obtenues et fournies au convertisseur numérique/analogi-
que 44 à la même cadence que la cadence à laquelle les valeurs de V et G sont entrées La sortie de signal
analogique délivrée par le convertisseur numérique/analo-
S gique 44 peut être fournie directement à l'unité de visualisation 19 comme signal vidéo pour commander
l'intensité de l'image visualisée.
Les positions sur l'écran de l'unité de visualisation 19 correspondent aux adresses dans le tampon d'image de radar 16 et le tampon d'image de terrain et de cible 17, donc aux coordonnées en X et en Y des images de terrain, de cible et de radar Si l'origine du système de coordonnées X-Y-Z est sur le sol et que l'axe des Y est vertical par rapport au sol, l'unité de visualisation 19 représente la vue d'un
observateur se trouvant au sol.
La figure 6 représente la manière avec laquelle une image de radar 45 est combinée avec une image de terrain et de cible 46 par la table de référence 43 pour produire une image combinée 47 sur l'unité de visualisation 19 L'antenne de radar est disposée entre des montagnes situées à une certaine distance du point d'observation de l'opérateur Dans l'image de radar 45, la lettre S indique l'image de rétrodiffusion formée par l'image de fond de radar, et le cercle C indique la portée de radar maximale (la distance à partir de 1 ' antenne au-delà de laquelle aucun écho ne peut être détecté) Dans l'image de terrain et de cible 46, la lettre F indique une cible identifiée par l'unité automatique de détection et de poursuite 10 et M indique le terrain Dans l'image combinée 47, l'image de radar S' et le cercle C' sont découpés lorsqu'ils sont disposés derrière des objets de terrain et de cible, mais la cible F et le terrain M restent visibles même lorsqu'ils sont
disposés derrière l'image de radar.
Par opposition à l'indicateur panoramique classique, la visualisation à la figure 6 donne à l'opérateur une compréhension immédiate des relations tridimensionnelles entre les cibles, le terrain et l'image de fond de radar En particulier les rapports d'altitude peuvent être vus en un coup d'oeil Les relations de premier plan arrière plan sont également indiquées par le découpage et l'aspect semi-transparent de l'image de radar L'aspect réaliste, tridimensionnel de la visualisation aide par ailleurs l'opérateur à faire la distinction entre les cibles, le terrain et l'image
de fond de radar.
Le réalisme de la visualisation peut être perfectionné de manière supplémentaire en faisant
effectuer par le générateur d'image de radar tridimen-
sionnelle 9 (et par le générateur d'image de terrain et de cible tridimensionnelle 12) une transformation de projection en perspective ainsi qu'une rotation et une translation pour faire apparaître les objets proches plus
gros et les objets éloignés plus petits Une transforma-
tion de projection en perspective est effectuée en divisant les coordonnées horizontale et verticale par la
coordonnée de profondeur.
De plus, il est possible de faire un zoom d'une partie désirée de la visualisation en effectuant une translation pour centrer cette partie dans les directions horizontale et verticale, puis de multiplier les coordonnées horizontale et verticale translatées par des facteurs appropriés Si la translation horizontale est donnée par A et la translation verticale par B et les facteurs de zoom sont "a" et "b" alors la projection en perspective et la transformation de zoom peuvent être
décrites comme suit.
XI = X/Z + A
Y' = Y/Z + B
X''= a X' Y''= b Y' La figure 7 représente un circuit pour exécuter ces tranformations, comprenant des verrous 5 ia à 51 c, une ROM d'inverses 52, un fichier de registres 53 qui stocke les valeurs de A et B, des sélecteurs de données 54 a à 54 d, des unités de multiplication-addition 55 et 56, un fichier de registres 57 qui stocke les
valeurs de "a" et "b" et des multiplicateurs 58 et 59.
Les valeurs de X, Y et Z sont stockées dans les verrous 51 a à 51 c La valeur de Z est fournie à la ROM d'inverses 52, entraînant celle-ci à délivrer l'inverse de Z Les sélecteurs de données 54 a à 54 d fournissent les valeurs de X et Y, l'inverse de Z, les valeurs de A et B, et des valeurs unitaires aux unités de multiplication-addition et 56 dans l'ordre approprié, de sorte que les unités de multiplication- addition 55 et 56 peuvent calculer X' et Y' par les formules précitées Les multiplicateurs 58 et 59 multiplient alors X' et Y' par "a" et "b" pour
obtenir XI' et Y''.
Lorsque le circuit de la figure 7 est utilisé dans le générateur d'image de radar tridimensionnelle 9, le côté gauche de la figure 7 s'associe au côté droit de la figure 2 et les valeurs de coordonnées X'' et Y'' sont fournies au tampon d'image de radar 16 à la place de X et Y Une modification similaire est faite sur le
générateur d'image de terrain et de cible tridimension-
nelle 12 Les autres éléments de la figure 1 continuent
à fonctionner comme décrit ci-dessus.
Les valeurs de translation A et B et les facteurs de zoom "a" et "b" peuvent être modifiées sous la commande de l'opérateur qui peut ainsi faire un zoom précis sur certains objets à volonté De préférence, les
coefficients de matrice m,1 à m 14 décrivant les transla-
tion et rotation d'origine sont aussi variables sous la commande de l'opérateur, permettant à 1 'opérateur de décaler des points de vue et d'observer la même scène à partir d'angles différents, obtenant ainsi d'autres informations tridimensionnelles Dans ce cas, l'axe des
Y, bien que toujours vertical sur l'unité de visualisa-
tion 19, ne reste pas nécessairement vertical par rapport au sol; le point d'observation de l'opérateur peut être changé de manière à regarder vers le haut avec un certain angle, par exemple, ou de regarder vers le bas d'en haut Ces modifications peuvent être exécutées en utilisant l'unité centrale de traitement 13 à la figure 1. Les circuits des figures 2, 3 4 et 7 peuvent
être réalisés en utilisant des circuits intégrés numéri-
ques standards, ou comme faisant partie d'un ou plusieurs circuits intégrés spécifiques De plus, les circuits des
figures 2, 3, 4 et 7 peuvent tous être réalisés en utili-
sant un logiciel s'exécutant sur un circuit de traitement approprié, tel qu'un circuit de traitement de signal numérique, pour effectuer les opérations nécessaires de multiplication, addition, comparaison et sélection de données.
Ceci termine la description détaillée de
l'invention mais quelques autres variantes seront
mentionnées ci-desssous.
L'unité automatique de détection et de
poursuite 10 a été décrite comme générant des informa-
tions de position et de vitesse de cible, mais des informations de trajectoire de vol peuvent aussi être générées, et des trajectoires de vol peuvent être affichées sur la visualisation 19 L'unité automatique de détection et de poursuite 10 peut fonctionner en relevant les changements de position ainsi que le
décalage de fréquence Doppler.
Les transformations de rotation, translation, projection en perspective et de zoom décrites plus haut peuvent également être utilisées dans un système de radar qui n'identifie pas précisément le terrain et les cibles, mais visualise simplement l'image de radar générée à
partir du signal de radar Dans ce cas la sortie du tam-
* pon d'image de radar 16 à la figure 1 n'est pas nécessai-
rement combinée avec d'autres informations d'image mais peut être fournie directement à l'unité de visualisation 19.
Le générateur d'image de radar tridimension-
nelle 9, le tampon d'image de radar 16 et le synthétiseur d'image vidéo 18 n'ont pas besoin d'être configurés exactement comme représenté aux figures 2, 3, 4 et 7; les mêmes fonctions peuvent être réalisées avec d' autres configurations de circuit L'invention n'est pas limitée bien sûr aux données de huit bits comme représenté à la
figure 4; tout nombre de bits adéquat peut être utilisé.
Ceux qui sont expérimentés dans l'art remarqueront
d'autres modifications diverses qui peuvent être appor-
tées sans s'écarter de la portée de l'invention telle
qu'elle est spécifiée dans les revendications suivantes.

Claims (16)

REVENDICATIONS
1 Procédé de génération d'une image de radar provenant d'un signal de radar, caractérisé en ce qu'il comprend les étapes de: (a) conversion du signal de radar en des informations numériques comprenant des informations d'amplitude d'écho et des informations de coordonnées polaires, lesdites informations de coordonnées polaires comprenant un rayon (R), un angle d'élévation (E) et un angle d'azimut (A); (b) conversion desdites informations de coordonnées polaires en informations de coordonnées d' image de radar exprimées dans un système de coordonnées orthogonales à trois dimensions ayant une coordonnée horizontale, une coordonnée verticale et une coordonnée de profondeur, ledit système de coordonnées orthogonales à trois dimensions représentant la position relative à un certain point d'observation; (c)stockage desdites informations d'amplitude d' écho comme valeurs d' image de radar dans un tampon d'image de radar ( 16) aux adresses correspondant à ladite coordonnée horizontale et à ladite coordonnée verticale; et (d) visualisation desdites valeurs d'image de
radar comme intensités d'image sur une unité de visuali-
sation ( 19) aux positions correspondant auxdites adres-
ses.
2 Procédé suivant la revendication 1, caracté-
risé en ce que l'étape (b) comprend l'étape supplémen-
taire de: (bl) conversion desdites informations de coordonnées polaires en un système de coordonnées orthogonales; (b 2) exécution d'une rotation; et
(b 3) exécution d'une translation.
3 Procédé suivant la revendication 2,caracté-
risé en ce que ladite rotation et ladite translation sont
effectuées par une opération matricielle.
4 Procédé suivant la revendication 1, caracté-
risé en ce que ladite étape (b) comprend l'étape supplé-
mentaire d'exécution d'une projection en perspective.
Procédé suivant la revendication 4, caracté- risé en ce que la projection en perspective est effectuée en divisant ladite coordonnée horizontale et ladite
coordonnée verticale par ladite coordonnée de profondeur.
6 Procédé suivant la revendication 1, caracté-
risé en ce que ladite étape (b) comprend l'étape supplé-
mentaire d'exécution d'une transformation de zoom.
7 Procédé suivant la revendication 6, caracté-
risé en ce que ladite transformation de zoom est effec-
tuée en ajoutant des constantes à ladite coordonnée horizontale et à ladite coordonnée verticale et en
multipliant les sommes résultantes par d'autres constan-
tes.
8 Procédé suivant la revendication 1, caracté-
risé en ce qu'il comprend les étapes supplémentaires de: (e) extraction, à parir dudit signal de radar, des informations de cible indiquant les positions d'un avion en mouvement; (f) génération, à partir d'informations déjà stockées, des informations du terrain indiquant les positions d'objets immobiles; (g) conversion desdites informations de cible et desdites informations de terrain en informations de cible et de terrain tridimensionnelles comprenant des
valeurs d'image de cible et de terrain et des informa-
tions de coordonnées de cible et de terrain, lesdites informations de coordonnées de cible et de terrain étant exprimées dans un système de coordonnées orthogonales à trois dimensions; (h) stockage desdites valeurs d'image de cible et de terrain dans un tampon d'image ( 17) à des adresses correspondant aux coordonnées horizontale et verticale dans lesdites informations de coordonnées de cible et de terrain; et (i) combinaison desdites valeurs d'image de radar avec lesdites valeurs d'image de cible et de
terrain pour les visualiser sur ledit écran de visualisa-
tion.
9 Procédé suivant la revendication 8, caracté-
risé en ce qu'une table de référence est utilisée pour
exécuter ladite étape (i).
10 Procédé suivant la revendication 8, caracté-
risé en ce que ladite étape (i) comprend les étapes supplémentaires de: (il) réduction desdites valeurs d'image de cible et de terrain proportionnellement auxdites valeurs d'image de radar; et addition desdites valeurs d'image de cible et
de terrain auxdites valeurs d'image de radar.
11 Procédé suivant la revendication 8, caracté-
risé en ce qu'il comprend les étapes supplémentaires de: (j) stockage des valeurs de coordonnée de profondeur à partir des informations de coordonnées de cible et de terrain dans un tampon de coordonnées de profondeur ( 15); (k) comparaison des valeurs de coordonnée de profondeur desdites informations de coordonnées d'image de radar avec les valeurs de coordonnée de profondeur desdites informations de coordonnées de cible et de terrain stockées dans ledit tampon de coordonnée de profondeur ( 15); et ( 1) élimination des valeurs d'image de radar ayant des coordonnées de profondeur égales ou supérieures aux coordonnées de profondeur des informations de cible et de terrain, en ne stockant pas de telles valeurs d'images de radar dans ledit tampon d'image de radar
( 16).
12 Dispositif de visualisation de radar pour générer une image de radar tridimensionnelle à partir d'un signal de radar, caractérisé en ce qu'il comprend: un circuit de traitement de signal de radar ( 8) pour convertir ledit signal de radar en informations numériques comprenant des informations d'amplitude d'écho et des informations de coordonnées polaires, lesdites informations de coordonnées polaires comprenant un rayon (R), un angle d'élévation (E) et un angle d'azimut (A);
un générateur d' image de radar tridimension-
nelle ( 9) couplé audit circuit de traitement de signal
d'image de radar ( 8), pour convertir lesdites informa-
tions de coordonnées polaires en informations de coordon-
nées d'image de radar exprimées dans un système de coordonnées à trois dimensions ayant une coordonnée horizontale, une coordonnée verticale et une coordonnée de profondeur, ledit système de coordonnées à trois dimensions représentant la position telle qu'elle est observée d'un certain point d'observation; un tampon d'image de radar ( 16) couplé audit générateur d'image de radar tridimensionnelle ( 9), pour stocker lesdites informations d'amplitude d'écho comme valeurs d'image de radar aux adresses correspondant à ladite coordonnée horizontale et à ladite coordonnée verticale; et une unité de visualisation ( 19) couplée audit tampon de cadre d'image ( 16), pour visualiser lesdites valeurs d'image de radar comme intensités d'image aux
positions correspondant auxdites adresses.
13 Dispositif suivant la revendication 12,
caractérisé en ce que le générateur d'image de radar tri-
dimensionnelle ( 9) comprend: une ROM de cosinus ( 20) pour générer un cosinus dudit angle d'élévation; une ROM de sinus ( 21) pour générer un sinus dudit angle d'élévation; une ROM de cosinus ( 22) pour générer un cosinus dudit angle d'azimut; une ROM de sinus ( 23) pour générer un sinus dudit angle d'azimut; un premier multiplicateur ( 24) couplé pour multiplier le cosinus dudit angle d'élévation par ledit rayon, générant ainsi un premier produit; un deuxième multiplicateur ( 25) couplé pour multiplier le cosinus dudit angle d'azimut par ledit premier produit, générant ainsi une coordonnée en x; un troisième multiplicateur ( 26) couplé pour multiplier le sinus dudit angle d'élévation par ledit rayon, générant ainsi une coordonnée en y; un quatrième multiplicateur ( 27) couplé pour multiplier le sinus dudit angle d'azimut par ledit produit, générant ainsi une coordonnée en z; un fichier de registres ( 32) pour stocker des coefficients de matrice différents; et une pluralité d'unités d'addition et de multiplication ( 29, 30, 31) couplées pour multiplier ladite coordonnée en x, ladite coordonnée en y, ladite coordonnée en z, et une valeur d'unité par lesdits coefficients de matrice et ajouter les produits ainsi obtenus, en convertissant de cette manière ladite
coordonnée en x, ladite coordonnée en y, ladite coordon-
née en z en une coordonnée en X, une coordonnée en Y et une coordonnée en Z liées à ladite ladite coordonnée en x, ladite coordonnée en y, et ladite coordonnée en z par
une rotation et une translation.
14 Dispositif suivant la revendication 13, caractérisé en ce que ledit générateur d'image de radar tridimensionnelle ( 9) comprend également: une ROM d'inverses ( 52) pour générer un inverse de ladite coordonnée en Z; une paire de fichiers de registres ( 53, 57) pour stocker une première paire de constantes (A et B) et une deuxième paire de constantes (a et b); une paire d'unités de multiplication et d'addition ( 55, 56) pour multiplier ladite coordonnée en X et ladite coordonnée en Y par l'inverse de ladite coordonnée en Z et ajouter ladite première paire de constantes aux produits ainsi obtenus, générant de cette manière une coordonnée en X' et une coordonnée en Y' liée à ladite coordonnée en X et ladite coordonnée en Y par une projection en perspective et une translation; et une paire de multiplicateurs pour multiplier ladite coordonnée en X' et ladite coordonnée en Y' par ladite deuxième paire de constantes, réalisant ainsi une
transformation de zoom.
Dispositif suivant la revendication 12, caractérisé en ce qu'il comprend en outre: une unité de poursuite et de détection automatique ( 10) pour extraire, à partir dudit signal de radar, des informations de cible indiquant les positions d'un avion en mouvement; un générateur d'informations de terrain ( 11) pour générer, à partir d'informations déjà stockées, des informations de terrain indiquant les positions des objets immobiles; un générateur d'image de cible et de terrain tridimensionnelle ( 12) couplé à ladite unité de poursuite et de détection automatique ( 10) et audit générateur d'informations de terrain ( 11), pour convertir lesdites informations de cible et lesdites informations de terrain en informations de cible et de terrain tridimensionnelles comprenant des valeurs d'image de terrain et de cible et des informations de coordonnées de terrain et de cible, lesdites informations de coordonnée de cible et de terrain étant exprimées dans ledit système de coordonnées à trois dimensions; un tampon d'image de cible et de terrain ( 17) couplé audit générateur d'image de cible et de terrain tridimensionnelle ( 12), pour stocker lesdites valeurs d'image de cible et de terrain aux adresses correspondant à la coordonnée horizontale et à la coordonnée verticale dans lesdites informations de coordonnées de cible et de terrain; et un synthétiseur d'image vidéo ( 18) couplé audit tampon d'image de radar ( 16) et audit tampon d'image de cible et de terrain ( 17), pour combiner lesdites valeurs d'image de radar avec lesdites valeurs d'image de cible et de terrain pour les visualiser sur
ladite unité de visualisation ( 19).
16 Dispositif suivant la revendication 15, caractérisé en ce que ledit synthétiseur d'image vidéo ( 18) comprend: un registre d'adresses ( 42) pour concaténer une valeur d'image de radar reçue en provenance dudit tampon d'image de radar ( 18) avec une valeur d'image de cible et de terrain reçue en provenance dudit buffer de cadre d'image de cible et de terrain ( 17) pour générer une valeur d'adresse; une table de référence ( 43) couplée pour recevoir ladite valeur d'adresse provenant dudit registre d'adresses ( 42) et délivrer une valeur de donnée; et un convertisseur numérique-analogique ( 44) pour convertir ladite valeur de donnée en une valeur
analogique.
17 Dispositif suivant la revendication 15, caractérisé en ce qu'il comprend en outre un tampon de coordonnée de profondeur ( 15) pour stocker des valeurs de coordonnée de profondeur provenant des informations de coordonnées de cible et de terrain, dans lequel: des valeurs de coordonnée de profondeur desdites informations de coordonnée d'image de radar sont comparées avec les valeurs de coordonnée de profondeur desdites information de coordonnée de cible et de terrain stockées dans ledit tampon de coordonnées de profondeur ( 15), et ledit tampon d'image de radar ( 16) stocke uniquement des valeurs d'image de radar ayant des valeurs de coordonnée de profondeur non égales ou supérieures aux valeurs de coordonnée de profondeur correspondantes dans lesdites informations de coordonnées de cible et de terrain.
18 Dispositif suivant la revendication 17, caractérisé en ce que ledit tampon d'image ( 16) comprend: un comparateur de profondeur ( 36) pour comparer une coordonnée de profondeur reçue en provenance dudit générateur d'image de radar tridimensionnelle ( 9) avec une coordonnée de profondeur stockée dans ledit tampon de coordonnées de profondeur ( 15) et générer un signal d'activation lorsque la coordonnée reçue en
provenance dudit générateur d'image de radar tridimen-
sionnelle ( 9) est la plus petite des deux; une mémoire d'image de radar ( 37) pour stocker des valeurs d'image de radar; un contrôleur de mémoire ( 38) couplé pour écrire des amplitudes d'écho reçues en provenance dudit générateur d'image de radar tridimensionnelle ( 9) comme valeurs d'image dans ladite mémoire d'image de radar ( 37) lorsqu'elle est activée par ledit signal d'activation; et un atténuateur ( 39) pour atténuer des valeurs d'image de radar délivrées par ladite mémoire d'image de radar ( 37) pour générer des valeurs d'image de radar atténuées, et réécrire lesdites valeurs d'image de radar
atténuées dans ladite mémoire d'image de radar ( 37).
FR9308430A 1992-07-14 1993-07-08 Dispositif de visualisation tri-dimensionnelle pour radar. Expired - Fee Related FR2694411B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4208576A JP2836684B2 (ja) 1992-07-14 1992-07-14 レーダ信号表示装置

Publications (2)

Publication Number Publication Date
FR2694411A1 true FR2694411A1 (fr) 1994-02-04
FR2694411B1 FR2694411B1 (fr) 1995-09-15

Family

ID=16558476

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9308430A Expired - Fee Related FR2694411B1 (fr) 1992-07-14 1993-07-08 Dispositif de visualisation tri-dimensionnelle pour radar.

Country Status (3)

Country Link
US (1) US5339085A (fr)
JP (1) JP2836684B2 (fr)
FR (1) FR2694411B1 (fr)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000065917A (ja) 1998-06-11 2000-03-03 Japan Radio Co Ltd 三次元的表示レーダ
US5583972A (en) * 1993-08-02 1996-12-10 Miller; Richard L. 3-D weather display and weathercast system
JPH08110380A (ja) * 1994-10-11 1996-04-30 Nec Corp 飛行軌跡3次元表示システム
US5828332A (en) * 1996-03-11 1998-10-27 Imaging Accessories, Inc. Automatic horizontal and vertical scanning radar with terrain display
US5781146A (en) * 1996-03-11 1998-07-14 Imaging Accessories, Inc. Automatic horizontal and vertical scanning radar with terrain display
JP2907105B2 (ja) * 1996-03-27 1999-06-21 日本電気株式会社 3次元表示装置
DE19614798A1 (de) * 1996-04-15 1997-10-16 Hannig Lutz Dipl Meteor Geopgraphische Multistatische 3D-Messplattform
WO1998026306A1 (fr) * 1996-12-09 1998-06-18 Miller Richard L Systeme d'affichage 3d et de prevision meteorologique
US6266063B1 (en) 1997-10-20 2001-07-24 Baron Services, Inc. Real-time three-dimensional weather display method and weathercast system
US6683609B1 (en) 1997-10-20 2004-01-27 Baron Services, Inc. Real-time three-dimensional weather data processing method and system
US6212132B1 (en) 1998-08-04 2001-04-03 Japan Radio Co., Ltd. Three-dimensional radar apparatus and method for displaying three-dimensional radar image
US6163756A (en) 1998-10-20 2000-12-19 Baron Services, Inc. System and method for detecting and displaying wind shear
US20020149599A1 (en) * 2001-04-12 2002-10-17 Honeywell International Inc. Methods and apparatus for displaying multiple data categories
US6670908B2 (en) 2001-07-31 2003-12-30 Baron Services, Inc. Automated system and method for processing meteorological data
US6829536B2 (en) * 2001-09-12 2004-12-07 Weather Central, Inc. System and method for processing weather information
JP3579685B2 (ja) * 2001-10-24 2004-10-20 独立行政法人電子航法研究所 航空管制用表示装置における航空機位置表示方法
US6992596B2 (en) * 2002-04-04 2006-01-31 Megadata Simplified flight track display system
IL154396A0 (fr) * 2002-12-29 2009-02-11 Haim Niv
US7268703B1 (en) 2003-09-18 2007-09-11 Garmin Ltd. Methods, systems, and devices for cartographic alerts
US7386392B1 (en) 2003-09-18 2008-06-10 Garmin Ltd. Methods, systems, and devices for condition specific alerts
JP4529633B2 (ja) * 2004-10-19 2010-08-25 日本電気株式会社 ビデオ合成装置及び方法
US7375678B2 (en) * 2005-06-29 2008-05-20 Honeywell International, Inc. Displaying obstacles in perspective view
IL174737A (en) * 2006-04-03 2014-12-31 Camero Tech Ltd Device and method for visualizing volume in broadband radar
JP5159056B2 (ja) * 2006-07-18 2013-03-06 古野電気株式会社 レーダ装置および類似装置
US8542872B2 (en) * 2007-07-03 2013-09-24 Pivotal Vision, Llc Motion-validating remote monitoring system
US8232910B1 (en) * 2007-08-31 2012-07-31 Rockwell Collins, Inc. RTAWS active tower hazard detection system
US7733264B1 (en) * 2007-09-27 2010-06-08 Rockwell Collins, Inc. System and method for generating weather radar information
US7917289B2 (en) * 2007-10-30 2011-03-29 Honeywell International Inc. Perspective view primary flight display system and method with range lines
US7953524B1 (en) * 2008-02-29 2011-05-31 Rockwell Collins, Inc. Navigation through reception of a remote position fix via data link
JP4661907B2 (ja) * 2008-05-30 2011-03-30 ソニー株式会社 情報処理システム、情報処理装置及び情報処理方法、並びにプログラム
CN101650419B (zh) * 2008-08-12 2011-12-07 研祥智能科技股份有限公司 雷达图像自适应液晶显示控制方法
JP5627178B2 (ja) * 2008-12-18 2014-11-19 三菱電機株式会社 状況表示装置
US8314816B2 (en) * 2009-06-08 2012-11-20 Honeywell International Inc. System and method for displaying information on a display element
JP5390307B2 (ja) * 2009-09-07 2014-01-15 日本無線株式会社 レーダ画像処理装置および気象レーダ装置
JP2013124911A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 目標表示装置および目標表示プログラム
JP2013190398A (ja) * 2012-03-15 2013-09-26 Toshiba Corp レーダ表示処理装置、レーダ表示処理方法及びレーダ表示装置
EP2894600B1 (fr) * 2014-01-14 2018-03-14 HENSOLDT Sensors GmbH Procédé de traitement de données de capteur 3D afin de fournir une segmentation de terrain
US10473781B2 (en) 2016-09-14 2019-11-12 Garmin Switzerland Gmbh Determining a boundary enclosing a region of interest for a body of water
US11348468B1 (en) 2019-03-15 2022-05-31 Rockwell Collins, Inc. Systems and methods for inhibition of terrain awareness and warning system alerts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3210694A1 (de) * 1982-03-24 1983-10-06 Siemens Ag Flugueberwachungseinrichtung
JPS5913965A (ja) * 1982-07-15 1984-01-24 Mitsubishi Electric Corp 表示装置
JPH0368886A (ja) * 1989-08-07 1991-03-25 Mitsubishi Electric Corp レーダ走査変換装置
GB2242331A (en) * 1990-03-19 1991-09-25 Japan Radio Co Ltd Three-dimensional display radar
WO1992010880A1 (fr) * 1990-12-14 1992-06-25 Hutson William H Traitement et affichage de donnees multidimensionnels

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3210694A1 (de) * 1982-03-24 1983-10-06 Siemens Ag Flugueberwachungseinrichtung
JPS5913965A (ja) * 1982-07-15 1984-01-24 Mitsubishi Electric Corp 表示装置
JPH0368886A (ja) * 1989-08-07 1991-03-25 Mitsubishi Electric Corp レーダ走査変換装置
GB2242331A (en) * 1990-03-19 1991-09-25 Japan Radio Co Ltd Three-dimensional display radar
WO1992010880A1 (fr) * 1990-12-14 1992-06-25 Hutson William H Traitement et affichage de donnees multidimensionnels

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN vol. 15, no. 230 (P - 1214) 12 June 1991 (1991-06-12) *
PATENT ABSTRACTS OF JAPAN vol. 8, no. 101 (P - 273) 12 May 1984 (1984-05-12) *

Also Published As

Publication number Publication date
JP2836684B2 (ja) 1998-12-14
JPH0634748A (ja) 1994-02-10
US5339085A (en) 1994-08-16
FR2694411B1 (fr) 1995-09-15

Similar Documents

Publication Publication Date Title
FR2694411A1 (fr) Dispositif de visualisation tri-dimensionnelle pour radar.
EP2950530A1 (fr) Dispositif d'affichage d'environnement marin
US20080074494A1 (en) Video Surveillance System Providing Tracking of a Moving Object in a Geospatial Model and Related Methods
US8064640B2 (en) Method and apparatus for generating a precision fires image using a handheld device for image based coordinate determination
KR20160115958A (ko) 마이크로파워 임펄스 레이더를 사용한 모바일 디스플레이 포지션 및 배향의 판정 기법
CN113366341B (zh) 点云数据的处理方法、装置、存储介质及激光雷达系统
US7626537B2 (en) Radar display system and method
SG189284A1 (en) Rapid 3d modeling
SE431488B (sv) Korrelationsfoljningsanordning
EP0233095B1 (fr) Transformateur numérique d'images pour homogénéisation d'une image issue d'une conversion de coordonnées.
WO2019229301A1 (fr) Solution pour générer une représentation de réalité virtuelle
US5430806A (en) System for changing perspective of 3-D images obtained from reflected energy signals
EP2015277A2 (fr) Systèmes et procédés pour l'entraînement et la simulation de radar d'angle latéral
US11175399B2 (en) Information processing device, information processing method, and storage medium
CN109883414B (zh) 一种车辆导航方法、装置、电子设备及存储介质
US5357258A (en) Arrangement for converting a plan position indicator radar display to a scaled perspective display
WO2016005535A2 (fr) Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles
Auchère et al. Festival: A multiscale visualization tool for solar imaging data
CA2605562C (fr) Transformation de coordonnees pour presentation dans des systemes d'affichage
CN109716395A (zh) 在虚拟现实中保持对象稳定性
CN110658495B (zh) 一种位置检测方法及装置
JPH01182783A (ja) 気象用レーダのデータ合成装置
Lacković et al. Radar Workstation Simulator-Indispensable Part of the Digital Simulator of Radar Targets and Clutter
Stefko et al. Real-Time Simulation of Synthetic Aperture Radar for Educational Augmented-Reality Applications
EP3997480A1 (fr) Procede de representation en trois dimensions de la couverture spatiale d'un ou plusieurs systemes de detection

Legal Events

Date Code Title Description
D6 Patent endorsed licences of rights
ST Notification of lapse

Effective date: 20080331